算法缩写

简介

RBF

RBF神经网络即径向基函数神经网络(Radical Basis Function)。径向基函数神经网络是一种高效的前馈式神经网络,它具有其他前向网络所不具有的最佳逼近性能和全局最优特性,结构简单,训练速度快。

BP

BP(back propagation)神经网络是一种按照误差逆向传播算法训练的多层前馈神经网络 [9] 。基本BP算法包括信号的前向传播和误差的反向传播两个过程。即计算误差输出时按从输入到输出的方向进行,而调整权值和阈值则从输出到输入的方向进行。正向传播时,输入信号通过隐含层作用于输出节点,经过非线性变换,产生输出信号,若实际输出与期望输出不相符,则转入误差的反向传播过程。误差反传是将输出误差通过隐含层向输入层逐层反传,并将误差分摊给各层所有单元,以从各层获得的误差信号作为调整各单元权值的依据。通过调整输入节点与隐层节点的联接强度和隐层节点与输出节点的联接强度以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数 (权值和阈值) [10] 。

PCA

PCA(principal Component Analysis),即主成分分析方法,是一种使用最广泛的数据压缩算法。在PCA中,数据从原来的坐标系转换到新的坐标系,由数据本身决定。转换坐标系时,以方差最大的方向作为坐标轴方向。第一个新坐标轴选择的是原始数据中方差最大的方法,第二个新坐标轴选择的是与第一个新坐标轴正交且方差次大的方向。重复该过程,重复次数为原始数据的特征维数。

LDA

线性判别式分析(Linear Discriminant Analysis, LDA),也叫做Fisher线性判别(Fisher Linear Discriminant ,FLD), 是模式识别的经典算法,线性鉴别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间, 以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。因此,它是一种有效的特征抽取方法。 使用这种方法能够使投影后模式样本的类间散布矩阵最大,并且同时类内散布矩阵最小。 它能够保证投影后模式样本在新的空间中有最小的类内距离和最大的类间距离,即模式在该空间中有最佳的可分离性。

BPNN

BPNN全称Back Propagation Neural Network,后向传播神经网络。它属于前馈型神经网络的一种。BP神经网络就是在前馈型网络的结构上增加了后向传播算法(Back Propagation)。

PLS

偏最小二乘回归法(PLS:partial least squares):是一种新型的多元统计数据分析方法, 它主要研究的是多因变量对多自变量的回归建模,特别当各变量内部高度线性相关时, 用偏最小二乘回归法更有效。偏最小二乘回归较好地解决了样本个数少于变量个数等问题。 偏最小二乘法是集主成分分析、典型相关分析和多元线性回归分析3种分析方法的优点于一身。

SVM

SVM(Support Vector Machine)指的是支持向量机。通常用来进行模式识别、分类以及回归分析。 SVM的主要思想可以概括为两点:1) 它是针对线性可分情况进行分析,对于线性不可分的情况, 通过使用非线性映射算法将低维输入空间线性不可分的样本转化为高维特征空间使其线性可分, 从而使得高维特征空间采用线性算法对样本的非线性特征进行线性分析成为可能。2) 它基于结构风险最小化理论之上在特征空间中构建最优超平面,使得学习器得到全局最优化,并且在整个样本空间的期望以某个概率满足一定上界。

DFA

DFA全称为:Deterministic Finite Automaton,,即确定有穷自动机。其特征为:有一个有限状态集合和一些从一个状态通向另一个状态的边,每条边上标记有一个符号,其中一个状态是初态,某些状态是终态。但不同于不确定的有限自动机,DFA中不会有从同一状态出发的两条边标志有相同的符号。它是是通过event和当前的state得到下一个state,即event + state = nextstate。理解为系统中有多个节点,通过传递进入的event,来确定走哪个路由至另一个节点,而节点是有限的。

Loadings

Loadings是PCA的一个函数,主要显示主成分分析或者因子分析当中的loadings的内容,在主成分分析中, 实际上是对主成分对应的各列,即正交矩阵。在因子分析中,其内容就是载荷因子矩阵。

MLR

多元线性回归(MLR)(multiple linear regression)是分析一个随机变量与多个变量之间线性关系的统计方法。