开放科学(资源服务)标志码(OSID):
回归分析是一种确定两种或两种以上变量间相互依赖的定量关系的统计分析方法,根据已知过程变量与目标变量间的相关性,建立基于历史过程数据的回归预测模型。由于目标变量总是受一个或多个过程变量的影响,且每个过程变量对目标变量的影响不同,因此根据过程变量对目标变量的精准预测可以为过程监控、优化和控制提供重要的实时信息。回归预测模型多数采用不同的非线性结构来提取数据中包含的信息,常用模型包括主成分回归(Principal Component Regression,PCR)[1]、偏最小二乘回归(Partial Least Squares Regression,PLSR)[2]、人工神经网络(Artificial Neural Network,ANN)[3]和支持向量回归(Support Vector Regression,SVR)[4]。但对于大量高维、强相关性及高冗余的数据,这些模型的鲁棒性差、预测性能低,而提取输入数据的有效特征表示是建立回归预测模型的关键步骤。多层深度网络能够提取复杂数据的特征,但由于梯度消失和爆炸问题,深度网络并没有比浅层模型表现得更好,直到文献[5]提出通过无监督的逐层预训练和有监督的微调来学习深度网络模型,使得栈式自编码器(Stacked Auto-Encoder,SAE)成为广泛应用于数据分析[6]、图像处理[7]、语音识别[8]、模式识别[9]等领域的深度学习[10]模型。
深度学习可以通过学习深层非线性网络结构,实现复杂函数逼近,表征输入数据,并利用特征的逐层变换完成最终的预测和识别[11]。文献[12]将卷积神经网络(Convolutional Neural Network,CNN)与极限学习机(Extreme Learning Machine,ELM)相结合,提出CNN2ELM模型,用于人脸图像的年龄预测,提高了预测鲁棒性。文献[13]将栈式降噪稀疏自编码器(sDSAE)与ELM相结合,提出sDSAE-ELM算法,利用sDSAE产生ELM的输入权重和隐含层偏置,降低噪声干扰,优化网络结构。文献[14]将SAE与以小波函数为激活函数的ELM结合,提出SAE-WELM模型并将其用于工业铝生产过程中的过度热预测,具有良好的鲁棒性和泛化能力。
针对回归预测问题,对SAE和ELM两部分进行改进再级联是改善回归预测效果的有效方法。文献[13-15]采用SAE进行特征降维或特征提取,取得了较好的效果,但它们未考虑到数据间的相关性,不能反映出目标变量与其他过程变量之间的关系。目前,关于结合改进的SAE和ELM进行回归预测的研究也取得了一定成果,随机确定输入权值和隐含层偏置虽然能够提升网络速度[16],但不能根据输入数据与输出数据间的相关性大小进行合理赋值。本文构建一种基于栈式监督自编码器(Stack Supervised Auto-Encoder,SSupAE)与可变加权极限学习机(variable weighted Extreme Learning Machine,vwELM)的回归预测模型。利用栈式监督自编码器使SAE以有监督的方式进行逐层预训练,提取与目标输出变量相关的高级特征,挖掘数据间的深层关联信息。采用可变权值的方式确定ELM的输入权值和隐含层偏置,以提升算法的鲁棒性和泛化能力。在多个公共数据集及实际工业生产的多晶硅铸锭数据集上进行实验以验证SSupAE-vwELM模型性能。
1 栈式监督自编码器设计 1.1 栈式自编码器自编码器(Auto-Encoder,AE)包括编码和解码两个过程,编码过程将输入
$ {\mathit{\boldsymbol{h}}}=f\left({\mathit{\boldsymbol{x}}}\right)={s}_{f}(\mathit{\boldsymbol{W}}{\mathit{\boldsymbol{x}}}+\mathit{\boldsymbol{b}}) $ | (1) |
$ {\mathit{\boldsymbol{z}}}=g\left({\mathit{\boldsymbol{h}}}\right)={s}_{g}(\tilde{\mathit{\boldsymbol{W}}}{\mathit{\boldsymbol{h}}}+\tilde{\mathit{\boldsymbol{b}}}) $ | (2) |
$ {J}_{\mathrm{A}\mathrm{E}}\left(\mathit{\boldsymbol{\theta }}\right)=\frac{1}{N}\sum\limits _{i=1}^{N}L({{\mathit{\boldsymbol{x}}}}_{i}, {{\mathit{\boldsymbol{z}}}}_{i}) $ | (3) |
![]() |
Download:
|
图 1 AE网络结构 Fig. 1 AE network structure |
其中:s(x)为激活函数;
SAE是通过多层无监督训练的AE逐层堆叠而构造的一种深度网络结构,训练过程分为无监督预训练和有监督微调两个阶段[18],如图 2所示。SAE采用无监督的方式逐层预训练来初始化网络参数,在最后一层隐含层后加入BP回归网络进行回归预测,使用目标变量数据y对权重和偏置进行整体微调,优化网络结构。
![]() |
Download:
|
图 2 SAE训练过程 Fig. 2 SAE training process |
栈式自编码器的预训练可以逐层学习到输入数据的高级抽象特征,但在实际应用中,SAE的无监督预处理方式未考虑过程变量与目标输出间的相关性,所学习到的特征可能包含与目标输出无关的信息。针对这一问题,提出一种以有监督方式训练的监督自编码器(Supervised Auto-Encoder,SupAE),即在AE编码与解码的基础上添加一层回归网络,AE在解码的同时通过回归网络进行回归预测,使得构成栈式监督自编码器(SSupAE)的每层SupAE都以有监督的方式完成预训练,并使该深层网络在学习重构特征的同时将与目标输出变量相关的信息编码到该网络中,挖掘数据的深层特征。
SupAE由编码器、解码器和预测目标输出的回归网络三部分组成,网络结构如图 3所示。SupAE的编解码过程与AE相同,其中回归网络预测目标输出值的计算公式如式(4)所示:
$ \hat{\mathit{\boldsymbol{y}}}=s\left({\mathit{\boldsymbol{h}}}\right)={s}_{\mathrm{r}}({\mathit{\boldsymbol{W}}}_{\mathrm{r}}{\mathit{\boldsymbol{x}}}+{\mathit{\boldsymbol{b}}}_{\mathrm{r}}) $ | (4) |
![]() |
Download:
|
图 3 SupAE结构 Fig. 3 SupAE structure |
其中:本文使用的回归网络为BP回归网络;
在训练过程中,为了能够对解码重构输入与回归预测输出同时优化,使SupAE获得更好的表示,SupAE的损失函数由重构误差、目标变量的真实值与预测值间的误差两部分组成,通过最小化这两部分的线性组合函数实现对数据的深层挖掘。假设训练集有N个样本
$ {J}_{\mathrm{S}\mathrm{u}\mathrm{p}\mathrm{A}\mathrm{E}\left(\mathit{\boldsymbol{\theta }}\right)}=\frac{1}{N}\sum\limits _{{\mathit{\boldsymbol{x}}}}\left(\right(1-C\left)L\right({\mathit{\boldsymbol{x}}}, {\mathit{\boldsymbol{z}}})+CL(\mathit{\boldsymbol{y}}, \hat{\mathit{\boldsymbol{y}}}\left)\right) $ | (5) |
$ L({\mathit{\boldsymbol{x}}}, {\mathit{\boldsymbol{z}}})=-\sum\limits _{i=1}^{{d}_{x}}[{{\mathit{\boldsymbol{z}}}}_{i}{\log}_{a}{{\mathit{\boldsymbol{x}}}}_{i}+\left(1\right.-{{\mathit{\boldsymbol{z}}}}_{i}){\log}_{a}\left(1\right.-{{\mathit{\boldsymbol{x}}}}_{i}\left)\right] $ | (6) |
$ L(\mathit{\boldsymbol{y}}, \hat{\mathit{\boldsymbol{y}}})=-\sum\limits _{i=1}^{N}[{\hat{\mathit{\boldsymbol{y}}}}_{i}{\log}_{a}{\mathit{\boldsymbol{y}}}_{i}+\left(1\right.-{\hat{\mathit{\boldsymbol{y}}}}_{i}){\log}_{a}\left(1\right.-{\mathit{\boldsymbol{y}}}_{i}\left)\right] $ | (7) |
其中:
利用反向传播算法结合梯度下降法,更新连接权值W和偏差b,求出使得式(5)达到最小值时的Wij和bi。更新公式具体如下:
$ {\mathit{\boldsymbol{W}}}_{ij}={\mathit{\boldsymbol{W}}}_{ij}-\alpha \frac{\alpha }{\alpha {\mathit{\boldsymbol{W}}}_{ij}}{J}_{\mathrm{S}\mathrm{u}\mathrm{p}\mathrm{A}\mathrm{E}}\left(\mathit{\boldsymbol{\theta }}\right) $ | (8) |
$ {\mathit{\boldsymbol{b}}}_{i}={\mathit{\boldsymbol{b}}}_{i}-\alpha \frac{\alpha }{\alpha {\mathit{\boldsymbol{b}}}_{i}}{J}_{\mathrm{S}\mathrm{u}\mathrm{p}\mathrm{A}\mathrm{E}}\left(\mathit{\boldsymbol{\theta }}\right) $ | (9) |
其中:
SSupAE是由SupAE通过逐层堆叠构造的一种深度网络结构,如图 4所示,其输入是由每个样本对应的过程变量与目标变量值组成,在SupAE进行逐层有监督预训练后,舍弃每层的回归网络和解码器(见图 4中点线矩形框部分),以前一个隐含层的输出作为后一个隐含层的输入,通过最小化联合损失函数(见图 4中点划线部分),并逐层堆叠以提取包含目标变量信息的高级特征。在最后一个隐含层后添加ELM回归网络,使整个网络再次以有监督的方式进行微调,更新各层的权值和偏置,使该网络达到全局最优。
![]() |
Download:
|
图 4 SSupAE结构 Fig. 4 SSupAE structure |
ELM是一种单隐含层前馈神经网络[19],ELM的网络结构如图 5所示。假设训练集有N个样本
$ f\left({{\mathit{\boldsymbol{x}}}}_{i}\right)=\mathit{\boldsymbol{\beta }}g(\mathit{\boldsymbol{W}}{{\mathit{\boldsymbol{x}}}}_{i}+\mathit{\boldsymbol{b}}) $ | (10) |
![]() |
Download:
|
图 5 ELM网络结构 Fig. 5 ELM network structure |
其中:
$ \mathit{\boldsymbol{H}}\mathit{\boldsymbol{\beta }}=\mathit{\boldsymbol{Y}} $ | (11) |
$ \underset{\mathit{\boldsymbol{\beta }}}{\mathrm{m}\mathrm{i}\mathrm{n}}‖\mathit{\boldsymbol{H}}\mathit{\boldsymbol{\beta }}-\mathit{\boldsymbol{Y}}‖ $ | (12) |
$ \mathit{\boldsymbol{\beta }}={\mathit{\boldsymbol{H}}}^{†}\mathit{\boldsymbol{Y}} $ | (13) |
其中:
ELM网络随机确定初始输入权值和偏置,能够提高网络的学习速度,但是在隐含层节点个数一定的情况下,预测精度会受随机性影响[21],因此对权值和偏置进行合理赋值能够提升网络的预测性能。本文将输入变量与目标输出间的相关性融入ELM网络,提出一种根据相关性确定权值与偏置的可变权值极限学习机。
针对回归预测问题,不同的输入变量对目标输出变量的影响不同,对不同变量赋予不同的权值,不仅可以提高ELM训练的精度,而且可以有效提高模型的鲁棒性。对于有
$ {\rho }_{\left(j\right)}=\mathrm{C}\mathrm{o}\mathrm{v}({{\mathit{\boldsymbol{x}}}}_{\left(j\right)}, \mathit{\boldsymbol{y}})/\left(\sqrt{\mathrm{v}\mathrm{a}\mathrm{r}\left({{\mathit{\boldsymbol{x}}}}_{\left(j\right)}\right)}\cdot \sqrt{\mathrm{v}\mathrm{a}\mathrm{r}\left(\mathit{\boldsymbol{y}}\right)}\right) $ | (14) |
其中:
$ \mathrm{C}\mathrm{o}\mathrm{v}({{\mathit{\boldsymbol{x}}}}_{\left(j\right)}, \mathit{\boldsymbol{y}})=\sum\limits _{i=1}^{N}\left({{\mathit{\boldsymbol{x}}}}_{i\left(j\right)}-{\stackrel{-}{{\mathit{\boldsymbol{x}}}}}_{\left(j\right)}\right)/(N-1) $ | (15) |
$ \mathrm{v}\mathrm{a}\mathrm{r}\left({{\mathit{\boldsymbol{x}}}}_{\left(j\right)}\right)=\sum\limits _{i=1}^{N}({{\mathit{\boldsymbol{x}}}}_{i\left(j\right)}-{\stackrel{-}{{\mathit{\boldsymbol{x}}}}}_{\left(j\right)})({{\mathit{\boldsymbol{x}}}}_{i\left(j\right)}-{\stackrel{-}{{\mathit{\boldsymbol{x}}}}}_{\left(j\right)})/(N-1) $ | (16) |
$ \mathrm{v}\mathrm{a}\mathrm{r}\left(\mathit{\boldsymbol{y}}\right)=\sum\limits _{i=1}^{N}({\mathit{\boldsymbol{y}}}_{i}-\stackrel{-}{\mathit{\boldsymbol{y}}})({\mathit{\boldsymbol{y}}}_{i}-\stackrel{-}{\mathit{\boldsymbol{y}}})/(N-1) $ | (17) |
其中:
$ {\lambda }_{\left(j\right)}=\left|{\rho }_{\left(j\right)}\right|/\sum\limits _{j=1}^{{d}_{h}}\left|{\rho }_{\left(j\right)}\right| $ | (18) |
其中:
在对ELM的输入权值和偏置进行初始化时,用可变权值
$ f\left({{\mathit{\boldsymbol{x}}}}_{i}\right)=\mathit{\boldsymbol{\beta }}g(\lambda \mathit{\boldsymbol{W}}{{\mathit{\boldsymbol{x}}}}_{i}+\lambda \mathit{\boldsymbol{b}}) $ | (19) |
综上,vwELM算法的训练过程如下:
1)计算输入层输入变量与目标输出变量的相关系数,根据相关系数求得每个变量的可变权值。
2)确定隐含层神经元个数,对输入层和隐含层之间的连接权重
3)选择一个无限可微的函数作为隐含层神经元的激活函数,计算隐含层的输出矩阵
4)根据式(11)计算输出层权值
理论上,SSupAE-vwELM算法能比ELM算法实现更精准的预测。一方面,利用SSupAE网络对原始输入数据进行特征提取,所提取的特征包含了目标输出的相关信息。另一方面,vwELM算法通过相关性分析对ELM的权值和偏置加权,既克服了ELM因参数随机赋值产生冗余节点[22],又使其包含了目标输出的相关信息,有利于实现更加精准的预测。
SSupAE-vwELM网络结构如图 6所示,将训练好的n层SupAE进行堆叠形成SSupAE,以SSupAE的顶层作为vwELM网络的输入进行回归预测。
![]() |
Download:
|
图 6 SSupAE-vwELM网络结构 Fig. 6 SSupAE-vwELM network structure |
1)特征提取。首先针对不同特征维数的数据集
2)回归预测。以SSupAE所提取的特征作为vwELM的输入,根据输入变量与目标变量
SSupAE-vwELM网络训练与测试过程如图 7所示。
![]() |
Download:
|
图 7 SSupAE-vwELM网络训练与测试过程 Fig. 7 Training and testing process of SSupAE-vwELM |
应用MATLAB R2014b进行实验仿真,操作系统为Windows10,处理器为Intel Xeon E3-1535M,内存为32 GB。采用均方根误差(Root Mean Square Error,RMSE)、决定系数(R2)和程序运行时间3个指标对模型回归性能进行评价,RMSE和
$ {R}_{\mathrm{R}\mathrm{M}\mathrm{S}\mathrm{E}}=\sqrt{\sum\limits _{n=1}^{{N}_{\mathrm{t}}}({\mathit{\boldsymbol{y}}}_{n}-{\hat{\mathit{\boldsymbol{y}}}}_{n}{)}^{2}/({N}_{\mathrm{t}}-1)} $ | (20) |
$ {R}^{2}=1-\sum\limits _{n={N}_{\mathrm{t}}}^{{N}_{\mathrm{t}}}({\mathit{\boldsymbol{y}}}_{n}-{\hat{\mathit{\boldsymbol{y}}}}_{n}{)}^{2}/\sum\limits _{n={N}_{\mathrm{t}}}^{{N}_{\mathrm{t}}}({\mathit{\boldsymbol{y}}}_{n}{-\stackrel{-}{\mathit{\boldsymbol{y}}})}^{2} $ | (21) |
其中:
为验证本文所提SSupAE-vwELM模型的有效性,选用10个样本大小和属性维度不同的公共数据集,具体信息如表 1所示,其中,Abalone数据集通过物理测量变量预测鲍鱼年龄,Air Quality数据集是对意大利某严重污染区域的空气质量进行预测,Boston Housing数据集通过影响房价的变量预测房价,Concrete数据集通过混凝土成分预测混凝土的抗压强度,Stocks数据集是预测10家航天公司的股票价格,Bank数据集是预测客户选择银行的概率,Computer Activity数据集是预测电脑CPU的运行时间,Kinematics数据集是预测人体的运动数据,Wine Quality数据集是预测葡萄牙北部葡萄酒的质量,Yacht Hydrodynamics数据集是对帆船水力性能的预测。为了解决数据特征属性间数值量纲差异导致的计算问题,本文将所有数据归一化为[0, 1],并将每个数据集按8∶2的比例划分训练集和测试集。
![]() |
下载CSV 表 1 公共数据集信息设置 Table 1 Setting of public dataset information |
为分析SSupAE-vwELM模型中不同网络参数对整体回归预测性能的影响,以Concrete数据集为例,对比不同网络层数的SSupAE以及不同隐含层节点数的vwELM对整体回归预测准确性的影响。SSupAE的输入层节点数与归一化处理后的输入数据特征数保持一致,设置为8,预训练的batchsize设置为80,epoch设置为100;微调的batchsize设置为8,epoch设置为1 000。通过SSupAE网络层数对比实验来确定网络结构,选取RMSE及R²作为评价指标,将网络层数从3变化到8,如图 8所示,可以看出5层网络结构的RMSE最小,真实值与预测值的拟合度最好,其中每层的隐含层节点数通过试错法确定,分别为40、30、20、10、5。
![]() |
Download:
|
图 8 不同网络层数的SSupAE回归预测性能 Fig. 8 Regression prediction performance of SSupAE at different number of network layers |
通过vwELM网络隐含层节点数的对比实验确定隐含层节点数,同样选取RMSE及R²作为评价指标,如图 9所示,将隐含层节点数从1变化到50,可以看出隐含层节点数设置为35时RMSE最小,真实值与预测值的拟合度最好。
![]() |
Download:
|
图 9 不同隐含层节点数的vwELM回归预测性能 Fig. 9 Regression prediction performance of vwELM at different number of hidden layer nodes |
为验证SSupAE-vwELM模型的回归预测性能,将ELM、SAE-ELM、SAE-vwELM、SSupAE-ELM及SSupAE-vwELM模型的实验结果在10个公共数据集上进行对比,其中,ELM为未进行特征提取的回归预测模型,SAE-ELM为使用SAE进行特征提取后使用ELM进行回归预测的基础模型,SAE-vwELM为在SAE-ELM模型基础上改进ELM后的模型,SSupAE-ELM为在SAE-ELM基础上改进SAE后的模型。采用五折交叉方式验证模型的预测效果,最终对5次预测结果取平均值。实验结果如表 2所示,其中最优结果加粗表示。
![]() |
下载CSV 表 2 公共数据集上的回归预测结果对比 Table 2 Comparison of regression prediction results on public dataset |
从表 2可知,在10个公共数据集上SSupAE-vwELM模型相比其他模型的回归预测性能都有所提升。SSupAE-vwELM模型的运行时间长于ELM及SAE-ELM模型的主要原因在于SSupAE的深层网络不仅能够重构原始数据,而且还将目标输出变量的信息编码到网络中,随着网络层数的增加,其深层非线性网络将原始数据一层一层抽象,所提取的特征更能描述对象本质且提高预测精度,并且通过结合vwELM回归网络进一步优化了网络结构,提高了网络的鲁棒性和回归预测能力。由此可见,SSupAE-vwELM模型运行时间长说明其相比于ELM及SAE-ELM模型提取的特征更加符合样本本质,鲁棒性更好。以Concrete数据集为例,测试集上部分样本的预测值与真实值的对比结果如图 10所示,可以看出除第3个和第9个测试样本外,其余样本的真实值与预测值间的误差很小,可见本文模型的回归预测性能较好。
![]() |
Download:
|
图 10 测试集上的预测值与真实值的对比 Fig. 10 Comparison between predicted values and actual values on the test set |
为验证SSupAE-vwELM模型的实用性,将其在工业多晶硅铸锭数据集上进行实验。多晶硅作为最主要的光伏产业材料之一,配料数据对多晶硅铸锭的电学性能和生产成本有着重要的影响,但由于每次生产所用配料的批次或重量的差异,会对质量产生影响,因此准确的配料分析和预测模型的建立至关重要[23]。少子寿命值即硅锭中少数载流子存活时间,通常被用作评价多晶硅铸锭的质量,根据配料对少子寿命值的准确预测可以有效地指导实际生产。工业上通常用工艺试验来预测产品质量,实现的成本高且难度大。因此,采用深度学习方法对多晶硅铸锭过程中的少子寿命值进行精准预测对提高产品质量具有重要意义。
本文使用的多晶硅铸锭数据集来源于山西某新能源技术有限公司的实际生产数据,该数据集包括G6和G7两种产品,每种产品包含非免洗原生多晶块料、碎多晶铺底、碎片、中料、提纯锭芯自产、提纯锭芯外购、循环料等7个配料类别,通过属性值评价各种配料的质量,最终所需预测的目标变量为多晶硅的少子寿命值。本文所用到的数据集中G6产品有500个样本,G7产品有391个样本。表 3为部分G6数据的示例。
![]() |
下载CSV 表 3 部分G6数据示例 Table 3 Partial G6 data examples |
将多晶硅配料数据按8∶2分为训练集与测试集,同样将ELM、SAE-ELM、SAE-vwELM、SSupAE-ELM及SSupAE-vwELM模型的实验结果在G6和G7产品数据集上进行对比,实验结果如表 4所示。
![]() |
下载CSV 表 4 多晶硅铸锭数据集上的回归预测结果对比 Table 4 Comparison of regression prediction results on polycrystalline silicon ingot dataset |
从表 4可以看出,与ELM、SAE-ELM模型相比,SSupAE-vwELM模型虽然运行时间增加,但回归性能在多晶硅铸锭的G6产品数据集中RMSE降低了0.056 7、0.011 2,R²提升了0.489 3、0.290 3;在G7产品数据集中RMSE降低了0.010 8、0.006 3,R²提升了0.297 2、0.190 6。比较表 2和表 4中5种模型的预测结果,在多晶硅铸锭数据集上的回归预测结果整体比公共数据集差,主要原因为在实际铸锭生产过程中,记录的不规范和缺失,导致数据中出现异常数据和缺失数据,且每次生产所用的配料的批次或成分的差异,使用同样质量的配料会出现不同少子寿命值的情况,导致最终的预测值与真实值的决定系数较低,但是表 2和表 4中SSupAE-vwELM模型的预测结果优于其他模型结果的趋势是一致的。
4 结束语为了学习输入数据的显著表征,实现对输出变量的精准预测,本文提出基于SSupAE-vwELM的回归预测模型。利用SSupAE提取与目标输出变量相关的高级特征,将所提取的特征作为vwELM的输入数据,并根据原始数据的特征表示与输出数据间的相关性大小对ELM的权值和偏置进行加权,解决了回归预测任务中目标特征提取不准确、预测精度低等问题。在多个公共数据集及实际工业生产的多晶硅铸锭数据集上的实验结果表明,与ELM及SAE-ELM模型相比,SSupAE-vwELM模型具有较强的鲁棒性和泛化性能。由于在实验过程中发现SSupAE网络隐含层层数、节点数以及vwELM网络隐含层节点数的设置对实验结果影响较大,因此后续将继续研究如何合理准确地设置网络参数,进一步提升SSupAE-vwELM模型的回归性能,使其适用于实际工业生产。
[1] |
王鹏新, 陈弛, 张树誉, 等. 基于LAI和VTCI及Copula函数的冬小麦单产估测[J]. 农业机械学报, 2021, 52(10): 255-263. WANG P X, CHEN C, ZHANG S Y, et al. Winter wheat yield estimation based on Copula function and remotely sensed LAI and VTCI[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(10): 255-263. (in Chinese) DOI:10.6041/j.issn.1000-1298.2021.10.026 |
[2] |
陈思博, 潘晓文, 刘金福. 基于偏最小二乘法分形计盒维数的冲击定位方法[J]. 振动与冲击, 2021, 40(2): 97-102. CHEN S B, PAN X W, LIU J F. Impact localization method based on the partial least squares regression fractal dimension[J]. Journal of Vibration and Shock, 2021, 40(2): 97-102. (in Chinese) |
[3] |
王毅红, 张建雄, 兰官奇, 等. 压制生土砖强度的人工神经网络预测模型[J]. 华南理工大学学报(自然科学版), 2020, 48(7): 115-121. WANG Y H, ZHANG J X, LAN G Q, et al. Artificial neural network prediction model for compressive strength of compacted earth blocks[J]. Journal of South China University of Technology (Natural Science Edition), 2020, 48(7): 115-121. (in Chinese) |
[4] |
闫长斌, 汪鹤健, 周建军, 等. 基于Bootstrap-SVR-ANN算法的TBM施工速度预测[J]. 岩土工程学报, 2021, 43(6): 1078-1087. YAN C B, WANG H J, ZHOU J J, et al. Prediction of TBM advance rate based on Bootstrap method and SVR-ANN algorithm[J]. Chinese Journal of Geotechnical Engineering, 2021, 43(6): 1078-1087. (in Chinese) |
[5] |
HINTON G E, OSINDERO S, TEH Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18(7): 1527-1554. DOI:10.1162/neco.2006.18.7.1527 |
[6] |
HASSAN R U L, LI C G, LIU Y T. Online dynamic security assessment of wind integrated power system using SDAE with SVM ensemble boosting learner[J]. International Journal of Electrical Power & Energy Systems, 2021, 125: 106429. |
[7] |
饶利波, 庞涛, 纪然仕, 等. 基于高光谱成像技术结合堆栈自动编码器-极限学习机方法的苹果硬度检测[J]. 激光与光电子学进展, 2019, 56(11): 247-253. RAO L B, PANG T, JI R S, et al. Firmness detection for apples based on hyperspectral imaging technology combined with stack autoencoder-extreme learning machine method[J]. Laser & Optoelectronics Progress, 2019, 56(11): 247-253. (in Chinese) |
[8] |
KHALIL R A, JONES E, BABAR M I, et al. Speech emotion recognition using deep learning techniques: a review[J]. IEEE Access, 2019, 7: 117327-117345. DOI:10.1109/ACCESS.2019.2936124 |
[9] |
HOU L, LUO X Y, WANG Z Y, et al. Representation learning via a semi-supervised stacked distance autoencoder for image classification[J]. Frontiers of Information Technology & Electronic Engineering, 2020, 21(7): 1005-1018. |
[10] |
HAO X, ZHANG G G, MA S. Deep learning[J]. International Journal of Semantic Computing, 2016, 10(3): 417-439. DOI:10.1142/S1793351X16500045 |
[11] |
TANYILDIZI H, ŞENGÜR A, AKBULUT Y, et al. Deep learning model for estimating the mechanical properties of concrete containing silica fume exposed to high temperatures[J]. Frontiers of Structural and Civil Engineering, 2020, 14(6): 1316-1330. DOI:10.1007/s11709-020-0646-z |
[12] |
DUAN M X, LI K L, LI K Q. An ensemble CNN2ELM for age estimation[J]. IEEE Transactions on Information Forensics and Security, 2018, 13(3): 758-772. DOI:10.1109/TIFS.2017.2766583 |
[13] |
张国令, 王晓丹, 李睿, 等. 基于栈式降噪稀疏自编码器的极限学习机[J]. 计算机工程, 2020, 46(9): 61-67. ZHANG G L, WANG X D, LI R, et al. Extreme learning machine based on stacked denoising sparse auto-encoder[J]. Computer Engineering, 2020, 46(9): 61-67. (in Chinese) |
[14] |
LEI Y X, KARIMI H R, CEN L H, et al. Processes soft modeling based on stacked autoencoders and wavelet extreme learning machine for aluminum plant-wide application[J]. Control Engineering Practice, 2021, 108: 104706. DOI:10.1016/j.conengprac.2020.104706 |
[15] |
YIN J, YAN X F. Stacked sparse autoencoders monitoring model based on fault-related variable selection[J]. Soft Computing, 2021, 25(5): 3531-3543. DOI:10.1007/s00500-020-05384-8 |
[16] |
翟华伟, 崔立成, 张维石. 一种改进灵敏度分析的在线自适应极限学习机算法[J]. 小型微型计算机系统, 2019, 40(7): 1386-1390. ZHAI H W, CUI L C, ZHANG W S. Novel online adaptive algorithm of extreme learning machine based on improved sensitivity analysis[J]. Journal of Chinese Computer Systems, 2019, 40(7): 1386-1390. (in Chinese) DOI:10.3969/j.issn.1000-1220.2019.07.005 |
[17] |
VINCENT P, LAROCHELLE H, BENGIO Y, et al. Extracting and composing robust features with denoising autoencoders[C]//Proceedings of the 25th international conference on Machine learning. New York, USA: ACM Press, 2008: 1-8.
|
[18] |
普运伟, 郭江, 刘涛涛, 等. 基于模糊函数等高线与栈式降噪自编码器的雷达辐射源信号识别[J]. 仪器仪表学报, 2021, 42(1): 207-216. PU Y W, GUO J, LIU T T, et al. Radar emitter signal recognition based on ambiguity function contour lines and stacked denoising auto-encoders[J]. Chinese Journal of Scientific Instrument, 2021, 42(1): 207-216. (in Chinese) |
[19] |
HUANG G B, ZHU Q Y, SIEW C K. Extreme learning machine: theory and applications[J]. Neurocomputing, 2006, 70(1/2/3): 489-501. |
[20] |
YANG L Q, ZHANG J W, WANG X Z, et al. An improved ELM-based and data preprocessing integrated approach for phishing detection considering comprehensive features[J]. Expert Systems With Applications, 2021, 165: 113863. DOI:10.1016/j.eswa.2020.113863 |
[21] |
HUANG Z Y, YU Y L, GU J, et al. An efficient method for traffic sign recognition based on extreme learning machine[J]. IEEE Transactions on Cybernetics, 2017, 47(4): 920-933. DOI:10.1109/TCYB.2016.2533424 |
[22] |
王晓丹, 来杰, 李睿, 等. 多层去噪极限学习机[J]. 吉林大学学报(工学版), 2020, 50(3): 1031-1039. WANG X D, LAI J, LI R, et al. Multilayer denoising extreme learning machine[J]. Journal of Jilin University (Engineering and Technology Edition), 2020, 50(3): 1031-1039. (in Chinese) |
[23] |
徐静林, 黄丽霞, 张雪英, 等. NRS-SVM两阶段遗传算法的多晶硅铸锭配料质量分析[J]. 太原理工大学学报, 2021, 52(3): 417-423. XU J L, HUANG L X, ZHANG X Y, et al. Quality analysis of polysilicon ingot batching using NRS-SVM two-stage genetic algorithm[J]. Journal of Taiyuan University of Technology, 2021, 52(3): 417-423. (in Chinese) |