求对称矩阵特征值的神经网络方法
【摘要】:近年来,以Hopfield神经网络、细胞神经网络为代表的递归神经网络(Recurrent Neural Networks-RNNs)的理论与应用研究成为新的热点。其典型特征是大量神经单元通过局部互连组成高度非线性动力系统,每个神经元可由线性和非线性模拟电路实现。RNNs非常适合于VLSI(Very Large-scale Integration)的硬件实现,消除了离散实现系统中的时间延迟以及同步问题,更适合进行大规模的并行计算。因此,现代科学与工程计算学者积极寻求以RNNs为特征的快速、高效、鲁棒算法,并且取得了大量研究成果。这方面研究不仅包括各种最优化问题的求解,也包括数值计算经典问题的求解。矩阵特征值的计算至今依然表现出旺盛的生命力,在数据压缩、信号处理、模式识别等诸多领域有着广泛的应用。本论文主要研究求解对称矩阵特征值以及广义特征值问题的递归神经网络方法,另外还研究了Madaline Ⅰ型前馈网络的收敛性。具体地,本论文主要包括以下内容:
1.第二章主要研究对称矩阵的特征值计算问题,提出了基于B-范数不变的RNNs模型,得到了其收敛于最大特征值的充分性条件。对该对称矩阵添加负号,得到了计算最小特征值的RNNs模型。基于最大和最小特征值的计算结果,设计了计算全部特征值的方案,给出了相应的数值实验结果。应用随机逼近理论,讨论了自适应求解随机信号的最大主元和最小主元的学习算法。
2.第三章主要研究对称正定对的广义特征值问题Ax=λBx的计算,提出了两个求解最大以及最小广义特征值的RNNs模型,在A对称,B对称正定的假设条件下分别给出了收敛性结果,简单的分析了该模型在线性判别分析(Linear Discriminant Analysis-LDA)中的应用。
3.第四章研究了Madaline Ⅰ型前馈网络的收敛性,证明了当训练样本线性可分时,Madaline Ⅰ型前馈网络学习算法有限次收敛。