神经网络算法的优点十篇

发布时间:2024-04-26 10:52:59

神经网络算法的优点篇1

【关键词】大学生身体素质评估遗传算法Bp神经网络matLaB计算程序

在校大学生是国家重要的人才后备力量,大学生的身体素质培养和锻炼是学校体育教学中关注的重点。对大学生身体素质进行科学、切实的评价可制订更为有效的培养方案,帮助大学生提高其身体素质。身体素质评价就是将大学生的身体形态、生理机能及运动能力等方面的数据综合起来进行评价[1]。从以往的研究成果看,对大学生身体素质评价集中于采用概率统计、多元回归分析和神经网络[2]的方法。然而,概率统计仅得到整体评价结果,多元回归分析预测精度较低,且两者受样本空间影响较大。为此,本文利用遗传算法来训练初始网络模型,再用Bp算法来进行精确求解,是对神经网络评估大学生身体素质的进一步优化应用。

基于遗传算法的Bp神经网络理论

通过把神经网络和遗传算法合理、科学的结合,既能够利用神经网络较强的学习能力,又发挥了遗传算法全局寻优的搜索功能。首先利用遗传算法得到权值的较优初始取值,训练网络避免了局部极小,利用Bp神经网络训练次数和最终权值也相对稳定,训练速度明显加快,从而既节约了时间,又提高了预测结果的准确性。

1.基于遗传算法的Bp神经网络结构

Bp网络的学习规则采用最速下降法,利用遗传算法根据训练目标函数对网络权值进行迭代,找到最佳初始网络权值。通过反向传播来不断调整网络权值,使网络误差平方和最小,该系统的网络结构,如图1所示。先对大学生身体素质的评估指标进行分类,抽取大学生身体素质的特征指标,并作为输入信息送入由输入层、中间层和输出层组成的三层网络模型进行评估。经过测试的网络,成为稳定的模式评估器,即可输出评估结果[3,4]。

该模型的输入层节点数为n,即大学生身体素质评价指标数,中间层节点数为,输出层节点数为1,即身体素质评估结果值,ωij和ωj为Bp神经网络权值,初始化隐含层阈值为ɑ,输出层阈值为b,由此可给定学习速率和神经元激励函数。从图1可发现,Bp神经网络可以看成一个非线性函数,网络输入值和输出值分别为该函数的自变量和因变量。当输入层节点数为n,输出层节点数为1时,Bp神经网络就表达了从n个自变量到1个因变量的函数映射关系。

2.基于遗传算法的Bp神经网络算法

遗传算法优化Bp神经网络的核心是用遗传算法来优化Bp神经网络的初始权值和阈值,使优化后的Bp神经网络能够更好地预测函数输出,计算流程如图2所示。

1.背景资料

根据本校某班2011年大学生身体素质测评成绩,从中选取30名学生的测试结果作为神经网络的训练样本和校验样本。结合遗传算法和Bp神经网络算法,在大型数学计算软件matLaB中编程实现基于遗传算法的Bp神经网络大学生身体素质评估[4]。

2.计算结果与分析

遗传算法优化过程中最优个体的适应度变化(如图3)。把最优初始权值、阈值赋给神经网络,用训练数据训练100次后,得到基于遗传算法的Bp神经网络预测值。为了对比分析,也进行了Bp神经网络预测分析(如图4)。

从图4可看出,采用Bp神经网络及遗传算法优化的Bp神经网络两种算法得到的预测结果,与专家判断(实际值)基本一致。但基于遗传算法的Bp神经网络较Bp神经网络预测精度高。特别在输入节点,即评价大学生身体素质的指标较多时,基于遗传算法的Bp神经网络预测效果要好一些。

结论

1.本文提出了基于遗传算法的Bp神经网络大学生身体素质评价算法,并建立了相应的网络模型。

2.基于遗传算法的Bp神经网络算法不但具有神经网络的函数逼近能力,而且应用遗传算法优化Bp神经网络的权值、阈值,可使优化后的神经网络避免训练时间长、易陷入局部极值的缺点。

3.结合实例,将基于遗传算法的Bp神经网络大学生身体素质评价算法,应用于本校学生身体素质评估。结果表明,该算法较Bp神经网络预测精度及效率高,可作为今后大学生身体素质评价的一种新方法。

参考文献:

[1]范正森,张明如,周瑞琪.大学生身体素质综合评价数学模型[J].武汉工业大学学报,2001,4:92-94.

[2]陈海英,郭巧.短跑运动能力的神经网络评价方法[J].北京理工大学学报,2003,1:54-57.

[3]陈刚,何政伟,杨斌,杨洋.遗传Bp神经网络在泥石流危险性评价中的应用[J].计算机工程与应用,2010,46(3).

神经网络算法的优点篇2

关键词:人工神经网络遗传算法模拟退火算法群集智能蚁群算法粒子群算

1什么是智能算法

智能计算也有人称之为“软计算”,是们受自然(生物界)规律的启迪,根据其原理,模仿求解问题的算法。从自然界得到启迪,模仿其结构进行发明创造,这就是仿生学。这是我们向自然界学习的一个方面。另一方面,我们还可以利用仿生原理进行设计(包括设计算法),这就是智能计算的思想。这方面的内容很多,如人工神经网络技术、遗传算法、模拟退火算法、模拟退火技术和群集智能技术等。

2人工神经网络算法

“人工神经网络”(artificialneuralnetwork,简称ann)是在对人脑组织结构和运行机制的认识理解基础之上模拟其结构和智能行为的一种工程系统。早在本世纪40年代初期,心理学家mcculloch、数学家pitts就提出了人工神经网络的第一个数学模型,从此开创了神经科学理论的研究时代。其后,frosenblatt、widrow和j.j.hopfield等学者又先后提出了感知模型,使得人工神经网络技术得以蓬勃发展。

神经系统的基本构造是神经元(神经细胞),它是处理人体内各部分之间相互信息传递的基本单元。据神经生物学家研究的结果表明,人的一个大脑一般有1010~1011个神经元。每个神经元都由一个细胞体,一个连接其他神经元的轴突和一些向外伸出的其它较短分支——树突组成。轴突的功能是将本神经元的输出信号(兴奋)传递给别的神经元。其末端的许多神经末梢使得兴奋可以同时传送给多个神经元。树突的功能是接受来自其它神经元的兴奋。神经元细胞体将接受到的所有信号进行简单处理(如:加权求和,即对所有的输入信号都加以考虑且对每个信号的重视程度——体现在权值上——有所不同)后由轴突输出。神经元的树突与另外的神经元的神经末梢相连的部分称为突触。

2.1人工神经网络的特点

人工神经网络是由大量的神经元广泛互连而成的系统,它的这一结构特点决定着人工神经网络具有高速信息处理的能力。人脑的每个神经元大约有103~104个树突及相应的突触,一个人的大脑总计约形成1014~1015个突触。用神经网络的术语来说,即是人脑具有1014~1015个互相连接的存储潜力。虽然每个神经元的运算功能十分简单,且信号传输速率也较低(大约100次/秒),但由于各神经元之间的极度并行互连功能,最终使得一个普通人的大脑在约1秒内就能完成现行计算机至少需要数10亿次处理步骤才能完成的任务。

人工神经网络的知识存储容量很大。在神经网络中,知识与信息的存储表现为神经元之间分布式的物理联系。它分散地表示和存储于整个网络内的各神经元及其连线上。每个神经元及其连线只表示一部分信息,而不是一个完整具体概念。只有通过各神经元的分布式综合效果才能表达出特定的概念和知识。

由于人工神经网络中神经元个数众多以及整个网络存储信息容量的巨大,使得它具有很强的不确定性信息处理能力。即使输入信息不完全、不准确或模糊不清,神经网络仍然能够联想思维存在于记忆中的事物的完整图象。只要输入的模式接近于训练样本,系统就能给出正确的推理结论。

正是因为人工神经网络的结构特点和其信息存储的分布式特点,使得它相对于其它的判断识别系统,如:专家系统等,具有另一个显著的优点:健壮性。生物神经网络不会因为个别神经元的损失而失去对原有模式的记忆。最有力的证明是,当一个人的大脑因意外事故受轻微损伤之后,并不会失去原有事物的全部记忆。人工神经网络也有类似的情况。因某些原因,无论是网络的硬件实现还是软件实现中的某个或某些神经元失效,整个网络仍然能继续工作。

人工神经网络是一种非线性的处理单元。只有当神经元对所有的输入信号的综合处理结果超过某一门限值后才输出一个信号。因此神经网络是一种具有高度非线性的超大规模连续时间动力学系统。它突破了传统的以线性处理为基础的数字电子计算机的局限,标志着人们智能信息处理能力和模拟人脑智能行为能力的一大飞跃。

2.2几种典型神经网络简介

2.2.1多层感知网络(误差逆传播神经网络)

在1986年以rumelhart和mccelland为首的科学家出版的《paralleldistributedprocessing》一书中,完整地提出了误差逆传播学习算法,并被广泛接受。多层感知网络是一种具有三层或三层以上的阶层型神经网络。典型的多层感知网络是三层、前馈的阶层网络,即:输入层i、隐含层(也称中间层)j和输出层k。相邻层之间的各神经元实现全连接,即下一层的每一个神经元与上一层的每个神经元都实现全连接,而且每层各神经元之间无连接。

但bp网并不是十分的完善,它存在以下一些主要缺陷:学习收敛速度太慢、网络的学习记忆具有不稳定性,即:当给一个训练好的网提供新的学习记忆模式时,将使已有的连接权值被打乱,导致已记忆的学习模式的信息的消失。?

2.2.2竞争型(kohonen)神经网络

它是基于人的视网膜及大脑皮层对剌激的反应而引出的。神经生物学的研究结果表明:生物视网膜中,有许多特定的细胞,对特定的图形(输入模式)比较敏感,并使得大脑皮层中的特定细胞产生大的兴奋,而其相邻的神经细胞的兴奋程度被抑制。对于某一个输入模式,通过竞争在输出层中只激活一个相应的输出神经元。许多输入模式,在输出层中将激活许多个神经元,从而形成一个反映输入数据的“特征图形”。竞争型神经网络是一种以无教师方式进行网络训练的网络。它通过自身训练,自动对输入模式进行分类。竞争型神经网络及其学习规则与其它类型的神经网络和学习规则相比,有其自己的鲜明特点。在网络结构上,它既不象阶层型神经网络那样各层神经元之间只有单向连接,也不象全连接型网络那样在网络结构上没有明显的层次界限。它一般是由输入层(模拟视网膜神经元)和竞争层(模拟大脑皮层神经元,也叫输出层)构成的两层网络。两层之间的各神经元实现双向全连接,而且网络中没有隐含层。有时竞争层各神经元之间还存在横向连接。竞争型神经网络的基本思想是网络竞争层各神经元竞争对输入模式的响应机会,最后仅有一个神经元成为竞争的胜者,并且只将与获胜神经元有关的各连接权值进行修正,使之朝着更有利于它竞争的方向调整。神经网络工作时,对于某一输入模式,网络中与该模式最相近的学习输入模式相对应的竞争层神经元将有最大的输出值,即以竞争层获胜神经元来表示分类结果。这是通过竞争得以实现的,实际上也就是网络回忆联想的过程。

除了竞争的方法外,还有通过抑制手段获取胜利的方法,即网络竞争层各神经元抑制所有其它神经元对输入模式的响应机会,从而使自己“脱颖而出”,成为获胜神经元。除此之外还有一种称为侧抑制的方法,即每个神经元只抑制与自己邻近的神经元,而对远离自己的神经元不抑制。这种方法常常用于图象边缘处理,解决图象边缘的缺陷问题。

竞争型神经网络的缺点和不足:因为它仅以输出层中的单个神经元代表某一类模式。所以一旦输出层中的某个输出神经元损坏,则导致该神经元所代表的该模式信息全部丢失。

2.2.3hopfield神经网络

1986年美国物理学家j.j.hopfield陆续发表几篇论文,提出了hopfield神经网络。他利用非线性动力学系统理论中的能量函数方法研究反馈人工神经网络的稳定性,并利用此方法建立求解优化计算问题的系统方程式。基本的hopfield神经网络是一个由非线性元件构成的全连接型单层反馈系统。

网络中的每一个神经元都将自己的输出通过连接权传送给所有其它神经元,同时又都接收所有其它神经元传递过来的信息。即:网络中的神经元t时刻的输出状态实际上间接地与自己的t-1时刻的输出状态有关。所以hopfield神经网络是一个反馈型的网络。其状态变化可以用差分方程来表征。反馈型网络的一个重要特点就是它具有稳定状态。当网络达到稳定状态的时候,也就是它的能量函数达到最小的时候。这里的能量函数不是物理意义上的能量函数,而是在表达形式上与物理意义上的能量概念一致,表征网络状态的变化趋势,并可以依据hopfield工作运行规则不断进行状态变化,最终能够达到的某个极小值的目标函数。网络收敛就是指能量函数达到极小值。如果把一个最优化问题的目标函数转换成网络的能量函数,把问题的变量对应于网络的状态,那么hopfield神经网络就能够用于解决优化组合问题。

对于同样结构的网络,当网络参数(指连接权值和阀值)有所变化时,网络能量函数的极小点(称为网络的稳定平衡点)的个数和极小值的大小也将变化。因此,可以把所需记忆的模式设计成某个确定网络状态的一个稳定平衡点。若网络有m个平衡点,则可以记忆m个记忆模式。

当网络从与记忆模式较靠近的某个初始状态(相当于发生了某些变形或含有某些噪声的记忆模式,也即:只提供了某个模式的部分信息)出发后,网络按hopfield工作运行规则进行状态更新,最后网络的状态将稳定在能量函数的极小点。这样就完成了由部分信息的联想过程。

hopfield神经网络的能量函数是朝着梯度减小的方向变化,但它仍然存在一个问题,那就是一旦能量函数陷入到局部极小值,它将不能自动跳出局部极小点,到达全局最小点,因而无法求得网络最优解。

3遗传算法

遗传算法(geneticalgorithms)是基于生物进化理论的原理发展起来的一种广为应用的、高效的随机搜索与优化的方法。其主要特点是群体搜索策略和群体中个体之间的信息交换,搜索不依赖于梯度信息。它是在70年代初期由美国密执根(michigan)大学的霍兰(holland)教授发展起来的。1975年霍兰教授发表了第一本比较系统论述遗传算法的专著《自然系统与人工系统中的适应性》(《adaptationinnaturalandartificialsystems》)。遗传算法最初被研究的出发点不是为专门解决最优化问题而设计的,它与进化策略、进化规划共同构成了进化算法的主要框架,都是为当时人工智能的发展服务的。迄今为止,遗传算法是进化算法中最广为人知的算法。

近几年来,遗传算法主要在复杂优化问题求解和工业工程领域应用方面,取得了一些令人信服的结果,所以引起了很多人的关注。在发展过程中,进化策略、进化规划和遗传算法之间差异越来越小。遗传算法成功的应用包括:作业调度与排序、可靠性设计、车辆路径选择与调度、成组技术、设备布置与分配、交通问题等等。

3.1特点

遗传算法是解决搜索问题的一种通用算法,对于各种通用问题都可以使用。搜索算法的共同特征为:①首先组成一组候选解;②依据某些适应性条件测算这些候选解的适应度;③根据适应度保留某些候选解,放弃其他候选解;④对保留的候选解进行某些操作,生成新的候选解。在遗传算法中,上述几个特征以一种特殊的方式组合在一起:基于染色体群的并行搜索,带有猜测性质的选择操作、交换操作和突变操作。这种特殊的组合方式将遗传算法与其它搜索算法区别开来。

遗传算法还具有以下几方面的特点:

(1)遗传算法从问题解的串集开始嫂索,而不是从单个解开始。这是遗传算法与传统优化算法的极大区别。传统优化算法是从单个初始值迭代求最优解的;容易误入局部最优解。遗传算法从串集开始搜索,覆盖面大,利于全局择优。(2)许多传统搜索算法都是单点搜索算法,容易陷入局部的最优解。遗传算法同时处理群体中的多个个体,即对搜索空间中的多个解进行评估,减少了陷入局部最优解的风险,同时算法本身易于实现并行化。

(3)遗传算法基本上不用搜索空间的知识或其它辅助信息,而仅用适应度函数值来评估个体,在此基础上进行遗传操作。适应度函数不仅不受连续可微的约束,而且其定义域可以任意设定。这一特点使得遗传算法的应用范围大大扩展。

(4)遗传算法不是采用确定性规则,而是采用概率的变迁规则来指导他的搜索方向。

(5)具有自组织、自适应和自学习性。遗传算法利用进化过程获得的信息自行组织搜索时,硬度大的个体具有较高的生存概率,并获得更适应环境的基因结构。

3.2运用领域

前面描述是简单的遗传算法模型,可以在这一基本型上加以改进,使其在科学和工程领域得到广泛应用。下面列举了一些遗传算法的应用领域:①优化:遗传算法可用于各种优化问题。既包括数量优化问题,也包括组合优化问题。②程序设计:遗传算法可以用于某些特殊任务的计算机程序设计。③机器学习:遗传算法可用于许多机器学习的应用,包括分类问题和预测问题等。④经济学:应用遗传算法对经济创新的过程建立模型,可以研究投标的策略,还可以建立市场竞争的模型。⑤免疫系统:应用遗传算法可以对自然界中免疫系统的多个方面建立模型,研究个体的生命过程中的突变现象以及发掘进化过程中的基因资源。⑥进化现象和学习现象:遗传算法可以用来研究个体是如何学习生存技巧的,一个物种的进化对其他物种会产生何种影响等等。⑦社会经济问题:遗传算法可以用来研究社会系统中的各种演化现象,例如在一个多主体系统中,协作与交流是如何演化出来的。

4模拟退火算法

模拟退火算法来源于固体退火原理,将固体加温至充分高,再让其徐徐冷却,加温时,固体内部粒子随温升变为无序状,内能增大,而徐徐冷却时粒子渐趋有序,在每个温度都达到平衡态,最后在常温时达到基态,内能减为最小。根据metropolis准则,粒子在温度t时趋于平衡的概率为e-δe/(kt),其中e为温度t时的内能,δe为其改变量,k为boltzmann常数。用固体退火模拟组合优化问题,将内能e模拟为目标函数值f,温度t演化成控制参数t,即得到解组合优化问题的模拟退火算法:由初始解i和控制参数初值t开始,对当前解重复“产生新解计算目标函数差接受或舍弃”的迭代,并逐步衰减t值,算法终止时的当前解即为所得近似最优解,这是基于蒙特卡罗迭代求解法的一种启发式随机搜索过程。退火过程由冷却进度表(coolingschedule)控制,包括控制参数的初值t及其衰减因子δt、每个t值时的迭代次数l和停止条件s。

5群体(群集)智能(swarmintelligence)

受社会性昆虫行为的启发,计算机工作者通过对社会性昆虫的模拟产生了一系列对于传统问题的新的解决方法,这些研究就是群集智能的研究。群集智能(swarmintelligence)中的群体(swarm)指的是“一组相互之间可以进行直接通信或者间接通信(通过改变局部环境)的主体,这组主体能够合作进行分布问题求解”。而所谓群集智能指的是“无智能的主体通过合作表现出智能行为的特性”。群集智能在没有集中控制并且不提供全局模型的前提下,为寻找复杂的分布式问题的解决方案提供了基础。

群集智能的特点和优点:群体中相互合作的个体是分布式的(distributed),这样更能够适应当前网络环境下的工作状态;没有中心的控制与数据,这样的系统更具有鲁棒性(robust),不会由于某一个或者某几个个体的故障而影响整个问题的求解。可以不通过个体之间直接通信而是通过非直接通信(stimergy)进行合作,这样的系统具有更好的可扩充性(scalability)。由于系统中个体的增加而增加的系统的通信开销在这里十分小。系统中每个个体的能力十分简单,这样每个个体的执行时间比较短,并且实现也比较简单,具有简单性(simplicity)。因为具有这些优点,虽说群集智能的研究还处于初级阶段,并且存在许多困难,但是可以预言群集智能的研究代表了以后计算机研究发展的一个重要方向。

在计算智能(computationalintelligence)领域有两种基于群智能的算法,蚁群算法(antcolonyoptimization)和粒子群算法(particleswarmoptimization),前者是对蚂蚁群落食物采集过程的模拟,已经成功运用在很多离散优化问题上。

5.1蚁群优化算法

受蚂蚁觅食时的通信机制的启发,90年代dorigo提出了蚁群优化算法(antcolonyoptimization,aco)来解决计算机算法学中经典的“货郎担问题”。如果有n个城市,需要对所有n个城市进行访问且只访问一次的最短距离。

在解决货郎担问题时,蚁群优化算法设计虚拟的“蚂蚁”将摸索不同路线,并留下会随时间逐渐消失的虚拟“信息素”。虚拟的“信息素”也会挥发,每只蚂蚁每次随机选择要走的路径,它们倾向于选择路径比较短的、信息素比较浓的路径。根据“信息素较浓的路线更近"的原则,即可选择出最佳路线。由于这个算法利用了正反馈机制,使得较短的路径能够有较大的机会得到选择,并且由于采用了概率算法,所以它能够不局限于局部最优解。

蚁群优化算法对于解决货郎担问题并不是目前最好的方法,但首先,它提出了一种解决货郎担问题的新思路;其次由于这种算法特有的解决方法,它已经被成功用于解决其他组合优化问题,例如图的着色(graphcoloring)以及最短超串(shortestcommonsupersequence)等问题。

5.2粒子群优化算法

粒子群优化算法(pso)是一种进化计算技术(evolutionarycomputation),有eberhart博士和kennedy博士发明。源于对鸟群捕食的行为研究。

pso同遗传算法类似,是一种基于叠代的优化工具。系统初始化为一组随机解,通过叠代搜寻最优值。但是并没有遗传算法用的交叉(crossover)以及变异(mutation)。而是粒子在解空间追随最优的粒子进行搜索。

同遗传算法比较,pso的优势在于简单容易实现并且没有许多参数需要调整。目前已广泛应用于函数优化,神经网络训练,模糊系统控制以及其他遗传算法的应用领域。

粒子群优化算法(pso)也是起源对简单社会系统的模拟,最初设想是模拟鸟群觅食的过程,但后来发现pso是一种很好的优化工具。

5.2.1算法介绍

pso模拟鸟群的捕食行为。一群鸟在随机搜索食物,在这个区域里只有一块食物。所有的鸟都不知道食物在那里。但是他们知道当前的位置离食物还有多远。那么找到食物的最优策略是什么呢。最简单有效的就是搜寻目前离食物最近的鸟的周围区域。

pso从这种模型中得到启示并用于解决优化问题。pso中,每个优化问题的解都是搜索空间中的一只鸟。我们称之为“粒子”。所有的粒子都有一个由被优化的函数决定的适应值(fitnessvalue),每个粒子还有一个速度决定他们飞翔的方向和距离。然后粒子们就追随当前的最优粒子在解空间中搜索。

pso初始化为一群随机粒子(随机解),然后通过叠代找到最优解,在每一次叠代中,粒子通过跟踪两个“极值”来更新自己。第一个就是粒子本身所找到的最优解,这个解叫做个体极值pbest,另一个极值是整个种群目前找到的最优解,这个极值是全局极值gbest。另外也可以不用整个种群而只是用其中一部分最优粒子的邻居,那么在所有邻居中的极值就是局部极值。

5.2.2pso算法过程

①种群随机初始化。

②对种群内的每一个个体计算适应值(fitnessvalue)。适应值与最优解的距离直接有关。

③种群根据适应值进行复制。

④如果终止条件满足的话,就停止,否则转步骤②。

从以上步骤,我们可以看到pso和遗传算法有很多共同之处。两者都随机初始化种群,而且都使用适应值来评价系统,而且都根据适应值来进行一定的随机搜索。两个系统都不是保证一定找到最优解。但是,pso没有遗传操作如交叉(crossover)和变异(mutation),而是根据自己的速度来决定搜索。粒子还有一个重要的特点,就是有记忆。

与遗传算法比较,pso的信息共享机制是很不同的。在遗传算法中,染色体(chromosomes)互相共享信息,所以整个种群的移动是比较均匀的向最优区域移动。在pso中,只有gbest(orlbest)给出信息给其他的粒子,这是单向的信息流动。整个搜索更新过程是跟随当前最优解的过程。与遗传算法比较,在大多数的情况下,所有的粒子可能更快的收敛于最优解。

现在已经有一些利用pso代替反向传播算法来训练神经网络的论文。研究表明pso是一种很有潜力的神经网络算法,同时pso速度比较快而且可以得到比较好的结果。

6展望

目前的智能计算研究水平暂时还很难使“智能机器”真正具备人类的常识,但智能计算将在21世纪蓬勃发展。不仅仅只是功能模仿要持有信息机理一致的观点。即人工脑与生物脑将不只是功能模仿,而是具有相同的特性。这两者的结合将开辟一个全新的领域,开辟很多新的研究方向。智能计算将探索智能的新概念,新理论,新方法和新技术,而这一切将在以后的发展中取得重大成就。

参考文献

[1]“ant-colonyoptimizationalgorithms(aco)”,

leanair4.mit.edu/docushare/dscgi/ds.py/get/file-378/rg_ee141_w8aco.pdf

神经网络算法的优点篇3

关键词:短期负荷预测;神经网络;遗传算法

作者简介:黄国栋(1976-),男,广东阳江人,广东电网湛江供电局,工程师。(广东湛江524005)

中图分类号:tm714文献标识码:a文章编号:1007-0079(2014)06-0261-02

电力短期负荷预测是对未来一周以内(通常为一周或一天)的负荷进行预测。短期负荷预测在电网运行实时控制和发电规划中具有重要地位,短期负荷的预测结果是调度中心制定发电计划、电力系统运行安全评估、电力企业日常经营管理的重要依据。[1]在当前电力系统市场化形势下,提高负荷预测精度对于电力系统的经济运行、合理制定机组检修计划和进行电力需求管理等具有重要意义。

一、电力系统负荷变化的特点及预测方法

电力系统负荷变化受到很多因素的影响。一方面,负荷变化存在由未知不确定因素引起的随机波动;另一方面,具有周期变化的规律性,这也使得负荷曲线具有相似性;同时,由于受天气、节假日等特殊情况的影响,负荷变化又会体现出差异性。[2]整体上讲,负荷曲线是与很多因素相关而且难以用数学公式表达的非线性函数。

相对于早期的统计技术法和专家系统法,神经网络的优点在于它不依靠专家经验,只利用观察到的数据,可以在训练过程中通过学习来逼近任意的非线性输入/输出关系,因此,将神经网络方法应用于电力负荷预测有着明显的优势。但是,神经网络存在两个主要问题:收敛速度慢和容易陷入局部极小点。因此,本文采用遗传算法优化人工神经网络,建立电力短期负荷预测模型,并将结合广东省某城市的电力负荷的实际情况对预测方法进行探讨和研究。

二、人工神经网络模型

Bp(Backpropagation)神经网络是一种按误差逆传播算法训练的多层前馈网络,神经网络模型中的所有神经元按照功能一般分成三层(输入层、隐含层和输出层),各层顺次连接。[3]其三层模型拓扑结构如图1所示。

Bp算法的学习过程分为正向传播过程和反向传播过程两个阶段。

1.正向传播过程

输入信息从输入层经隐含层逐层计算各单元的实际输出值,各神经元的状态只对下一层神经元的状态产生影响。设Bp网络的输入层有n1个节点,隐含层有n2个节点,输出层有n3个节点,输入为xi,输入层与隐含层之间的权值为wki,隐含层与输出层之间的权值为wjk;隐含层的阈值为bk,输出层的阈值为bj;隐含层的传递函数为f1(·),输出层的传递函数为f2(·)。则隐含层节点输出zk和输出层节点输出yj分别为:

k=1,2,……n2

(1)

j=1,2,……n3

(2)

2.反相传播过程

若网络实际输出值与期望值之差,即误差超出允许值,则逆向逐层修正连接权值。设Bp网络有p个输入样本,采用平方型误差函数,于是得到全局误差为:

(3)

式中:为第p个样本的实际输出,为期望输出。

采用累计误差Bp算法依次调整输出层权值wjk和隐含层权值wki误差使全局误差变小,即:

(4)

(5)

式中:η为学习率。

如此往复不断调整权值,直到使网络的误差满足要求。

三、遗传算法

1.遗传算法的基本原理

遗传算法(Geneticalgorithms,简称Ga)是一种高度并行、自适应全局优化搜索方法。[4]它借鉴自然界遗传和选择机理,首先初始化一个种群,然后按照某种指标在每一代选取较优个体,利用遗传算子(选择、交叉和变异)对这些个体进行组合,产生新一代个体,重复此过程,直到满足优化准则为止。遗传算法是基于对生物遗传和进化过程的计算机模拟,它能使各种人工系统具有良好的自适应能力和优化能力。目前,遗传算法已经广泛应用于规划设计、组合优化、自适应控制、经济运行、模式识别、人工智能、分子生物学、故障诊断以及计算机技术等领域,并取得了很好的效果。

2.遗传算法的实现过程

(1)将问题的解以编码形式表示出来,并随机生成若干个体,即初始群体。

(2)译码,计算目标函数得出个体适应度值,判断是否满足停止条件。

(3)根据个体适应度值的高低,应用选择、交叉和突变算子进行遗传操作,产生下一代群体。

(4)返回步骤(2),反复执行,直到满足停止条件。最后,搜索到最优个体,即问题的最优解。[5]

3.遗传算法优化Bp网络权值、阈值

由于遗传算法是以最大值作为优化目标,为适应神经网络算法的要求,将适应度函数取反,即变为以最小值为优化目标。遗传算法优化Bp神经网络算法的步骤:

(1)构建Bp网络,确定遗传算法个体长度。

(2)生成初始种群,确定种群规模。对遗传算法个体进行编码,编码由神经网络的输入层与隐含层的连接权值、隐含层阈值、隐含层与输出层的连接权值和输出层阈值四部分组成。

(3)根据个体得到Bp网络的权值和阈值,应用训练数据训练,得到网络的输出。计算实际输出与期望输出的误差,并依据此误差计算个体适应度值。

(4)根据个体的适应度进行选优操作,选择若干适应度强的个体直接进入下一代,适应度差的个体被淘汰。

(5)进行交叉、变异操作,生成下一代群体,然后返回步骤(3),直到得到最优解。

四、实例分析

本试验分别采用单一神经网络预测法、遗传算法和神经网络的组合预测法,分别对广东省某城市某一日的时负荷进行预测与分析。以该市2010年6月2日~21日和2010年6月3日~22日(只选取工作日)的整点负荷训练样本集,根据6月23日各整点的时负荷数据和24日各整点的温度与天气,预测6月24日的时负荷。

1.数据预处理

根据神经网络的建模原理,训练样本的准确性对于模型的预测准确性至关重要。由于系统故障、线路停电检修、通信错误等原因,历史负荷数据中经常存在一些不良数据。这些不良数据具有很强的随机性,会对网络的预测精度和预测速度产生严重影响。因此,在建立电力短期负荷预测模型前,先对训练用的数据样本进行预处理。应用格拉布斯准则判别是否有不良数据,如果有要直接消除并以相应的插值代替,从而提高数据的准确度和可信度。经计算,本实例的样本数据正常,符合实际情况。

数据归一化方法是神经网络预测前对数据常做的一种处理方法。数据归一化处理把所有的数据都转化为[0,1]之间的数,其目的是取消数据间数量级差别,避免因为输入/输出数据数量级差别较大而造成网络预测误差较大。最后需要进行反归一化,得到最终预测结果。[6]数据归一化的方法主要有最大最小值法和平均数方差法。本文采用最大最小值法。

2.确定Bp神经网络结构

考虑到该城市位于中国南端,纬度较低,影响电力负荷最主要的因素是温度等天气情况。采集预测日前一天每小时的负荷数据和预测日当天各小时的温度值(取平均值)、气象类型(晴、阴、雨)作为预测条件。由此确定Bp神经网络模型的输入节点数为3;输出节点数为1;隐含层节点数取8。为方便计算,将气象类型数字化、归一化处理,温度值和负荷数据归一化处理。本文采用分散式建模方法,即为一天的24小时各建立一个模型,共建立24个。分散式建模方法相对于集中建模方法(24小时用一个模型),虽然模型多,但是预测准确度高。每个整点的时负荷采用相应的Bp神经网络模型进行预测。建模工具选用matlab7.0。[7]

3.遗传算法优化神经网络

以整点负荷、温度数据和气象数据作为网络的训练样本集,应用遗传算法对基于单一神经网络建立的各个模型(每小时各建一个模型,共24个)进行优化,得到每个模型近似最优权值和阈值。应用优化的权值和阈值对Bp神经网络进行训练,并保存训练好的网络。最后,应用训练好的网络对各整点时负荷进行预测。

表12010年6月24日负荷预测值与误差

时间实际值Bp神经网络

方法预测误差/%遗传算法神经网络方法预测误差/%

0:00404.743412.3751.886397.470-1.797

1:00382.280376.397-1.539382.009-0.071

2:00359.937369.2082.576352.735-2.001

3:00355.508352.308-0.900357.1150.452

4:00347.836341.504-1.820346.528-0.376

5:00347.545342.354-1.494346.586-0.276

6:00354.184356.6500.696360.6551.827

7:00364.504363.920-0.160360.123-1.202

8:00395.881392.358-0.890390.042-1.475

9:00462.394471.5721.985464.2390.399

10:00500.344502.9040.512494.610-1.146

11:00514.415515.9500.298513.479-0.182

12:00477.935489.8982.503485.7921.644

13:00479.680473.516-1.285472.638-1.468

14:00470.148477.4031.543462.066-1.719

15:00482.950490.3021.522474.556-1.738

16:00487.295483.800-0.717486.028-0.260

17:00501.225503.2650.407505.4650.846

18:00470.361462.391-1.694466.165-0.892

19:00455.995443.791-2.676463.7881.709

20:00493.266494.1780.185494.6820.287

21:00489.909498.1151.675486.195-0.758

22:00474.146486.4932.604480.3481.308

23:00446.201436.293-2.221441.855-0.974

单一神经网络方法和遗传算法优化神经网络方法得出的预测结果见表1和图3。从图3中3条曲线对比可以看出,应用遗传算法优化神经网络预测模型得到的预测结果比单一神经网络的更接近实际负荷曲线。单一神经网络预测的负荷最大误差为-2.676%,平均误差1.408%,而用基于遗传算法优化神经网络预测的负荷最大误差为-2.001%,平均误差为1.034%,精度显然大于单一神经网络。

五、结论

本文利用遗传算法优化了Bp神经网络结构,并且应用此模型对实际电力短期负荷进行了预测试验分析。实证证明,遗传算法的全局优化搜索能力有效弥补了Bp神经网络容易陷入局部极小值的缺陷,在此基础上建立的预测模型的可靠性、准确性都有所增强,证明了基于遗传算法优化的神经网络的短期负荷预测方法是可行的。

参考文献:

[1]牛东晓,曹树华,赵磊,等.电力负荷预测技术及其应用[m].北京:中国电力出版社,2002.

[2]陈金赛,张新波.基于改进Bp人工神经网络的电力负荷预测[J].杭州电子科技大学学报,2011,34(4):173-176.

[3]田景文,高美娟.人工神经网络算法研究及应用[m].北京:北京理工大学出版社,2006.

[4]王小平,曹立明.遗传算法[m].西安:西安交通大学出版社,

2002.

[5]李玲纯,田丽.基于遗传算法和Bp神经网络的短期电力负荷预测[J].安徽工程科技学院学报,2009,24(3):57-60.

神经网络算法的优点篇4

关键词:短时交通流;Bp神经网络;遗传算法优化;局部极小值

中图分类号:tp183

目前,短时交通流预测已经成为智能交通的热门研究方向。传统的预测方法都是基于数理统计的,如历史平均法、时间序列法、卡尔曼滤波法、回归分析法等[1]。但这些传统模型预测精度不能满足实际要求,且其不具备自适应学习能力,预测系统鲁棒性得不到保障。

随着人工智能的发展,出现了神经网络预测法。由于神经网络能够通过学习逼近任意非线性映射,在非线性系统的建模与辨识中,可以不受非线性模型的限制,其学习算法在工程上易于实现。而Bp神经网络是比较经典、有效的预测方法,但由于其初始值是随机分配的,容易陷入局部极小值,收敛时间较长,预测精度受初始值影响极大。

为了克服此类缺点,可以利用遗传算法的全局搜索能力,优化网络初始权值和阈值[2],提高预测精度及收敛速度。遗传算法是对参数的编码进行操作,它从多点开始并行操作,而非局限于某一点,在搜索过程中以一定的概率进行寻优,因而可以有效地防止收敛于局部最优解。正是这种高效启发式的搜索,避免了因盲目地穷举而浪费时间,以及完全随机搜索带来的不确定性。

1神经网络预测

1.1Bp神经网络原理

Bp神经网络属于模式正向传播,误差反向传播,是一种前馈网络[3]。

Bp神经网络由输入层、隐含层、输出层构成,每层由一个或多个神经元构成,三层之间多采用全连接,每一层的权值可以通过学习算法灵活调整。当误差函数达到精度要求时,该网络所有权值就得以确定,训练结束,生成所需网络。

1.2Bp神经网络预测方法

Bp神经网络通过学习武汉长江大桥汉阳往武昌方向下班高峰期交通流的历史数据,不断更新连接权,拟合出交通流量的变化趋势函数,将其转换为网络特定的权值和阈值,从而对交通流未来短时变化进行预测。

用Bp神经网络对交通流进行预测可分为训练和预测两个部分:(1)通过公安交管监控获取训练样本数据,一般选择每天同一时段的流量作为样本,因为每天不同时段的车流规律都不尽相同。样本时间间隔为一分钟左右,样本周期以两小时以内为宜。周期太长则数据选取过多造成计算量大,训练时间长,拟合难度大;(2)通过观察,除了发生事故造成短时堵塞时车流量极低外,每分钟车流量一般在40到60之间。而采集到偏离常规太大的数据噪声往往淹没了真实信号,因此要对原始采集数据进行归一化处理。预测值变化幅度较大,也要实施必要的归一化,将数据范围限制在[-1,1],使输出结果更加直观、平滑;(3)本例进行交通流预测的分析周期选择4分钟,依次将连续4分钟的数据作为网络的一组输入数据,第5分钟的数据作为网络输出目标数据。滚动采集数据,作为神经网络的训练样本;(4)建立3层结构的Bp神经网络预测模型;(5)训练出符合要求的Bp神经网络;(6)用训练好的网络进行预测。

2遗传算法优化

2.1遗传算法原理

遗传算法将需要优化的参数编码成染色体,随机产生多条染色体构成种群,根据“优胜劣汰,适者生存”的自然法则,模拟生物遗传机制淘汰适应度差的个体,保留适应度好的最优个体。所有个体的染色体信息在不同部位可以同时进行数据处理,因此它属于并行搜索最优化方法[2]。适应度函数是个体进化的评价标尺,通过选择、交叉、变异对个体进行筛选,反复迭代,直到最优者胜出。

2.2遗传算法优化方法

种群中的每个个体都包含了输入层到隐含层、隐含层到输出层的权值,还有各层节点的阈值。遗传算法挑选出适应度值最高的最优个体。经解码得到最优网络初始权值和阈值,将其赋给网络,经训练后预测函数输出。

由于预测函数有4个输入参数,1个输出参数,将Bp神经网络结构设置为4―12―1,即输入层有4个节点,隐含层有12个节点,输出层有1个节点,共有4×12+12×1=60个权值,12+1=13个阈值,所以在遗传算法中个体编码长度为60+13=73。将每次训练所预测的误差绝对值求和作为个体适应度值,该值越小,则个体越优。

遗传算法主函数流程为:

Step1:随机初始化种群。

由于实数编码比二进制编码更短,故个体编码方法采用实数编码。每一个体实数串分割为4个模块,从左至右依次为输入层到隐含层连接权值、隐含层节点阈值、隐含层到输出层连接权值以及输出层节点阈值。

Step2:计算种群适应度值,寻找最优个体。

解码个体得到Bp神经网络的初始权值和阈值,代入Bp神经网络,训练完成后预测系统输出,将预测结果和实际值之间的误差绝对值和e作为个体适应度值F,计算公式为:

(1)

式中,n表示预测网络输出节点数;yi为第i个节点的实际输出值;oi为第i个节点的预测输出值;k为系数。

Step3:选择操作。

本例选择赌法,根据适应度比例选择每个个体i的概率pi为

fi=k/Fi(2)

(3)

式中,Fi为个体i的适应度值,其值越小越好,故个体选择概率为适应度值的倒数;k为系数;n为种群中个体数目。

Step4:交叉操作。

第k条染色体ak和第l条染色体al在第j位的交叉操作方法为:

akj=akj(1-b)+aljb(4)

alj=alj(1-b)+akjb(5)

式中,b是[0,1]间的随机数。

Step5:变异操作。

选取第i个个体的第j个基因aij进行变异操作,方法如下所示:

aij=aij+(aij-amax)*f(g)r>0.5(6)

aij=aij+(amin-aij)*f(g)r≤0.5(7)

式中,amax及amin分别为为基因aij的上下界;f(g)=r2(1-g/Gmax)2;g为当前迭代次数;Gmax为最大进化次数;r为[0,1]间的随机数。

Step6:判断进化是否结束,若没有,返回步骤2。

3仿真实例

3.1Bp神经网络预测短时交通流

首先建立预测模型,选用3层结构Bp神经网络:输入层、一个隐含层和输出层,输入节点、隐含层节点和输出节点的个数分别为4、12和1,网络隐含层函数分别为logsig和purelin函数,训练方法为Lm法。用100组数据进行训练,20组数据进行测试。

采集武汉长江大桥16:00至17:44的交通流量数据,每隔1分钟记录一次该段时间内的交通流量,一共记录124个时间点的数据;每连续4个数据作为一组输入向量,后面紧接的第5分钟流量作为输出;用前104个交通流量的数据训练神经网络,用训练好的神经网络预测后20分钟的交通流量。

设置训练参数,并对网络进行训练。最大训练次数为2000,最小均方误差为1e-8,最小梯度为1e-20。图1为网络性能图。

图1网络性能图

从图1可以看出,网络训练到第63代就达到了1e-08的训练指标。用测试数据对网络进行测试,画出预测值与真实值,将预测值与采集的后20分钟数据进行对比,如图2所示。预测误差百分比如图3所示。

图2网络输出的预测值与真实值对比

图3Bp神经网络预测误差百分比

从图2及图3可以看出,Bp神经网络的预测绝对误差最大接近100%,最小为0%,平均绝对误差接近40%,部分时间点的预测值误差太大。这与Bp神经网络的初始权值及阈值都是随机分配有关,极易陷入局部极小值,从而导致部分数据不能拟合。

3.2遗传算法优化神经网络

遗传算法参数设置为:种群规模为8,进化次数为12次,交叉概率为0.3,变异概率为0.1。Ga优化过程中最优个体适应度值变化如图4所示。

图4最优个体适应度值

把最优初始权值和阈值赋给Bp神经网络,用训练数据训练后预测短时交通流,预测值与期望值对比如图5所示。Ga优化Bp神经网络预测误差百分比如图6所示。

图5GaBp神经网络预测交通流

图6Ga优化Bp神经网络预测误差百分比

从图5及图6可以看出,遗传算法优化的Bp神经网络预测更精确,最大绝对误差为30%,平均绝对误差低于15%,满足一般的预测精度要求。

4结束语

遗传算法优化Bp神经网络相当于优化预测函数中的参数。通过遗传算法优化Bp神经网络的初始权值和阈值,避免陷入局部极小值,收敛时间大大缩短,预测精度与未优化的网络相比大大提高,处于合理范围内。部分点误差较大原因主要来自预测的节点数据失真以及训练样本过少。比如在现实中,设备故障造成采集数据严重失真;或因采集周期太短,那么短时的交通事故或堵塞都有可能使该时段的采集数值严重干扰整个样本集中的数据,造成拟合误差过大。当扩充训练样本,且提高采集值的真实度时,可以更好地拟合出交通流模型的变化规律,从而使预测模型能够更加准确地反映出未来短时交通路况。

参考文献:

[1]李松,刘力军,翟曼.改进粒子群算法优化Bp神经网络的短时交通流预测[J].系统工程理论与实践,2012(09):2045-2049.

[2]李松,罗勇,张铭锐.遗传算法优化Bp神经网络的混沌时间序列预测[J].计算机工程与应用,2011(29):52-55.

[5]崔丹丹,张千才,韩东.基于Bp神经网络的路面不平度检测与仿真[J].计算机仿真,2014(05):162-166.

[4]师洪涛,杨静玲,丁茂生.基于小波Bp神经网络的短期风电功率预测方法[J].电力系统自动化,2011(16):44-47.

[5]陈淑燕,王炜.交通量的灰色神经网络预测方法[J].东南大学学报,2004(04):541-544.

[6]唐夕茹,陈艳艳,赵源.基于短时交通预测的公路交通异常判别方法[J].交通信息与安全,2014(02):95-99.

[7]张坤,郁,李彤.小波神经网络在黄金价格预测中的应用[J].计算机工程与应用,2010(27):224-226.

[8]付邵昌,黄辉先,肖业伟等.自适应变异粒子群算法在交通控制中的应用[J].系统仿真学报,2007(07):1562-1564.

[9]乔俊飞,韩红桂.RBF神经网络的结构动态优化设计[J].自动化学报,2010(06):865-872.

[10]王华秋,曹长修.基于模拟退火的并行粒子群优化研究[J].控制与决策,2005(05):500-504.

[11]傅荟璇,赵红.matLaB神经网络应用设计[m].北京:机械工业出版社,2010.

[12]王小川,史峰,郁磊等.matLaB神经网络43个案例分析[m].北京:北京航空航天大学出版社,2013.

神经网络算法的优点篇5

关键词:人工神经网络;前馈神经网络;递归神经网络

中图分类号:tp183文献标识码:a文章编号:1673-1069(2017)06-165-2

1绪论

人工神经网络(artificialneuralnetwork,ann)是由大量处理单元互联组成的非线性、自适应信息处理系统。它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记忆信息的方式进行信息处理。ann通过模仿人类大脑的结构和功能,并借鉴生物神经科学的研究成果,实现对信息的处理,是一种新兴的交叉学科,不但推动了智能化计算的应用和发展,同时也为信息科学和神经生物学的研究方法带来革命性的变化,现已成功应用于脑科学,认知科学,模式识别,智能控制,计算机科学等多个领域。

在实际应用中,人工神经网络的选取通常包括适当的神经网络模型,合理的网络结构及快速有效的网络参数训练算法[1]。而针对某一特定网络模型,ann的研究主要集中在结构的调整和训练算法的改进两个方面。所谓神经网络训练,也就是网络参数的学习和调整,是一个反复调节节点之间权值和阈值的过程,其学习可以分成三类,即有监督学习(Supervisedlearning),无监督学习(Unsupervisedlearning)和强化学习(Reinforcementlearning),本文基于有监督和无监督学习进行分类,分别分析了前馈神经网络的特点及研究现状、递归神经网络的特点及研究现状。

2前馈神经网络

2.1前馈神经网络的特点

前馈神经网络的主要种类包括:感知器,线性神经网络,Bp网络,径向基网络(RBF)等。其训练算法主要采用梯度下降法(Gradientdescent),包括:误差反向传播算法(Backpropagation,Bp),改进的Bp算法,Levenberg-marquardt法(Lm)等。前馈神经网络具有学习简单,收敛较快等优点,因此在实际应用中,一般选取三层或以上的网络结构,神经网络的任意逼近定理指出,训练合适的多层前馈神经网络能够以任意精度逼近任意连续函数[2]。当网络结构已知的情况下,训练前馈神经网络的本质就是确定最优权值和阈值的方法,前馈神经网络的训练方式一般采用网络理想输出和实际输出的误差作为权值调整信号,解空间一般是多峰函数,由于训练过程中很容易陷入局部极小,因此网络的训练目标就是求解一组最优的权值,使误差达到最小。

传统的误差反向传播算法由于为网络的训练提供了简单而有效的实现途径,目前已成为研究和应用最广泛的有监督学习算法。但Bp算法存在许多问题,例如在多层网络中收敛较慢且容易陷入局部极小,而且不能对多个网络进行同时训练[3]。改进的Bp算法有多种形式,主要有通过附加动量和学习率的引入改进Bp网络的自适应能力等方法,附加动量方法虽然在一定程度上改善了易陷入局部极小的问题,仍然存在收敛速度较慢的问题。调整学习率方法通过将学习率限制在一定范围内自动调整,虽然能够提高网络收敛速率,但对权值的改变和影响并不大,仍然导致误差较大问题。Lm法具有训练时间段,收敛速度快的优点,但由于Lm法需要计算误差的Jacobian矩阵,这是一个复杂的高维运算问题,需要占用大量系统存储空间,同时,Lm也存在易陷入局部极小的问题[4、5]。

2.2前馈神经网络的研究现状

在传统的神经网络训练过程中,预估校正法或者经验选择是最常被使用的网络结构选取方式[6]。在训练和优化网络权值和阈值过程中,训练算法在上述分析中已知,存在着容易陷入局部最优并且难以跳出的缺点,因此误差函数要求必须是连续可求导的函怠R虼耍这些权值训练方法常和进化算法等全局搜索算法相结合。使用全局搜索算法的全局搜索能力帮助网络跳出局部极小。在编码时采用实数编码,克服二进制编码受到编码串长度和精度的限制。例如,Sexton等人用一种改进的遗传算法优化前馈神经网路权值,结果表明改进的算法使网路训练精度得到显著提高[3]。abbass通过将传统Bp算法和差分进化算法相结合,提出了一种的新的权值训练方法并用于乳腺癌的预测实验,取得较好结果[7]。iionen等人使用差分进化算法对前馈网络的权值进行训练和优化,将优化结果与其他几种基于梯度下降的网络训练方法比较,结果表明该方法具有较好的精度[8]。更多研究成果表明,将De、pSo应用于网络权值在线训练和优化具有明显优势,这些改进方法也成功应用在了医学和工程技术等领域[9、10]。

此外,多种优化算法相结合也被证明是有效的。例如,在文献[11]中,作者提出了一种De和Lm相结合的神经网络快速训练方法。Liu等人提出一种粒子群算法(particleSwarmoptimization,pSo)和共轭梯度算法相结合的混合算法,并将其应用于神经网络的权值优化[12]。在优化过程中,首先确定网络结构,然后使用pSo的全局搜索能力获得最后权值组合,最后使用传统方法进行权值微调,取得较好结果。在文献[13]中,作者采用相反方式将基本pSo和传统Bp算法相结合使用,首先用Bp算法对网络权值进行计算,然后使用pSo对网络结构固定的权值进行优化和改进。有学者提出一种具有控制参数自适应选择能力的差分进化算法,用于训练前馈网络,并将该方法用于奇偶分类实验中,将实验结果与几种其他方法进行比较得知,提出的方法具有更好的准确性。epitropakis等人在训练离散pi-Sigma神经网络实验中,采用一种分布式离散差分进化算法和分布式离散pSo算法相结合的方式。该离散网络仍然是一种多层前馈网络,在输出层,通过将神经元求积的方式获得输出,作者认为这种整数权值的离散方式更适合用于硬件实现[14]。在离散化权值方面,Bao等人的工作表明,通过采用一种可重建的动态差分进化算法,可以有效用于训练固定结构的网络权值。

在不同领域中,任务往往各不相同,因此针对不同的动态系统,不同类型的递归网络的也相继被提出并得到研究,使之成为人工智能界的研究热点之一。因其具有独特的优化能力,联想记忆功能,递归神经网络已引起ai界极大的研究和关注,并成功应用于多种模式识别问题,例如图像处理,声音辨识,信号处理等。

4结论

本章分析和研究了神经网络的两种主要类型,前馈型和递归型,并对其特点进行了分析。前馈网络的主要特点是计算简单,运算方便,缺点是耗时较长,容易陷入局部极小;递归网络的特点是具有动力学特性和联想记忆特性,但使用时需要注意稳定性和收敛性,且对初始状态具有高度敏感特性。针对两类神经网络的特点,可通过多种优化相结合的方法解决收敛较慢且容易陷入局部极小问题,应用参数学习训练算法和网络结构优化算法对递归网络进行适当的调整,以应用于具体问题。

参考文献

[1]n.Garcia-pedrajas,C.Hervas-martinez,J.munoz-perez.CoVnet:acooperativecoevolutionarymodelforevolvingartificialneuralnetworks[J].ieeetransactiononneuralnetworks,2003,14(3):575-596.

[2]K.Hornick,m.Stinchcombe,H.white.multilayerfeedforwardnetworksareuniversalapproximators[J].neuralnetworks,1989,2:359-366.

[3]R.S.Sexton,R.S.Sriram,H.etheridge.improvingdecisioneffectivenessofartificialneuralnetworks:amodifiedgeneticalgorithmapproach[J].DecisSci,2003,34(3):421-442.

[4]商琳,王金根,姚望舒,等.一n基于多进化神经网络的分类方法[J].软件学报,2005,16(9):1577-1583.

[5]S.U.ahmed,m.Shahjahan,K.murase.injectingchaosinfeedforwardneuralnetworks[J].neuralprocessLett,2011,34(1):87-100.

[6]SerkanKiranyaz,turkerince,alperYildirim,etal.evolutionaryartificialneuralnetworksbymulti-dimensionalparticleswarmoptimization[J].neuralnetworks,2009,22:1448-1462.

[7]H.a.abbass.anevolutionaryartificialneuralnetworksapproachforbreastcancerdiagnosis[J].artificialintelligenceinmedicine,2002,25(3):265-281.

[8]J.iionen,J.K.Kamarainen,J.Lampinen.DifferentialevolutiontrainingalgorithmforFeed-forwardneuralnetworks[J].neuralprocessingLetters,2003,17(1):93-105.

[9]D.m.George,p.p.Vassilis,n.V.michael.neuralnetwork-basedcolonoscopicdiagnosisusingon-linelearninganddifferentialevolution[J].appliedSoftComputing,2004,(4):369-379.

[10]B.Liu,L.wang,Y.H.Jin,etal.Designingneuralnetworksusinghybridparticleswarmoptimization[C].LecturenotesinComputerScience.Berlin:Springer,2005:391-397.

[11]王刚,高阳,夏洁.基于差异进化算法的人工神经网络快速训练研究[J].管理学报,2005,2(4):450-454.

[12]L.B.Liu,Y.J.wang,D.Huang.DesigningneuralnetworksusingpSo-basedmemeticalgorithm[C].in:proceedingsoftheFourthinternationalSymposiumonneuralnetworks(iSnn’07),2007,pp.219-224.

神经网络算法的优点篇6

[关键词]小生境遗传算法神经网络股票预测

一、引言

股票和股票市场对国家企业的经济发展起到了积极的作用,如可以为投资者开拓投资渠道,增强投资的流动性和灵活性等。但股票价格的形成机制是颇为复杂的,股票价格既受到多种因素,诸如:政治,经济,市场因素的影响,亦受技术和投资者行为因素的影响,个别因素的波动作用都可能会影响到股票价格的剧烈波动。因此,股票价格和各影响因素之间很难直接建立明确的函数关系表达式。针对这一情况,将可有效处理非线性问题的神经网络引入到股票价格的预测中来,但神经网络收敛慢,易陷入局部极小点,出现振荡,鲁棒性差。所以有的学者用遗传算法(Ga)来优化神经网络,这种神经网络可能获得个别的甚至局部的最优解,即Ga早熟现象。本文引进能较有效地保持种群多样性的小生境遗传算法(nGa),采用nGa优化与用Ga优化的Bp网络权值进行对比,证实了nGa的判别准确性和寻优能力。

二、小生境遗传算法优化的神经网络

1.Bp神经网络

反向传播(Bp)算法又称为误差逆传播校正方法,它是1974年p.werbos(哈佛大学)提出的。Bp算法用来训练多层前馈神经网络,属于监督学习算法。Bp网络具有结构清晰,易实现,计算功能强大等特点。因而是目前最常见,使用最广泛的一种神经网络。但是在实际应用中,传统的Bp算法存在以下问题:收敛速度慢;若加快收敛速度易产生振荡;存在局部极小和平台问题;泛化能力差;隐节点数和初始值的选取缺乏理论指导;未考虑样本选择对系统学习的影响等。所以很多学者提出许多改进的方法,用小生境遗传算法优化神经网络权值的神经网络来预测股票价格。

2.小生境遗传算法

小生境遗传算法(icheGeneticalGorihm)的基本思想是:首先比较任意两个个体间的距离与给定值的大小,若该距离小于给定值,则比较其适应值大小。对适应值较小的个体施加一个较强的惩罚,极大地降低其适应值。也就是说,在距离L内将只有一个优良个体,从而既维护了群体的多样性,又使得各个体之间保持一定的距离,并使得个体能够在整个约束空间中分散开来。

3.神经网络连接权的优化

用小生境遗传算法可以优化神经网络连接权,神经网络结构,学习规则等,这里我们对神经网络的连接权进行优化,具体步骤如下:

(1)随机产生一组权值分布,采用某种编码方案对该组中的每个权值(或阈值)进行编码,进而构造出一个码串(每个码串代表网络的一种权值分布),在网络结构和学习规则已确定的前提下,该码串就对应一个权值和阈值取特定值的一个神经网络。

(2)对所产生的神经网络计算它的误差函数,从而确定其适应度函数值,误差越大,则适应度越小。

(3)选择若干适应度函数值最大的个体,直接遗传给下一代。

(4)利用交叉和变异等遗传操作算子对当前一代群体进行处理,产生下一代群体。

(5)重复(2)(3)(4),使初始确定的一组权值分布得到不断地进化,直到训练目标得到满足为止。

这种由小生境遗传算法训练神经网络的方法也可以称做混和训练法。将基于小生境遗传算法的遗传进化方法和基于梯度下降的反传训练相结合,这种训练方法吸取两种方法的各自特点,所以收敛速度快。

三、股票价格预测仿真

根据经验选取输入预测日前四天开盘价、收盘价归一化后做为作为输入量,输出为第五天收盘价归一化数值。所以,本文采用神经网络结构为(8,5,1),即网络的输入层6个节点,隐含层9个节点,输出层1个节点。本文选择了“XDG新梅(600732)”从2006年3月14日到2006年7月1日数据进行了仿真。利用matLaB6.5编程,取70组训练样本和30组测试样本。如图(1)表示用遗传算法和小生境遗传算法对神经网络的权值进行优化时,误差曲线变化;从图中可以看出,小生境遗传算法收敛速度要快;图(2)表示股票预测值和实际值比较,从图中可以看出,遗传算法和小生境遗传算法对神经网络的权值的模型进行股票价格的预测,都能预测出股票走向趋势,但是,后者的预测精度显然要比前者高。

四、结束语

股票市场的不确定因素太多,股票的价格更是多种因素影响的集合体,是典型的非线性动力学问题。股票价格的中长期准确预测很难。本文建立了用小生境遗传算来优化神经网络模型来预测股票价格,结果表明,这种方法比单用遗传算法优化的神经网络收敛速度快,预测精度高。对于股票价格预测具有较好的应用价值。

参考文献

[1]龙建成李小平:基于神经网络的股票市场趋势预测[J].西安电子科技大学学报(自然科学版.2005.3(32):460-463

[2]王波张凤玲:神经网络与时间序列模型在股票预测中的比较[J].第27卷第6期武汉理工大学学报·信息与管理工程版.2005.9(27):69-72

[3]张立明:工神经网络的模型及其应用[m].上海:复旦大学出版社,1995.35-76

神经网络算法的优点篇7

基金项目:云南省自然科学基金(2009ZC128m).

作者简介:杨华芬(1981-),女,硕士,讲师.主要研究方向:神经网络与遗传算法.

摘要:传统遗传算法优化神经网络存在“近亲繁殖”、“早熟收敛”、收敛速度慢和容易陷入局部极小等缺点.将适应度与相应的个体数目相联系,提出一种自适应交叉变异概率,并将其用于遗传操作,使得个体具有较强的多样性,一定程度缓解种群“早熟”;将单纯形法和遗传算法结合到一起,使遗传算法的搜索更具有方向性,提高遗传算法的搜索能力,加快收敛速度.仿真实验进一步证明本文提出的算法对加快收敛速度,防止“近亲繁殖”,保持种群多样性比较有效.

关键词:单纯形法;交叉概率;变异概率;遗传算法;神经网络

中图分类号:tp18

文献标识码:a文章编号:1672-8513(2010)04-0301-04

anadaptiveneuralnetworkoptimizationBasedonHybridGeneticalgorithms

YanGHuafen

(DepartmentofComputerScienceandengineering,QujingnormalUniversity,Qujing655000,China)

abstract:therearesuchdefectsinthetraditionalgeneticalgorithmsas“inbreeding”,“prematurity”,slowconvergencespeedandeasyorientationtothelocalminimum.throughtheimprovingofcrossoverprobabilityandmutationprobability,thediversityofthenetworkcouldbemaintainedanditavoidsprematuritytosomeextent.thecombinationofthesimplexmethodandthegeneticalgorithmmakesthegeneticalgorithmsearchmoredirectionalandimprovesthesearchabilityofgeneticalgorithms.theexperimentsshowthatthisapproachofneuralnetworkavoidseffectively“prematurity”and“inbreeding”whileincreasingtheconvergencespeedandmaintainingthediversity.

Keywords:simplexmethod;crossoverprobability;mutationprobability;geneticalgorithms;neuralnetwork

神经网络(neuralnetwork,nn)以其并行分布处理、自组织、自适应、自学习、具有鲁棒性和容错性等独特的优良性质在模式识别、预测等方面得到广泛应用.应用较为广泛的就是Bp网络[1-2],但传统的Bp网络学习时容易陷入局部极小,以及收敛速度慢等缺点.遗传算法(Geneticalgorithms,Ga)具有较好的全局搜索能力和鲁棒性,将nn和Ga结合可以优势互补,但在进化过程中容易出现“早熟收敛”.出现这一现象的根本原因是种群经过进化以后,优胜劣汰,种群的适应度趋同,用这些个体进行遗传操作难以产生优良个体[3].为改进Ga的性能,国内外学者做了大量的研究,提出许多改进算法.文献[4]对适应度进行变换;文献[5]提出自适应交叉变异概率;文献[6]采用自适应比例选择策略,依据种群性状的改变而动态地调整选择压力;文献[7]提出了一种基于实数编码的自适应多亲遗传算法;文献[8]根据个体的最大适应度和平均适应度提出自适应交叉和变异概率.但种群的某一个个体的适应度大不能代表种群的整体适应度大,因此,文献[8]提出的交叉/变异概率不能随着种群个体适应度的变化而变化.

遗传算法为指导性搜索算法,全局搜索能力较强,但其局部搜索能力较弱,导致优化解质量不高.单纯形法(Simplexmethod,Sm)[9],也称可变多面体搜索法,是确定性下降方法,局部搜索能力很强.将搜索机制上存在如此差异的2种算法进行混合,有利于丰富搜索行为,增强全局和局部意义下的搜索能力和效率.

本文提出一种基于混合算法的自适应神经网络优化设计方法.首先,将个体适应度和相应的个体数目联系,提出自适应交叉概率(pc)和变异概率(pm),让pc和pm随着个体适应度的变化而变化,既能开发优良个体又能保证算法收敛;其次,将单纯型算法用于优化自适应遗传算法得到的个体,指导遗传算法进行寻优.该混合算法不仅具有遗传算法通用、简单、全局随机搜索的优点,而且融入了局部搜索法的快速寻优并收敛的优点,在一定程度上保持种群的多样性,防止“种群早熟”,提高学习速度.

1改进遗传算法

1.1神经网络的基因编码

常见的神经网络编码有二进制和实数编码,若采用二进制编码,会造成编码串太长,且需要再解码为实数,影响网络学习的精度.本文采用实数编码,如图1所示的网络,编码为:xij,θj,yjk,其中i,j,k分别

3.2仿真实验

本文以表1所给的的数据(番茄常见病害特征参数),作为所要构建的神经网络的输入,网络的输出作为诊断所得到病害.7个输出参数:x1为发病部位;x2为病斑颜色;x3为病斑形状;x4为霉层颜色;x5为霉层形状;x6为生长特征;x7为其他特征.4个网络输出y1,y2,y3,y4为二值输出,其输出的16种状态分别表示16种常见的病害(番茄茎基腐病、番茄白绢病、番茄斑枯病等).

在建立基于混合遗传算法的Bp神经网络模型时网络连接权的基本解空间初步设定为[-15,15],阈值解空间初步设定为[-10,13],隐节点个数为15.遗传算法进化过程中初始种群数目L=50,总的进化代数为K=150,根据(2)和(3)式求取交叉变异概率.

神经网络算法的优点篇8

关键词:矢量量化;自组织特征映射神经网络;图像压缩;主元分析

中图分类号:tp183文献标识码:a文章编号:1009-3044(2008)36-2731-02

theVectorQuantizationBasedonpCa/SoFmHybridneuralnetwork

HUnGCui-cui,ZHanGJian

(LiaoningUniversityoftechnologyelectronicandinformationengineeringCollege,Jinzhou121001,China)

abstract:inordertoimprovethetwomainshortcomingsoftheKohonen'sself-organizingfeaturemap(SoFm)thatarehighcomputationcomplexityandpoorcodebookquality,theauthorproposesavectorquantizationalgorithmbasedonpCa/SoFmhybridneuralnetworkinthispaper.Descendthedimensionofimportedvectorsbyusingtheprincipalcomponentanalysis(pCa)linearneuralnetwork.andthen,useSoFmneuralnetworktovectorquantization.Bymodifyingthelearning-rateparameter,topologyfieldweightandinitialcodebookoftheSoFmneuralnetworktooptimizenetwork.Simulationresultsdemonstratethattheimagecompressionalgorithmcanshortenthetimeandimprovetheperformanceofcodebook.

Keywords:Vectorquantization(VQ);Self-organizingfeaturemapneuralnetwork(SoFm);imagecompression;principlecomponentanalysis(pCa)

1引言

矢量量化[1,2]技术是一种利用图像数据空间相关性的高效有损压缩方法,它具有压缩比大,编码速度快等优点,目前己广泛用于信号识别、语音编码、图像压缩等领域中。矢量量化优越性的体现离不开性能良好的码书,因而,矢量量化的关键是如何设计一个最佳码书,使得用该码书中的码字表征输入矢量空间分布时所引起的量化平均失真最小。近年几来,许多学者将SoFm神经网络应用于码书的设计[3]。但SoFm算法存在收敛速度慢、计算量大等缺点。陆哲明和孙圣和针对SoFm基本算法的计算量大采用了快速搜索算法,为了提高码书性能对SoFm基本算法的权值调整方法作了一些改进[4]。目前越来越多的研究人员把目光投向将矢量量化与其他的编码方法相结合[5]。例如,矢量量化与小波变换结合的算法[6],分形变换与矢量量化相结合的算法[7]。pCa是一种有效的图像变换编码算法,它能够提取图像数据的主特征分量,因此能够降低图像输入数据维数。SoFm算法用于图像矢量量化则具有不易受初始码书的影响,同时能够保持图像数据的拓扑结构等优点。为此本文将两者结合,提出了pCa/SoFm混合神经网络图像混合编码算法。先用pCa对图像进行降维处理,再用SoFm神经网络进行码书设计。本文还对码书的初始化的选择问题和神经网络的学习参数进行研究。实验表明,该算法不但大大降低了计算量,而且提高了码书的性能。

2pCa/SoFm混合神经网络的算法

尽管SoFm神经网络比起LBG算法有很大优势,但SoFm算法仍然存在收敛速度慢。计算量大等缺点。因此本文将pCa与SoFm神经网络相结合,提出了pCa/SoFm混合神经网络。pCa/SoFm混合神经网络结构如图1所示,先用pCa线性神经网络对输入矢量降维处理,从而使得压缩图像达到最小失真。然后用SoFm神经网络进行码书设计,pCa线性神经网络采用Sanger提出的广义Hebb算法[8]。

2.1基本pCa/SoFm混合神经网络算法

1)pCa网络权值wpi,j和SoFm网络权值初始化;

2)pCa网络输出矢量Yp(t):

(1)

n为pCa神经网络输入矢量Xp的维数。

3)wpi,j网络权值调整:

(2)

4)重复步骤(2)至(3),直至算法收敛。输出矢量Ypi(t),并将此作为SoFm的输入Xi(t);

5)计算矢量Xi(t)与权值矢量wi,j(t)的距离:

(3)

6)选择具有最小距离的输出节点,j*作为获胜节点,即:

(4)

7)wij(t)网络权值调整:

(5)

8)重复步骤(5)至(7),直至算法收敛。

9)取输入训练矢量集的下一个输入矢量,回到步骤(2)反复进行,直到足够的学习次数或满足规定的终止条件为止。

10)保存所有权值wij的值,即设计码书。

2.2pCa/SoFm混合神经网络的初始化和改进

在pCa/SoFm混合神经网络算法中网络的初始化、邻域函数和学习率函数非常重要,它直接影响到网络的收敛速度和码书的性能。本文要对这几个参数进行优化以提高压缩速度和压缩性能。本文采用一种改进的随机选取法,使空间分配均匀,不会出现码字空间分的过细或过粗的现象。首先,按k维矢量所有元素中最重要的单个元素(即k维欧氏空间中最敏感的方向)大小排序;然后按顺序每隔n个矢量取一个矢量作为初始码书的一个码字,完成码书的初始化(n=训练序列中矢量的总数/码书的大小)。

由SoFm基本算法可知,权矢量wi(t+1)的更新实质上是权矢量wit和训练矢量Xi(t)的加权和。其中学习率因子和邻域函数非常重要,它们决定算法的收敛速度。下面推导最优的学习率因子α(t)。由式(5)得:

(6)

可以总结得:

(7)

令多项式的各项相等可得到最优学习率因子:

(8)

其邻域函数取为:

(9)

式中,hcc典型地取为0.8。t为最大迭代次数,初始值σ0和最终值σt典型地取为0.8和0.1。

3实验结果

为了验证算法的有效性,本文把基本SoFm编码算法、基本pCa/SoFm混合神经网络编码算法和改进pCa/SoFm算法分别用于图像的压缩编码。本文采用的是512×512像素,256级灰度的Lena图像用于训练图像进行码书设计。首先将图像分为4×4子块,然后将每一小块的16个像素灰度值作一个训练矢量,送入pCa线性神经网络。pCa线性神经网络输出节点为8维pCa变换系数矢量,同时将它作为SoFm神经网络的输入矢量,用于进行码本设计。进过多次实验,取其平均值作为实验结果,图3给出了各种算法在相同压缩比的情况下恢复图像的对比。表1给出了各算法编码后的尖峰信噪比pSnR和码书设计时间的比较。

从测试的结果可以看出改进pCa/SoFm算法优于基本SoFm算法和基本pCa/SoFm算法,该算法缩短了码书设计的时间,图像的恢复质量有所提高,取得了令人满意的结果。从而证明本文提出的算法是一种行之有效的方法。

4结束语

神经网络算法的优点篇9

关键词:粒子群径向基神经网络语音识别

中图分类号:tp391文献标识码:a文章编号:1007-9416(2013)04-0109-02

近年来,语音识别作为一种便捷的人机交互方式被大量研究,并在日常生活中得到广泛应用。大体上讲,语音识别就是在给定的语料库中找出与待识别词语相同的语料,其识别方法的选择对识别效果至关重要。语音识别的方法主要有3种:基于语音特征和声道模型的方法、模板匹配的方法和人工神经网络[1]。第1种方法出现较早,但由于其模型过于复杂,并未得到实际应用。第2种方法较为成熟,主要通过动态时间规整(Dtw)、隐马尔可夫模型(Hmm)和矢量量化(VQ)技术实现[2]。第3种方法充分利用人工神经网络较强的分类能力和输入——输出映射能力,非常适合解决语音识别这类难以用算法描述而又有大量样本可供学习的问题[3]。

因此,本文将智能领域广泛使用的RBF神经网络运用到语音识别中,针对RBF神经网络隐层基函数的中心值和宽度随机确定的缺陷,运用具有全局寻优能力的粒子群算法(pSo)进行优化,来提高网络的泛化能力和收敛速度,从而提高识别率。实验结果表明,粒子群优化的RBF神经网络用于语音识别,能够显著提升识别性能。

1粒子群优化RBF神经网络

1.1RBF神经网络

1.2粒子群优化RBF网络算法

因此,RBF神经网络隐层基函数中心值和宽度的优化过程就是pSo算法依据输入样本进行聚类的过程,其基本流程为:

(1)参数初始化,包括粒子速度、位置,个体最优位置和全局最优位置;

(2)据(5)式计算惯性权重;

(3)据(3)(4)式更新粒子的速度和位置;

(4)据(6)式计算各粒子适应度值,并更新个体最优位置和全局最优位置;

(5)用全局最优粒子代替本次迭代适应度差的粒子;

(6)反复迭代,直到最大迭代次数则停止,得聚类中心。

2pSo优化RBF语音识别系统

语音识别过程主要包括信号预处理、特征提取、网络训练及识别[6]。预处理主要对语音进行分帧、预加重和加窗处理。特征提取用于提取语音中反映声学特征的相关参数,本文采用的是过零峰值幅度(ZCpa)。网络训练是在识别之前从语音样本中去除冗余信息,提取关键参数,再按照一定规则对数据加以聚类,形成模式库。网络识别是通过已训练好的网络,计算测试样本数据与模式库之间的相似度,判断出输入语音所属的类别。粒子群优化RBF神经网络的语音识别系统原理框图如图1所示。

pSo优化RBF神经网络进行语音识别的实验步骤如下:

第1步:提取特征。

首先对用于训练和识别的各种信噪比的语音文件进行ZCpa特征提取。语音信号的采样频率为11.025kHz,每帧为256个采样点,经过时间和幅度归一化处理后,得到256维特征矢量序列。

第2步:网络训练。

网络训练的过程就是调整RBF神经网络基函数的中心和宽度以及隐层到输出层之间的连接权值。实验中,类别数为待识别的词汇数,如对10个词进行识别,则隐层节点数、输出层节点数和聚类中心均为10,如对20个词进行识别,则隐层节点数、输出层节点数和聚类中心均为20,以此类推,本文对10词、20词、30词和40词分别进行训练识别。利用pSo优化算法通过聚类获取隐层基函数的中心值和宽度,网络输出权值使用伪逆法得到。在pSo算法中,种群大小为20,最大进化迭代次数为40。

第3步:网络识别。

RBF神经网络训练好后,将测试集中的样本输入网络进行识别测试。每输入一个单词的特征矢量,经过隐层、输出层的计算后可得一个单词分类号,将这个分类号与输入词自带的分类号进行对比,相等则认为识别正确,反之,识别错误。最后将识别正确的个数与所有待识别单词数的比值作为最终的识别率。

3实验仿真分析

本文运用matlab在pC机上仿真实现了pSo优化RBF神经网络的孤立词语音识别系统,选用在不同高斯白噪声条件下(包含15dB、20dB、25dB和无噪声),18个人分别录制40词各三次,形成实验语音数据,实验时选其中10人的10词、20词、30词、40词语音数据分别作为训练样本,另外8个人对应的10词、20词、30词、40词语音数据分别作为测试样本进行实验,得到了不同噪声和词汇量下的粒子群优化RBF神经网络的语音识别结果。

表1所示为在不同词汇量和不同SnR下,分别基于pSo优化RBF神经网络和标准RBF神经网络采用ZCpa语音特征参数的语音识别结果。由表中识别率的变化可知,基于pSo优化的RBF神经网络的识别率在不同词汇量和不同信噪比下都比标准RBF神经网络的高,正确识别出的词汇量明显增多,这充分证明改进后的RBF神经网络具有自适应性和强大的分类能力,缩短网络训练时间的同时,提高了系统的识别性能,尤其在大词汇量的语音识别中表现出更加明显的优势。

4结语

本文采用粒子群优化算法来聚类RBF神经网络隐层基函数中心值和宽度,并将pSo改进的RBF神经网络用于语音识别中。通过仿真实验,得出了其与标准RBF神经网络在不同词汇量和不同SnR下的语音识别结果。通过分析比较,证明了pSo优化后的RBF神经网络有较高的识别率,且训练时间明显缩短,表明神经网络方法非常适宜求解语音识别这类模式分类问题。

参考文献

[1]edmondotrentin,marcoGori.asurveyofhybridann/Hmmmodelsforautomaticspeechrecognition[J].neurocomputing,2001,(37):91-126.

[2]王凯.免疫粒子群改进LBG的孤立词语音识别算法研究[J].数字技术与应用,2013,(1):111-113.

[3]夏妍妍,黄健,尹丽华.基于径向基函数神经网络的语音识别[J].大连海事大学学报,2007,(S1):157-159.

[4]孟艳,潘宏侠.pSo聚类和梯度算法结合的RBF神经网络优化[J].自动化仪表,2011,(02):6-8.

神经网络算法的优点篇10

关键词:光伏发电;发电量预测;Bp神经网络;果蝇算法

中图分类号:tm615;tp39文献标识码:a文章编号:2095-1302(2017)04-00-02

0引言

随着全球经济的不断发展,人类对能源需求不断增长,不可再生能源不断减少,使得发展并利用新能源迫在眉睫。研究和实践表明,太阳能是资源最丰富的可再生能源,是人类社会未来能源的基石。由于光伏发电具有较强的随机性和波动性,光伏电站并网势必会造成电网的不稳定,因此准确预测光伏发电量具有重要意义。

目前,国内外对光伏发电量预测已有相关研究,一些相关人工智能算法也被应用到预测模型中,如马尔科夫链,神经网络,灰色理论,粒子群,遗传算法等。考虑到神经网络具有很强的非线性拟合、学习规则简单,但收敛速度慢且易陷入局部最优等缺点,同时考虑到果蝇算法与其他算法相比具有全局寻优能力强、计算复杂度小、精度高、收敛速度快等优点,故本文提出一种果蝇算法结合神经网络的混合算法。此混合算法能很好的结合两者的优点。

1光伏发电量预测模型

1.1Bp神经网络模型

神经网络(neuralnetwork)是模拟人大脑学习知识的过程而提出的一种人工智能算法。神经网络分为单层前馈网络(LmS学习算法)、多层前馈网络(Bp神经网络)、后馈网络等。其中Bp神经网络是目前研究最为成熟、广泛的预测网络模型之一。预测模型分为输入层、隐含层以及输出层,如图1所示。

(1)输入层

针对本文的预测模型,输入变量为光伏发电系统各个时段的平均温度、平均光照。

(2)隐含层

本文模型采用双隐含层。多层前向网络是单层感知器的推广,解决了非线性可分问题。隐含层由神经元组成,神经元决定了各输入变量权值以及各输出变量权值。

(3)输出层

本文预测模型的输出变量为当日各时段的光伏发电量。文中将光伏发电预测模型分为24小时/天,每一个小时为一个计算单位。输入层中的每个结点作为激励信号,组成下一层的输入信号,而该层输出信号又作为下层的输入信号,以此类推。神经网络具有很好的非线性拟合性,学习规则简单。

1.2果蝇算法

果蝇优化算法(FruitFlyoptimizationalgorithm,Foa)是一种基于果蝇觅食行为的人工智能仿生算法,是由台湾潘文超教授于2011年6月提出的。果蝇可以使用嗅觉和视觉来寻找食物及同伴,具有很好的群体智能性。

果蝇寻找食物时飞行线路具有一定的随机性,为了寻找食物,果蝇会根据空间中的食物气味浓度进行判定,向浓度高的方向飞行。其算法流程如下所示:

(1)在搜索空间中随机产生果蝇种群。随机产生个体果蝇的位置及各自飞行方向向量。

(2)各果蝇分别沿预定方向移动一定的步长,计算各果蝇所在位置的浓度。

(3)找出种群中浓度最高的果蝇的位置,保存为piter,然后所有果蝇飞向浓度最高的位置。

(4)计算移动后各果蝇所处位置的浓度,若piter,i比piter浓度更高,则更新piter,再转到步骤(2),直到找到食物位置。

piter表示第iter代的浓度最高的位置;piter,i表示第i个果蝇第iter代的位置。

1.3Foa-Bp算法

榻饩錾窬网络收敛速度慢以及容易陷入局部最优的缺点,本文提出一种果蝇算法结合神经网络的混合算法,该混合算法具有较强的全局搜索能力、不易陷入局部最优、收敛快等优点。本文主要利用果蝇算法来优化神经网络权值以达到优化的目的。混合算法流程如下所示:

(1)初始化。初始化种群规模S,最大迭代次数iter,随机生成各果蝇的位置、移动方向、移动步长及神经元权值等。

(2)读取数据。读取光伏发电系统训练样本数据,包括各时段的平均温度、平均光照强度以及光伏发电量,对样本数据进行归一化处理。

(3)通过神经网络样本进行训练,得到相应的权值,并利用果蝇算法对权值进行修正与优化。果蝇个体向预定方向移动一定的步长,计算浓度,此时浓度即预测值,若预测值pbest更优,则保留,继续迭代,直到达到预测精度为止。

(4)输出种群中果蝇所处浓度最高的位置,即神经网络的最优权值。输出预测结果。Foa-Bp算法流程如图2所示。

2实验结果与分析

本模型采用武汉某发电企业发电机组1的发电数据进行试验。时间段选取6:00-19:00。训练样本选取6月份的数据120组,其中输入量是各时段的平均光照强度、平均温度,输出量是各时段的发电量。预测样本是6月6日6:00-19:00各时段的数据。神经网络激励函数采用单极性sigmod激励函数g(x)=1/(1+e-x),神经网络结构为双隐含层,隐含层神经元个数为25,预测样本各时段的平均温度以及平均光照,分别如图3,图4所示。

预测发电量与实际发电量的对比如图5所示。预测误差如图6所示。

由图6的预测曲线图可知,大部分时段的预测误差都在15%内,在第6、第10时段误差较大,总体来看发电量预测曲线能很好的与实际发电量曲线拟合。

3结语

本文提出的Foa-Bp算法能应用到光伏发电量预测模型,使得输出结果具有较强的准确性、收敛速度快以及寻优能力强等特点。本模型算法可以有效为光伏发电厂的选址以及电厂维护提供理论依据,从而为发电企业带来更多的利益。准确的光伏发电量预测能够为公共电网的维护和电力的再分配提供有力的理论支持。

参考文献

[1]李春鹏,张廷元,周封.太阳能光伏发电综述[J].电工材料,2006(3):45-48.

[2]孟杰,李庚银.含风光电站的电力系统动态经济调度[J].电网与清洁能源,2013,29(11):70-75.

[3]潘文超.果蝇最佳化演算法[m].台北:沧海书局,2011.

[4]景亚平,张鑫,罗艳.基于灰色神经网络与马尔科夫链的城市需组合预测水量[J].西北农林科技大学学报(自然科学版),2011,39(7):229-234.

[5]陈勇,刘洲,李伏麟,等.人工神经网络在货运预测系统中的应用[J].物联网技术,2016,6(1):42-43.

[6]刘瑞叶,黄磊.基于动态神经网络的风电场输出功率预测[J].电力系统自动化,2012,36(11):19-22.