04神经网络控制.ppt
- 1.请仔细阅读文档,确保文档完整性,对于不预览、不比对内容而直接下载带来的问题本站不予受理。
- 2.下载的文档,不会出现我们的网址水印。
- 3、该文档所得收入(下载+内容+预览)归上传者、原创作者;如果您是本文档原作者,请点此认领!既往收益都归您。
下载文档到电脑,查找使用更方便
6 0人已下载
| 下载 | 加入VIP,免费下载 |
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 04 神经网络 控制
- 资源描述:
-
1、主要内容 神经网络的基本概念 前向网络及其主要算法 反馈网络 支持向量机 神经网络控制 Matlab神经网络工具箱4.1 神经网络的基本概念 什么是神经网络 神经网络的基本特征 神经网络的发展简史 神经网络的结构 神经网络的学习方法4.1.1 什么是神经网络 神经网络是指模拟人脑神经系统的结构和功能,运用大量的处理部件,由人工方式构成的非线性动力学网络系统 神经网络从两个方面上模拟大脑:神经网络获取的知识是从外界环境中学习得来的。内部神经元的连接强度,即突触权值,用于储存获取的知识 学习算法是用于完成学习过程的程序,其功能是以有序的方式改变系统权值以获得想要的设计目标。突触权值的修改提供了神经
2、网络的一种设计方法4.1.2 神经网络的基本特征 并行分布处理 非线性映射 通过训练进行学习 适应与集成 硬件实现4.1.3 神经网络的发展简史 初始发展期(20世纪40年代60年代):1943年McCulloch(心理学家)和Pitts(数理逻辑学家)发表文章,提出M-P模型。M-P模型能完成一定的逻辑运算。标志神经计算时代的开始 1949年Donala U.Hebb(心理学家)论著The Organization of Behavior(行为自组织),提出突触联系强度可变的假设,认为学习的过程最终发生在神经元之间的突触部位,突触的联系强度随着突触前后神经元的活动而变化。Hebb规则:若两个
3、神经元输出兴奋,则它们之间的连接权加强,反之减少。4.1.3 神经网络的发展简史 初始发展期(20世纪40年代60年代):1957年Frank Rosenblatt定义了一个神经网络结构,称为感知器(Perceptron)。第一次把神经网络研究从纯理论的探讨推向工程实现,在IBM704计算机上进行了模拟,证明了该模型有能力通过调整权的学习达到正确分类的结果。掀起了神经网络研究高潮。1962年电机工程师Window和Hoff提出自适应线性元件Adaline,它是一个连续取值的线性网络。4.1.3 神经网络的发展简史 低谷期(20世纪60年代末70年代末):1969年M.Minsky和S.Pape
4、rt发表Perceptrons的论著,指出感知器仅能解决一阶谓词逻辑,只能做线性划分。对于非线性或其他分类会遇到很大困难。一个简单的XOR问题的例子就证明了这一点。神经网络研究一度达到低潮。原因还有:计算机不够发达、VLSI还没出现、而人工智能和专家系统正处于发展高潮。仍有不少学者致力于NN的研究,如Grossberg和Carpenter提出自适应共振理论ART网络,Kohonen提出自组织映射网络等。4.1.3 神经网络的发展简史 兴盛期(20世纪80年代90年代初):1982年John J.Hopfield(物理学家)提出了全联接网络,离散的神经网络模型。全新的具有完整理论基础的神经网络模
5、型。基本思想是对于一个给定的神经网络,对于一个能量函数,这个能量函数是正比于每一个神经元的活动值和神经元之间的联接权。而活动值的改变算法是向能量函数减少的方向进行,一直达到一个极小值为止。证明了网络可达到稳定的离散和连续两种情况。3年后AT&T等做出了半导体芯片。神经网络复兴时期开始4.1.3 神经网络的发展简史 兴盛期(20世纪80年代90年代初):1986年美国的一个平行计算研究小组提出了前向反馈神经网络的Back Propagation(BP)学习算法。成为当今应用最广泛的方法之一。该方法克服了感知器非线性不可分类问题,给神经网络研究带来了新的希望。1990年汉森(L.K.Hansen)
6、和萨拉蒙(P.Salamon)提出了神经网络集成(neural network ensemble)方法。他们证明,可以简单地通过训练多个神经网络并将其结果进行拟合,显著地提高神经网络系统的泛化能力。神经网络集成可以定义为用有限个神经网络对同一个问题进行学习,集成在某输入示例下的输出由构成集成的各神经网络在该示例下的输出共同决定。4.1.3 神经网络的发展简史 再认识与应用研究阶段(1991年以后):问题:1)应用面还不够宽2)结果不够精确3)存在可信度的问题 研究:1)开发现有模型的应用,并在应用中根据实际运行情况对模型、算法加以改造,以提高网络的训练速度和运行的准确度2)充分发挥两种技术各自
7、的优势是一个有效方法3)希望在理论上寻找新的突破,建立新的专用/通用模型和算法4)进一步研究生物神经系统,不断丰富对人脑的认识4.1.4 神经网络的结构 生物神经元模型4.1.4 神经网络的结构 人工神经元模型W ij:x 2x 1x n:x ijy jf(.)s jW 1 jW 2 jW n j输入信号 连接权 阈值 处理单元净值 转移函数 输出 4.1.4 神经网络的结构 人工神经元输入与输出之间的关系:转换函数的作用:*控制输入对输出的激活作用*对输入、输出进行函数转换*将可能无限域的输入转换成指定的有限范围内的输出1njijijisx()jjyf s4.1.4 神经网络的结构 几种常见
8、的转换函数:*阈值型*线性型*双曲函数*S型(Sigmoid)*高斯型 1 s 0()0 s 0y f s 1 0()1 0sy f ss()y f sks()tanh()y fss1()1 exp()y f ss 22()exp()syf s4.1.4 神经网络的结构4.1.4 神经网络的结构 人工神经网络的结构类型:*前馈型神经网络(Feed forward)-神经元分层排列,可有多层-每层神经元只接受前层神经元的输入-同层神经元之间无连接4.1.4 神经网络的结构 人工神经网络的结构类型:*反馈型神经网络(Feedback)-全反馈型:内部前向,输出反馈到输入-Inner recurre
9、nt:层间元相互连接4.1.5 神经网络的学习方法 人工神经网络的学习方式:*有监督学习:需要有个教师提供期望或目标输出信号,系统根据期望的和实际的网络输出间的差来调整神经元连接的权值 4.1.5 神经网络的学习方法 人工神经网络的学习方式:*无监督学习:不需要知道期望输出,在训练过程中,只要向神经网络提供输入模式,神经网络就能够自动地适应连接权 4.1.5 神经网络的学习方法 人工神经网络的学习方式:*强化学习:不需要给出目标输出,它采用一个评论员来评价与给定输入相对应的神经网络输出的优度 4.1.5 神经网络的学习方法 人工神经网络的学习算法:*Hebb学习规则-如果两个神经元同时兴奋(即
10、同时被激活),则它们之间的突触连接加强 -Hebb学习规则是一种无监督的学习规则,常用于自组织网络或特征提取网络ijijvv4.1.5 神经网络的学习方法 人工神经网络的学习算法:*Delta学习规则 -用已知样本作为教师对网络进行学习 -学习规则可由二次误差函数的梯度法导出 -误差校正学习规则实际上是一种梯度方法 ,ijjijjjFyy 4.1.5 神经网络的学习方法 人工神经网络的学习算法:*概率型学习-神经网络处于某一状态的概率主要取决于在此状态下的能量,能量越低,概率越大-该概率还取决于温度系数T,T越大,不同状态出现概率的差异便越小,较容易跳出能量的局部极小点()ijijijpp4.
11、1.5 神经网络的学习方法 人工神经网络的学习算法:*竞争式学习-在竞争学习时网络各输出单元相互竞争,最后只有最强者激活()Kohonen0jijijxjj 若神经元竞争获胜规则:若神经元竞争失败()Instar0i jijijyxjj 若神经元竞争获胜规则:若神经元竞争失败()/Outstar0iijjijyxjj 若神经元竞争获胜规则:若神经元竞争失败4.2 前向网络及其主要算法 感知器模型 BP网络 RBF网络4.2.1 感知器模型 感知器(Perceptron)模型结构:-最简单的前向网络,由输入层和输出层两层构成4.2.2 感知器模型 感知器模型结构:-不失一般性,可以假设输出层仅有
12、一个神经元1njijijisx10()10jjjjsyf ss4.2.1 感知器模型 感知器的学习算法:给i(0)及阈值分别赋予一个较小的非零随机数作为初值 输入一个样本X=x1,x2,xn和一个期望的输出d 计算网络的实际输出:按下式调整权值(学习规则):转第二步,直到i对所有样本都稳定不变为止 1()()niiiytft x(1)()()iiitt dytx 4.2.1 感知器模型 感知器的分类功能*若有P个输入样本 ,经过该感知器的输出yj只有两种可能,1或者-1,从而说明它将输入模式分成了两类。*若将 看成是n维空间的P个 点,则该感知器将该P个点分成了两类,它们分属于n维空间的两个不
13、同的部分。(1,2,)px pP(1,2,)px pP4.2.2 感知器模型 感知器的分类功能:*以二维空间为例,对于任一样本(x1,x2),感知器输出为:即分界线的方程为:11221122112210()10wx wxfwx wxwx wx 112 20wx wx x2x14.2.1 感知器模型 感知器模型的局限性:*只可解决线性可分问题的模式分类*对异或问题无能为力*对线性不可分问题的解决:采用多层感知器-可以证明,只要隐层和隐层单元数足够多,多层感知器网络可实现任何模式分类。-但是,多层网络的权值如何确定,即网络如何进行学习,在感知器上没有得到解决。4.2.2 BP网络 BP(Back
14、Propagation)网络结构:*多层前馈神经网络,其神经元的变换函数是S型函数*权值的调整采用反向传播的学习算法*输出量是0到1之间的连续量,它可实现从输入到输出的任意的非线性映射1()()(1)01()()00,1qnqqqiijjjqqqiisxx()()()1()1qiqqiisxf se 4.2.2 BP网络 BP学习算法:*属于Delta算法,是一种监督式的学习算法*主要思想:对于q个输入学习样本:P1,P2,Pq,已知与其对应的输出样本为:T1,T2,Tq 使网络输出层的误差平方和达到最小 用网络的实际输出A1,A2,Aq,与目标矢量T1,T2,Tq之间的误差修改其权值,使Am
15、与期望的Tm,(ml,q)尽可能接近 4.2.2 BP网络 BP学习算法:由两部分组成正向传播过程中,输入信息从输入层经隐含层逐层计算传向输出层,每一层神经元的状态只影响下一层神经元的状态 如果在输出层未得到期望的输出,则计算输出层的误差变化值,然后转向反向传播,通过网络将误差信号沿原来的连接通路反传回来修改各层神经元的权值直至达到期望目标 4.2.2 BP网络 BP学习算法推导:网络关于第p个样本的误差函数为:网络关于所有样本的误差函数为:权值的调整是沿着误差的负梯度方向进行调整,即:对于输出层有:()211()2QnQppipiiEdx1PpiEE(1)()()kk Dk ()()()()
16、()()QQpppipiQQQQijpipiijEExswxsw()()(1)()()QQ Qpipipipjd x f s x()(1)QQpipjx4.2.2 BP网络 BP算法推导:因此输出层权值调整公式为:对于隐层:(先考虑层)()()(1)()pQQ QijpipjQijEwxw1Q(1)(1)(1)(1)(1)(1)QQpppipiQQQQijpipiijEE xswxsw()(1)(1)()(1)(1)(1)1QQQQnppkpipiQQQQkpkpipiijE sxssxsw()()(1)(2)1()QnQQQQpkkipipjkwf sx(1)(2)QQpipjx 4.2.2
17、 BP网络 BP算法推导:依次类推,可求得第q层:则隐层的权值调整公式为:()(1)pqqpipjqijExw 11()(1)(1)()(1)(1)()()()11()(1)qqnnpqq qqq qqqpipk kipipk kipipiqkkpiEwfsw x xs ()()(1)()pqqqijpipjqijEwxw 初始化 加输入和期望输出计算隐层和输出层的输出迭代次数加1 调节输出层和隐层的连接权值pjopjhjihkjkpjopkokjokjxtwtwOtwtw)()1()()1(改变训练样板训练样终止?迭代终止?BP算法的基本流程 NoNoyy4.2.2 BP网络 BP网络的优点
18、:*只要有足够多的隐层和隐节点,BP网络可以逼近任意的非线性映射关系 *BP网络的学习算法属于全局逼近的方法,因而它具有较好的泛化能力 BP网络的缺点:*需要较长的训练时间 *容易陷入局部极小值 *网络结构难以确定(隐层和隐层节点数)4.2.2 BP网络 BP算法的改进:*引入动量项 K-1时刻的负梯度()(1)()(1)wkDk Dk K时刻的负梯度动量因子4.2.2 BP网络 BP算法的改进:*变步长法(1)()()()()2(1)sgn()(1)w kw kk D kkkD k D k4.2.3 RBF网络 径向基(RBF)网络的结构:-具有单隐层的两层前向网络 -隐单元的变换函数是径向
19、基函数 4.2.3 RBF网络 RBF网络的输入输出关系:1122 ,1 exp 0,02nnmiijjjnjjjnXRyyywX CimccRxxx 给定 维空间中的输入向量可得到输出为:输入层无加权,直接作用于 函数,为中心,通常为高斯函数:4.2.3 RBF网络 RBF网络的学习算法:*无教师学习阶段:,1jcjl中心的确定1(1,2,),(1)ijtilXj nl)初始化聚类中心 一般随机从中选个2(1)(1)(1)min13 23jijiijiijiiiiijXiX jnt ililXdXtttXl)输入样本按最邻近规则分组,即分配给的输入样本聚类集合,满足条件)计算的样本均值(即聚
20、类中心):4)反复第)步到第)步,直到分布不再变化4.2.3 RBF网络 RBF网络的学习算法:*有教师学习阶段:训练由隐层到输出层之间的权值11111111111111 1,2,1()()()()()iilijjkkikklnnmmlllnmnmTTNXind inIHOywxcwwxxddwwxxddWDnlWD 给 定组目 标由输 出 有:写 成 最 小 二 乘 问 题即:,一 般 情 况解 之:4.2.3 RBF网络 RBF网络的特点:-RBF网络神经元节点通常比BP网络多,训练时间远远低于BP网络-对于存在大量训练样本的情况,RBF网络的性能比较好-只要隐层节点数足够多,RBF可以映
21、射任意非线性函数-求RBF网络隐节点的中心向量和标准化常数是一个困难的问题-如何选择合适的径向基函数以及如何确定隐节点数,目前还无法解决4.3 反馈网络 Hopfield网络 Boltzmann机网络 自组织特征映射网络4.3.1 Hopfield网络 Hopfield网络结构:-单层网络,共有n个神经元节点-每个节点输出均连接到其它神经元的输入,同时所有其它神经元的输出均连到该神经元的输入4.3.1 Hopfield网络 Hopfield网络的主要特点:网络是一个全连网络,即网络中任意两个单元之间都有连线,而且这种连接是对称的,即wij=wji 网络有两种类型:离散和连续。离散是说单元是二值
22、的,它们的激活是用(1,-1)或(1,0)表示。而在连续的网络中,单元的激活是连续的,它们可以取0到1之间的任一实数值4.3.1 Hopfield网络 离散Hopfield网络*网络输入输出关系 1()()(1)()niijjijiis kw x kx kf s k 1 0()-1 0iiisf ss 1 0()0 0iiisf ss4.3.1 Hopfield网络 离散Hopfield网络*网络工作方式-异步方式:每次只有一个神经元节点进行状态的调整计算,其它节点的状态均保 持不变。其调整次序可以随机选定,也可按规定的次序进行 -同步方式:所有的神经元节点同时调整状态1(1)()(1)()n
23、iijjijjjx kfw xkxkxkji1(1)()niij jijx kfwx k 4.3.1 Hopfield网络 离散Hopfield网络*稳定性:-如果系统是稳定的,则它可以从任一初态收敛到一个稳定状态。-若将稳态视为一个记忆样本,则初态朝稳态的收敛过程便是寻找记忆样本的过程,初态可认为是给定样本的部分信息,网络改变的过程可认为是从部分信息找到全部信息,从而实现了联想记忆的功能。-若将稳态与某种优化计算的目标函数相对应,并作为目标函数的极小点,则初态朝稳态的收敛过程便是优化计算过程。该优化计算是在网络演变过程中自动完成的。4.3.1 Hopfield网络 离散Hopfield网络*
24、吸引子:若网络的状态x满足,则称x为网络的稳定点或吸引子。*对于离散Hopfield网络,若按异步方式调整状态,且连接权矩阵W为对称阵,则对于任意初态,网络都最终收敛到一个吸引子。*对于离散Hopfield网络,若按同步方式调整状态,且连接权矩阵W为非负定对称阵,则对于任意初态,网络都最终收敛到一个吸引子。()f W xx4.3.1 Hopfield网络 离散Hopfield网络*吸引域:为了能实现正确的联想记忆,对于每个吸引子应该有一定的吸引范围,这个吸引范围便称为吸引域。-若x(a)是吸引子,对于异步方式,若存在一个调整次序可以从x演变到x(a),则称x弱吸引到x(a);若对于任意调整次序
25、都可以从x演变到x(a),则称 x强吸引到x(a).-对所有xR(x)均有:x弱(强)吸引到x(a),则称R(x)为x(a)的弱(强)吸引域。-对于同步方式,由于无调整次序问题,所以相应的吸引域也无强弱之分。-对于异步方式,对同一个状态,若采用不同的调整次序,有可能弱吸引到不同的吸引子。4.3.1 Hopfield网络 离散Hopfield网络*连接权值的设计:Hopfield网络的联想记忆过程,从动力学的角度就是非线性动力学系统朝着某个稳定 状态运行的过程,这需要调整连接权值使得所要记忆的样本作为系统的吸引子,即能量函数 的局部最小点。-学习阶段:在给定样本的条件下,按照Hebb学习规则,调
26、整连接权值,使得存储的样本成为动力 学的吸引子。-联想阶段:在已调整好权值不变的情况下,给出部分不全或受了干扰的信息,按照动力学规则改变神经元的状态,使系统最终变到动力学的吸引 子,即指收敛于某一点。-4.3.1 Hopfield网络 连续Hopfield网络*工作方式:11()nii jjjjiiiiiiswxd yysd txfy1()1iiyiiyexf ye 1()1iiiyx f ye 4.3.1 Hopfield网络 连续Hopfield网络*电路模型:11()niiiijjjjiiidyyswxdtxf y 4.3.1 Hopfield网络 连续Hopfield网络*硬件实现:4
27、.3.1 Hopfield网络 连续Hopfield网络*稳定性:-定义连续Hopfield 网络的能量函数为:分析可得到:-根据Lyapunov稳定性理论,该网络系统一定是渐进稳定的。即随着时间的演变,网络状态总是朝着E减小的方向运动,直到E取得极小值,这时所有的xi 变为常数,即网络收敛到稳定状态。1011()2in xTiEWfd Tx xx0d Ed t4.3.2 Boltzmann机网络 网络结构-网络没有明显的层次结构-网络内部各单元之间存在相互连接关系-网络按概率方式工作4.3.2 Boltzmann机网络 网络工作方式:12TEWTx x x4.3.2 Boltzmann机网络
28、 网络工作原理:12TEWTx x x4.3.2 Boltzmann机网络 网络实际运行:-学习和训练阶段:根据学习样本对网络进行训练,将知识分布的存储于网络的连接权中-工作阶段:根据输入运行网络得到合适的输出,即按照某种机制将知识提取出来4.3.2 Boltzmann机网络 网络学习步骤:(1)随机设定网络的连接权初值wij(0)及初始高温 (2)按照已知的概率p(xa),依次给定学习样本。在样本的约束下,按照模拟退火程序运行网络,直至达到平衡状态,统计出各pij。在无约束条件下,按同样的步骤并同样的次数运行网络,统计各pij。(3)按下式修改权值:(4)重复上述步骤,直到小于某阈值。4.3
29、.3 自组织特征映射网络 自组织特征映射网络(SOM)-Kohonen认为,一个神经网络接受外界输入模式时,将会分成不同区域,各区域对输入模式具有不同的响应特征,同时这一过程是自动完成的。-SOM在结构上模拟了大脑皮层中神经元呈二维空间点阵的结构,在功能上通过网络神经元的交互作用和相互竞争,模拟了大脑信息处理的聚类功能、自组织、自学习功能-SOM根据输入向量在输入空间的分布情况对他们进行分类。与自组织竞争网络不同的是,它不仅对所属区域邻近的区域进行识别,还可研究输入向量的分布特性和拓扑结构-与传统的模式聚类方法相比,SOM所形成的聚类中心能映射到一个曲面或平面上,且保持拓扑结构不变4.3.3
展开阅读全文
课堂库(九科星学科网)所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。


2019届人教A版数学必修二同步课后篇巩固探究:2-1-1 平面 WORD版含解析.docx
