1 / 25

基于神经网络的反馈线性化控制

基于神经网络的反馈线性化控制. 导师:师黎 姓名:刘言兴. 主要内容. 反馈线性化控制的原理 基于神经网络的控制器设计 MATLAB 仿真及分析 结论. 1 反馈线性化控制的原理. 所谓反馈线性化,顾名思义就是通过反馈的手段消除系统中的非线性,以得到期望的线性系统。对能控标准形非线性系统,可以容易地实现反馈线性化。. 假定一个系统,其动力方程为:. 其中, u 是控制输入, x 为标量, X 为状态向量,有:. 可将动力方程变为:. (1). 希望通过加入一个反馈控制项 u ,使得系统具有如下的理想的线性特性,. (2).

kirima
Download Presentation

基于神经网络的反馈线性化控制

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 基于神经网络的反馈线性化控制 导师:师黎 姓名:刘言兴

  2. 主要内容 • 反馈线性化控制的原理 • 基于神经网络的控制器设计 • MATLAB仿真及分析 • 结论

  3. 1 反馈线性化控制的原理 所谓反馈线性化,顾名思义就是通过反馈的手段消除系统中的非线性,以得到期望的线性系统。对能控标准形非线性系统,可以容易地实现反馈线性化。 假定一个系统,其动力方程为:

  4. 其中,u是控制输入,x为标量,X为状态向量,有:其中,u是控制输入,x为标量,X为状态向量,有: 可将动力方程变为: (1)

  5. 希望通过加入一个反馈控制项u,使得系统具有如下的理想的线性特性,希望通过加入一个反馈控制项u,使得系统具有如下的理想的线性特性, (2) 其中,ki(i=1,2,…,n)和C均为常数,r为参考输入。通过(1)式和(2)式的对比,可得u:

  6. 利用u对系统进行控制,将原系统中的非线性消除,并通过适当的参数K和C,得到期望的任意n阶线性系统的特性。利用u对系统进行控制,将原系统中的非线性消除,并通过适当的参数K和C,得到期望的任意n阶线性系统的特性。

  7. 2 基于神经网络的控制器设计 2.1 神经网络的知识 神经网络是由大量的基本元件——神经元互相连接,通过模拟人的大脑神经处理信息的方式,进行信息并行处理和非线性转换的复杂网络系统。由于神经网络具有强大的学习功能,可以比较轻松地实现非线性映射过程,并且具有大规模计算的能力。因此在自动化、智能控制等方面有着广泛的应用,解决了大量的问题。

  8. BP神经网络:将误差反向传播学习算法用于过曾前馈神经网络,它应用最为广泛,通用性能最好。通常用于分类、模式识别和函数逼近。有输入层、隐含层和输出层构成。通常包含一个或多个隐含层,隐含层多采用S型函数作为激励函数。BP神经网络:将误差反向传播学习算法用于过曾前馈神经网络,它应用最为广泛,通用性能最好。通常用于分类、模式识别和函数逼近。有输入层、隐含层和输出层构成。通常包含一个或多个隐含层,隐含层多采用S型函数作为激励函数。 广义回归神经网络GRNN是径向基网络的一种变化形式, GRNN在结构上与RBF较为相似,它由四层构成,输入层、模式层、求和层和输出层。由于训练速度快,非线性映射能力强,因此它经常用于函数逼近。

  9. 2.2 神经网络的设计 一系统的动力学方程为: 代表角度,u的控制目标是使系统有如下的参考模型: 由此得到: 其中

  10. 假设此非线性系统的采样周期为0.05秒,利用 近似关系,则被控系统的离线时间模型近似为: 接下来设计一个神经网络代替函数 假定对该函数的逼近为Nf,那么带有神经网络的非线性消除控制器为:

  11. BP神经网络:系统所需的神经网络具有两个输入,x1和x2,目的是产生逼近函数的非线性输出,这里隐含层的神经元个数为9个,其传递函数为tansig;输出层的传递函数为purelin。非线性函数的表达式已经给出,只要随机选取一定数目的工作区域的输入,确定其迭代次数,就可得到目标输出。BP神经网络:系统所需的神经网络具有两个输入,x1和x2,目的是产生逼近函数的非线性输出,这里隐含层的神经元个数为9个,其传递函数为tansig;输出层的传递函数为purelin。非线性函数的表达式已经给出,只要随机选取一定数目的工作区域的输入,确定其迭代次数,就可得到目标输出。 GRNN网络:径向基函数的分布密度spread可以对GRNN性能产生重要影响。理论上讲,spread越小,对函数的逼近越精确,

  12. 但是逼近的过程就越不光滑;spread越大,逼近过程就比较平滑,但是逼近误差会不较大。分别将spread设置为0.01到0.1,步长为0.01,再从0.1到1,步长为0.1,观察其逼近效果。当spread=0.09时,逼近效果较好。但是逼近的过程就越不光滑;spread越大,逼近过程就比较平滑,但是逼近误差会不较大。分别将spread设置为0.01到0.1,步长为0.01,再从0.1到1,步长为0.1,观察其逼近效果。当spread=0.09时,逼近效果较好。

  13. 3 MATLAB仿真及分析 3.1 BP神经网络仿真图形 图1 三维仿真图

  14. 确定系统的隐含层神经元的个数,当迭代次数epochs=2000时,取神经元个数为7、8、9、10、11和12时,,观察其图形,可知当神经元个数为9时逼近效果已达到较好。取定神经元个数为9后,迭代次数分别取500、800、1000、1500、2000、2500、3000、3500,效果如图:确定系统的隐含层神经元的个数,当迭代次数epochs=2000时,取神经元个数为7、8、9、10、11和12时,,观察其图形,可知当神经元个数为9时逼近效果已达到较好。取定神经元个数为9后,迭代次数分别取500、800、1000、1500、2000、2500、3000、3500,效果如图: 图2、3、4和5,当系统角度变化率x2为零时,函数仅为角度x1的,函数逼近效果如图: 图6、7、8和当角度x1=π/2时,位置固定在水平位置上,函数是变化率x2的函数。函数逼近效果如图:

  15. 图2 神经元个数为7,逼近图 图3 神经元个数为8,逼近图 图4 神经元个数为9,逼近图 图5 神经元个数为11,逼近图

  16. 图6 神经元个数为7,逼近图 图7 神经元个数为8,逼近图 图8 神经元个数为9,逼近图 图9 神经元个数为11,逼近图

  17. 图11 迭代次数为1000 图10 迭代次数为500 图12 迭代次数为1500 图13 迭代次数为2000

  18. 图15 迭代次数为1000 图14 迭代次数为500 图17 迭代次数为2000 图16 迭代次数为1500

  19. 图18 迭代次数2000时,mse曲线 通过比较图10至图18知,当迭代次数为2000时,逼近的效果已较好。

  20. 3.2 GRNN仿真图 此时x2=0,即系统的角度变化率=0,系统达到稳态。 比较图19、20、21和22可知,当spread=0.01到0.1时,仿真图形逼近效果已经较好。spread增大效果变差。图8中,当spread从0.1到0.5时,分别对应*,◇,○,☆,+图形。 比较图23、24、25和26可知,当spread=0.09时,误差接近0.001.

  21. 图19 spread=0.1:0.5时,函数逼近仿真图 图20 spread=0.6:1.0时,函数逼近仿真图 图21 spread=0.01:0.05时,函数逼近仿真图 图22 spread=0.06:0.1时,函数逼近仿真图

  22. 图 23 spread=0.1时,逼近误差曲线 图 24 spread=0.01时,逼近误差曲线 图 25 spread=0.05时,逼近误差曲线 图 26 spread=0.09时,逼近误差曲线

  23. 4 结论 通过BP神经网络和GRNN对控制项u中的非线性部分进行逼近,讨论了迭代次数和隐含层神经元个数对逼近效果的影响。迭代次数越多,逼近效果越好,但所需时间越长;隐含层神经元个数达到一定数目后,效果较好,若继续增加,效果降低。spread 值越小,对函数的逼近就越精确,spread 越大,逼近误差会比较大。这也与实际逼近相吻合。并且通过对BP 网络与GRNN网络的比较,GRNN 网络作为RBF 网络的一种变化形式, 在逼近能力、学习速度上明显优于BP 网络。

  24. 文中仅以一例说明GRNN 在非线性函数逼近方面应用,对于仅提供若干样本的非线性函数,其实只需适当修改上述模型就可以应用于函数的逼近,适当选取spread 值可获得较小误差逼近。这将有广泛的应用。

  25. 谢谢大家!

More Related