下载此文档

单神经元自适应PID.docx


文档分类:IT计算机 | 页数:约5页 举报非法文档有奖
1/5
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/5 下载此文档
文档列表 文档介绍
单神经元自适应PID
一、单神经元神经网络与PID结合的基础
根据前面的推文“神经网络基础”中所介绍的,神经元是多输入单输出的,训练的目的确定权值,从而当给予输入时,能给出理想的输出。
对于PID控制来讲,以增量式PID为例,公式如下单神经元自适应PID
一、单神经元神经网络与PID结合的基础
根据前面的推文“神经网络基础”中所介绍的,神经元是多输入单输出的,训练的目的确定权值,从而当给予输入时,能给出理想的输出。
对于PID控制来讲,以增量式PID为例,公式如下
AU(k)=kp*[e(k)-E(k-1)]+ki*E(k)+kd*[e(k)-2E(k-1)+E(k-2)]
输入是E(k)、E(k-1)和E(k-2),输出是增量AU(k),对于PID来讲,最重要的任务是确定系数。
两者相比较,只要将大量的E(k)、E(k-1)和E(k-2)作为输入,AU()作为输出,确定权值的过程就是确定PID系数的过程。
二、控制算法
单神经元自适应PID的整体结构如下图
以智能车为例,上述参数解释为,r(k)为控制器输入的参考值,K是神经元比例系数,Au()是增量,u()是输出PWM,y()是反馈值,偏差e(k)=r(k)-y(k)。
(1)输入
x(k)=e(k)-e(k-1)
1
x(k)=e(k)
2
x(k)=e(k)一2e(k一1)+e(k一2)
3
权值
根据前面讲的,学习规则有两类有导师学习和无导师学习,其中无导师的
Hebb学习规则,又叫无监督Hebb学习规则,其公式为
w=ww
aW(k)=nyj)y(k)'ijji
耳是设定的学习速率,y()、y()分别是k时刻i神经元与j神经元的输出。ji
结合Delta规则,得到有监督的Hebb学习规则,其公式为
w(k+1)=w
aW(k)=ny纭)y(七Q—y(k9
ijjijj
其中,d(k)是期望输出,d(k)—y(k)在这里即为x(k)=e(k),。
jjj2
因此,三个权值分别为
w(k)
二w(k—1)+耳x(k\(k)e(k)
1p1
w(k)
二w(k-1)+耳x(k\(k)e(k)
2I2
w(k)
二w(k—1)+耳x(')u()e(k)
3D3
神经元输出特性
Au(k)=K工w'(kL(k)
ii
w'
i
(k)=卫-
工|w(k)
i
i=1
参数调整
K的选择非常重要,K越大,快速性越好,但超调量大,甚至可能使系
统不稳定,当被控对象时延增大时,必须减少K值,以保证系统系统稳定。
K值选择过小,会让系统的快速性变差。
根据实验总结以下调整规律:
初始加权系数wG)、w(0)、w(0)的选择,可任意选取;
123
对阶跃输入,若输出有大的超调,且多次出现正弦衰减现象,应减少
K,
维持耳、n、耳不变。若上升时间长,无超调,应增大k、耳、耳、
pIDpI
nD。
对阶跃输入,若被控对象产生多次正弦衰减现象,应减少n,其他
p
参数不变。
若被控对象响应特性出现上升时间短,有过大超调,应减少n,其他
I参数不变。
若被控对象上升时间长,增大n又导致超调过大,可适当增加n,其
Ip
他参数不变。
在开始调整时,n选择较小值,当调整n、n和

单神经元自适应PID 来自淘豆网m.daumloan.com转载请标明出处.

非法内容举报中心
文档信息
  • 页数5
  • 收藏数0 收藏
  • 顶次数0
  • 上传人guoxiachuanyue
  • 文件大小71 KB
  • 时间2022-07-09