智能控制例题DOC.docx智能控制例题DOC
智能控制例题DOC
1 / 271
智能控制例题DOC
BP神经网络训练一个输入为
[1;-1;1],希望输出为[1;1]的神经网络系统。假定激活函数取为:
c/ 2727
智能控制例题DOC
-5
10
0
10
20
30
40
50
60
70
80
90
Epoch
智能控制例题DOC
智能控制例题DOC
7 / 277
智能控制例题DOC
TRAINBP:0/1000epochs,SSE=.
智能控制例题DOC
智能控制例题DOC
27 / 2727
智能控制例题DOC
TRAINBP:10/1000epochs,SSE=.
TRAINBP:20/1000epochs,SSE=.
TRAINBP:30/1000epochs,SSE=.
TRAINBP:40/1000epochs,SSE=.
TRAINBP:50/1000epochs,SSE=.
TRAINBP:60/1000epochs,SSE=.
TRAINBP:70/1000epochs,SSE=.
TRAINBP:80/1000epochs,SSE=.
TRAINBP:90/1000epochs,SSE=.
TRAINBP:93/1000epochs,SSE=-005.
a=
结论:该网络训练收敛,在第 93步时小于了希望偏差最小值,返回
值为,收敛于希望值 。
nntwarnoff %暂时封闭神经网络工具箱的警示功能
];%输入向量
];%希望的输出值
[w,b]=initff(p,d,'logsig');%w 为权值 b为阈值,初试化不超出三层的前向神经网络
df=10;%显示间隔
max_epoch=1000;%给定训练最大步数
err_goal=;%给定希望偏差最小值
lr=1;%设定修正权值的学习速率为 1
tp=[dfmax_epocherr_goallr];%训练控制参数[w,b,epoch,tr]=trainbp(w,b,'logsig',p,d,tp);%epoch为训练步数,鉴于梯度降落的训练方法ploterr(tr,err_goal)%tr为网络训练偏差平方和的行向量,绘制偏差曲线
pause
p=;
a=simuff(p,w,b,'logsig')%测试网络输出,仿真函数
智能控制例题DOC
智能控制例题DOC
9 / 279
智能控制例题DOC
0
10
-1
10
r
o
-2
r
r
10
E
d
e
r
a
u
q
S
-3
-
m
10
u
S
-4
10
-5
10
Sum-SquaredNetworkErrorfor11Epochs
0
1
2
3
4
5
6
7
8
9
10
11
Epoch
智能控制例题DOC
智能控制例题DOC
10 / 2710
智能控制例题DOC
TRAINBP:0/1000epochs,SSE=.
TRAINBP:10/1000epochs,SSE=.
TRAINBP:11/1000epochs,SSE=-005.
智能控制例题DOC
智能控制例题DOC
27 / 2727
智能控制例题DOC
a=
结论:该网络训练收敛,在第 11步时小于了希望偏差最小值,返回
值为,收敛于希望值 。
clearall
clc
nntwarnoff
p=0::2;%起点0终点2你、步长
t=sin(p*pi);
figure(1);
plot(p,t);
pause
智能控制例题DOC
智能控制例题DOC
12 / 2712
智能控制例题DOC
r=1;
s1=5;
s2=1;
[w1,b1,w2,b2]=initff(p,s1,'tansig',t,'
智能控制例题DOC 来自淘豆网m.daumloan.com转载请标明出处.