' K8 L9 I$ b. j; M" \1 d2 e$ I( d% A. J
#include "iostream.h" #include "iomanip.h"- ~$ U) p7 U/ x$ L #define N 20 //学习样本个数 #define IN 1 //输入层神经元数目 #define HN 8 //隐层神经元数目5 Q/ B# z: Z( T/ K' l #define ON 1 //输出层神经元数目% \5 X6 G1 \' v double P[IN]; //单个样本输入数据 double T[ON]; //单个样本教师数据" u* M9 I7 e m- x% H) ? double W[HN][IN]; //输入层至隐层权值 i0 D/ L3 r8 I3 A9 C double V[ON][HN]; //隐层至输出层权值& s1 R" r* c7 N2 i! U double X[HN]; //隐层的输入1 y) e$ O5 Z+ V, r( x1 E double Y[ON]; //输出层的输入 double H[HN]; //隐层的输出 double O[ON]; //输出层的输出# W4 u2 Y h5 S. }- C double sita[HN]; //隐层的阈值0 o$ i3 J- r* U! f+ ~9 h: L! j9 { double gama[ON]; //输出层的阈值 double err_m[N]; //第m个样本的总误差 double alpha; //输出层至隐层的学习效率 double beta; //隐层至输入层学习效率 //定义一个放学习样本的结构 struct { double input[IN];: ^1 l ~& g, U( `3 l double teach[ON]; }Study_Data[N][IN]; ///////////////////////////2 ^9 X; m+ _8 G$ k6 O; u //初始化权、阈值子程序///// /////////////////////////// [2 ?2 L* _5 c$ B) O initial()8 x8 `2 P6 R! p# q0 b' W% U { float sgn; float rnd; int i,j;2 E( |% p& `4 v* G4 S //隐层权、阈值初始化// {+ ? U! Y# S! i- u) [4 L7 U //sgn=pow((-1),random(100)); sgn=rand(); rnd=sgn*(rand()%100);" ^/ ]7 _' e l4 `) X; D W[j]= rnd/100;//隐层权值初始化。 } //randomize(); {! @# u) I' U2 [- k8 f l' D- O/ q& L //sgn=pow((-1),random(1000)); sgn=rand();8 n2 D% N; D* i7 I4 s$ V8 @- S rnd=sgn*(rand()%1000); sita[j]= rnd/1000;//中间层阈值初始化 cout<<"sita"<<sita[j]<<endl;( Y/ s/ v. s; `' I4 n) g& L. g } //输出层权、阈值初始化//0 r5 h! L/ U2 Z. d( K) g //randomize(); for (int k=0;k<ON;k++) for (int j=0;j<HN;j++) { //sgn=pow((-1),random(1000)); sgn=rand();0 A- U$ ~8 O2 V" j0 s/ h rnd=sgn*(rand()%1000); V[k][j]=rnd/1000;//第m个样本输出层权值初始化; w( L& M- l; h! [' d: n: @2 f }9 [4 e6 Y# @4 T8 _ //randomize();( r& J! z4 I; O, n- Z/ q. D {8 o d- \* w9 \: F7 g. v2 c //sgn=pow((-1),random(10));# i8 ~3 K3 J) N8 N3 V/ e- j3 [2 ] sgn=rand(); u- B& N" s' t ~: S8 e rnd=sgn*(rand()%10); gama[k]=rnd/10;//输出层阈值初始化 cout<<"gama[k]"<<endl;1 k' y% \+ ^+ I7 y; O' A } return 1; }//子程序initial()结束
////////////////////////////////! J+ S" r u1 X E9 [8 u: y
////第m个学习样本输入子程序///% {) r0 V* h4 ~7 Z& Z& j1 q R
///////////////////////////////
input_P(int m)
{
for (int i=0;i<IN;i++); l( z2 A2 Q+ m& p$ I1 u
P=Study_Data[m]->input;
//获得第m个样本的数据
//cout<<"第"< //fprintf(fp,"第%d个样本的学习输入:* ~* m, F0 Q& M" i9 f
//P[%d]=%f\n",m,P);
return 1;( W% Q M* X) J, u
}//子程序input_P(m)结束2 G) {' d Y# U* g
///////////////////////////// o# W3 X" E3 Y3 ^
////第m个样本教师信号子程序//; A* I% M- j% o% P' E1 m( f
/////////////////////////////8 S6 |& Q" K) G5 Q
input_T(int m)) a2 N1 [) K) j; ? I0 _4 B
{
for (int k=0;k<m;k++)7 l4 {4 t% ^7 d0 S9 D3 |
T[k]=Study_Data[m]->teach[k];4 w* @5 O* e0 T8 G& U0 Z9 j: H
//cout<<"第"< //fprintf(fp,"第%d个样本的教师信号:T[% d] =%f\n",m,T[k]);
return 1;
}//子程序input_T(m)结束
/////////////////////////////////
//隐层各单元输入、输出值子程序///
/////////////////////////////////& ?$ a9 p% |. y. o7 T& M* p
H_I_O(){0 C& D; |0 g3 ~( ]& e* M, i3 m
double sigma;
int i,j;+ P9 f+ J) s5 }$ w$ E c
for (j=0;j<HN;j++)
sigma=0.0;
for (i=0;i<IN;i++)
sigma+=W[j]*P;//求隐层内积. H5 |0 F& \8 `7 q4 \
}
X[j]=sigma - sita;//求隐层净输入
H[j]=1.0/(1.0+exp(-X[j]));//求隐层输出
}
return 1;* I6 G7 ^+ s4 u
}//子程序H_I_O()结束3 Y$ I! H" E* ~$ G3 D. g
///////////////////////////////////
//输出层各单元输入、输出值子程序///9 z. b! d8 j4 U* A7 W) D9 D
///////////////////////////////////
O_I_O()
{
double sigma;8 z8 H0 p- @2 E/ \4 U
for (int k=0;k<ON;k++)$ v% Q7 I: m* W+ u
sigma=0.0;: n- e- g+ w. E: G7 z9 i
for (int j=0;j<HN;j++)
sigma+=V[k][j]*H[k];//求输出层内积% f! Y/ |; M/ x2 U( l' w: l3 W
}' o" n7 k z. Q+ c! [9 C! v: z5 p( B
Y[k]=sigma-gama[k]; //求输出层净输入
O[k]=1.0/(1.0+exp(-Y[k]));//求输出层输出5 X q, N: i5 u
}
return 1;5 l& V+ o7 ]% W2 K+ W0 ]
}//子程序O_I_O()结束. V3 i" C1 f7 r0 D: e0 I3 `5 f
////////////////////////////////////% i1 v6 n& i; \' \0 W: s% {
//输出层至隐层的一般化误差子程序////
////////////////////////////////////. l+ t" S; }" p- n
double d_err[ON];" T, y- T( Z* ]1 x' [+ W2 d) F- D
Err_O_H(int m)6 A+ L% h5 t% D ?1 |& t' H6 b$ \
{$ a! q) H8 P; E2 u8 o0 v4 o
double abs_err[ON];//每个样本的绝对误差都是从0开始的: \6 J; W4 v' a) y
double sqr_err=0;//每个样本的平方误差计算都是从0开始的
//for (int output=0;output<ON;output++) //output???6 e- Q& \% V4 u" g% n# P
for (int k=0;k<ON;k++)
abs_err[k]=T[k]-O[k];+ P: I! h3 k" ^* ~" s: e
//求第m个样本下的第k个神经元的绝对误差" q0 e, x2 l0 ^7 N( m1 t0 K
sqr_err+=(abs_err[k])*(abs_err[k]);//求第m个样本下输出层的平方误差
d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]输出层各神经元的一般化误差
}4 Q, d1 Q. {0 c" q8 ^; c# m! G
err_m[m]=sqr_err/2;//第m个样本下输出层的平方误差/2=第m个样本的均方误差
return 1;
}//子程序Err_O_H(m)结束
////////////////////////////////////( t6 M5 `' L9 ]- a b) L/ [: s" s" k8 Q
//隐层至输入层的一般化误差子程序////- b- ]! a3 i6 v2 S
////////////////////////////////////( r3 l, p. K& g$ E7 y6 R
double e_err[HN];( i3 b. A T1 b) \6 M4 r) V6 w% e
Err_H_I(){: a; C. k4 M9 b$ |
double sigma;
//for (int hidden=0;hidden+ C D4 O6 A8 Z" i! E# E
for (int j=0;j<HN;j++)
sigma=0.0;
for (int k=0;k<ON;k++)
sigma=d_err[k]*V[k][j];9 {! |0 _- b; Y8 g0 y2 w9 H
}
e_err[j]=sigma*H[j]*(1-H[j]);//隐层各神经元的一般化误差
} ~9 d T0 _. U0 Q
return 1;
}//子程序Err_H_I()结束
////////////////////////////////////////////////////////
//输出层至隐层的权值调整、输出层阈值调整计算子程序//////
////////////////////////////////////////////////////////! b- w( Y1 @& d# @3 F: g: x+ d
Delta_O_H(int m,FILE* fp)' f, q" _( \3 i2 B5 d
{ s2 `+ u& g) H4 f" l1 j X
for (int k=0;k<ON;k++)
for (int j=0;j<HN;j++)8 v0 I) v3 b; m3 m
//cout<<"第"<
fprintf(fp,"第%d个样本时的输出层至隐层的权值为:%f\n",m,W[k][j]);
V[k][j]+=alpha*d_err[k]*H[j];//输出层至隐层的权值调整
}" c7 m) z- @: } E$ W( h
gama[k]+=alpha*d_err[k];//输出层至隐层的阈值调整& C3 ~5 C6 C% m' Z0 Q9 ]
}
return 1;2 h+ U6 P5 q# w) @
}//子程序Delta_O_H()结束
/////////////////////////////////////////////////////* ?/ j& ^0 b3 R; I" E1 u
//隐层至输入层的权值调整、隐层阈值调整计算子程序/////1 d+ R& D' i# ?+ B
/////////////////////////////////////////////////////
Delta_H_I(int m,FILE* fp)
{
for (int j=0;j<HN;j++)
for (int i=0;i<IN;i++)
//cout<<"第"< fprintf(fp,"第%d个样本时的输出层至隐层的权值为:%f\n",m,V[j]);$ i% T$ T3 ~6 q' `
W[j]+=beta*e_err[j]*P;//隐层至输入层的权值调整
}
sita[j]+=beta*e_err[j];
}; O2 b" \: P! m3 O `9 n
return 1;1 A' z. R8 `0 R3 {
}//子程序Delta_H_I()结束
/////////////////////////////////
//N个样本的全局误差计算子程序////
////////////////////////////////// V! E: Z1 {- \- I y* M" l2 ~
double Err_Sum()
{1 W0 {; a, |9 |1 |' S
double total_err=0;7 T/ _* L! q. b, {0 Y/ r8 _
for (int m=0;m<N;m++) ' w2 _' _" `* Q J6 i5 @
total_err+=err_m[m];//每个样本的均方误差加起来就成了全局误差
}
return 1;
}//子程序Err_sum()结束& Z) I/ }4 p; T: b" I
/**********************/. {+ P) @1 T" J: g3 X1 G
/**程序入口,即主程序**/
/**********************/) S! f4 B8 s9 }' r' q
main()
{& h3 Z- s( ?8 T, o
FILE *fp;' {: W! t/ c$ Q A. G" P
double sum_err;
int study;//训练次数) R: H4 Z) m6 b
if ((fp=fopen("bp.txt","a+"))==NULL)
{
printf("不能创建bp.txt文件!\n");2 S3 _. a% g7 U' Q
exit(1);
}
cout<<"请输入输出层到隐含层学习效率: alpha=\n";
cin>>alpha;& h6 `7 D6 o; h
cout<<"请输入隐含层到输入层学习效率: beta=\n";4 [3 B g+ N7 V" e9 H
cin>>beta;
int study=0; //学习次数1 A1 X& ^9 Y7 U% Q7 D$ ]
double Pre_error ; //预定误差! `# k. q1 n$ K6 J3 W2 _
cout<<"请输入预定误差: Pre_error= \n";
cin>>
re_error;8 e; I# ]; p r( x8 ]
int Pre_times;5 y3 g, v% e) @+ ~# n7 ~
cout<<"请输入预定最大学习次数
re_times=\n";
cin>>
re_times;# H) a" Z1 y' m- Z% o
cout<<"请输入学习样本数据\n";# a( ^- d0 t2 L. ?6 B& X
{# G2 z, l2 W8 a6 E3 W
for (int m=0;m<N;m++)7 Q7 p% Q7 R, u3 ^, n
cout<<"请输入第"<<m+1<<"组学习样本"<<endl;
for (int i=0;i<IN;i++)
cin>>Study_Data[m]->input;3 r0 n3 d0 L6 V( N) L! Y) v
}
{
for (int m=0;m<N;m++). [4 G1 J5 {+ i! h% C* c
cout<<"请输入第"<<m+1<<"组教师样本"<<endl;
for (int k=0;k<ON;k++)5 a, P5 T1 {) Y
cin>>Study_Data[m]->teach[k];: E% q! ^6 h( b5 y. H" t
}% _. j! j8 P) K$ ]" [6 k# _
initial(); //隐层、输出层权、阈值初始化 (1)
do8 p# a! e2 Z) i& Z) p
{
++study; ///???
for (int m=0;m<N;m++)
{ Q/ T% E1 d4 H% s8 M
input_P(m); //输入第m个学习样本 (2)
input_T(m);//输入第m个样本的教师信号 (3)
H_I_O(); //第m个学习样本隐层各单元输入、输出值 (4)
O_I_O(); //第m个学习样本输出层各单元输入、输出值 (5)
Err_O_H(m); //第m个学习样本输出层至隐层一般化误差 (6)
Err_H_I(); //第m个学习样本隐层至输入层一般化误差 (7)
Delta_O_H(m,fp); //第m个学习样本输出层至隐层权阈值调整、修改 (8)
Delta_H_I(m,fp); //第m个学习样本隐层至输入层权阈值调整、修改 (9)
} //全部样本训练完毕6 ~7 `( D b2 e: Y
sum_err=Err_Sum(); //全部样本全局误差计算 (10)
{) V, R2 a4 F$ P, c7 y
cout<<"第"<<study<<"次学习的均方误差为"<<sum_err<<endl;% F% v( `& R, U7 O
fprintf(fp,"第%d次学习的均方误差为:%f\n",study,sum_err);) Q4 o, J9 s2 ~' f3 g
}/ u. H' u, n3 g1 t- _- n
while (sum_err > Pre_error) //or(study
{ //N个样本全局误差小于预定误差否? 小于则退出 (11). I! S7 L+ _+ ? x7 L* Q0 U3 o2 p$ @% P0 n
cout<<"网络已经学习了"<<study<<"次,学习的均方误差为"<<sum_err<<endl;
fprintf(fp,"网络已经学习了%d次,现在的全局误差为:%f\n",study,total_err);- A; ~0 `' |" \3 \, Q- x
fclose(fp);
}5 Q/ F: }) p4 c; E2 A: N7 G& u
char s;8 n5 h0 q+ v) B9 }2 k
cout<<"请随便输入一个字符,按回车退出程序!\n";
cin>>s;
return 1;& B$ u0 y) N1 M0 y. g& Z
}
笑死了,垃圾程序。这个只能是c 程序
而且还不收敛
误差只能到1
里面还有许多bug
| 欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) | Powered by Discuz! X2.5 |