数学建模社区-数学中国

标题: 数学建模-神经网络模型 [打印本页]

作者: 1047521767    时间: 2021-10-20 19:29
标题: 数学建模-神经网络模型
神经网络简介; k' U) l% U  s7 v- T
人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及功能的一种抽象数学模型。自1943 年美国心理学家W. McCulloch 和数学家W. Pitts 提出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了50 多年曲折的发展。特别是20 世纪80 年代,人工神经网络的研究取得了重大进展,有关的理论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及专家系统等领域得到广泛的应用,提出了40 多种神经网络模型,其中比较著名的有感知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这里我们仅讨论最基本的网络模型及其学习算法。1 S' Y, ~% r' T0 n/ l

* L2 ^/ S( f* h4 W. t, v人工神经元模型7 A' f5 F( T( k2 L: e
下图表示出了作为人工神经网络(artificial neural network,以下简称NN)的基本单元的神经元模型,它有三个基本要素:
/ U1 K! @5 G& k% m& Y4 X. q" ]
/ N0 f* X; \4 \, M' ?! Q7 z3 y0 h! B) T& i
; _! p$ l, N  P/ p

) F' l, g( J& U/ U
! P$ j7 T1 |9 V+ P6 z2 J5 Y/ z' c(i)一组连接(对应于生物神经元的突触),连接强度由各连接上的权值表示,权值为正表示激活,为负表示抑制。" [: C: {' {/ b: H! H( L
(ii)一个求和单元,用于求取各输入信号的加权和(线性组合)。
2 _+ M% M% A$ ?3 H' J(iii)一个非线性激活函数,起非线性映射作用并将神经元输出幅度限制在一定范围内(一般限制在(0,1)或(−1,1)之间)。
- F+ N/ f+ C7 k8 |: t6 w
5 l3 }3 _8 c1 h: I. w- ?2 @9 I
) I/ t7 E* j, B0 c, A8 z
此外还有一个阈值 (或偏置  = − )。
; ?5 c  _- q! |) k3 Y若把输入的维数增加一维,则可把阈值 (或偏置  = − )包括进去
$ c' R+ v7 n. {5 x9 I1 F0 T4 R# {6 B/ a" |* a7 o

6 l$ W0 e' ?  _1 S2 U# c; [3 m7 A8 l3 N0 w/ Y8 q; w
Matlab 中的激活(传递)函数如下所示:, @3 r" Y2 E# D( D1 L
7 V, d  T8 c; ~3 ]) L

1 S8 Q0 {" }+ Q& J函数名        功 能
7 ]$ Y0 }. A; x1 c: T$ apurelin        线性传递函数
5 Z6 }- v3 U, h% a; t9 y. I- [hardlim        硬限幅传递函数
; U9 F, p# G# I' Uhardlims        对称硬限幅传递函数
1 k% u4 U( v5 b) Z& \" Jsatlin        饱和线性传递函数
8 T, H/ C' G+ ]7 _1 tsatlins        对称饱和线性传递函数- K5 n  }; R5 ^7 l# A9 z
logsig        对数S 形传递函数$ ^6 W& _1 ?0 w9 X/ ^
tansig        正切S 形传递函数1 m. _6 d9 B- w: c! l
radbas        径向基传递函数
6 w) j% U. U0 X: m) f9 n/ J$ E9 ccompet        竞争层传递函数
' P. s) B4 \' ]网络结构及工作方式
1 a/ C6 J# z' B/ `+ v/ k- [5 `% i
& r' _) h2 C( i( V/ k7 o除单元特性外,网络的拓扑结构也是NN 的一个重要特性。从连接方式看NN 主要有两种。9 D* ^& o: e3 L+ q- O  |9 Y
! M7 X( T- t$ ^2 r

) B0 q  t/ L) Y5 S前馈型网络( H" s* W( z$ \' m, ?2 \3 c9 Q
各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第i −1层输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。7 P) \2 N/ t: f$ R" e

( ]9 A1 v" d) g
2 g+ g3 Y1 U" P
反馈型网络
5 t  K5 X# t8 {/ T所有结点都是计算单元,同时也可接受输入,并向外界输出。NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算单元状态变化,以达到某种稳定状态。从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。- {9 N# j9 n) E. W
' b9 g' x1 O: W% ?) w3 G, p8 w3 c# B
! |- m- w& Y$ X2 @1 V6 G* ~
反馈网络按对能量函数的极小点的利用来分类有两种:
/ X' D3 V" Z: @# B) W  R% P9 ^+ {8 j3 ~7 w9 r% u' }
  K1 @% F$ L, ^" X6 A& ?. g
第一类是能量函数的所有极小点都起作用,这一类主要用作各种联想存储器;
* R7 g3 q, X" q$ J% |0 u* d) U' c$ |8 v: V0 S
8 s7 ]/ H! C3 x( b' t* b/ l# ~. z
第二类只利用全局极小点,它主要用于求解最优化问题。1 }1 C3 c3 E0 g# M: ?. o. ^4 g

! ], I. @! L0 @" V4 P& ]
; |/ z# N+ A( N1 D% C, b
蠓虫分类问题与多层前馈网络) h0 k# x. L/ i
蠓虫分类问题( x9 p# W% g  r: c# n" ]  q
蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与Apf)进行鉴别,依据的资料是触角和翅膀的长度,已经测得了9 支Af 和6 支Apf 的数据如下:/ |+ B2 H2 [5 ?
Af: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70),(1.48,1.82),(1.54,1.82),(1.56,2.08).! b0 x' I, t* l, d1 x5 {, N
Apf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).) s# }% H3 ~5 O4 d: `
现在的问题是:
' X' |- L+ S% @/ i, Z(i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。7 |. N4 l7 i  ^
(ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的3 个标本,用所得的方法加以识别。6 V3 y4 S: J1 t* z0 y  W
(iii)设Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。
6 C0 f! p2 I5 I3 T7 w7 z如上的问题是有代表性的,它的特点是要求依据已知资料(9 支Af 的数据和6 支Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或Apf)。今后,我们将9 支Af 及6 支Apf 的数据集合称之为学习样本。. T% b2 G' o8 W

' n% [" h2 ~( d+ A4 Z4 m+ ]" h0 ~  V

8 j0 |. t0 a9 [: Q多层前馈网络
7 l+ s5 J( r" A: R! u2 O+ ]为解决上 述问题,考虑一个其结构如下图所示的人工神经网络,
( ~; D: P$ {$ I8 }5 I; ^" K. H3 t9 d* {4 O5 [* x, Z! X8 N3 o3 y1 `+ o! _

9 `, b  Q. h6 d; }3 W. C2 d
+ z+ I) A  k( g  H7 u. S& w3 Q
9 d$ d+ U- F7 K

  u/ @" ]+ A6 q5 L! ?图中最下面单元,即由•所示的一层称为输入层,用以输入已知测量值。在我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献进行了讨论,但通过试验来决定,或许是最好的途径。在我们的例子中,取三个就足够了。最上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络结构。有些文献将这样的网络称为两层前传网络,称为两层的理由是,只有中间层及输出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层数之内。' u4 P8 K. t* k5 c

& t2 L$ ?; P$ {

- f8 W* A1 ]# ~& n/ D下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写 Matlab 程序如下:
0 ]$ k8 h: Q# o6 p# v; u2 c
# g, P; M4 F6 \6 w: A

4 [1 r& Y  |- q' U, l- D& k5 Q: oclear6 b4 x7 d7 v( s8 D
p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;
; g* u9 T0 c5 |+ U" @, W! `  E1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];1 Q  F7 `; n4 w* r
p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00" J- [. k- C6 d
1.28,2.00;1.30,1.96];; G/ q; {4 K: V/ t
p=[p1;p2]';
4 ]* Y9 c9 \! g. t- e) {& Gpr=minmax(p);7 m2 d5 B5 e# @" o8 [* D8 L
goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];
. e: y0 M8 d. C- ]) u' Cplot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o')
* ?- C7 d4 k$ x) Bnet=newff(pr,[3,2],{'logsig','logsig'});
* _- X' N  l6 K7 {" q+ Bnet.trainParam.show = 10;+ v1 o5 _! |$ T7 f7 t0 b
net.trainParam.lr = 0.05;
- F1 M% _; D  onet.trainParam.goal = 1e-10;0 F+ V1 b  \( c) `! v  s
net.trainParam.epochs = 50000;/ k4 \& v0 R  ~( @1 m* A0 K# e
net = train(net,p,goal);
; f4 |3 E6 N* h% b- H: {9 l  Jx=[1.24 1.80;1.28 1.84;1.40 2.04]';0 u9 U' n6 I0 c, Y* A: ^
y0=sim(net,p)# J* [$ x2 m1 k: P' I- l, F
y=sim(net,x)6 a, g+ w* [! [$ N2 a% X+ l& N* k
BP神经网络的应用场景
# `& P; N7 `" c) Y. e( s模式识别
  O# b' N& e- ^/ [. z  模式识别通常是指对表征事物或现象的各种形式的(数值的、文字的和逻辑关系的)信息进行处理和分析,以便确定他们属于哪种类别。' d) S: F4 E* t

7 T& U/ ^0 r, t) K: i( u
4 a2 s8 D5 \; ^* `
函数逼近
  z% Y  y9 D# g+ E% n$ U  对于一些表达式过于复杂的函数,或者是难以表达的函数,我们可以利用神经网络来无限逼近他们,对他们进行模拟。) C: X* d$ S5 k" G( r
! K1 R7 |+ A3 S6 N

' x- R3 Y) V7 X0 p预测6 w  K( G( I6 w% r! f# j' e
  先利用一些已知的数据对网络进行训练,然后再利用这个训练好的网络来对新来的数据进行预测。相比于传统的方法来说,神经网络提高了准确度,并且只需要较少的数据。
0 D* L/ e, X9 \& @5 x
+ [4 u  U7 `( ^3 R* E
/ F$ H9 A4 `, A* P- i3 `( z
数据压缩3 q4 j6 s9 _& c& O# {& K! Y
  数字图像压缩实际上是以较少的比特数有损或者无损的来表示原来像素矩阵的一种图像处理技术,实际上就是减少图像数据中的时间冗余,空间冗余,频谱冗余等等作为目的,从而同过减少上述的一种或者多种冗余的信息而达到更加高效的存储与传输数据.图像的压缩系统其实无论采用什么样的具体的架构或者技术方法,基本的过程都是一致的,主要还是可以概述为编码,量化,解码这三个部分。从理论上讲,编解码问题其实就可以归结为映射与优化的问题,从神经网络的方面来看无非就是实现了从输入到输出的一个非线性的映射关系,并且衡量性能的标准可以从并行处理能力是否高效,容错率是否合适,以及是否具有鲁棒性.分析图像压缩的基本原理其实和上述的BP神经网络的原理一样。所以我们可以利用BP神经网络来解决图像压缩问题。
% d7 t: d9 ]; |7 @' x, r* T  f1 r1 G: O; m. y
2021年第十届数学中国数学建模国际赛校园志愿者招募通知; G" h% K/ n; G( s* ~- d# r
http://www.madio.net/forum.php?m ... amp;fromuid=1534206
& h2 T2 _% U4 i6 w9 y联系工作人员报名:乔叶:1470495151  淡妆:1917509892  浅夏:3243710560, }9 e* w; X  c

3 N8 M7 q. j2 r" L3 U+ k2 p) w) p5 Y' O# w3 e1 T( M  O6 @
' N7 s9 M: c2 c* M) V





欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5