QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2262|回复: 0
打印 上一主题 下一主题

[建模教程] 神经网络模型用于数学建模

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2020-6-4 11:24 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及 功能的一种抽象数学模型。自 1943 年美国心理学家 W. McCulloch 和数学家 W. Pitts 提 出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了 50 多年 曲折的发展。特别是 20 世纪 80 年代,人工神经网络的研究取得了重大进展,有关的理 论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。 它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及 专家系统等领域得到广泛的应用,提出了 40 多种神经网络模型,其中比较著名的有感 知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这 里我们仅讨论基本的网络模型及其学习算法。1 R/ ~+ c+ i+ Q! q% M

    / f+ U- z7 o- N, C9 {8 d1.1  人工神经元结构
    / S3 [! a0 G& r下图表示出了作为人工神经网络(artificial neural network,以下简称 NN)的基本 单元的神经元模型,它有三个基本要素: , P3 h' A' s# x# B
    7 g9 X* D2 a0 J. x
    ( u) E7 y, ]# H

    5 h/ `4 [; I7 i+ [+ H. i, V( W7 O+ ^( O
    6 X/ E8 _3 e9 ]( V4 h' j

    4 f/ }, u. C# R$ ?7 W3 y: ?* E# o0 H9 g" {5 g
    ; g/ `$ I7 t9 W. z7 y

    / D% w' P( L& q2 n/ ?4 v: ]激活函数  ϕ(⋅ ) ; ~  \& }0 s! f& D3 Z7 d
    可以有以下几种:
    $ H& V8 E; w; k5 K% ^2 `
    / z; B+ i7 h# _* K4 { (0)Softmax - 用于多分类神经网络输出
    & F* K$ u" H7 r5 @" J* [% r7 S4 H/ Y' X% e; n
    - y1 ~( t& x3 J5 x9 A, R
    + f; \  y1 }) T- z3 Z$ e1 B7 S
    (1)阈值函数 、阶梯函数8 |5 D/ Z! C+ ^4 v8 _4 z  i! u

    . \* v8 J' p( t$ I6 q9 k* t
    5 r- `' a+ O( v- V- B2 q$ \9 g! }% l- F& S
    4 R/ Z, G2 q4 `  A相应的输出   为 5 F: M% Q5 ?" k+ w+ Q5 e* x' A

    ) C" M) w; J# s6 O; [- }, T" K
    - v  H: D8 T9 e" t3 r% a# B( q+ G5 ]
    5 W! ~2 ]: @6 c6 Y! X9 T5 v(2)分段线性函数 . s2 g$ p! d+ F" w* U! I' k: K; \2 x

    " K" F7 L- h3 O: F0 L& A
    % w: Q* j& ^% W- I8 D% @. @$ @1 k5 l8 D1 y! T0 N6 o+ T
    它类似于一个放大系数为 1 的非线性放大器,当工作于线性区时它是一个线性组合器, 放大系数趋于无穷大时变成一个阈值单元。
    ( e+ o  ~8 i# y6 x1 Q' Y/ _3 H6 w4 [
    (3)sigmoid 函数 (以前最常用)
      J* F, D6 x* ~7 s5 }- ]* H* i$ O. {/ {4 V  b
    5 _0 Z: q; q. G# i, w7 ?$ |; M

    * E0 t; K/ I0 r0 f参数  α  > 0 可控制其斜率。 sigmoid 将一个实值输入压缩至[0,1]的范围,也可用于二分类的输出层。
    1 V' n/ m4 K  _" A( p0 ~. f% k- I# F5 n3 I
    (4)tanh  (双曲正切函数 ;Hyperbolic tangent function) # H; u( K- F' v) o, k. W) M
    0 Q7 H6 G% i9 z2 E
    # n! I/ K+ q5 d
    * n9 M5 G0 U* s8 Q* a+ d1 j
    将 一个实值输入压缩至 [-1, 1]的范围,这类函数具有平滑和渐近性,并保持单调性., f" b2 P9 T/ S8 q. V6 g/ ?2 J
    3 ~) S" T+ i( E" M  r/ T6 d
    " Z0 v( M& k' J4 h3 R7 t# Y- @

    2 ~* r/ p/ m9 g(5)  relu (Rectified linear unit; 修正线性单元 ; 深度学习目前最常用的激活函数)8 T" d' F0 L2 w7 _  q+ G( Z' y) |- f6 U

    , g/ A0 D9 R  v/ ?' X5 `  B- }2 U5 ]1 r+ O  t  O

    & E+ }8 m) Y/ _4 Q# x0 _7 v; F( T
    # Relu在tensorflow中的实现: 直接调用函数 ) y. h3 K( J, c  t
    tf.nn.relu( features, name= None )
    ( q: `/ E2 _  y0 Q! _; U4 k) I
    # ^2 Y8 M8 `5 B0 M& ?( G3 @与Sigmoid/tanh函数相比,ReLu激活函数的优点是:
    * k3 D( v4 T, e: J
    9 F* o: r5 V1 [5 f: z6 k 使用梯度下降(GD)法时,收敛速度更快  
    0 a& [* x5 L6 A  z- A相比Relu只需要一个门限值,即可以得到激活值,计算速度更快  
    & u# d/ C, b8 o8 o8 \: X% g1 t 缺点是:  Relu的输入值为负的时候,输出始终为0,其一阶导数也始终为0,这样会导致神经元不能更新参数,也就是神经元不学习了,这种现象叫做“Dead Neuron”。: l. U' Y5 h# y! L
      n: T; T$ ~3 @% x2 ~) n5 G
    为了解决Relu函数这个缺点,在Relu函数的负半区间引入一个泄露(Leaky)值,所以称为Leaky Relu函数。
    4 i# W" J! b: L
    " R) }# ~, U( d; v7 Y; T2 s$ i (6)Leaky Relu  (带泄漏单元的relu )
    ( v) g9 Y& [9 R: }3 `; O2 n; V3 t3 v6 q6 [. u1 q  ^- ^
               数学表达式: y = max(0, x) + leak*min(0,x)
    : M; V( c7 ?& e( A3 O. l# D/ `/ Q/ ?" N1 a/ M" M! r
    与 ReLu 相比 ,leak 给所有负值赋予一个非零斜率,  leak是一个很小的常数  ,这样保留了一些负轴的值,使得负轴的信息不会全部丢失); B4 k& Q4 D, u7 v

    5 F: P$ A7 H$ m$ D2 c
    / h) P( |2 F" h4 \4 ?leaky ReLU
    # h1 e5 v& A9 G, r- `+ R' B( C# A9 ^( K% w) s
    7 `) \' x! H" ?& H# D' w' a

    2 O5 {2 ?0 g: J7 Z" z, t( K% u6 S: [% ~7 b% z; c. g+ t
    #leakyRelu在tennsorflow中的简单实现
    & z# c" ]: _' U- Q0 [7 L) l6 h tf.maximum(leak * x, x),- A3 M" J8 u8 A- p: ^3 t

    : h9 }* s& H% u6 ?
    " k' _) F* Z* k$ `; E. S+ I' z" d 比较高效的写法为:
    : {8 p( O( n0 w' J  y; h2 E# ]) f9 T. I( Q
    import tensorflow as tf; Y2 }% r9 F9 E
    def LeakyReLU(x,leak=0.2,name="LeakyReLU"):( j* h' Z  I$ c; o* [# r8 S9 u0 |
        with tf.variable_scope(name):! Z7 j  B/ s' r" |/ q; \8 ~) Y4 T
            f1 = 0.5*(1 + leak)
    ( K) D4 r6 x  B" F. L) ~& f: @0 ~4 K( }/ z        f2 = 0.5*(1 - leak)
    ; d; z8 E- D  P2 Y% h# k        return f1*x+f2*tf.abs(x)6 L# B0 }5 N6 ^

    % @$ B* u0 y5 n& B; @0 D$ R( t(vi)  RReLU【随机ReLU】
    ; A  c7 g* e  P" S
    6 P5 {/ o) c3 S$ V& c+ P在训练时使用RReLU作为激活函数,则需要从均匀分布U(I,u)中随机抽取的一个数值 ,作为负值的斜率。
    % e  @* X6 K( Q2 O2 @, b; j* L3 q. T) Q# C6 @
    % \" J" U- Q. a+ t
    & N1 D% a% P& Z6 ^& A) {
    总结:    激活函数可以分为 两大类
    ! Q! ]4 J+ p" e- E% C5 u+ K9 i( U; G# B
    饱和激活函数: sigmoid、 tanh
    2 `: T$ @  ]1 N" ]1 R) F( @" N非饱和激活函数: ReLU 、Leaky Relu   、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】6 z! O' e, x% a

      p( l: K8 I5 o4 n1 D+ L# G- b5 m4 o) }$ p
    - |0 f5 l7 T$ M- H' J
    相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点:3 c8 V' b9 m( W* H! Y) |! L  f
        1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激活函数。& s6 S4 ~3 j( j% N; M
        2.其次,它能加快收敛速度。 : M) J! L" g5 Q; `9 w  p
    0 w% |; h( l' b
    其它激活函数:softplus、softsign7 d5 s  m- ^' y* X% ], x) ^

    * ^7 S$ k# S0 m* z
      {* E/ D+ _  _8 ]) @$ T4 G! p- Z0 p, Y
    Matlab 中的激活(传递)函数
    / A% v4 _% L* G  f2 z7 T
    7 C9 ?: j  c9 l2 T! V1 a
    4 t! [- i3 A, ~# L! X1 k9 c, w, a$ i9 T9 }) B2 A% I
    ( H+ h0 C* l* R( j2 K# z! S
    # g" E* W6 L2 t" b/ a( M
    1.2  网络结构及工作方式
    ' Q# S, a+ A5 M3 @+ z8 I1 K 除单元特性外,网络的拓扑结构也是 NN 的一个重要特性。从连接方式看 NN 主要 有两种。' ^9 I9 E, y% s, w8 s6 W
    - W. t7 z, `& Q! ?  W
    (i)前馈型网络 各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入 单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多 个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第 1 −i 层 输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。
    6 A4 Y! v- p0 \% z# j5 x0 p% y! c8 c9 O2 ~0 ?$ c1 ?2 Y" \( A- Z
    (ii)反馈型网络 所有结点都是计算单元,同时也可接受输入,并向外界输出。 NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不 变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算 单元状态变化,以达到某种稳定状态。 从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络 按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作 用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解优化问题。
    4 q' l4 _5 X. ~$ ~0 j6 _' V& `3 O1 ]& U
    2  蠓虫分类问题与多层前馈网络
    , q$ y, X$ S- J6 n: e5 _2.1  蠓虫分类问题
      Z1 |. y6 j8 D+ U  R+ q; K* Z* i蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与 Apf)进行鉴别, 依据的资料是触角和翅膀的长度,已经测得了 9 支 Af 和 6 支 Apf 的数据如下:; e: k$ k1 u8 _! j* t) {2 E
    : _! i$ w5 \( T) p: U7 ~5 x% C8 h$ b
    Af: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70), (1.48,1.82),(1.54,1.82),(1.56,2.08).
    0 O8 F, E! K$ d% Q, E
    7 W0 a$ T5 Z4 Q1 H$ c" N% K4 R0 |Apf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).
    $ y* w; r6 o) i: G2 z; e/ c- `8 O1 G% V# m9 i. p; i. X& g
    现在的问题是:
    8 z5 U6 d- c  o3 ~5 x5 B! b1 b1 b% \) q3 `/ H* f
    (i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。
    8 ?! {1 h  z5 v4 G0 V1 ^7 e+ S7 W6 N: Y% X  \1 v( i2 S
    (ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的 3 个标本,用所得 到的方法加以识别。
    . r& ~) ~! g& m5 ~; ^
    7 v. f/ ^! j2 ^. \$ G(iii)设 Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。
    3 ?- J* Z0 T2 a) Y6 c- c1 @( B: x; R; X% W
    如上的问题是有代表性的,它的特点是要求依据已知资料(9 支 Af 的数据和 6 支 Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或 Apf)。今后,我们将 9 支Af 及 6 支 Apf 的数据集合称之为学习样本。 : ]3 f4 d% I# ~) G' U3 Y
    ( n$ U( ]! s; Y0 J- ?
    2.2  多层前馈网络
    ! w7 P4 N& L/ Q# g+ g2 Y为解决上述问题,考虑一个其结构如下图所示的人工神经网络,
    6 |: Y% d  e& C; s6 ^' K6 c; V  @
    : o6 \) ?# b6 `! Y/ e; O/ J+ [. Q

    ( T: k) s. c- ]+ O4 Z) U6 `- Y  C! B. i" T* S! C0 I
    使用sigmoid 激活函数:6 ]2 f3 D. \) r- Z: _& k+ a
    * `+ Q5 B7 f; m- a' i2 F

    / }: R7 V  S. N! {2 p& s
    : Z+ M. q  v& j1 j# _; I. \6 V图中下面单元,即由   所示的一层称为输入层,用以输入已知测量值。在 我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。 中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献 进行了讨论,但通过试验来决定,或许是好的途径。在我们的例子中,取三个就足够 了。上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入 数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理 后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入 与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络 结构。有些文献将这样的网络称为两层前馈网络,称为两层的理由是,只有中间层及输 出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层 数之内。1 O3 q8 i  p' u6 K5 P$ k
    $ @  T" k+ `  S0 m+ r( H% ?
    + M$ ?/ N. X2 T/ B7 E7 B9 Y0 k6 Z, L3 `
      O. m7 _+ D% B

    ( w- _7 i  N9 C/ @
    $ p( c5 d3 i5 a  u* b- Y3 l( Q7 E2.3  后向传播算法. }" b6 @) F* E
    对于一个多层网络,如何求得一组恰当的权值,使网络具有特定的功能,在很长一 段时间内,曾经是使研究工作者感到困难的一个问题,直到 1985 年,美国加州大学的 一个研究小组提出了所谓反向传播算法(Back-Propagation),使问题有了重大进展,这 一算法也是促成人工神经网络研究迅猛发展的一个原因。详细了解请看: 一文弄懂神经网络中的BP反向传播算法
    % b6 Z; r6 U2 s8 N! `. J: [8 L9 V- P' z9 F2 p3 t5 j7 K/ C7 ~
    下面就来介绍这一算法。【注:梯度法又称最速下降法。】* K! z( z3 ?2 x

    : f/ W3 U, O- }3 ?  I
    8 r8 f9 E- y2 o$ x
    ( L+ m! c- K2 {( |0 o! L) E
    4 [& Y. R. D9 r
    " n% x6 h5 M5 U1 m; o% X
    ( b( K% [5 I8 E0 ?+ K0 o1 p& i* w2 _2 _! h# }
    - j" g# a4 ?9 k
    4 {/ |- R- z) I, O" m- Q% r3 O& L7 N
    (iii)在如上的讨论中使用的是速下降法,显然,这也不是唯一的选择,其它的 非线性优化方法,诸如共轭梯度法,拟牛顿法等,都可用于计算。为了加速算法的收敛 速度,还可以考虑各种不同的修正方式。3 G+ Z. p( a7 q2 ]: G- Q

    : F0 q% G$ V$ e( W; x, C(iv)BP 算法的出现,虽然对人工神经网络的发展起了重大推动作用,但是这一 算法仍有很多问题.对于一个大的网络系统,BP 算法的工作量仍然是十分可观的,这 主要在于算法的收敛速度很慢。更为严重的是,此处所讨论的是非线性函数的优化,那 么它就无法逃脱该类问题的共同困难:BP 算法所求得的解,只能保证是依赖于初值选 取的局部极小点。为克服这一缺陷,可以考虑改进方法,例如模拟退火算法,或从多个随机选定的初值点出发,进行多次计算,但这些方法都不可避免地加大了工作量。 ) d/ u; H/ e8 ^5 d7 n1 x5 b2 q

    & {% u$ z1 p: J& R+ [2.4  蠓虫分类问题的求解
    : n; {1 l! E" K/ d  r& r! l7 N下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写 Matlab 程序 如下:6 v0 Z* c& D9 [0 k6 q* M; Q

    0 p7 `. U" O  p# g0 M$ T' S# tclear ! Q/ T4 ]% i: \# O+ H8 C( H
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;
    . K" P' b/ M8 E8 G& Y! c/ p    1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];
    ' Z* x0 l* f' ~0 ~1 j2 ~p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00    6 ]* N) _5 X. d- [  l  r0 p) S: R0 Q
        1.28,2.00;1.30,1.96]; p=[p1;p2]'; pr=minmax(p);
    ; s; Q5 D* K: ugoal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];   Y+ P+ e9 o* L: A
    plot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o') ; G, \2 M0 e& I8 X7 y
    net=newff(pr,[3,2],{'logsig','logsig'}); 3 S  R3 `3 _* a# ^- ]
    net.trainParam.show = 10;
    / x. F6 H" Q( v9 [+ ynet.trainParam.lr = 0.05;
    , \8 c  r7 w& k) e* b/ E- ?! hnet.trainParam.goal = 1e-10; 0 D8 A$ Y' c* u! W7 W* ?/ `
    net.trainParam.epochs = 50000;
    % Z2 c5 l+ l7 y1 G% I) \6 N' A+ g% z5 ]! cnet = train(net,p,goal);
    * _$ c  e" B4 c( M, ix=[1.24 1.80;1.28 1.84;1.40 2.04]';
    1 r- J* ]. l/ W. Xy0=sim(net,p)
    6 H3 f- V4 j2 J! a# U3 t# gy=sim(net,x)
    9 M% v& L0 B& i) j# ~. {; s
    $ }$ F7 N3 X, ]3 u7 Q) _$ z, ?( x* O4 t; a
    " H5 H8 A( f* I% ]) @& ^
    3  处理蠓虫分类的另一种网络方法
    5 g* ]) {  {! y* Y# e3.1 几个有关概念% p* b$ Q7 L/ J, j2 O% t! h' O6 y
    在介绍本节主要内容之前,首先说明几个不同的概念。在上一节中,我们把利用 BP 算法确定联接强度,即权值的过程称为“学习过程”,这种学习的特点是,对任何一 个输入样品,其类别事先是已知的,理想输出也已事先规定,因而从它所产生的实际输 出与理想输出的异同,我们清楚地知道网络判断正确与否,故此把这一类学习称为有监督学习;与它不同的是,有些情况下学习是无监督的,例如,我们试图把一组样品按其本身特点分类,所要划分的类别是事先未知的,需要网络自身通过学习来决定, 因而,在学习过程中,对每一输入所产生的输出也就无所谓对错,对于这样的情况,显 然 BP 算法是不适用的。 另一个有关概念是所谓有竞争的学习。在上节所讨论的蠓虫分类网络中,尽管我们 所希望的理想输出是 (0,1)或(1,0),但实际输出并不如此,一般而言,两个输出单元均同时不为 0。与此不同,我们完全可以设想另外一种输出模式:对应任何一组输入,所 有输出单元中,只允许有一个处于激发态,即取值为 1,其它输出单元均被抑制,即取 值为 0。一种形象的说法是,对应任何一组输入,要求所有的输出单元彼此竞争,唯一 的胜利者赢得一切,失败者一无所获,形成这样一种输出机制的网络学习过程,称为有 竞争的学习。* c( K3 ?0 l' `0 ~3 g" Y, r

    / ]- i1 F* H2 ^+ a3 J3.2  简单的无监督有竞争的学习- I1 z- U: Y9 w; E+ O8 X) q6 C" ~2 e! c

    ! ?( Y" P* U! t) r7 Y# h本节叙述一种无监督有竞争的网络学习方法,由此产生的网络可用来将一组输入样 品自动划分类别,相似的样品归于同一类别,因而激发同一输出单元,这一分类方式, 是网络自身通过学习,从输入数据的关系中得出的。 蠓虫分类问题对应有监督的网络学习过程,显然不能由如上的方法来解决。但在这 种无监督有竞争的学习阐明之后,很容易从中导出一种适用于有监督情况的网络方法; 此外,本节所介绍的网络,在数据压缩等多种领域,都有其重要应用。
    # c% d6 I3 M2 t, z7 J3 B1 O) i* S! q+ A! l- a, H9 x
    5 M9 @) `9 ?, x" p3 |
    1 {$ J! s/ d  I  [0 E
    + Q, n* Q. h% r
    0 u% N" R) {  L7 Q4 p6 e  h+ N' |

    : Z1 e- F  W; _: l4 i
    " K1 l! v9 D2 g' j0 \1 n/ |为了更有效地使用如上算法,下面对实际计算时可能产生的问题,作一些简要说明。
    . Y2 Y, T8 e6 m8 y- ?4 R0 \3 E
    & \9 H" R- k/ L. w* y- ? 首先,如果初始权选择不当,那么可能出现这样的输出单元,它的权远离任何输入 向量,因此,永远不会成为优胜者,相应的权也就永远不会得到修正,这样的单元称之 为死单元。为避免出现死单元,可以有多种方法。一种办法是初始权从学习样本中抽样 选取,这就保证了它们都落在正确范围内;另一种办法是修正上述的学习算法,使得每 一步不仅调整优胜者的权,同时也以一个小得多的 η 值,修正所有其它的权。这样,对 于总是失败的单元,其权逐渐地朝着平均输入方向运动,终也会在某一次竞争中取胜。 此外,还存在有多种处理死单元的方法,感兴趣的读者可从文献中找到更多的方法。 / R8 ?3 q1 T, c( Q. c3 E

    & N) ~9 s2 l  l4 \9 J3 L7 j+ j/ I; U; D  \1 n

    * B6 Q& w+ w5 x3 }- _' |% }
    $ F8 Y: N  {* D! c0 }$ g
    % v0 L' }; Q& R. o1 M3.3  LVQ 方法 --学习矢量量化5 W8 u8 n" U' ?) w
    2 N- \+ i& C! X2 o% R
    上述有竞争学习的一个重要应用是数据压缩中的向量量子化方法(Vector Quantization,又称,学习矢量量化)。它的基本想法是,把一个给定的输入向量集合   分成M 个类别,然后 用类别指标来代表所有属于该类的向量。向量分量通常取连续值,一旦一组适当的类别确定之后,代替传输或存储输入向量本身,可以只传输或存储它的类别指标。所有的类别由M 个所谓“原型向量”来表示,我们可以利用一般的欧氏距离,对每一个输入向量找到靠近的原型向量,作为它的类别。显然,这种分类方法可以通过有竞争的学习直接得到。一旦学习过程结束,所有权向量的集合,便构成了一个“电码本”。
    % m. `- Z$ M) b
    ; W) ?1 L- H- @1 y7 z  g8 @7 _一般而言,上述无监督有竞争的学习,实际提供了一种聚类分析方法,对如蠓虫分类这种有监督的问题并不适用。1989 年,Kohonen 对向量量子化方法加以修改,提出 了一种适用于有监督情况的学习方法,称为学习向量量子化(Learning Vector Quantization),该方法可用于蠓虫分类问题。在有监督的情况下,学习样品的类别是事 先已知的,与此相应,每个输出单元所对应的类别也事先作了规定,但是,代表同一类 别的输出单元可以不止一个。 : B+ V7 y$ X- i2 m+ g

    . J, z7 B( y3 t: y3 X9 S+ }8 _1 R9 O- C  H. x. B/ v' S
    " q) v2 |6 S- O! g1 B! [- Q
    前一种情况,修正和无监督的学习一致,权朝向样本方向移动一小段距离;后一种 则相反,权向离开样本方向移动,这样就减少了错误分类的机会。 对于上述的蠓虫分类问题,我们编写 Matlab 程序如下: 7 k; u  W+ d/ W2 b0 K" @6 p' m) v
    clear
      B% @/ L% y, [9 W) y8 i( O) Xp1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;
    9 j* F0 a& c3 B$ U0 T8 K    1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08]; 1 \' P- g( h% z. [" u; T0 Z
    p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00  
    9 B9 A. F8 g/ b2 K1 H) J! k    1.28,2.00;1.30,1.96]; 0 [, ]4 l8 a" h& i- t7 R6 D9 m
    p=[p1;p2]'
    5 C( @# k7 J# V1 A3 q- t0 Ypr=minmax(p)
    - m. |/ l/ D+ z) x7 Z% Q- vgoal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)]
    ' ?. O; ?2 d) N  d5 L3 ~* B8 `net = newlvq(pr,4,[0.6,0.4])
    ( P$ f4 [6 X! o7 N2 e: Znet = train(net,p,goal)
    ( @* t( Q& e# f+ t4 d. LY = sim(net,p)
    ; L( d+ L& T7 N/ N0 j% ux=[1.24 1.80;1.28 1.84;1.40 2.04]'
    # t/ B! `* H# i; F# zsim(net,x) ( e5 I% S1 V# ~9 Z

    3 A& g8 X0 R/ _1 Y习 题
    - O0 [* V7 e" `. u$ Z; H1. 利用 BP 算法及 sigmoid 函数,研究以下各函数的逼近问题 . A  i  y; \, }$ N/ @3 T

    8 v2 `- p0 i" L6 j
    - P- s7 w  }' T' l
    ! ?% h; X( i8 x3 N7 F- U对每一函数要完成如下工作:: \% i% {0 b5 u' H9 ?. L+ [6 m
    4 E: V/ u! P( U
    ① 获取两组数据,一组作为训练集,一组作为测试集;
    . {/ n( n5 m& \! I0 s9 W5 {( c0 K+ @9 z
    ② 利用训练集训练一个单隐层的网络;用测试集检验训练结果,改变隐层单元数, 研究它对逼近效果的影响。
    6 L) ~  r; m1 L5 }0 S& T! W# Z, j- f1 j0 g/ T7 u6 ~* F$ z
    2. 给定待拟合的曲线形式为
    7 \9 H1 C) J. _1 f1 ?6 e9 v! [$ B+ H
    4 [8 X* }4 H; d& ]! U) k+ W

    $ ]: z; v8 G8 e9 R  Q: }在  上等间隔取 11 个点的数据,在此数据的输出值上加均值为 0,均方差  σ = 0.05 的正态分布噪声作为给定训练数据,用多项式拟合此函数,分别取多项式的阶次为 1, 3 和 11 阶,图示出拟合结果,并讨论多项式阶次对拟合结果的影响。& X2 i  E; m9 \( g5 X9 s  D! f/ E

    , D9 L0 C/ n! r5 Z/ p. c' k9 Q
    ( ?" y/ R. J  \  J+ v3 D' I% T5 X" l  J' I* t
    ( e& L: b. R' }8 I. B0 {
    $ Z5 i+ j* j( Y+ s

    ! l1 \& S) {6 ~8 Y6 r————————————————
    3 z2 T/ b& f! p' `5 v版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。! _, X2 g8 }* C7 W* c1 p) }
    原文链接:https://blog.csdn.net/qq_29831163/article/details/89509279* T. ]0 V) D% J  u' }6 l, J6 B0 b
    - `) I3 p$ u9 D7 |  S, \

    ( _7 W3 U5 F4 H2 {! L
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-6-5 21:45 , Processed in 0.425723 second(s), 50 queries .

    回顶部