QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2537|回复: 0
打印 上一主题 下一主题

[建模教程] 神经网络模型用于数学建模

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2020-6-4 11:24 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及 功能的一种抽象数学模型。自 1943 年美国心理学家 W. McCulloch 和数学家 W. Pitts 提 出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了 50 多年 曲折的发展。特别是 20 世纪 80 年代,人工神经网络的研究取得了重大进展,有关的理 论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。 它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及 专家系统等领域得到广泛的应用,提出了 40 多种神经网络模型,其中比较著名的有感 知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这 里我们仅讨论基本的网络模型及其学习算法。. q6 u( L0 g; A! W
    . l  G4 R2 Z1 U( f1 q: m
    1.1  人工神经元结构8 ~, s. K: e9 j& f% G
    下图表示出了作为人工神经网络(artificial neural network,以下简称 NN)的基本 单元的神经元模型,它有三个基本要素:
    + ~1 i5 @( B" X
    2 w, f9 w( l/ s8 |( i/ _5 \$ I) s( \' y6 r* `6 H

    : j: G: R$ @* q2 j9 V
    7 ~8 l& ~  v, W# A1 I8 u. ]1 W1 q% Y0 ^1 H! k2 l

    ' l0 D) b) _* R. l2 R
    ; l8 @2 n4 ^" d& f, \
    ' n6 ~, T( z5 U8 F9 u7 [  T6 ]5 ^, _/ n5 y/ g. }8 ]
    激活函数  ϕ(⋅ )
    $ o+ U4 r, \7 Z% }) ?! ]+ e可以有以下几种: 8 L. G; A  K% o# S  k# K% H8 o
    # N$ m8 G2 R& P" x# Q
    (0)Softmax - 用于多分类神经网络输出- [- Q- e3 Q, R8 r7 ?
    ' y+ i! i5 S1 |0 u/ J
    3 M( [9 x/ d; t2 h8 p. P- n7 b+ N' w
    4 x* w$ g* J# k! |8 q
    (1)阈值函数 、阶梯函数
    6 [- E' X" A4 q- y- J. N4 L( j# A* @) @
    ; r! g1 @0 |: A" N
    : q( N2 c+ A2 A
    6 K+ K) u' \- [! z0 [3 p6 J- l相应的输出   为
    ! ^9 }0 c3 l, }8 r0 x/ a% N
    * c7 d, ]# `- E
    : e( L  ]' I3 S" {5 j. s" i
    ; u* F7 r- m$ D  w) d(2)分段线性函数
    $ i. L8 j$ U) u  }7 I; \$ ]3 Q0 x  w2 o' g9 v$ o) U- O4 \8 R

    & N8 ~7 Y7 V& {" R- |6 p6 I7 J" c6 \7 I! s# N
    它类似于一个放大系数为 1 的非线性放大器,当工作于线性区时它是一个线性组合器, 放大系数趋于无穷大时变成一个阈值单元。 % l7 G9 \: i4 w' @( N+ V# g

    . k& r5 f6 h! r4 m( C! @# f(3)sigmoid 函数 (以前最常用) ; Z, p" R  h8 P1 ?" u3 y

    0 y& E$ l8 Y, e  {6 r7 Y, V* o8 X5 p3 T1 F
    4 w6 i0 P9 Y! r; Q3 s  J5 U* C: O7 j
    参数  α  > 0 可控制其斜率。 sigmoid 将一个实值输入压缩至[0,1]的范围,也可用于二分类的输出层。; }1 v# h# z& k0 `2 i
    4 o! b1 O+ p/ Y! q+ Z2 E* Q
    (4)tanh  (双曲正切函数 ;Hyperbolic tangent function)
    : ]  {/ ~; @2 d; I( ?9 ~/ ~2 k8 u2 f  b( q
    ! W5 }" E( M% d9 w* _
    2 \# _( @' m- V) t, v( P* m5 u5 d
    将 一个实值输入压缩至 [-1, 1]的范围,这类函数具有平滑和渐近性,并保持单调性.+ c$ z4 G! ^! r# T( ]- Y0 E
      l5 r6 s0 _3 O; l, \% Y' M; x: q

    0 s+ v/ v3 O6 h! o% I
    , W/ `2 _! D: Q6 g( Y9 G5 U(5)  relu (Rectified linear unit; 修正线性单元 ; 深度学习目前最常用的激活函数)
    ( S+ U( Y1 c  f% p3 `  z/ `; P
    : A0 O( S. O  E" E! e
    9 i: `6 I- e: G+ L" v3 {& W* [% T2 z% }1 ^' U$ A) O
    ( ^7 J( _% f+ N; \
    # Relu在tensorflow中的实现: 直接调用函数 0 p4 M% u7 U/ q7 u8 b
    tf.nn.relu( features, name= None )
    % _- L4 l1 u* \$ r6 g: b
    : [" Q9 ]- s1 B, R3 e$ X" A与Sigmoid/tanh函数相比,ReLu激活函数的优点是:: A# a# X+ X- n9 B. h$ V' i0 [
    : ?, v% w5 b( t7 C& a' O. _
    使用梯度下降(GD)法时,收敛速度更快  
    6 b; @8 h: m; R% m# _3 P! ?' P. w$ B. K相比Relu只需要一个门限值,即可以得到激活值,计算速度更快  1 }+ v* P  z. b" w
    缺点是:  Relu的输入值为负的时候,输出始终为0,其一阶导数也始终为0,这样会导致神经元不能更新参数,也就是神经元不学习了,这种现象叫做“Dead Neuron”。
    5 ?$ R! W- z0 d. n+ z* O2 a" U: B) r6 B6 _8 @* _
    为了解决Relu函数这个缺点,在Relu函数的负半区间引入一个泄露(Leaky)值,所以称为Leaky Relu函数。4 F4 F' r6 ~, _  Z- \
    ' s5 d( d/ [# k. H, Z+ h
    (6)Leaky Relu  (带泄漏单元的relu )
    / ]2 F' p( b1 n+ v/ ?6 K9 p2 `6 V1 n7 o1 j' D8 R
               数学表达式: y = max(0, x) + leak*min(0,x) # D! S4 W7 \& p/ V

    % h- k5 |5 U/ Z, a与 ReLu 相比 ,leak 给所有负值赋予一个非零斜率,  leak是一个很小的常数  ,这样保留了一些负轴的值,使得负轴的信息不会全部丢失)
    ! v- p! C" L- ?  V$ P9 y9 g
    9 D2 Z% W3 z/ h/ \* u+ e' O, _6 x0 i1 N: M# W( B
    leaky ReLU
      {& o7 z6 ?* g0 L( i. U7 ~" f% Z7 Z3 s
    / B( t7 e  L: o1 X; Y- X7 K

    # z) r- j  u3 O+ E3 B1 k0 T/ C, U" }4 Z* `+ e" B
    #leakyRelu在tennsorflow中的简单实现
    1 @' M. }  @3 a( | tf.maximum(leak * x, x),
    ! S2 Y+ p9 p$ B7 C* L
    ; y9 {4 @# E* |. ~" @0 x8 v' W1 ~, Y! }5 {" ]& D
    比较高效的写法为:
    1 K) r3 A7 \7 M" k( b, u* @2 }: C3 j( A' v
    import tensorflow as tf# W0 Y9 q! b- }  t
    def LeakyReLU(x,leak=0.2,name="LeakyReLU"):" M& B# D7 v( V+ ^5 _: c' Y+ C
        with tf.variable_scope(name):
      q, B; q7 g4 K! \        f1 = 0.5*(1 + leak)& l; P' k0 J% w$ f; V* U8 v
            f2 = 0.5*(1 - leak)
    1 B$ r* |# j1 e5 i( K$ A        return f1*x+f2*tf.abs(x)
    . w# S0 F6 n* E7 K  G. A' [& |( g) @  r% q5 _- k
    (vi)  RReLU【随机ReLU】
    " U9 y1 K! D- |4 B. l5 v$ w6 s- N% `! ^$ \1 N, S
    在训练时使用RReLU作为激活函数,则需要从均匀分布U(I,u)中随机抽取的一个数值 ,作为负值的斜率。% I' `7 q+ _& Z' _5 [; T5 Y$ O

    1 @# ^! c5 [9 v& H: N2 K  J, \3 Y- |) @  ?( q/ S

    ' s( T" U5 K+ b$ h4 M4 c+ e总结:    激活函数可以分为 两大类
    % }8 Z& u4 D, J
    2 n2 S: W+ g( X7 u& m, e* q+ c+ p饱和激活函数: sigmoid、 tanh$ _5 b' i7 r7 ]* Y# G
    非饱和激活函数: ReLU 、Leaky Relu   、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】5 c3 b+ R1 t3 b; \. P

    0 D4 @! b" r) M* S8 ]2 j2 K& \- o) B( F5 g
    / v4 n8 t& F( @9 p# c/ Y( P! I
    相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点:
    2 L7 d/ i8 Z. J    1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激活函数。; S) ?( l0 ]& P; `, ]/ ~
        2.其次,它能加快收敛速度。 1 I8 I) ~0 C% n2 B
    0 P$ k6 `8 `) x/ c$ `
    其它激活函数:softplus、softsign
    6 Y4 Q. r" l; `4 G: J4 b0 o/ s; a9 a3 ]

    5 b' n' j  i( Q$ C, ]; o( s" ^6 P7 y& J
    Matlab 中的激活(传递)函数8 e3 B6 D' j/ Q$ O+ `
    ' h- o4 {: k7 u

      \- k: y- t/ E( \7 w
    $ t. n: \. }6 K+ Z+ S: m# C+ {' [! N3 f; Y+ T" p
    8 X- O0 Q7 }7 C9 D, P  j) M, a' j
    1.2  网络结构及工作方式 + ?$ v* a& M8 j9 {- I, S# K. G
    除单元特性外,网络的拓扑结构也是 NN 的一个重要特性。从连接方式看 NN 主要 有两种。& i* S' ]$ w, ^0 ]

    . j' Z, C" ]9 e' d$ Z) ?(i)前馈型网络 各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入 单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多 个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第 1 −i 层 输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。& @% D$ }3 h, d( ^& [

    8 g- R! d% I0 u% z8 @, M; S4 L(ii)反馈型网络 所有结点都是计算单元,同时也可接受输入,并向外界输出。 NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不 变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算 单元状态变化,以达到某种稳定状态。 从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络 按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作 用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解优化问题。
    ( e! o. A* v, a1 i% Z4 `% g
    4 j2 {9 F. x, ~4 B9 l+ ~2  蠓虫分类问题与多层前馈网络 1 N6 h- @+ l% s
    2.1  蠓虫分类问题
    7 v  t2 V+ x/ d) ~4 m蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与 Apf)进行鉴别, 依据的资料是触角和翅膀的长度,已经测得了 9 支 Af 和 6 支 Apf 的数据如下:+ l8 o0 y, f1 H8 Z  p5 ?
    ) c9 H  }9 `" G: d3 ?
    Af: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70), (1.48,1.82),(1.54,1.82),(1.56,2.08).
    5 v' U9 |6 [. |4 D8 V
    & Q$ V; a6 l3 R2 s" i5 AApf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).! g+ J( H! v( h; R9 E! B1 W

    , |, }* j3 M4 |5 E& |* o9 \现在的问题是:1 J. P& T0 S& V$ `

    9 @( Z, B+ e; }$ K(i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。  F/ e! S1 A/ v- q3 U% L
    7 Z' R2 q& Z$ C8 |) I* f" H) {
    (ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的 3 个标本,用所得 到的方法加以识别。
    ' r8 {% P$ I. `* @3 K7 x# }
    8 Q4 v. M1 s, M; l(iii)设 Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。2 r# e# ^& z2 j* _

    6 X6 N1 u7 n$ t' S, y! V" }) e如上的问题是有代表性的,它的特点是要求依据已知资料(9 支 Af 的数据和 6 支 Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或 Apf)。今后,我们将 9 支Af 及 6 支 Apf 的数据集合称之为学习样本。 1 T( j1 c$ u& U# P' V! i# c

    % s" U% f0 h7 u0 s  w& ]5 Y1 {2.2  多层前馈网络
    9 e0 s* I* j4 p% e为解决上述问题,考虑一个其结构如下图所示的人工神经网络,
    % {! @4 g3 U5 e! z8 l, @, k8 e1 {' T8 |& A+ x
    8 q0 Z# m5 Y; A2 I# M$ |6 D

    : m9 C/ m+ [( i7 ], C/ _
      t4 b  a1 }  d# `7 Z) R0 ^使用sigmoid 激活函数:/ ^1 B  y8 z# @9 I4 K( |

    - U( V& ]$ `: Q3 o' u. D4 [# M: K) u

    , X( g& @& N+ R* |# T* s& j$ }: B图中下面单元,即由   所示的一层称为输入层,用以输入已知测量值。在 我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。 中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献 进行了讨论,但通过试验来决定,或许是好的途径。在我们的例子中,取三个就足够 了。上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入 数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理 后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入 与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络 结构。有些文献将这样的网络称为两层前馈网络,称为两层的理由是,只有中间层及输 出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层 数之内。
    6 V. S: c6 P4 s8 S" C
    ( z- z( b: c% O4 \  r! p8 `! [; T, t0 S5 i" n
    ! q2 H1 R* O. `# V9 j( ~  Q" `
    ; R; s$ l# u, k6 X# S' q1 V

    ' f+ S8 V3 c/ Z5 `/ @! X1 e2.3  后向传播算法
    1 U7 @5 Y$ z& s对于一个多层网络,如何求得一组恰当的权值,使网络具有特定的功能,在很长一 段时间内,曾经是使研究工作者感到困难的一个问题,直到 1985 年,美国加州大学的 一个研究小组提出了所谓反向传播算法(Back-Propagation),使问题有了重大进展,这 一算法也是促成人工神经网络研究迅猛发展的一个原因。详细了解请看: 一文弄懂神经网络中的BP反向传播算法
    6 z/ n/ [% j. i# B$ C6 d0 r( W4 k8 ?5 F$ f
    下面就来介绍这一算法。【注:梯度法又称最速下降法。】
    ! }2 a! Z8 m$ R! [* t% o% Z8 |1 ^* D- @4 K1 N3 D

    4 z( X# V. b! y% I' k6 I' ]# Y
    ' e1 U  R/ T! S6 {6 ~, B" i8 A
    . ?& z; g' G5 @% T- E* m
    / W) |* k$ W( }) w! X  p/ E3 K6 y$ ~
    8 s5 v& q# F. m: n( F( ?: N: {# I. f% l% @8 V
    . z" u4 p! `2 t9 P' V! p
    ' C; [# h. S  F: m1 v, Z- e9 a
    (iii)在如上的讨论中使用的是速下降法,显然,这也不是唯一的选择,其它的 非线性优化方法,诸如共轭梯度法,拟牛顿法等,都可用于计算。为了加速算法的收敛 速度,还可以考虑各种不同的修正方式。
    1 w$ T$ J, A9 b
    + x  g; n' R! B  S' g(iv)BP 算法的出现,虽然对人工神经网络的发展起了重大推动作用,但是这一 算法仍有很多问题.对于一个大的网络系统,BP 算法的工作量仍然是十分可观的,这 主要在于算法的收敛速度很慢。更为严重的是,此处所讨论的是非线性函数的优化,那 么它就无法逃脱该类问题的共同困难:BP 算法所求得的解,只能保证是依赖于初值选 取的局部极小点。为克服这一缺陷,可以考虑改进方法,例如模拟退火算法,或从多个随机选定的初值点出发,进行多次计算,但这些方法都不可避免地加大了工作量。 8 {2 q: ^/ w" k, `4 `9 T# ?
    . U0 H, ^1 }/ o1 u. h* Z4 y
    2.4  蠓虫分类问题的求解   E5 O/ A$ G. R8 f; ]8 _
    下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写 Matlab 程序 如下:- {3 y* H- x% A

    9 ?( ~$ l5 s" I# n* uclear
    , K" P5 o' x! R5 O) c$ S( S: lp1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;
    3 b2 k3 u- b* i0 g    1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];
    " G1 X' |# \- w# V* Wp2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00   
    4 y0 u: _4 o' [: D    1.28,2.00;1.30,1.96]; p=[p1;p2]'; pr=minmax(p);
    $ Q1 F2 D- G; z& `! c8 H7 rgoal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];
    , c# o/ l+ q% X+ H+ ^' U8 ^, n/ jplot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o') ' I# n/ w2 }$ i, `* u
    net=newff(pr,[3,2],{'logsig','logsig'}); 0 P/ y# }2 v5 {0 h- D* \: e: Q  w
    net.trainParam.show = 10; 2 E$ T' G, ~. `+ _+ s
    net.trainParam.lr = 0.05;
    + l( M  |1 i5 N  unet.trainParam.goal = 1e-10;
    3 u0 w" j. \2 R% B- h. n& jnet.trainParam.epochs = 50000; 1 Y9 K/ P/ L) q% y/ v( g
    net = train(net,p,goal); 8 n- @* a" V1 o% `
    x=[1.24 1.80;1.28 1.84;1.40 2.04]';
    , Z1 Z- m7 i) [. J. s6 N) Ay0=sim(net,p)
    3 n; X; E" O# i5 j) o: S0 y2 ]' ~y=sim(net,x)
    ( O4 Q; Q$ C! S3 I
    0 d8 y; }- ~1 _% l$ V1 f) P
    * ]0 Y2 T- f# K: }
    * [7 m" C1 U2 E$ u) e8 h0 l# z  [% \6 }  o3  处理蠓虫分类的另一种网络方法
    6 U3 u( b, z0 [+ F& H9 T$ s3 @9 J3.1 几个有关概念* x% ~2 y/ y: a1 p- }! c
    在介绍本节主要内容之前,首先说明几个不同的概念。在上一节中,我们把利用 BP 算法确定联接强度,即权值的过程称为“学习过程”,这种学习的特点是,对任何一 个输入样品,其类别事先是已知的,理想输出也已事先规定,因而从它所产生的实际输 出与理想输出的异同,我们清楚地知道网络判断正确与否,故此把这一类学习称为有监督学习;与它不同的是,有些情况下学习是无监督的,例如,我们试图把一组样品按其本身特点分类,所要划分的类别是事先未知的,需要网络自身通过学习来决定, 因而,在学习过程中,对每一输入所产生的输出也就无所谓对错,对于这样的情况,显 然 BP 算法是不适用的。 另一个有关概念是所谓有竞争的学习。在上节所讨论的蠓虫分类网络中,尽管我们 所希望的理想输出是 (0,1)或(1,0),但实际输出并不如此,一般而言,两个输出单元均同时不为 0。与此不同,我们完全可以设想另外一种输出模式:对应任何一组输入,所 有输出单元中,只允许有一个处于激发态,即取值为 1,其它输出单元均被抑制,即取 值为 0。一种形象的说法是,对应任何一组输入,要求所有的输出单元彼此竞争,唯一 的胜利者赢得一切,失败者一无所获,形成这样一种输出机制的网络学习过程,称为有 竞争的学习。' o, u. P: a) I" h5 b

    - ]0 a: t8 x7 d7 u, ~3.2  简单的无监督有竞争的学习, D, ]$ p. F2 F# Z  ?5 R6 f
    6 c9 m( u# o; N$ g" M2 y* k
    本节叙述一种无监督有竞争的网络学习方法,由此产生的网络可用来将一组输入样 品自动划分类别,相似的样品归于同一类别,因而激发同一输出单元,这一分类方式, 是网络自身通过学习,从输入数据的关系中得出的。 蠓虫分类问题对应有监督的网络学习过程,显然不能由如上的方法来解决。但在这 种无监督有竞争的学习阐明之后,很容易从中导出一种适用于有监督情况的网络方法; 此外,本节所介绍的网络,在数据压缩等多种领域,都有其重要应用。
    ) R& o8 c3 L# u0 v# L9 _4 l: W4 [- F
    9 Y/ I, I' E" x- H0 M
    4 q; y; R% o, U: o# `% N
    9 D6 e- d) k: O2 n1 l

    6 {8 F) b1 {! x* S1 K5 B( q, M7 V5 M, P9 ?

    / l1 `1 W  E+ O7 y3 j1 n为了更有效地使用如上算法,下面对实际计算时可能产生的问题,作一些简要说明。
    + k% A+ ]5 H. E. h, T! b' E) D& L) H. L- F" T- t
    首先,如果初始权选择不当,那么可能出现这样的输出单元,它的权远离任何输入 向量,因此,永远不会成为优胜者,相应的权也就永远不会得到修正,这样的单元称之 为死单元。为避免出现死单元,可以有多种方法。一种办法是初始权从学习样本中抽样 选取,这就保证了它们都落在正确范围内;另一种办法是修正上述的学习算法,使得每 一步不仅调整优胜者的权,同时也以一个小得多的 η 值,修正所有其它的权。这样,对 于总是失败的单元,其权逐渐地朝着平均输入方向运动,终也会在某一次竞争中取胜。 此外,还存在有多种处理死单元的方法,感兴趣的读者可从文献中找到更多的方法。 / _2 w1 a2 Z8 T, m
    0 G. i4 Y" f7 P! p8 m  E9 r
    , L! u. c' G( p" n% D
    , @0 X( ]( O; e

    " [' y: F5 _8 m8 P6 ?9 _
    5 ]( o5 C  J9 I4 e( |1 m3.3  LVQ 方法 --学习矢量量化
    , \; h3 q5 }$ j8 V
    3 q9 G" Q4 s8 k/ j. B上述有竞争学习的一个重要应用是数据压缩中的向量量子化方法(Vector Quantization,又称,学习矢量量化)。它的基本想法是,把一个给定的输入向量集合   分成M 个类别,然后 用类别指标来代表所有属于该类的向量。向量分量通常取连续值,一旦一组适当的类别确定之后,代替传输或存储输入向量本身,可以只传输或存储它的类别指标。所有的类别由M 个所谓“原型向量”来表示,我们可以利用一般的欧氏距离,对每一个输入向量找到靠近的原型向量,作为它的类别。显然,这种分类方法可以通过有竞争的学习直接得到。一旦学习过程结束,所有权向量的集合,便构成了一个“电码本”。
    ' D; S2 \! D  g1 V9 D7 V* B! b+ q. t
    一般而言,上述无监督有竞争的学习,实际提供了一种聚类分析方法,对如蠓虫分类这种有监督的问题并不适用。1989 年,Kohonen 对向量量子化方法加以修改,提出 了一种适用于有监督情况的学习方法,称为学习向量量子化(Learning Vector Quantization),该方法可用于蠓虫分类问题。在有监督的情况下,学习样品的类别是事 先已知的,与此相应,每个输出单元所对应的类别也事先作了规定,但是,代表同一类 别的输出单元可以不止一个。
    . k4 e! j& m: @
    % i" P2 w: `- f. f) A* \! x/ C
    * e8 Q( t' r8 L# i
    ) ]; Y; D! E# i$ N前一种情况,修正和无监督的学习一致,权朝向样本方向移动一小段距离;后一种 则相反,权向离开样本方向移动,这样就减少了错误分类的机会。 对于上述的蠓虫分类问题,我们编写 Matlab 程序如下: / U( f, @  H! k7 a
    clear
    & @6 H" W% H6 j: P/ c/ Wp1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;
    4 \' q6 ^& L/ |$ L    1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08]; $ ~  n0 ~$ N& h% I3 M
    p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00  
    6 O+ u+ X/ r! l! J0 H  Q    1.28,2.00;1.30,1.96]; 7 V$ {) S9 I- D4 x* h
    p=[p1;p2]'
    . P* Z1 A! t9 k2 c; \/ ypr=minmax(p) 2 ~( Z0 _. p0 m2 {: h
    goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)] : [" f! ~) R5 [; F
    net = newlvq(pr,4,[0.6,0.4])
    7 F  m/ e: p& {0 _: k" u5 {net = train(net,p,goal)
    " s$ B4 z2 }- f. {: PY = sim(net,p)
    6 _" t+ d  _2 ]2 O5 dx=[1.24 1.80;1.28 1.84;1.40 2.04]'
    6 {( C" H' o+ X4 i3 Zsim(net,x) 1 N- h/ n1 ^! J
    " P/ U8 T& T, c
    习 题
    ' f$ m4 H8 w6 f7 O- _, Z$ Q% L8 x1. 利用 BP 算法及 sigmoid 函数,研究以下各函数的逼近问题
    * |9 X( G9 m& S5 `4 \& ~, z0 h. l5 @- w; K& m. R
    1 ^) B- z& X/ G! I5 u/ e# A

    % O9 K' S7 Z* R' u对每一函数要完成如下工作:
    * Q8 k$ }2 Q; `- C  @. L& |$ ^, e, b/ m+ R# h, i" y7 i
    ① 获取两组数据,一组作为训练集,一组作为测试集;  M: @9 N8 O5 Q6 [
    ; {; Q3 x* A2 S4 J/ Z
    ② 利用训练集训练一个单隐层的网络;用测试集检验训练结果,改变隐层单元数, 研究它对逼近效果的影响。
    4 R9 j+ \, d' w* v2 Z
    9 _, e8 |% F2 S0 e2. 给定待拟合的曲线形式为4 E% \9 G) W1 c: Y

    & _, x; O" j, c5 b
    + {' q( l% C5 p( l2 F) {
    : T7 P/ D+ e1 a. _# v在  上等间隔取 11 个点的数据,在此数据的输出值上加均值为 0,均方差  σ = 0.05 的正态分布噪声作为给定训练数据,用多项式拟合此函数,分别取多项式的阶次为 1, 3 和 11 阶,图示出拟合结果,并讨论多项式阶次对拟合结果的影响。
    8 ~+ Z+ m' T, o! X. j, l( {$ |9 F7 [1 J
    - N; R" t, ^' K8 \: [1 F, N1 u# P# j
    ; [& T6 v& z5 l- O, `. u! |9 Q

    1 B. P- q% J& Q7 y4 M3 @  L+ j% k3 ]$ z$ e- E! j8 P1 y2 @

    / O: ^& @0 C5 Z* ^0 T7 ^5 s. h————————————————
    ' Y5 j) C/ K  |版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。1 E" o1 n/ c0 E% U' j
    原文链接:https://blog.csdn.net/qq_29831163/article/details/89509279
    % F+ u8 d& {. a7 s/ X7 f/ I( L- ?9 s' z' N

    * Y7 x: m8 r% S% t) f. h! ]2 L  L
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-18 09:03 , Processed in 0.553100 second(s), 51 queries .

    回顶部