QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2255|回复: 0
打印 上一主题 下一主题

[建模教程] 神经网络模型用于数学建模

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2020-6-4 11:24 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及 功能的一种抽象数学模型。自 1943 年美国心理学家 W. McCulloch 和数学家 W. Pitts 提 出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了 50 多年 曲折的发展。特别是 20 世纪 80 年代,人工神经网络的研究取得了重大进展,有关的理 论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。 它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及 专家系统等领域得到广泛的应用,提出了 40 多种神经网络模型,其中比较著名的有感 知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这 里我们仅讨论基本的网络模型及其学习算法。
    : J3 t2 U; \8 m; ]" ^! j
    : q4 W* e, a: P7 ^1.1  人工神经元结构' N8 C( x8 y) J0 Q- x; R2 f2 c
    下图表示出了作为人工神经网络(artificial neural network,以下简称 NN)的基本 单元的神经元模型,它有三个基本要素:
    ' v- p; a& v/ r4 o3 p" L
    ; ~. z1 f! S$ f7 V" v7 q9 F, s; {. Q, G. C3 d. u* _# w

    7 m( E7 A5 I4 V8 f' P
    5 \0 A+ b. w4 a; ^& k* ?- S+ A! D- U  G0 C. E' |' z9 t

    5 }3 C* E4 R# P5 V4 M% b
    * |. |: G  y" Y# ?
    0 ^% ^. H3 X& s3 L. D7 d4 L, C
    ; I0 E  S2 S. k# d8 ~9 V激活函数  ϕ(⋅ ) 7 K0 `2 T  C! u1 r* G; J1 \/ ]
    可以有以下几种: % w( Z( B. U5 O) s+ W: |" B

      R1 W2 R. k: F5 ?- q. l! P& C (0)Softmax - 用于多分类神经网络输出
    ) h" Z2 s' H: A+ g8 w
    ' \+ I# |% J4 D
    5 d1 m7 [7 Y- J- m/ E0 q$ ^, z! {8 k8 }8 `) e4 T& y: h6 [( ]% w
    (1)阈值函数 、阶梯函数* s5 i& r0 V4 _5 B: Q2 k* w

    ) w6 i" i! }4 |) @; V5 {- D/ l7 ?2 K; q# y
      b. i% s& z3 u- q
    相应的输出   为
    5 u4 m! Y: Q* l9 N: o7 M3 [# V) K
    # z% O+ A+ ?/ [  l. z; P0 G1 o( g/ a9 ?- m1 N! L8 L

    " _: D! i5 w% `: s/ Z; w" C(2)分段线性函数
    " [- h' a( ~: i& f- S, @* N/ I2 F3 B4 l1 m
    3 ^8 v2 U" ^: l( s- R
    1 P- m9 x! @/ S  ^7 O! _0 A
    它类似于一个放大系数为 1 的非线性放大器,当工作于线性区时它是一个线性组合器, 放大系数趋于无穷大时变成一个阈值单元。 - V4 n4 M3 f. |2 o7 O/ d* x
    6 v: x+ N$ D& }! ?* l- Y5 H7 m
    (3)sigmoid 函数 (以前最常用) : i% S3 C: j3 y$ M  j, w

    . _0 |% f  v+ H. f, |1 v! a$ y5 e2 ]/ S# J
    / F' U8 C0 \9 ]) [7 T
    参数  α  > 0 可控制其斜率。 sigmoid 将一个实值输入压缩至[0,1]的范围,也可用于二分类的输出层。
    ' v; v, m6 k3 b, _5 Q9 q  O% Y+ }# D: i. H. O: e7 j+ q1 @4 @5 V! F# [
    (4)tanh  (双曲正切函数 ;Hyperbolic tangent function)
    6 w0 O6 x- @8 k; d" X  Q0 b7 U0 u3 a" w( D. }

    & n' `2 t, C1 [2 o, B# u5 m
    ! e9 M$ O# n5 U7 V: y 将 一个实值输入压缩至 [-1, 1]的范围,这类函数具有平滑和渐近性,并保持单调性.) W6 a5 Y5 `2 |3 b0 m& b9 Y+ W5 M

    ' J0 H! f& U- V( v) E6 y$ \! ^1 I) F2 ^* E0 @( s8 T: X

    9 U8 l) t) W( J1 a% X! z' P4 S9 S(5)  relu (Rectified linear unit; 修正线性单元 ; 深度学习目前最常用的激活函数)
    0 S. @) Q+ l( ~" m+ t5 K% O& J" h" K. C! g
    ( h, x0 L% o  N

    0 p0 i1 d2 r. i9 Z
    . w" y8 c; o4 x9 V# Relu在tensorflow中的实现: 直接调用函数
    $ V" p3 c1 k$ o' W: Utf.nn.relu( features, name= None )  p& U% ?4 x/ I  R! O7 c
    * U% A7 o, i3 R( A, @
    与Sigmoid/tanh函数相比,ReLu激活函数的优点是:
    * i, R, E  K8 J( D( g' C
    " k3 y' r8 m4 `( w+ ? 使用梯度下降(GD)法时,收敛速度更快  : _3 T) v( o/ H$ @+ _
    相比Relu只需要一个门限值,即可以得到激活值,计算速度更快  
    6 n2 P2 H9 E% B- c- v7 E 缺点是:  Relu的输入值为负的时候,输出始终为0,其一阶导数也始终为0,这样会导致神经元不能更新参数,也就是神经元不学习了,这种现象叫做“Dead Neuron”。
    ' Q& `" b  D( U* h7 }, W, G0 B4 T9 Q8 p+ B% O
    为了解决Relu函数这个缺点,在Relu函数的负半区间引入一个泄露(Leaky)值,所以称为Leaky Relu函数。
    " `5 I: q* X0 a4 @: E3 _
    * ~( g6 A  F+ O! b/ j (6)Leaky Relu  (带泄漏单元的relu )
    ; k5 |9 @$ p  E- W7 z+ P1 C0 n) r  |. K$ c) D
               数学表达式: y = max(0, x) + leak*min(0,x) 1 c6 I0 B$ t  U$ G
    . C  u' d, C6 ]  D$ w+ V
    与 ReLu 相比 ,leak 给所有负值赋予一个非零斜率,  leak是一个很小的常数  ,这样保留了一些负轴的值,使得负轴的信息不会全部丢失)
    ! d; A8 D. [# y1 b7 e' G- b3 R* F4 K, R$ c% W
    , q+ W" }3 _7 S' g- E$ H
    leaky ReLU
    % V5 L" Q/ `: H" g( n: b: n- s. {+ G3 T" R5 w9 |' _
    9 K/ E( d6 H. |9 |$ q

    . W3 U1 G3 [( B7 j/ y$ l! t9 @: K5 X5 d7 d; f
    #leakyRelu在tennsorflow中的简单实现
    % x- |# N8 m8 K- h tf.maximum(leak * x, x),0 n/ Z: D0 w, M; w  g. N
    : N5 Z1 A& ], A( H! J% d( m; Y
    7 X! g7 ^& y" v! c  o
    比较高效的写法为:/ Y, Y& P* I# @

    9 W1 f. P* j2 S3 _: H" i5 _import tensorflow as tf
    3 k, `; p  Z* @$ ]% i6 Udef LeakyReLU(x,leak=0.2,name="LeakyReLU"):9 Y9 o& h/ i* t& ^  y9 A
        with tf.variable_scope(name):5 e. u2 b: Q' a% ?7 x
            f1 = 0.5*(1 + leak)0 e6 C- q8 ]7 ~; D
            f2 = 0.5*(1 - leak)$ J6 u- g: C7 T+ k. l
            return f1*x+f2*tf.abs(x)
    & ^0 D7 r0 c: X
    - I, z0 k9 `. }; [5 {(vi)  RReLU【随机ReLU】- x  P& l, d; J$ g4 h. c
    , U& [* C2 G$ `$ F2 C( k" @
    在训练时使用RReLU作为激活函数,则需要从均匀分布U(I,u)中随机抽取的一个数值 ,作为负值的斜率。
      y2 a7 }( W! a9 d
    7 l0 V7 S* ~" ?! `
    + e/ L, J8 I, p, R3 E8 N# m: P. w4 z
    总结:    激活函数可以分为 两大类
    % D# A$ A" A( w
    9 M) d7 d  p( ]饱和激活函数: sigmoid、 tanh1 P3 K5 Z: G' O. A( }. I2 _: q
    非饱和激活函数: ReLU 、Leaky Relu   、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】, Q! _7 z: B' S2 i, N! ]% N
    1 x0 Y, a( Y9 f2 c9 d: |* E' c

    ; u5 N- k6 F, V$ n2 a3 f( J: S1 Y6 G" D' j
    相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点:
    9 P5 }3 t2 T0 u8 U$ q    1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激活函数。
    7 C; r- l  P) B( V  R& P: }    2.其次,它能加快收敛速度。
    ' Z, o2 B; m: t" M# \; W& b4 W0 h4 W+ j' A2 Y. A9 h! c( C$ k
    其它激活函数:softplus、softsign% {6 x% Z: n; ?1 V
    ' c9 q6 N; q4 f* c8 g' U! ?) W) U

    . i3 o0 I. y! P) ]) G
    0 E0 @5 G1 f9 \3 `) _5 b& X9 X# NMatlab 中的激活(传递)函数
    0 e5 r( c0 F) l% L2 B' r9 V. @( C% G( X# q5 K$ O! E

    ; [# u4 S9 z: @$ Y4 S, N' I8 j. @" I

    9 U  e+ l% k& T/ y; |5 p4 G3 h9 E) p& I0 S$ ]
    1.2  网络结构及工作方式 1 X9 u3 j$ b; f
    除单元特性外,网络的拓扑结构也是 NN 的一个重要特性。从连接方式看 NN 主要 有两种。
    / X/ K, _) }# V
    1 m0 m- W, w3 v, y(i)前馈型网络 各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入 单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多 个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第 1 −i 层 输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。7 C0 P; O# y, e% C3 s+ H( U% e
    : w: e8 u* g9 w
    (ii)反馈型网络 所有结点都是计算单元,同时也可接受输入,并向外界输出。 NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不 变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算 单元状态变化,以达到某种稳定状态。 从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络 按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作 用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解优化问题。 - P, r% e; c) `! Z& H$ N0 A  Z

    ( G' M" w) ?9 h- x2  蠓虫分类问题与多层前馈网络
    * X5 ^5 A8 t" s! E( v9 d2.1  蠓虫分类问题
    / P2 ~0 e& P; G  Q1 l4 v  P4 s9 L蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与 Apf)进行鉴别, 依据的资料是触角和翅膀的长度,已经测得了 9 支 Af 和 6 支 Apf 的数据如下:
    1 j+ \- `& i$ W$ y# i6 x1 N7 A6 ?8 l) n8 e8 t/ v2 R9 s
    Af: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70), (1.48,1.82),(1.54,1.82),(1.56,2.08).* j2 o+ U7 j8 X# k$ f5 @# I

    / U2 I5 {" S: I! K" n/ t7 AApf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).) l! B7 l& @' d

    8 s0 K( K$ O7 C现在的问题是:
    8 ]+ x- j8 b) C& \  O5 c
    0 w0 `7 g- ]% `1 k(i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。
    % n6 i0 x/ U9 M- A9 ~5 j4 q7 D2 Z, d+ F
    (ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的 3 个标本,用所得 到的方法加以识别。
    7 ?! |3 q# b% G, w2 G
    " O( j1 W6 g; c' }- g. R3 {(iii)设 Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。# e# }5 W# M" c
    ' f8 D% U( x, M
    如上的问题是有代表性的,它的特点是要求依据已知资料(9 支 Af 的数据和 6 支 Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或 Apf)。今后,我们将 9 支Af 及 6 支 Apf 的数据集合称之为学习样本。
    ( `. J* {/ t* v0 c7 L) C, }: ^5 b! Y" @
    2.2  多层前馈网络 9 P- H8 }4 ?6 j- @
    为解决上述问题,考虑一个其结构如下图所示的人工神经网络,) Q7 A9 X$ H. \, N' `- o1 D

    " ^) _) n9 I: j0 M% b5 \% L- ]& C! l: o" r" Q$ M

    * e8 r8 A7 n0 v- V9 t) e( D4 n
    2 _" D* p& @5 _! [5 F# D+ ]使用sigmoid 激活函数:9 A) O! R  M) m8 \

    1 @. D3 a6 v  f7 e" n4 @% o7 N: C# P! K- Z1 q

    * M4 T- N1 }5 K1 c4 I& l图中下面单元,即由   所示的一层称为输入层,用以输入已知测量值。在 我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。 中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献 进行了讨论,但通过试验来决定,或许是好的途径。在我们的例子中,取三个就足够 了。上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入 数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理 后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入 与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络 结构。有些文献将这样的网络称为两层前馈网络,称为两层的理由是,只有中间层及输 出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层 数之内。: t! @* d/ ~3 T
    ) X9 X1 ]8 e  q3 Z" y# q1 d
    ( e7 \4 P* h1 k; n4 C

    - B* u8 a7 m! R1 X1 W
    4 Y1 Q; v6 r$ F0 P! N. a
    % V9 M. c3 i4 Z. d6 J$ N8 O2.3  后向传播算法
      s) a& h: ~% t6 Y对于一个多层网络,如何求得一组恰当的权值,使网络具有特定的功能,在很长一 段时间内,曾经是使研究工作者感到困难的一个问题,直到 1985 年,美国加州大学的 一个研究小组提出了所谓反向传播算法(Back-Propagation),使问题有了重大进展,这 一算法也是促成人工神经网络研究迅猛发展的一个原因。详细了解请看: 一文弄懂神经网络中的BP反向传播算法" u) n0 _1 D1 Z" T/ q9 W6 P
    8 i* U# a1 F, {
    下面就来介绍这一算法。【注:梯度法又称最速下降法。】( h6 q% v( Q4 A5 |" _$ g
      @; p  r' G/ F- n4 @

    ; u5 n# t3 Z9 y, g: D4 c0 l( ?2 f0 f5 S8 `: x! X7 i9 X5 K( h+ W. }
    3 F4 Q/ [7 l  K' B/ M
    + x4 t! a" t; j2 @

    6 L: j  U$ j* R/ a) N! b& i2 A# @# |) I3 ?; S: h

    ( @9 a! X* N; y+ d; m5 i8 H' G- h# l" ~  h
    (iii)在如上的讨论中使用的是速下降法,显然,这也不是唯一的选择,其它的 非线性优化方法,诸如共轭梯度法,拟牛顿法等,都可用于计算。为了加速算法的收敛 速度,还可以考虑各种不同的修正方式。/ E* x# e1 L1 y* K" ^5 r

    # m! ^% Q* a1 G; A(iv)BP 算法的出现,虽然对人工神经网络的发展起了重大推动作用,但是这一 算法仍有很多问题.对于一个大的网络系统,BP 算法的工作量仍然是十分可观的,这 主要在于算法的收敛速度很慢。更为严重的是,此处所讨论的是非线性函数的优化,那 么它就无法逃脱该类问题的共同困难:BP 算法所求得的解,只能保证是依赖于初值选 取的局部极小点。为克服这一缺陷,可以考虑改进方法,例如模拟退火算法,或从多个随机选定的初值点出发,进行多次计算,但这些方法都不可避免地加大了工作量。 $ h/ j- h6 u6 d- Q6 F; H: s
    # U$ ~5 p5 A$ h/ S
    2.4  蠓虫分类问题的求解
    . K, E- }) S# k1 q$ P/ |下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写 Matlab 程序 如下:
    * j* |  d+ l5 }" R( u9 U
    4 }  J  ?0 Y! H+ Dclear + S% ^) w1 w; z" ]8 i: T$ Z/ Z
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;4 q$ K7 {+ \7 w/ ~
        1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08]; 7 X) z3 V0 g8 U& _
    p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00      ~- ]0 ~, w8 \, j& o9 m: J* x! D
        1.28,2.00;1.30,1.96]; p=[p1;p2]'; pr=minmax(p);
    - Z# P6 I3 Y, Xgoal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];
    # x7 n, P2 `5 d1 h% o6 h. g* K6 Tplot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o')
    ( a1 L/ [6 a- pnet=newff(pr,[3,2],{'logsig','logsig'});
    1 R2 A/ z) z: V6 Anet.trainParam.show = 10; 0 k6 P, }& F3 z) ]4 x
    net.trainParam.lr = 0.05;
    3 ^: Y! f0 `+ s' i# j+ a. Nnet.trainParam.goal = 1e-10;
    3 V4 x" p' F/ C1 ^+ qnet.trainParam.epochs = 50000; % l4 U6 O1 W) \/ I: M& m
    net = train(net,p,goal);
    4 P1 z* f" x+ `# ]: ?x=[1.24 1.80;1.28 1.84;1.40 2.04]';
    4 h$ T" g: ^7 Z8 t! ?7 ?/ f/ Y) c! o6 Gy0=sim(net,p)3 T0 _4 @' C& k/ _- F) |8 E8 f  H
    y=sim(net,x)* n3 I. `: s) Y" A
    ) l1 K9 V2 T9 n. n( h: m( H5 q

    ; h" a4 i: C" J7 a# s( d, F( [
    . o' r# |) C& ^3  处理蠓虫分类的另一种网络方法
    0 L1 t$ \- f, ~/ |: {8 y3.1 几个有关概念' h7 \- t: T7 J
    在介绍本节主要内容之前,首先说明几个不同的概念。在上一节中,我们把利用 BP 算法确定联接强度,即权值的过程称为“学习过程”,这种学习的特点是,对任何一 个输入样品,其类别事先是已知的,理想输出也已事先规定,因而从它所产生的实际输 出与理想输出的异同,我们清楚地知道网络判断正确与否,故此把这一类学习称为有监督学习;与它不同的是,有些情况下学习是无监督的,例如,我们试图把一组样品按其本身特点分类,所要划分的类别是事先未知的,需要网络自身通过学习来决定, 因而,在学习过程中,对每一输入所产生的输出也就无所谓对错,对于这样的情况,显 然 BP 算法是不适用的。 另一个有关概念是所谓有竞争的学习。在上节所讨论的蠓虫分类网络中,尽管我们 所希望的理想输出是 (0,1)或(1,0),但实际输出并不如此,一般而言,两个输出单元均同时不为 0。与此不同,我们完全可以设想另外一种输出模式:对应任何一组输入,所 有输出单元中,只允许有一个处于激发态,即取值为 1,其它输出单元均被抑制,即取 值为 0。一种形象的说法是,对应任何一组输入,要求所有的输出单元彼此竞争,唯一 的胜利者赢得一切,失败者一无所获,形成这样一种输出机制的网络学习过程,称为有 竞争的学习。" k- f4 h: M: p6 ]5 X( l
    7 J: |" Y- e  I4 [" {
    3.2  简单的无监督有竞争的学习" X7 n( ]( R& Q/ c
    # y, g: i9 {( F6 @1 Q. e2 w' E
    本节叙述一种无监督有竞争的网络学习方法,由此产生的网络可用来将一组输入样 品自动划分类别,相似的样品归于同一类别,因而激发同一输出单元,这一分类方式, 是网络自身通过学习,从输入数据的关系中得出的。 蠓虫分类问题对应有监督的网络学习过程,显然不能由如上的方法来解决。但在这 种无监督有竞争的学习阐明之后,很容易从中导出一种适用于有监督情况的网络方法; 此外,本节所介绍的网络,在数据压缩等多种领域,都有其重要应用。
    9 X' [9 r$ F6 V  L1 l- @
    6 ^/ S' ]( F4 P/ R0 J
    * P, h& P# R. Q* N% Z
    ( |( q  O6 n$ q) k9 v  V8 `8 V6 n0 d) v* G5 o) [+ A/ O

    , F3 P& l) @/ Y, p) u
    9 ^) R. j9 N3 y# G8 v2 Z$ b% E$ G2 x
    ' x5 Y' y0 u8 ^. Y: M) o为了更有效地使用如上算法,下面对实际计算时可能产生的问题,作一些简要说明。
    + C. Y/ c" |! ^! y1 ^3 X; D2 U: j5 h: w6 c$ H1 o
    首先,如果初始权选择不当,那么可能出现这样的输出单元,它的权远离任何输入 向量,因此,永远不会成为优胜者,相应的权也就永远不会得到修正,这样的单元称之 为死单元。为避免出现死单元,可以有多种方法。一种办法是初始权从学习样本中抽样 选取,这就保证了它们都落在正确范围内;另一种办法是修正上述的学习算法,使得每 一步不仅调整优胜者的权,同时也以一个小得多的 η 值,修正所有其它的权。这样,对 于总是失败的单元,其权逐渐地朝着平均输入方向运动,终也会在某一次竞争中取胜。 此外,还存在有多种处理死单元的方法,感兴趣的读者可从文献中找到更多的方法。
    + t' n7 {! J$ b+ ]5 |" K6 m" Y8 P0 L: c2 r

    ( Y& {  I8 T$ d- m" L$ ?( X1 ]$ ~$ P  c% I% F1 [1 E

    $ J. q( X7 h" h- U# c- n% c: Z# H3 D9 g
    3.3  LVQ 方法 --学习矢量量化  O1 J2 b% u. T# N( N2 A; E

    . g9 q$ f5 g0 K1 v6 t6 O: L上述有竞争学习的一个重要应用是数据压缩中的向量量子化方法(Vector Quantization,又称,学习矢量量化)。它的基本想法是,把一个给定的输入向量集合   分成M 个类别,然后 用类别指标来代表所有属于该类的向量。向量分量通常取连续值,一旦一组适当的类别确定之后,代替传输或存储输入向量本身,可以只传输或存储它的类别指标。所有的类别由M 个所谓“原型向量”来表示,我们可以利用一般的欧氏距离,对每一个输入向量找到靠近的原型向量,作为它的类别。显然,这种分类方法可以通过有竞争的学习直接得到。一旦学习过程结束,所有权向量的集合,便构成了一个“电码本”。6 w  c) Q2 J' G/ X6 T
    9 B' E( c' G; W* U9 i
    一般而言,上述无监督有竞争的学习,实际提供了一种聚类分析方法,对如蠓虫分类这种有监督的问题并不适用。1989 年,Kohonen 对向量量子化方法加以修改,提出 了一种适用于有监督情况的学习方法,称为学习向量量子化(Learning Vector Quantization),该方法可用于蠓虫分类问题。在有监督的情况下,学习样品的类别是事 先已知的,与此相应,每个输出单元所对应的类别也事先作了规定,但是,代表同一类 别的输出单元可以不止一个。
    9 G# J7 r) v' J! Q, k$ y  @, _7 y4 `5 S( n' n! o

    & Z+ K7 Q$ D% |# _9 R1 |0 [7 n( s1 M, i) o$ F7 H  L2 a
    前一种情况,修正和无监督的学习一致,权朝向样本方向移动一小段距离;后一种 则相反,权向离开样本方向移动,这样就减少了错误分类的机会。 对于上述的蠓虫分类问题,我们编写 Matlab 程序如下: 1 x& b' K0 s/ u9 l: O! B& \
    clear / @6 l! _& v" Z2 n
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;  W2 `/ R2 z( t/ Y( J* v
        1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];
    % M$ v7 x9 ]4 Y! up2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00  0 Y3 A& N8 m, h$ }
        1.28,2.00;1.30,1.96];
    ) |& B# w1 I% b1 d+ kp=[p1;p2]'
    ( V0 ~3 O  s' @3 a3 I; S0 Y( apr=minmax(p)   T7 d8 d( K8 O* G# f; z
    goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)]
    6 S/ z/ J2 T, `- Vnet = newlvq(pr,4,[0.6,0.4]) ' i  p) \1 t, ^, x/ o5 X
    net = train(net,p,goal) 3 C: \+ p: N6 C0 K' B/ A
    Y = sim(net,p) 5 `4 r3 x* I' u
    x=[1.24 1.80;1.28 1.84;1.40 2.04]' 7 A1 Q7 g6 e0 r' P
    sim(net,x)
    / {: F% [+ Z" p0 t$ @" \+ O1 k' ^; X* i  s
    习 题
    2 S  F0 e: P9 ^( o) R# O/ A, o1. 利用 BP 算法及 sigmoid 函数,研究以下各函数的逼近问题 ) Z+ a" w4 a4 j! o# _, Q

    0 o$ I/ A9 u7 [8 O$ t2 Y: ]1 v- g. o' \5 c+ K
    ( B+ m* m$ J) u7 ?9 C2 u
    对每一函数要完成如下工作:
    0 v9 s2 E( q' a. M4 @+ N
    * G5 y4 T9 c4 Y" I" f① 获取两组数据,一组作为训练集,一组作为测试集;. ^0 q* r! N6 ]/ o
    3 @  d3 z9 w0 y7 r
    ② 利用训练集训练一个单隐层的网络;用测试集检验训练结果,改变隐层单元数, 研究它对逼近效果的影响。
    6 i: ?7 O0 L( F) y
    " {7 r7 ]; U  L$ O2. 给定待拟合的曲线形式为
    3 J/ w. o' i8 N2 a, w
    ) T1 W2 f5 q' n5 D" T " h+ X( n& v4 a7 L( B8 `

    8 C/ [+ r  W' C4 `- P6 G在  上等间隔取 11 个点的数据,在此数据的输出值上加均值为 0,均方差  σ = 0.05 的正态分布噪声作为给定训练数据,用多项式拟合此函数,分别取多项式的阶次为 1, 3 和 11 阶,图示出拟合结果,并讨论多项式阶次对拟合结果的影响。/ ~4 @: ^( {0 z$ J, B

    % N+ I# m& O5 @8 l; b7 `5 B7 t  \- C% r5 Y: I4 |# b
    3 G$ Z/ C, b7 W

    * E+ U; Q) M/ Z$ p' d
    ) b' ]" V, v# }2 k7 T
    - f1 F1 K6 |+ d2 E0 b8 V! i3 }7 X————————————————
    9 ^, y. F. e5 S2 F7 N版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    ) n# e  d; r$ s8 L$ w; g/ `. v2 g原文链接:https://blog.csdn.net/qq_29831163/article/details/89509279
    $ d7 M( [% p. M9 y2 _* B) Q; q  W' |5 K

    & W# \& W6 X( F: ^9 ^8 a
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-6-2 08:46 , Processed in 0.356540 second(s), 50 queries .

    回顶部