QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2536|回复: 0
打印 上一主题 下一主题

[建模教程] 神经网络模型用于数学建模

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2020-6-4 11:24 |只看该作者 |正序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及 功能的一种抽象数学模型。自 1943 年美国心理学家 W. McCulloch 和数学家 W. Pitts 提 出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了 50 多年 曲折的发展。特别是 20 世纪 80 年代,人工神经网络的研究取得了重大进展,有关的理 论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。 它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及 专家系统等领域得到广泛的应用,提出了 40 多种神经网络模型,其中比较著名的有感 知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这 里我们仅讨论基本的网络模型及其学习算法。- H, E% N* r' @; z2 }# ~
    * e# Q# {# F' [; o! J1 `
    1.1  人工神经元结构
    1 J; b: A4 e$ B8 }& z  T下图表示出了作为人工神经网络(artificial neural network,以下简称 NN)的基本 单元的神经元模型,它有三个基本要素: . X+ G% {0 w' V$ P* k; r- w
      n7 P: _, V8 J) F: d
    ' @! u4 @1 o+ P6 V) M0 u

    9 z$ x( L1 R/ [6 [4 ~9 w; d
    8 Y6 z1 ]% j. m1 V7 Q- t2 g) s: c9 x$ W6 j8 f6 g, r& A: H
    / O+ v& {: s, N. J% z/ S* J5 x* P( K

    3 a- G- w4 A; @# u' h
    ' l2 O, I+ F" [  \! H
    2 i' M4 W1 V3 |/ d+ G激活函数  ϕ(⋅ )
    0 A2 {' a8 c, l0 d) W6 ]& ^3 T可以有以下几种: . G5 e3 i% t# A/ r+ M

    3 N% B3 O- w9 _0 s  j/ ^9 C! F (0)Softmax - 用于多分类神经网络输出. b# h2 S4 k5 D6 m
    9 \2 \# J) ~' I, g2 X7 j5 p! h

    : |% N7 A) f7 a1 Y/ |! ?$ d! X0 W* M
    (1)阈值函数 、阶梯函数
    : |+ [7 w2 J4 E) i5 {0 \# H9 y+ v- @9 ?5 J- V
      V( L& b* r" j* f

    . h! f* A2 ^+ j/ O: r; E6 l相应的输出   为 3 g% U6 {- o' j4 W
    1 }) O/ K0 r. \& I2 u# ~

    $ Y( y& w3 H& q8 x; @6 L
    ) Q$ R% _6 T/ [(2)分段线性函数 - P" b8 J# ~9 S+ ?8 |

    ! q: g# u+ R) W' P% [: D
    % X. u1 J8 Y6 O4 C  r
    # y' w: t, L6 o- F2 ~- n( M它类似于一个放大系数为 1 的非线性放大器,当工作于线性区时它是一个线性组合器, 放大系数趋于无穷大时变成一个阈值单元。
    & b- ^- ?, v/ s6 I8 h
      s+ M) h& ]) G! a(3)sigmoid 函数 (以前最常用)
    7 y. G$ i+ j$ ?
    9 [; `, k' _9 G& p/ F/ z: O% B3 d# j# z0 y" S& d+ h: B

    ; W5 ^( W8 L8 R8 w$ F参数  α  > 0 可控制其斜率。 sigmoid 将一个实值输入压缩至[0,1]的范围,也可用于二分类的输出层。9 I$ z/ h* i+ w' W+ _* d
    8 M* x2 k3 A: d! ?4 r; G" Z
    (4)tanh  (双曲正切函数 ;Hyperbolic tangent function)
    6 y9 w/ t& w# n! T5 y, b% m7 J, p* W- k/ Q# Q+ [9 t( @

    . g, J; x/ f; d; G" p7 ~6 t! `6 K% k4 o$ s
    将 一个实值输入压缩至 [-1, 1]的范围,这类函数具有平滑和渐近性,并保持单调性.. X, [8 f7 e& z5 p
    3 L6 L0 y" v# h# ]: V
    ) w9 M$ j6 Q# s4 @6 l
    , g; B5 a- ?0 X6 k3 O
    (5)  relu (Rectified linear unit; 修正线性单元 ; 深度学习目前最常用的激活函数)2 T4 L* y$ a+ f. J
    - q9 v# T/ f& U1 S

    & e9 ^% q" l4 `4 ]  ?
    + c, i1 j+ {! b' O0 a% t
    , ^1 ^5 n6 x" O1 ]$ m# Relu在tensorflow中的实现: 直接调用函数
    9 `" c4 j2 y2 H, B4 U2 itf.nn.relu( features, name= None )
    ) O$ p+ c! s' x7 n9 }; B& m
    # V1 b  t" P: e- u% M与Sigmoid/tanh函数相比,ReLu激活函数的优点是:
    ( m: x" c. K" v6 q# V7 F& t4 m* ~+ p
    使用梯度下降(GD)法时,收敛速度更快  
    2 S- K: H" |" w1 C  E相比Relu只需要一个门限值,即可以得到激活值,计算速度更快  ( n9 V2 h6 X( r% [) w+ {4 k" x
    缺点是:  Relu的输入值为负的时候,输出始终为0,其一阶导数也始终为0,这样会导致神经元不能更新参数,也就是神经元不学习了,这种现象叫做“Dead Neuron”。9 O7 t+ J! G. w0 C. T# A

    ; e5 M  s) n! K1 ]4 x) Y& G 为了解决Relu函数这个缺点,在Relu函数的负半区间引入一个泄露(Leaky)值,所以称为Leaky Relu函数。
    6 o: O) T( V6 e, T3 Q0 h6 _6 g6 I! P
    (6)Leaky Relu  (带泄漏单元的relu ): R1 I; ^9 o- n

      Y5 b# u9 q" I$ ^           数学表达式: y = max(0, x) + leak*min(0,x) , T! D/ f! y5 c' A1 N' ^- x3 |3 Q8 r
    / g7 C- \7 h5 X
    与 ReLu 相比 ,leak 给所有负值赋予一个非零斜率,  leak是一个很小的常数  ,这样保留了一些负轴的值,使得负轴的信息不会全部丢失)
    6 I, I, H. n8 X4 J' |2 m9 W+ l8 B0 Y$ n/ H1 f; G
    6 a, N% C" X+ T/ |, B
    leaky ReLU7 K# Y. H* T9 \2 V' ?, S* C+ b7 }

    3 D* r) C/ m' O4 W/ v+ ^% @. ~# y# z. t$ m  e7 o$ O2 {. u
    % F$ w+ K6 [' I) n3 b
    ( F3 V, A/ f- q
    #leakyRelu在tennsorflow中的简单实现
    8 s! D7 x. B6 P$ E1 O" P tf.maximum(leak * x, x),
    . G$ z0 y1 ~! i; b* u
    0 Q' x3 {' ?2 i. B( n5 g) D0 z! r4 a! X) S  i  `! k
    比较高效的写法为:8 x+ Z  N+ }- D& A8 Y( p0 M

    - P1 ^5 L6 j: b! x. j! simport tensorflow as tf
    . Q4 I# t: r1 w4 F% t* idef LeakyReLU(x,leak=0.2,name="LeakyReLU"):8 Z1 Q: E! ]. F6 s5 A
        with tf.variable_scope(name):* j; c- }8 a: k8 M* {
            f1 = 0.5*(1 + leak)5 J, x  ?; M* N
            f2 = 0.5*(1 - leak)0 i0 E' [" k3 y3 I( \
            return f1*x+f2*tf.abs(x)5 c. Y* W/ N, y
    : S7 F! b6 j0 r9 G
    (vi)  RReLU【随机ReLU】
    9 y" x( g' ?: w5 _9 @! U) {. z; ]$ S
    在训练时使用RReLU作为激活函数,则需要从均匀分布U(I,u)中随机抽取的一个数值 ,作为负值的斜率。
    7 l9 `0 M4 @5 K5 E6 }  D9 W1 Z* }9 m
    ( c2 D9 r( w3 x! v: s9 k
    , q& ^7 a  m' N( C, r7 h
    总结:    激活函数可以分为 两大类 7 q7 [* l0 E4 q0 w

    . P+ j% |5 S6 Z( Y0 z饱和激活函数: sigmoid、 tanh
    & Q2 J1 y. O5 N0 J. U非饱和激活函数: ReLU 、Leaky Relu   、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】
    7 h. J! U# d$ F% ^5 t$ g. ?! b% t. @- i) S

    7 E7 o) K9 k; z8 ~6 T! S" P6 O# F1 s/ m* Y2 K4 Q( y
    相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点:
    9 ~- l( ]3 T4 r    1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激活函数。/ N# d9 l  i) E4 L, k: ^
        2.其次,它能加快收敛速度。 # A) U- V% [" R& {2 Y: m

    ( J' i; A9 e3 Y; {! F2 M: S其它激活函数:softplus、softsign
    9 N, m! w- f- ]) E1 s3 B9 H9 N# W. s+ z. R( Y
    + @  d6 X. F6 Q5 {7 L: j5 j

    . T; T3 \# F8 `3 J' Q: NMatlab 中的激活(传递)函数
    + Q: B' |! @  Z/ u6 I+ F6 O$ H# l. \8 V) U/ H. Y. {& r! S, u& v: }
    ! v8 s; B0 t7 r$ l3 G7 P

    : L" O' ]0 y9 c$ E& Q& z9 A
    , J1 A& V+ u* L- p5 L2 |0 G4 W. b& y  \. F1 O% f3 Z2 }
    1.2  网络结构及工作方式 : I! h9 p4 ~* X. J& N
    除单元特性外,网络的拓扑结构也是 NN 的一个重要特性。从连接方式看 NN 主要 有两种。. K- D$ d0 a9 m* ?- d/ ]1 }

    ( {* |" E  M0 F4 g1 _, H$ `, q+ g# x(i)前馈型网络 各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入 单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多 个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第 1 −i 层 输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。$ h" H0 D3 |5 O* I( ^# l

    ! M. _6 o( ]( V(ii)反馈型网络 所有结点都是计算单元,同时也可接受输入,并向外界输出。 NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不 变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算 单元状态变化,以达到某种稳定状态。 从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络 按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作 用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解优化问题。 0 z- p1 N3 D- c8 e/ m
    & k* Y. I- r' q' s8 i! ?& r
    2  蠓虫分类问题与多层前馈网络
    6 d4 b# Q! U& h4 f9 V. p0 S2.1  蠓虫分类问题
    3 p! N  r* r; d8 ]! ]蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与 Apf)进行鉴别, 依据的资料是触角和翅膀的长度,已经测得了 9 支 Af 和 6 支 Apf 的数据如下:7 @$ S/ E4 E9 h, x3 n$ n

    " }) r5 ~" g$ S% g+ y$ b. x  |Af: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70), (1.48,1.82),(1.54,1.82),(1.56,2.08).; H; c* C8 G- ~) j" s4 k' s8 `
    5 X; A- D* _0 D! k) D. J" L
    Apf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).$ G9 x/ L" d% E' I4 f2 y7 }- B" j& r
    / b0 c! s9 \. [! l
    现在的问题是:% d0 r) N4 c- C+ y5 Q$ E! e

    + q* @% R9 _' A' A0 a+ ?9 K(i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。
    $ \7 ?/ H- F7 [4 s$ C+ a/ k1 g, A0 ]5 Z( n3 P$ v# V! J
    (ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的 3 个标本,用所得 到的方法加以识别。# ]3 ]# _/ D) Z8 c
    % d" p) c9 J) c9 P% B) H
    (iii)设 Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。" H% d( z9 N/ u4 w3 p+ M3 R
    : s" d3 R2 \# A' u* t2 x' }5 o% p
    如上的问题是有代表性的,它的特点是要求依据已知资料(9 支 Af 的数据和 6 支 Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或 Apf)。今后,我们将 9 支Af 及 6 支 Apf 的数据集合称之为学习样本。 " U( M/ G) F1 v: K2 f: V6 E

    5 s& i$ R7 ^" Q+ H8 g/ \7 H, _; B2.2  多层前馈网络
    4 A3 N* f! o3 ~) j0 Z! V4 e. p! }为解决上述问题,考虑一个其结构如下图所示的人工神经网络,& }/ ^/ h* m- B, j# F3 L; ~. }3 s
      C4 {+ {" r# j( v) t& ?
    ) t  B" l/ t$ |- h+ U

    ) c0 L9 g, Y! w( ~' `1 P1 o. i3 K& T" W8 `% q
    使用sigmoid 激活函数:
    9 \) Z) K( c8 f5 o7 E$ R4 |1 ^$ Z( U( ?; m  M  W
    / ~1 H& Q0 A( ?: H" U$ y! p
    $ C2 m/ |' o8 y5 ]; x- ^0 r1 C+ @
    图中下面单元,即由   所示的一层称为输入层,用以输入已知测量值。在 我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。 中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献 进行了讨论,但通过试验来决定,或许是好的途径。在我们的例子中,取三个就足够 了。上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入 数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理 后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入 与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络 结构。有些文献将这样的网络称为两层前馈网络,称为两层的理由是,只有中间层及输 出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层 数之内。
    8 Z% L, ~& \1 _/ M6 u; {2 \0 z/ ?

    : x% `% z. H  c
      u3 [. i$ m# |8 ~$ O# h- }2 r% x0 h: p! r8 K$ X

    + V* d, n- v( l: C" |/ e: Q2.3  后向传播算法5 O! J( r' e6 k( |
    对于一个多层网络,如何求得一组恰当的权值,使网络具有特定的功能,在很长一 段时间内,曾经是使研究工作者感到困难的一个问题,直到 1985 年,美国加州大学的 一个研究小组提出了所谓反向传播算法(Back-Propagation),使问题有了重大进展,这 一算法也是促成人工神经网络研究迅猛发展的一个原因。详细了解请看: 一文弄懂神经网络中的BP反向传播算法
    1 r: g, G5 ]: J' E  H& k7 J& m/ E$ N* S. E! ]4 u7 L" ]# L
    下面就来介绍这一算法。【注:梯度法又称最速下降法。】& @) m! O6 b6 _. {! r

    7 n' G# ?$ @/ d3 W, T) \) _
    0 x' F- N1 L" A" F8 ?  \$ Q0 W. h1 [

    7 I0 x! z8 d  a9 T
      d# q' f: p4 B3 r& W% E
    / z& L3 [' b  @$ H* e2 m. r2 y) }

    $ y+ E9 _/ S- V& w% t& q0 g- G( _' F2 J% H
    (iii)在如上的讨论中使用的是速下降法,显然,这也不是唯一的选择,其它的 非线性优化方法,诸如共轭梯度法,拟牛顿法等,都可用于计算。为了加速算法的收敛 速度,还可以考虑各种不同的修正方式。4 P9 }+ K4 t7 M
    0 @, w: l; V. j+ {' ~  b1 {
    (iv)BP 算法的出现,虽然对人工神经网络的发展起了重大推动作用,但是这一 算法仍有很多问题.对于一个大的网络系统,BP 算法的工作量仍然是十分可观的,这 主要在于算法的收敛速度很慢。更为严重的是,此处所讨论的是非线性函数的优化,那 么它就无法逃脱该类问题的共同困难:BP 算法所求得的解,只能保证是依赖于初值选 取的局部极小点。为克服这一缺陷,可以考虑改进方法,例如模拟退火算法,或从多个随机选定的初值点出发,进行多次计算,但这些方法都不可避免地加大了工作量。
    ( J& O' W3 h! z0 E: Y: ]
    . [) L, H) U% }0 M2 E& Z2.4  蠓虫分类问题的求解 5 A& W# i1 }" C& i. i7 I6 u! w
    下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写 Matlab 程序 如下:
    : N3 Y  h: {# j: n" G% p& w
    : C1 O( C! `6 |. r2 ^8 z# w3 @- @6 Vclear 5 K4 n$ \- u" W+ h: }5 o
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;4 @; e& X  v# m/ Z1 }
        1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08]; : G$ n% a" i9 Y) x( [
    p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00    ; v, r1 u+ Z0 O' U6 b/ H
        1.28,2.00;1.30,1.96]; p=[p1;p2]'; pr=minmax(p); 0 n7 r8 |9 U4 c5 M2 l
    goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];
    " t, f- a' h1 fplot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o') 1 R1 @4 h+ b  S7 Z) \
    net=newff(pr,[3,2],{'logsig','logsig'});
    " D% P! l# T1 Z. q! Hnet.trainParam.show = 10;
    : E  u5 g1 y; J# P2 x) I( ]8 jnet.trainParam.lr = 0.05;
    ! a5 x" P1 ?; w  Q  Qnet.trainParam.goal = 1e-10;
    ) n  X& U0 u& M6 |/ r! v$ ~4 cnet.trainParam.epochs = 50000;
    $ ~9 ]& @: U* A' nnet = train(net,p,goal); , n$ ?9 A6 b- M2 K/ R; p
    x=[1.24 1.80;1.28 1.84;1.40 2.04]';
    ' l' m2 z, @( n  ]" Qy0=sim(net,p)0 V! {! [6 ^7 u' m
    y=sim(net,x)
    : s! l/ J7 O% g$ H0 K2 B0 |" z
    / B% k- [. \: ^5 ]) e) M& j' L
    & Y7 m5 R& g, r# `2 @5 I
    ' c. `, P3 d9 k6 C0 D2 ]! h4 a6 |3  处理蠓虫分类的另一种网络方法 1 {, y! s: Q, |
    3.1 几个有关概念
    + f$ K4 s1 t) F7 _9 I在介绍本节主要内容之前,首先说明几个不同的概念。在上一节中,我们把利用 BP 算法确定联接强度,即权值的过程称为“学习过程”,这种学习的特点是,对任何一 个输入样品,其类别事先是已知的,理想输出也已事先规定,因而从它所产生的实际输 出与理想输出的异同,我们清楚地知道网络判断正确与否,故此把这一类学习称为有监督学习;与它不同的是,有些情况下学习是无监督的,例如,我们试图把一组样品按其本身特点分类,所要划分的类别是事先未知的,需要网络自身通过学习来决定, 因而,在学习过程中,对每一输入所产生的输出也就无所谓对错,对于这样的情况,显 然 BP 算法是不适用的。 另一个有关概念是所谓有竞争的学习。在上节所讨论的蠓虫分类网络中,尽管我们 所希望的理想输出是 (0,1)或(1,0),但实际输出并不如此,一般而言,两个输出单元均同时不为 0。与此不同,我们完全可以设想另外一种输出模式:对应任何一组输入,所 有输出单元中,只允许有一个处于激发态,即取值为 1,其它输出单元均被抑制,即取 值为 0。一种形象的说法是,对应任何一组输入,要求所有的输出单元彼此竞争,唯一 的胜利者赢得一切,失败者一无所获,形成这样一种输出机制的网络学习过程,称为有 竞争的学习。* \$ `( ^* v) b% D2 S
    3 X6 m: q  T" h/ \5 y" z$ @0 h
    3.2  简单的无监督有竞争的学习  b8 d+ s- i: _. m% ?) |2 ]8 s& Q
    5 R7 i! A8 |" }8 i
    本节叙述一种无监督有竞争的网络学习方法,由此产生的网络可用来将一组输入样 品自动划分类别,相似的样品归于同一类别,因而激发同一输出单元,这一分类方式, 是网络自身通过学习,从输入数据的关系中得出的。 蠓虫分类问题对应有监督的网络学习过程,显然不能由如上的方法来解决。但在这 种无监督有竞争的学习阐明之后,很容易从中导出一种适用于有监督情况的网络方法; 此外,本节所介绍的网络,在数据压缩等多种领域,都有其重要应用。
    5 n2 A) M9 W, g. w& M. `- ?
    ; l- W, E! T. a. o
    # G+ E6 S. K) o$ a9 U4 Y% R. [
    9 @: O/ ]7 {( n8 I; ~4 q* D0 D& u9 ?) C
    : N7 }( [. M: p( {

    / ^1 G0 o8 R& ~) r. B/ \0 D$ u( m+ [) _0 L( T" N  B- [( \1 b
    为了更有效地使用如上算法,下面对实际计算时可能产生的问题,作一些简要说明。2 S4 @$ M5 s# n! u

    . C, S( ]% T" w, W$ ?; q8 T2 k" R 首先,如果初始权选择不当,那么可能出现这样的输出单元,它的权远离任何输入 向量,因此,永远不会成为优胜者,相应的权也就永远不会得到修正,这样的单元称之 为死单元。为避免出现死单元,可以有多种方法。一种办法是初始权从学习样本中抽样 选取,这就保证了它们都落在正确范围内;另一种办法是修正上述的学习算法,使得每 一步不仅调整优胜者的权,同时也以一个小得多的 η 值,修正所有其它的权。这样,对 于总是失败的单元,其权逐渐地朝着平均输入方向运动,终也会在某一次竞争中取胜。 此外,还存在有多种处理死单元的方法,感兴趣的读者可从文献中找到更多的方法。
    * e/ @9 }* B% I. P- Q3 s* y4 U$ Y9 h# P$ E$ v
    4 Q4 S2 B5 t- F( y0 U0 i. p/ N
    ! j0 T3 T, G9 e- h: t; ~' c$ e# W
    7 b' t5 A8 t5 q! Q

    $ c9 k: n6 K! ]3 I( l3.3  LVQ 方法 --学习矢量量化
    % r0 @: R9 t0 R  E1 o; ~6 Z2 l1 Y# n6 a
    上述有竞争学习的一个重要应用是数据压缩中的向量量子化方法(Vector Quantization,又称,学习矢量量化)。它的基本想法是,把一个给定的输入向量集合   分成M 个类别,然后 用类别指标来代表所有属于该类的向量。向量分量通常取连续值,一旦一组适当的类别确定之后,代替传输或存储输入向量本身,可以只传输或存储它的类别指标。所有的类别由M 个所谓“原型向量”来表示,我们可以利用一般的欧氏距离,对每一个输入向量找到靠近的原型向量,作为它的类别。显然,这种分类方法可以通过有竞争的学习直接得到。一旦学习过程结束,所有权向量的集合,便构成了一个“电码本”。
    ; g! [$ m  x+ O0 |( u' }$ q, E
    . N, y( S8 l5 f0 {& m; q一般而言,上述无监督有竞争的学习,实际提供了一种聚类分析方法,对如蠓虫分类这种有监督的问题并不适用。1989 年,Kohonen 对向量量子化方法加以修改,提出 了一种适用于有监督情况的学习方法,称为学习向量量子化(Learning Vector Quantization),该方法可用于蠓虫分类问题。在有监督的情况下,学习样品的类别是事 先已知的,与此相应,每个输出单元所对应的类别也事先作了规定,但是,代表同一类 别的输出单元可以不止一个。
    # W. f7 m: N- R3 [7 r7 p7 z' r- n& A/ g1 I3 p# @0 K

    ! p1 F) b. Z7 u0 i
    ! f9 ]3 P+ d( {$ x; {! X前一种情况,修正和无监督的学习一致,权朝向样本方向移动一小段距离;后一种 则相反,权向离开样本方向移动,这样就减少了错误分类的机会。 对于上述的蠓虫分类问题,我们编写 Matlab 程序如下: 1 i5 u  {4 ^+ S! f
    clear . _5 p8 G2 V# L1 P1 j
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;
    $ u& o& @; f! m5 e  X! W3 X' W    1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];
    # x. s+ U2 C1 T% Y% `9 ]- Pp2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00  . s7 W3 D) \4 [+ ?
        1.28,2.00;1.30,1.96]; 8 j: e: U* l" m( n6 ?; Z. z$ P+ |
    p=[p1;p2]' ! G  k' U! V% |% a
    pr=minmax(p) + w+ x, B3 z" B; X! P  @% C
    goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)] * }: X+ @# M# _. U
    net = newlvq(pr,4,[0.6,0.4])
    , Q" O& [: d, B/ e% s$ O8 Nnet = train(net,p,goal)
    5 ]( ^. o! F1 o6 @' O+ cY = sim(net,p)
    # V* m7 l& n8 j! q- D" ?7 Cx=[1.24 1.80;1.28 1.84;1.40 2.04]' - H) ~6 ^" ?4 \( f
    sim(net,x) , q; o0 o: P* ~" c

    % ~$ i& o' s" s3 H: x4 R习 题
    5 I2 v0 r, J" S  I% P9 k1. 利用 BP 算法及 sigmoid 函数,研究以下各函数的逼近问题
    - `5 F8 Y/ B, U  u/ N
    3 [5 x# v' `% P8 o& K+ @. j
    # I- S: R5 g$ A- @- n: c" f; @3 A0 s! w  j9 g" m3 s
    对每一函数要完成如下工作:7 X0 H# R' d! w: D1 q  e% y

    # r% M3 @" Q4 U! z8 I, l7 A) f① 获取两组数据,一组作为训练集,一组作为测试集;3 C5 U7 ~1 b2 u' L/ u6 S* A. B' |
    , J2 }; h, j; f) p, r# |
    ② 利用训练集训练一个单隐层的网络;用测试集检验训练结果,改变隐层单元数, 研究它对逼近效果的影响。 # I0 |% f, W# F) ~" @' p$ f
    $ r: e6 I* @2 i+ o! o- k: N
    2. 给定待拟合的曲线形式为
    9 Y# ]& U5 l. |2 Y/ e3 U
    # g2 G2 ~- Z* Y$ d0 \& V2 v' w 5 W; ^  }$ z) G* n( Q& m
    & K; R7 b; g8 S" ^  Y
    在  上等间隔取 11 个点的数据,在此数据的输出值上加均值为 0,均方差  σ = 0.05 的正态分布噪声作为给定训练数据,用多项式拟合此函数,分别取多项式的阶次为 1, 3 和 11 阶,图示出拟合结果,并讨论多项式阶次对拟合结果的影响。
    5 {. |  ]) w9 p- U+ ~
    6 X. I( L6 j  w' @' R5 y  K; Y
    . v5 {6 _& E9 A9 ^4 j5 k% p  i" Y; ]& m' c+ i- g

    6 [+ H% V4 l  _
    ( R, e: f6 S( c. C% f. E) {& j' G$ g2 Z" |
    ————————————————
    6 s+ \, [; }& [$ ]2 z8 z版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    , v: E$ \& [5 @& C) @原文链接:https://blog.csdn.net/qq_29831163/article/details/89509279
    . ^8 n) w& _! o/ H  X8 w: F4 r% J. s1 G& z* s: O4 E

    8 R6 @% C5 F' W* G# O; r) \- j
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-18 02:06 , Processed in 1.305633 second(s), 51 queries .

    回顶部