QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2539|回复: 0
打印 上一主题 下一主题

[建模教程] 神经网络模型用于数学建模

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2020-6-4 11:24 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及 功能的一种抽象数学模型。自 1943 年美国心理学家 W. McCulloch 和数学家 W. Pitts 提 出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了 50 多年 曲折的发展。特别是 20 世纪 80 年代,人工神经网络的研究取得了重大进展,有关的理 论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。 它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及 专家系统等领域得到广泛的应用,提出了 40 多种神经网络模型,其中比较著名的有感 知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这 里我们仅讨论基本的网络模型及其学习算法。
    5 H3 q2 }8 u! b+ T8 ]- H: n5 H
    4 P7 u0 Y6 R/ R( X2 t5 @1.1  人工神经元结构
    , W% f3 a, D% n5 F6 l$ L/ V" h下图表示出了作为人工神经网络(artificial neural network,以下简称 NN)的基本 单元的神经元模型,它有三个基本要素:
    4 N$ W- b/ }4 v& B" U& U. J
    4 ~* |. c$ k2 K  Y& a3 p4 {* N9 p7 u6 E9 t9 P

    4 q2 y& e' b' r# {# m" ?
    3 }1 H- p0 S5 `' L/ y) O
    . c3 v2 H, T* y" R( v
    . s/ k. h9 l" V
    9 k  k/ z, b2 z& m# k% H2 W1 F6 s9 Q% X# R. [% g, r

    5 I+ v2 b; i/ {2 |  U; w激活函数  ϕ(⋅ ) $ E% g( j/ \$ S8 o" g1 o0 a
    可以有以下几种: , v% [- G5 N% H! n- q
    ) d; l: d. U. i# f1 u
    (0)Softmax - 用于多分类神经网络输出" \5 |$ k  v1 o) i0 U

    " ~2 r& _$ f$ j& [. \. @
    " ]$ ~5 C9 D; s1 t* K+ u; k0 ?' u4 J9 g; u5 Z4 m  f( @
    (1)阈值函数 、阶梯函数; K- ~9 {! H' m: @* C9 @9 c
    ) O. D) V; R; R6 ^$ i7 [' w* O0 u

    . o& P" c8 s/ U
    / a) e! l1 u% k6 b7 ]6 Q相应的输出   为 $ D" o, l3 m3 f5 Q

    ' v, D" j" e9 x# B# N' S. V7 D. b2 a' Q# E4 I% V4 Q

    9 \: ~* s  ^( b/ N(2)分段线性函数 2 c. v5 T! H  _- {0 O
    % x3 h9 u$ l: E- F& n/ w$ D
    / q  T* _9 k% H( S' J
    ) \/ e3 g* D4 p; l
    它类似于一个放大系数为 1 的非线性放大器,当工作于线性区时它是一个线性组合器, 放大系数趋于无穷大时变成一个阈值单元。 + N- G: }# Y# n
    & f4 U! k6 h4 {. a+ H" ^+ R
    (3)sigmoid 函数 (以前最常用) $ {& S. D' K6 _. n

    1 c% J2 _5 a2 d& `3 c# r* j% ~8 _
    4 C0 M/ _: \' V6 G! T. A  `& E8 Z# Q2 }9 J* w
    参数  α  > 0 可控制其斜率。 sigmoid 将一个实值输入压缩至[0,1]的范围,也可用于二分类的输出层。$ \) x( |3 y' l  f! E
    : k4 y; _0 Y# @6 p$ ?, a6 K
    (4)tanh  (双曲正切函数 ;Hyperbolic tangent function)
    0 I; N% E1 c4 e: S& [; n, i; z/ O/ z
    7 Y+ D$ g* B6 b. n5 K

    5 D5 h/ S* x3 y# m$ y4 {) J 将 一个实值输入压缩至 [-1, 1]的范围,这类函数具有平滑和渐近性,并保持单调性.% n3 h2 T, b6 C* N

    " I  y3 g, }( Z) Z- X# O1 O' c' F5 b  h7 q

    $ z$ Z9 X) Q" l1 _8 ~+ ~(5)  relu (Rectified linear unit; 修正线性单元 ; 深度学习目前最常用的激活函数)
    0 F3 `' A8 J3 r: W$ S& n6 H, j+ z8 D/ t2 i& e4 |. ~3 `
    " g9 D% g! w/ K& W

    3 _0 i7 s( e! Q% d2 M9 @
    - B, S' Y! j: b; j( R# Relu在tensorflow中的实现: 直接调用函数
    2 E8 E5 ]& z" ?4 i6 e7 ?: ntf.nn.relu( features, name= None )
    & L% J+ c! W: k' j/ m; b2 o5 U+ t* m/ k- \' ]. u
    与Sigmoid/tanh函数相比,ReLu激活函数的优点是:
    ( X1 C" b" `! x! |
    ' U. ~, a, O( R  C6 N7 H* Y 使用梯度下降(GD)法时,收敛速度更快  
    ! ]+ S6 {$ k5 V! e: J  l- X相比Relu只需要一个门限值,即可以得到激活值,计算速度更快  
    7 ~, z$ _) s+ c- {+ U- e 缺点是:  Relu的输入值为负的时候,输出始终为0,其一阶导数也始终为0,这样会导致神经元不能更新参数,也就是神经元不学习了,这种现象叫做“Dead Neuron”。
    ( B9 M, b0 ]6 ?8 F! ^6 [. d' e3 C7 a- b3 Q. T& U) w4 ?+ f
    为了解决Relu函数这个缺点,在Relu函数的负半区间引入一个泄露(Leaky)值,所以称为Leaky Relu函数。6 q- D1 W6 Z( \
    & |& I8 f, b/ Z& z
    (6)Leaky Relu  (带泄漏单元的relu )
      X! E% V# T$ N# _+ M. g2 G% R0 T( o  a: D: B( a) V. H$ E/ Z: L+ K& z
               数学表达式: y = max(0, x) + leak*min(0,x) 1 r& d! |2 k/ B3 o& i- P4 P
    0 Y0 i  G  c: S1 k8 k4 ?& P
    与 ReLu 相比 ,leak 给所有负值赋予一个非零斜率,  leak是一个很小的常数  ,这样保留了一些负轴的值,使得负轴的信息不会全部丢失)( m1 y  C: `1 b
    ; c% E5 g( |: p
    9 [2 M, m& E. K% `
    leaky ReLU% k# `9 U7 s2 P( ?) c4 A
    / P1 g* r+ N7 T& Z4 j2 Y* b- {) L+ F
    1 A( R! W. H) Q/ M. U0 m

    ( F1 C6 V: i- ]' L% P* i* ^/ V, L/ i% T/ O8 C  u5 T4 B
    #leakyRelu在tennsorflow中的简单实现
    5 Z; x' E* @+ o tf.maximum(leak * x, x),) ]1 H/ t) l7 }, D: a

    # z' o* _% c. J4 L6 Y1 e3 Z$ N/ s5 Z" L$ b$ X$ y: d* x* G
    比较高效的写法为:3 L* {( G) q" d# U+ w3 \
    ) u' a' X) b' u- {  }2 [
    import tensorflow as tf
    % [" _5 M0 e) Fdef LeakyReLU(x,leak=0.2,name="LeakyReLU"):
    - O% g/ |4 @! S' Z, p( v3 o; H! x    with tf.variable_scope(name):
    0 ]3 v5 u3 H0 Z6 N: ]/ I        f1 = 0.5*(1 + leak)
    6 V4 g- x& i' u& g- D        f2 = 0.5*(1 - leak)
    * Q+ ?$ j, e$ b6 s, T        return f1*x+f2*tf.abs(x)) m9 w6 X) V4 S
    ( W9 w1 L- |; {
    (vi)  RReLU【随机ReLU】' U4 r% }% w" ], ?9 E. H2 ]
    . e, Z1 J' Y" |) C+ b8 i+ @$ ~
    在训练时使用RReLU作为激活函数,则需要从均匀分布U(I,u)中随机抽取的一个数值 ,作为负值的斜率。& X4 N9 V4 `8 Y9 g. A$ ?( K

    " B, D1 G5 E4 r( [: I9 N9 Q' j0 q  m9 e, `, f2 g5 e

    : q3 I* M2 V5 u总结:    激活函数可以分为 两大类 $ u4 E  J! t" H6 x' h
      ]6 ]: a2 p# b9 y; V3 h- Q
    饱和激活函数: sigmoid、 tanh
    , K; t" f' m. s: K; l非饱和激活函数: ReLU 、Leaky Relu   、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】
    0 `- y9 I0 |$ b2 F1 ?5 n, [/ N7 o) A. p  P' K* ~/ t8 }/ e

      _3 J2 V( [5 M7 i9 z2 _; T' J  F/ V' l1 q/ n! Q% u
    相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点:
    9 X/ s/ G$ `, J  }% J    1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激活函数。
    , R$ W5 l: J* b+ L/ J' x& S9 `    2.其次,它能加快收敛速度。
    / F5 }- i6 U" H0 X. t
    ! o& ^* G7 \& ^. d& T2 r其它激活函数:softplus、softsign# ^! W0 k. ~6 X

    - i" O* ?9 |+ b# C% \) ~9 @6 @6 |+ g( H0 @& h& N: ^: S
    4 H2 o! b8 K/ h; t+ l# @1 N
    Matlab 中的激活(传递)函数! v# |* j7 N% r' N) ?3 N
    : e4 N( J) E+ }% l2 m
    9 x% ^- X) w. w4 W

    . q+ Z3 I; }/ j: l- y# i! A% d2 B
    . ]& i- F' Q$ B! D+ b( \1 M% K' |6 N
    1.2  网络结构及工作方式 # z2 Y* ]( V0 t7 ?' \) j
    除单元特性外,网络的拓扑结构也是 NN 的一个重要特性。从连接方式看 NN 主要 有两种。
    ) `: s4 w+ U4 Y
    & g, d/ t0 U! `(i)前馈型网络 各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入 单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多 个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第 1 −i 层 输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。
    # p9 r4 S; \: W7 E+ t) x6 A+ v1 e0 G, b, x1 s
    (ii)反馈型网络 所有结点都是计算单元,同时也可接受输入,并向外界输出。 NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不 变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算 单元状态变化,以达到某种稳定状态。 从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络 按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作 用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解优化问题。 $ G+ m8 J, R" v7 h. C4 g; p. h
    0 o( Y0 H) W1 x  b" m
    2  蠓虫分类问题与多层前馈网络 . B  s) v, ]- g* A
    2.1  蠓虫分类问题 / _) P% Q+ G: t  _7 F4 T
    蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与 Apf)进行鉴别, 依据的资料是触角和翅膀的长度,已经测得了 9 支 Af 和 6 支 Apf 的数据如下:2 W6 B8 y# l3 j$ s

    : }6 V; x9 J; o+ h' _! H9 f5 G5 C3 d/ i" ?Af: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70), (1.48,1.82),(1.54,1.82),(1.56,2.08).
    , ~1 G' {5 X4 [; [
    ! K9 [, V6 d/ LApf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).
    6 u! E! o, ]: a/ {' H* s* E3 R& f  [: `+ p9 n$ b% K& F% W- G
    现在的问题是:* O- o$ V& q! s5 k# }

    3 |# Q5 P$ A: L0 o1 c$ H5 K(i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。
    1 L9 U0 N' k+ r! F% _8 c7 B+ z1 k0 d
    (ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的 3 个标本,用所得 到的方法加以识别。
    ) u; ^$ _5 |! `% _1 a! j% s) k. [
    (iii)设 Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。$ e; A2 @4 b0 h8 E
    ) T0 t9 H6 V* u, g9 U
    如上的问题是有代表性的,它的特点是要求依据已知资料(9 支 Af 的数据和 6 支 Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或 Apf)。今后,我们将 9 支Af 及 6 支 Apf 的数据集合称之为学习样本。 1 W+ [! c1 I. Y6 i: h
    ) ?5 h/ D$ V* h
    2.2  多层前馈网络 ! C$ {0 G. l* C( w1 N! K
    为解决上述问题,考虑一个其结构如下图所示的人工神经网络,
    ) H& V% @5 I# G% f
    ( t2 N  H9 N5 |0 P; d8 F
    & p  q9 v% z( Q6 k% D: j
    * K4 ~, W2 k+ z& }5 F! h: _% `$ M4 x! w* j; u
    使用sigmoid 激活函数:
    ( n; D7 j5 B' h- f8 i
    # Q( ]: ~+ I: R! G4 f( d' r: n. ^4 E8 G4 i) s
    6 z1 N$ u. _* A
    图中下面单元,即由   所示的一层称为输入层,用以输入已知测量值。在 我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。 中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献 进行了讨论,但通过试验来决定,或许是好的途径。在我们的例子中,取三个就足够 了。上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入 数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理 后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入 与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络 结构。有些文献将这样的网络称为两层前馈网络,称为两层的理由是,只有中间层及输 出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层 数之内。) `$ g, u" A3 l* E# F

    9 u$ v$ c# j2 s2 F+ o. L5 q/ L) f
    $ ~* E1 M1 p- u/ x& M1 k. v; ]* k) h2 R6 n

    4 F) R  ?8 L6 ?( K" t* y* w. ^6 r5 c, X) A  N
    2.3  后向传播算法
    2 s3 T) o  H# B# y6 X对于一个多层网络,如何求得一组恰当的权值,使网络具有特定的功能,在很长一 段时间内,曾经是使研究工作者感到困难的一个问题,直到 1985 年,美国加州大学的 一个研究小组提出了所谓反向传播算法(Back-Propagation),使问题有了重大进展,这 一算法也是促成人工神经网络研究迅猛发展的一个原因。详细了解请看: 一文弄懂神经网络中的BP反向传播算法, U0 r! K1 t' _, U( q2 f/ n' E( v2 O

    % t$ z% C( f& m6 Q* c下面就来介绍这一算法。【注:梯度法又称最速下降法。】' W: }  x7 d$ m$ H: B$ [6 K" l9 Q7 [
    + d, ]/ D# _+ C1 J

    / l% D7 Q: j  s+ D  J0 `1 z/ `9 J1 h) F

    ( `/ h- U9 a) A& E; s+ z% I) B& s* t% R0 Y! i5 g  B( X

    & x. W0 u0 m. B/ h- C7 x% o8 A. g' X5 Z& B9 w+ _" K" |; f  ~2 v* [
    8 m  \) F4 ~4 e& ~8 G6 v  g

    5 S# a" `$ Z4 Y( X/ M(iii)在如上的讨论中使用的是速下降法,显然,这也不是唯一的选择,其它的 非线性优化方法,诸如共轭梯度法,拟牛顿法等,都可用于计算。为了加速算法的收敛 速度,还可以考虑各种不同的修正方式。  {5 E6 ?/ H4 O" h5 q: G
    # A1 `$ D/ K; H' f8 v
    (iv)BP 算法的出现,虽然对人工神经网络的发展起了重大推动作用,但是这一 算法仍有很多问题.对于一个大的网络系统,BP 算法的工作量仍然是十分可观的,这 主要在于算法的收敛速度很慢。更为严重的是,此处所讨论的是非线性函数的优化,那 么它就无法逃脱该类问题的共同困难:BP 算法所求得的解,只能保证是依赖于初值选 取的局部极小点。为克服这一缺陷,可以考虑改进方法,例如模拟退火算法,或从多个随机选定的初值点出发,进行多次计算,但这些方法都不可避免地加大了工作量。 / r  Q. H  V+ _6 ], t) @

    ! k: P5 b: G' I6 N' K2.4  蠓虫分类问题的求解
    & v8 \6 \$ C6 W3 U2 V9 v6 f" ?% S( M下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写 Matlab 程序 如下:( U  i* c% z1 m; t. K5 @

    % W6 E/ p9 T9 @5 x, yclear $ j! y# X+ ~# _3 B7 D+ y
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;
    ( X% {9 P7 V' @* e$ u/ t    1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08]; 7 S% v0 F7 ]8 h  @2 y. T1 D: R
    p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00    9 k4 M5 W$ n5 e, U( ~
        1.28,2.00;1.30,1.96]; p=[p1;p2]'; pr=minmax(p);
    # K4 T* f( f9 V& o1 Y/ Vgoal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];
    4 c# S5 O/ o( e2 Eplot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o')
    ( o% T- D' e0 e8 K5 Vnet=newff(pr,[3,2],{'logsig','logsig'}); " q1 S) ^* X. B  z- u) D
    net.trainParam.show = 10; 8 S/ T: G: |9 ]% z4 y3 N
    net.trainParam.lr = 0.05;
    : G7 K4 l) j" B  M0 ~net.trainParam.goal = 1e-10;
    $ J2 ?1 o- H. }& B4 h0 Qnet.trainParam.epochs = 50000;   E1 m4 a! a: h& L. l" t
    net = train(net,p,goal);
    . p# B% S5 X6 [2 _/ I* Ex=[1.24 1.80;1.28 1.84;1.40 2.04]';
    / P) [3 S0 x8 m, i; l: q- Y2 P6 a$ fy0=sim(net,p)
    7 o8 \. G5 g% D9 h' Dy=sim(net,x), k! H3 ~# W- _
    + E# D! V8 Y" B- j* b

    - `0 r: z6 h0 O) g9 W; l6 c7 x7 S0 K: h! k
    3  处理蠓虫分类的另一种网络方法 % ~! y5 Z# v' g
    3.1 几个有关概念3 z' ]3 z4 Q$ y+ M2 d
    在介绍本节主要内容之前,首先说明几个不同的概念。在上一节中,我们把利用 BP 算法确定联接强度,即权值的过程称为“学习过程”,这种学习的特点是,对任何一 个输入样品,其类别事先是已知的,理想输出也已事先规定,因而从它所产生的实际输 出与理想输出的异同,我们清楚地知道网络判断正确与否,故此把这一类学习称为有监督学习;与它不同的是,有些情况下学习是无监督的,例如,我们试图把一组样品按其本身特点分类,所要划分的类别是事先未知的,需要网络自身通过学习来决定, 因而,在学习过程中,对每一输入所产生的输出也就无所谓对错,对于这样的情况,显 然 BP 算法是不适用的。 另一个有关概念是所谓有竞争的学习。在上节所讨论的蠓虫分类网络中,尽管我们 所希望的理想输出是 (0,1)或(1,0),但实际输出并不如此,一般而言,两个输出单元均同时不为 0。与此不同,我们完全可以设想另外一种输出模式:对应任何一组输入,所 有输出单元中,只允许有一个处于激发态,即取值为 1,其它输出单元均被抑制,即取 值为 0。一种形象的说法是,对应任何一组输入,要求所有的输出单元彼此竞争,唯一 的胜利者赢得一切,失败者一无所获,形成这样一种输出机制的网络学习过程,称为有 竞争的学习。
    3 P" h9 q/ W! C; {
    . g- E% K8 j8 i& A- u( l3.2  简单的无监督有竞争的学习
    " d0 M1 ]# w# Q$ |+ S- j: ~) J" ]
    本节叙述一种无监督有竞争的网络学习方法,由此产生的网络可用来将一组输入样 品自动划分类别,相似的样品归于同一类别,因而激发同一输出单元,这一分类方式, 是网络自身通过学习,从输入数据的关系中得出的。 蠓虫分类问题对应有监督的网络学习过程,显然不能由如上的方法来解决。但在这 种无监督有竞争的学习阐明之后,很容易从中导出一种适用于有监督情况的网络方法; 此外,本节所介绍的网络,在数据压缩等多种领域,都有其重要应用。 ! |4 K$ R6 U; ~- l
    1 c8 d' f8 D8 O2 k3 h! h% v5 ~

    ( U0 Z, J3 d. ?% X/ [! F5 t0 N' O# o! L( {+ ^; c

    5 m/ \9 k- S" Q1 ~% h6 e7 c) Z/ D. Q6 S2 I& x

    5 _/ |6 M& w! m6 l4 F/ n$ U( r
    7 B# ^  y" S: O+ @9 o7 @1 x. f为了更有效地使用如上算法,下面对实际计算时可能产生的问题,作一些简要说明。
    8 D1 ~! b' e4 ~+ r: Q; f3 \( _" t: y4 F7 [" t: ~4 i/ L' W
    首先,如果初始权选择不当,那么可能出现这样的输出单元,它的权远离任何输入 向量,因此,永远不会成为优胜者,相应的权也就永远不会得到修正,这样的单元称之 为死单元。为避免出现死单元,可以有多种方法。一种办法是初始权从学习样本中抽样 选取,这就保证了它们都落在正确范围内;另一种办法是修正上述的学习算法,使得每 一步不仅调整优胜者的权,同时也以一个小得多的 η 值,修正所有其它的权。这样,对 于总是失败的单元,其权逐渐地朝着平均输入方向运动,终也会在某一次竞争中取胜。 此外,还存在有多种处理死单元的方法,感兴趣的读者可从文献中找到更多的方法。 ' `( y1 {3 g% j4 r! R2 [
    ( ?5 \9 N' I# }/ Q$ w
      J, b$ P' Q0 B* ?3 k# W4 `

    ( C! Y; F& @( u- a3 F& c# D* }0 X* S
    4 t$ r' R% Q$ Q" Z+ X& J
    & M" `+ C- z3 ^+ h3.3  LVQ 方法 --学习矢量量化4 u( s) Q, z; ?7 P3 c; }
    9 V8 b$ u: z" X8 D& ]3 G
    上述有竞争学习的一个重要应用是数据压缩中的向量量子化方法(Vector Quantization,又称,学习矢量量化)。它的基本想法是,把一个给定的输入向量集合   分成M 个类别,然后 用类别指标来代表所有属于该类的向量。向量分量通常取连续值,一旦一组适当的类别确定之后,代替传输或存储输入向量本身,可以只传输或存储它的类别指标。所有的类别由M 个所谓“原型向量”来表示,我们可以利用一般的欧氏距离,对每一个输入向量找到靠近的原型向量,作为它的类别。显然,这种分类方法可以通过有竞争的学习直接得到。一旦学习过程结束,所有权向量的集合,便构成了一个“电码本”。
    ; u$ B1 Z3 g, b: Y
    - H' b( U+ M/ F, J' q& w6 h一般而言,上述无监督有竞争的学习,实际提供了一种聚类分析方法,对如蠓虫分类这种有监督的问题并不适用。1989 年,Kohonen 对向量量子化方法加以修改,提出 了一种适用于有监督情况的学习方法,称为学习向量量子化(Learning Vector Quantization),该方法可用于蠓虫分类问题。在有监督的情况下,学习样品的类别是事 先已知的,与此相应,每个输出单元所对应的类别也事先作了规定,但是,代表同一类 别的输出单元可以不止一个。
    - V6 u7 s7 O! H" l, n' H) \5 h, f$ x0 [1 ]# z1 H
    ' V6 T0 r* x, h9 w1 `
    . Q( l# c, B' L5 ^9 t7 L
    前一种情况,修正和无监督的学习一致,权朝向样本方向移动一小段距离;后一种 则相反,权向离开样本方向移动,这样就减少了错误分类的机会。 对于上述的蠓虫分类问题,我们编写 Matlab 程序如下:
    : t. J* l( m2 C  Z- J  _' [clear 5 G" X) f4 y0 a0 q  E# P$ s
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;) P+ B2 v( F9 i) J8 R( S7 E
        1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];
    $ n  Z1 B" t( w% b) {4 L' u: {3 ?p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00  
    ; |0 p" k6 b8 p! h3 V( V    1.28,2.00;1.30,1.96];
    " Z/ N% \3 _: Fp=[p1;p2]'
    2 h1 ?) {2 g: H, opr=minmax(p)
    2 x! U* ]6 G/ z: _' Vgoal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)]
    0 y# u3 }" @7 E! b' {# b# ]0 \) znet = newlvq(pr,4,[0.6,0.4])
    8 ^% i6 b. _2 y3 E* inet = train(net,p,goal)
    ! @: w2 V: k- p+ a% f) h& }Y = sim(net,p) # C: U( V. W, {% b) K& J' Q
    x=[1.24 1.80;1.28 1.84;1.40 2.04]' " }+ v, z- z* @- m: w; [
    sim(net,x) ( M$ c3 J9 _! x# V- B

    $ @% y: I7 z( v/ e7 p& w" j习 题 , I% u( b: M+ _
    1. 利用 BP 算法及 sigmoid 函数,研究以下各函数的逼近问题 ' Z& I& J8 y6 e. n1 u1 W4 r+ C

    4 u6 i' \* V0 Y  }/ W+ x$ [
    1 r/ w  `" X" r
    . Z( d6 \9 ~% {0 W  y! i6 z对每一函数要完成如下工作:) i: I; I# i5 B( N( Z

    & C2 ~$ k5 v4 C/ P- B, I① 获取两组数据,一组作为训练集,一组作为测试集;; @, D# r. c3 x, j" I$ i- T

    + t/ C6 t3 K$ A/ T* W. Z+ X② 利用训练集训练一个单隐层的网络;用测试集检验训练结果,改变隐层单元数, 研究它对逼近效果的影响。 : t; ?& N5 @) h% b/ d- ]

    . N3 D" N3 u/ H5 S3 T2. 给定待拟合的曲线形式为7 y" ~' {  z! j4 V! P3 {) N$ x3 @
    0 O/ I+ T# I6 {$ J* L- u# S

    " i9 I3 D# ]8 F7 Y1 c/ g3 L. q7 e) k1 c' z
    在  上等间隔取 11 个点的数据,在此数据的输出值上加均值为 0,均方差  σ = 0.05 的正态分布噪声作为给定训练数据,用多项式拟合此函数,分别取多项式的阶次为 1, 3 和 11 阶,图示出拟合结果,并讨论多项式阶次对拟合结果的影响。
    % H# c% ~: S. T$ X4 Y- ^! X2 a% R6 m
    / }. h. s2 W' e/ x* s
    ' }1 j/ |6 x5 t

    4 {! x$ y3 N! }2 K  l$ w) \8 t5 z. q' m/ L5 d+ ^2 [

    $ n( \# r& J8 R————————————————
      ~* q" f3 m; Z. v6 b版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。$ v9 a. M2 V$ r; l' G
    原文链接:https://blog.csdn.net/qq_29831163/article/details/89509279
    6 Z! K5 ?; c: U7 X5 p% s
    / W7 s/ H' W* @
    8 c) Q% ]- }& {3 v
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-22 11:52 , Processed in 0.341562 second(s), 51 queries .

    回顶部