QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2538|回复: 0
打印 上一主题 下一主题

[建模教程] 神经网络模型用于数学建模

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2020-6-4 11:24 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及 功能的一种抽象数学模型。自 1943 年美国心理学家 W. McCulloch 和数学家 W. Pitts 提 出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了 50 多年 曲折的发展。特别是 20 世纪 80 年代,人工神经网络的研究取得了重大进展,有关的理 论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。 它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及 专家系统等领域得到广泛的应用,提出了 40 多种神经网络模型,其中比较著名的有感 知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这 里我们仅讨论基本的网络模型及其学习算法。
    2 }( ^/ e$ |1 e# e: u$ s3 m& Z) [3 j1 u& i
    1.1  人工神经元结构$ Y+ Z+ V5 P) _* Z9 l8 \" c
    下图表示出了作为人工神经网络(artificial neural network,以下简称 NN)的基本 单元的神经元模型,它有三个基本要素:
    ! l# k# K' ~7 ]- v% r8 g- v% C1 s: a4 g, z( h$ N5 ~
    4 `8 N" w' [$ e  ?2 P- t+ o

    7 M3 l. c' G# y9 p1 ^/ G/ {" b. \  G! X
    1 ]2 I+ ~, x  \; I* m, t
    4 G- H# m( [3 V

    . c" r5 D0 U$ g+ E  C/ J  I4 c5 y8 M; ]* l! R5 L
    3 `2 a& _3 ]% ~$ ~
    激活函数  ϕ(⋅ )
    . s3 G$ V, [& r; e可以有以下几种: $ f3 n+ {/ S) Y* E, k# J  b

    ' J: M$ D. o$ o' ~/ |) @ (0)Softmax - 用于多分类神经网络输出
    1 r( t4 `7 \$ h3 ~* r( D  [0 Q
    5 J. A' v1 o' n1 ~: g6 P
    4 K2 G1 J! A2 ~% c: Q) y0 J! P7 T
    0 M$ ^9 s0 y( }$ `! B(1)阈值函数 、阶梯函数; A& X* \: W( d/ Q" a$ n8 c6 O

    0 J  p* L* f: ]8 |6 P: F: c: g" v
    - L: p1 y$ U. s1 [4 J( C8 B; Q3 d* g2 D1 Q
    相应的输出   为
    5 L: p( c( W( {6 x% Z6 p
    ( B* W' n$ M* `; m* V
    2 u0 A2 t4 V- [7 [; l* u3 _% M: }# P& Q
    (2)分段线性函数 : [7 ^" p2 y! f9 F; L9 i

    * J% [5 b( p4 z% z) M, |6 i. W9 k; ^  W( t9 |" \% p
    . c- r- f& _0 A- h, f
    它类似于一个放大系数为 1 的非线性放大器,当工作于线性区时它是一个线性组合器, 放大系数趋于无穷大时变成一个阈值单元。
    . m( x  N! l3 w$ ]2 y
    2 O5 G& k8 C0 L(3)sigmoid 函数 (以前最常用)
    4 y" k$ ?- d+ Z9 \$ j3 ?8 {0 h5 Q* P! G; T4 A
    # f& h, e  @% W  c( d# w# ?

    ! }" f; S& U% Y4 g# G+ l参数  α  > 0 可控制其斜率。 sigmoid 将一个实值输入压缩至[0,1]的范围,也可用于二分类的输出层。
    * `+ K2 v+ m3 Z8 r0 _% @
    - `$ K. Q* u1 l. ~0 a# f(4)tanh  (双曲正切函数 ;Hyperbolic tangent function)   M7 V4 \3 z9 r  ]( h* D9 |3 r
    5 V) H6 G* w  r: |# V4 U
    % C5 ^7 Q3 x: ?8 ?. `6 Q

    6 N+ X" \# r7 ^, F: z1 A. z 将 一个实值输入压缩至 [-1, 1]的范围,这类函数具有平滑和渐近性,并保持单调性.  _' Q& b4 i7 p
    : H0 a6 I+ x+ p# J# m

    " O" T# Q) b; b
    3 `/ W. h4 D" \( U- m; j(5)  relu (Rectified linear unit; 修正线性单元 ; 深度学习目前最常用的激活函数)/ ~1 v: A# M7 C2 {7 l
    . w5 j5 P" I6 B& U* k& h
    3 V7 W* r' \/ _2 B" T- R$ H
    1 Y- [3 y, G! M6 Z
    0 J. i! g3 D6 l
    # Relu在tensorflow中的实现: 直接调用函数
    $ j5 ]& b8 ~4 u6 _7 P" ~6 o9 {tf.nn.relu( features, name= None )
    : i. n4 ?& T; @$ g* g' U( _3 v7 x. e" V  Q- e0 Y
    与Sigmoid/tanh函数相比,ReLu激活函数的优点是:, Y5 V# }. O* B, \

    + H9 J) J- b# x8 D 使用梯度下降(GD)法时,收敛速度更快  
      c; E# i3 L( i" z3 i- e相比Relu只需要一个门限值,即可以得到激活值,计算速度更快  8 y' i, w- u- z2 ]% x* B# d( [2 D- m
    缺点是:  Relu的输入值为负的时候,输出始终为0,其一阶导数也始终为0,这样会导致神经元不能更新参数,也就是神经元不学习了,这种现象叫做“Dead Neuron”。2 h: z0 K0 k+ P- I

    + q6 ~; l8 d& x+ T) E 为了解决Relu函数这个缺点,在Relu函数的负半区间引入一个泄露(Leaky)值,所以称为Leaky Relu函数。
    0 Q7 d1 c$ z* c4 `  m" `2 u
    ; M5 H) ^1 e  A" c' ? (6)Leaky Relu  (带泄漏单元的relu )
    7 B6 X& M2 q: N! D+ B
    / d  V. I& Y, `! d* i4 N           数学表达式: y = max(0, x) + leak*min(0,x) 7 H" J% f  z7 ~$ I- w& A; U6 Z
      P. T% b$ b4 J# s+ e( ~$ ]
    与 ReLu 相比 ,leak 给所有负值赋予一个非零斜率,  leak是一个很小的常数  ,这样保留了一些负轴的值,使得负轴的信息不会全部丢失)8 ~, R2 _. e/ }$ u: k
    % Q0 b- r6 W' W  p) Q+ V) J

    + \8 {. H7 c4 ^- H7 I9 F" G  xleaky ReLU
    ; `+ w. e; K( b7 ?. X2 A5 X& E  I7 K$ K5 B! _: Q
    & R% W. F2 [5 A8 N$ ?' y% ?

    # L" ]7 b# I& H+ q
    ; A6 {4 ^- J# h/ d/ K#leakyRelu在tennsorflow中的简单实现
    ' x6 G3 ~. O3 s0 x( {% q tf.maximum(leak * x, x),
    8 F9 n  i% U& f, L8 i' i9 l1 p
    ; L  u9 H3 V6 ]3 z1 z8 E
    * A1 m8 M8 D, F" i: C$ E  | 比较高效的写法为:
      `; I6 n6 z/ t, i" p9 c4 w! j+ G- C* F/ S* R5 y8 Y, |& t
    import tensorflow as tf
    , q, w9 D, f8 D' ~9 }  x$ P' Gdef LeakyReLU(x,leak=0.2,name="LeakyReLU"):
    7 E  L' `8 d- P3 P    with tf.variable_scope(name):
    & f1 U' M$ B# I        f1 = 0.5*(1 + leak)
    , T$ i  s" f$ J' O7 Y        f2 = 0.5*(1 - leak)
    " v) ]5 l* q* J4 D/ B3 ]# O        return f1*x+f2*tf.abs(x)
    5 S! P/ X; N* m
    + c& S, b: p* i1 a6 O) C3 d6 B- [(vi)  RReLU【随机ReLU】. }  F7 B7 |2 a; T
    4 Q/ j2 e! b9 `# S2 ^9 [, V
    在训练时使用RReLU作为激活函数,则需要从均匀分布U(I,u)中随机抽取的一个数值 ,作为负值的斜率。
    ( r; Y! R- J7 G' E. ~  y) {
    ( t9 n: \7 _" R3 }4 P6 @& i# V  m5 g8 D4 E) F! ~# g2 }9 ~" Y

    ' Q/ P* o+ O6 A6 \+ L9 T4 A总结:    激活函数可以分为 两大类 0 ~& L" J! v0 w; z

    ) R: f5 i5 N. t! ~, ~饱和激活函数: sigmoid、 tanh0 |+ u: E6 X$ l+ u" _1 z- c+ |) {
    非饱和激活函数: ReLU 、Leaky Relu   、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】
    7 }3 y7 O7 P* j( Z) M7 Q* H' [. H- a# g7 N! [9 b
    , [3 ^: O- e& z+ g6 `9 g7 t
    . g( b: e( A- |$ c* M
    相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点:
    , `" Q. c. b  z- Q* o; T    1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激活函数。  @8 {& O# r" b
        2.其次,它能加快收敛速度。   v+ @0 ~) B/ K
    1 O5 |) d# h7 N% z
    其它激活函数:softplus、softsign
    ) i8 K! o! j0 ]: a! `  M2 ?7 n; d$ D5 A) t4 A6 d3 I
    % d6 ~6 d1 f1 X
    & F" b5 Z6 i# K5 ]1 H  d
    Matlab 中的激活(传递)函数
    * {, }7 k+ u2 D8 k& Q$ _% Y& @9 j2 i7 ^: W
    4 h- B; V0 F' @+ G) l# P

    # D0 A* r1 X5 b0 J9 N$ p& _3 h# j. B1 q! v9 i
    2 C4 V, W1 u5 b" H& A- A# f9 J
    1.2  网络结构及工作方式
    7 Y3 `) U" b: o; l+ V: X 除单元特性外,网络的拓扑结构也是 NN 的一个重要特性。从连接方式看 NN 主要 有两种。
    5 v( t2 ^% z& {9 ?/ i% w  z$ w; m4 b( O$ u; k
    (i)前馈型网络 各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入 单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多 个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第 1 −i 层 输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。8 s6 ~0 Y$ A; `! k9 G

    $ i9 E2 B+ Y. v. }2 e(ii)反馈型网络 所有结点都是计算单元,同时也可接受输入,并向外界输出。 NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不 变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算 单元状态变化,以达到某种稳定状态。 从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络 按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作 用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解优化问题。 2 D) t) z  D; w% E+ E8 B' m9 v

    ' c9 V" }1 X/ V; {2  蠓虫分类问题与多层前馈网络
    8 b) P0 {% S" s4 x( z2.1  蠓虫分类问题
    ( e+ }9 u* G* |, g( b蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与 Apf)进行鉴别, 依据的资料是触角和翅膀的长度,已经测得了 9 支 Af 和 6 支 Apf 的数据如下:
      F2 Z2 V! s* I) v. D- E; U
    - j* |/ ?; u- N# Q/ I! W) c. _) n0 IAf: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70), (1.48,1.82),(1.54,1.82),(1.56,2.08).
    . z" w; f! H2 w4 E0 A  u& L4 u7 N  V+ M2 l
    Apf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).
    & T/ z0 J7 ~) l' {
    * K9 Y# o+ E' Z* E2 g现在的问题是:; [' t4 j) |# o6 y
    ; ^8 S* V8 W) a( |
    (i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。8 @, Z1 b$ }$ ]
    + |8 k2 C0 D  Y7 B
    (ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的 3 个标本,用所得 到的方法加以识别。8 t. i5 m. V* F. a9 q( d+ f2 D

    % f8 M+ M  j1 F; \5 w/ q$ C(iii)设 Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。5 w1 I6 s( _* i& [$ T" J

    2 ^3 k. e) p* H* {; k如上的问题是有代表性的,它的特点是要求依据已知资料(9 支 Af 的数据和 6 支 Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或 Apf)。今后,我们将 9 支Af 及 6 支 Apf 的数据集合称之为学习样本。
    9 @/ x. H8 ^. \$ X/ d2 ?' W  v) k8 B. z9 f1 |0 p; V/ R
    2.2  多层前馈网络
    , \5 s# B+ l7 Y" D' r2 J) J为解决上述问题,考虑一个其结构如下图所示的人工神经网络,, X' E) F( t( ?5 b6 ^# s

    ( L/ X' ~  j1 h& t% \
    ! Q' N" }3 j$ s9 t! T0 }8 D# b0 V' q. h- e& K) [! M( `

    & q4 O. U, r; u) w- c2 p9 g使用sigmoid 激活函数:: A+ x3 T# |) O! p

    7 _* K0 ?: X  u# q. j7 s1 [& L9 P6 L, ?
    2 D8 ~" h( e! H- }0 G% a0 G
    图中下面单元,即由   所示的一层称为输入层,用以输入已知测量值。在 我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。 中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献 进行了讨论,但通过试验来决定,或许是好的途径。在我们的例子中,取三个就足够 了。上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入 数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理 后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入 与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络 结构。有些文献将这样的网络称为两层前馈网络,称为两层的理由是,只有中间层及输 出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层 数之内。: L' ^5 g% p  @2 y2 R0 ~
    / \+ t) q* j/ l; v6 O# J7 r% m! \
    & h0 N8 |% P/ f; Q

    * g2 `8 ]+ e4 B) A& i+ o
    7 p$ K: }/ M. h0 v6 p: B2 f5 T3 l1 G- Y4 V( d( Y6 s( L$ |
    2.3  后向传播算法4 p4 y, W/ S6 X7 s& j* K
    对于一个多层网络,如何求得一组恰当的权值,使网络具有特定的功能,在很长一 段时间内,曾经是使研究工作者感到困难的一个问题,直到 1985 年,美国加州大学的 一个研究小组提出了所谓反向传播算法(Back-Propagation),使问题有了重大进展,这 一算法也是促成人工神经网络研究迅猛发展的一个原因。详细了解请看: 一文弄懂神经网络中的BP反向传播算法
    - B: j! o  p# u8 P, }
    / q" s6 k8 J* j( a1 f3 V! P下面就来介绍这一算法。【注:梯度法又称最速下降法。】
    . f, y$ i0 z8 [! c: G
    ! ]5 F, m" M. c/ ~. b/ {2 T3 R2 y/ X

    , {+ G. d! b, u, h; d, V
    " S! e) c! h( W+ ^+ U, O6 E) h& Q+ [: T: r- ?5 j2 m
    3 @' j0 j; U, p8 ]# }

    ' ^6 P; W5 Z' R) c3 a1 `# h! O) D* C" p4 Q
    " ^6 I- V2 }% T7 V# W- q
    (iii)在如上的讨论中使用的是速下降法,显然,这也不是唯一的选择,其它的 非线性优化方法,诸如共轭梯度法,拟牛顿法等,都可用于计算。为了加速算法的收敛 速度,还可以考虑各种不同的修正方式。( T6 {" l* s& P: ]6 \/ a
    / H6 t0 b. u2 X) O. j
    (iv)BP 算法的出现,虽然对人工神经网络的发展起了重大推动作用,但是这一 算法仍有很多问题.对于一个大的网络系统,BP 算法的工作量仍然是十分可观的,这 主要在于算法的收敛速度很慢。更为严重的是,此处所讨论的是非线性函数的优化,那 么它就无法逃脱该类问题的共同困难:BP 算法所求得的解,只能保证是依赖于初值选 取的局部极小点。为克服这一缺陷,可以考虑改进方法,例如模拟退火算法,或从多个随机选定的初值点出发,进行多次计算,但这些方法都不可避免地加大了工作量。
    ) b0 j7 b& Y, Y6 g
    . m2 o! P$ ~& L0 l  h2.4  蠓虫分类问题的求解
    ( k7 v2 h% [% o8 O1 t6 i% b下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写 Matlab 程序 如下:4 R4 s8 H: n$ x
    . s* }7 @9 i) j2 y" g
    clear
    . Y8 k4 |+ Z7 o1 Q! C* A0 ip1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;
    * w+ Y5 b- a" K9 n3 K, C% o    1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08]; & }( i9 }8 d" h- e8 T/ M; v
    p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00    ' u' e  v* J$ _3 m8 _
        1.28,2.00;1.30,1.96]; p=[p1;p2]'; pr=minmax(p); $ f# B1 ^6 N$ u! v
    goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];
    9 f2 F. l) \& K* bplot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o')
    , ~4 O9 T4 k( `* hnet=newff(pr,[3,2],{'logsig','logsig'}); . Y" D8 X* }% C% k# h- @0 A
    net.trainParam.show = 10;   v0 \' I% g9 T  H8 q3 S& M, U, {
    net.trainParam.lr = 0.05; 2 k+ p) {1 i  D+ h
    net.trainParam.goal = 1e-10; $ E! T/ ?3 w& q9 o
    net.trainParam.epochs = 50000;   `! [9 q3 S4 K7 p4 J. S# ^
    net = train(net,p,goal);
    # k# c7 H+ W8 u# _4 i9 Vx=[1.24 1.80;1.28 1.84;1.40 2.04]';
    % M+ ]# b6 ^7 N' d2 Fy0=sim(net,p)! V# C4 e: `/ B7 X" b  R
    y=sim(net,x)
    % z/ Q, e& y5 y; A/ |* d. y' }5 v9 d3 T
    . p% e' W5 S3 d. @4 T  G# S
    + k3 Z& @1 E, H! i
    3  处理蠓虫分类的另一种网络方法
    9 B" K3 j4 O' {9 W% e3.1 几个有关概念; J. k0 g2 f4 K% V! B
    在介绍本节主要内容之前,首先说明几个不同的概念。在上一节中,我们把利用 BP 算法确定联接强度,即权值的过程称为“学习过程”,这种学习的特点是,对任何一 个输入样品,其类别事先是已知的,理想输出也已事先规定,因而从它所产生的实际输 出与理想输出的异同,我们清楚地知道网络判断正确与否,故此把这一类学习称为有监督学习;与它不同的是,有些情况下学习是无监督的,例如,我们试图把一组样品按其本身特点分类,所要划分的类别是事先未知的,需要网络自身通过学习来决定, 因而,在学习过程中,对每一输入所产生的输出也就无所谓对错,对于这样的情况,显 然 BP 算法是不适用的。 另一个有关概念是所谓有竞争的学习。在上节所讨论的蠓虫分类网络中,尽管我们 所希望的理想输出是 (0,1)或(1,0),但实际输出并不如此,一般而言,两个输出单元均同时不为 0。与此不同,我们完全可以设想另外一种输出模式:对应任何一组输入,所 有输出单元中,只允许有一个处于激发态,即取值为 1,其它输出单元均被抑制,即取 值为 0。一种形象的说法是,对应任何一组输入,要求所有的输出单元彼此竞争,唯一 的胜利者赢得一切,失败者一无所获,形成这样一种输出机制的网络学习过程,称为有 竞争的学习。
    6 E; s& r7 Y3 f- ]$ G. r% J4 h0 C2 W$ L+ h$ I2 }
    3.2  简单的无监督有竞争的学习
    0 {! z5 U2 D" V4 u1 n! e& k, H8 ?3 V5 K
    本节叙述一种无监督有竞争的网络学习方法,由此产生的网络可用来将一组输入样 品自动划分类别,相似的样品归于同一类别,因而激发同一输出单元,这一分类方式, 是网络自身通过学习,从输入数据的关系中得出的。 蠓虫分类问题对应有监督的网络学习过程,显然不能由如上的方法来解决。但在这 种无监督有竞争的学习阐明之后,很容易从中导出一种适用于有监督情况的网络方法; 此外,本节所介绍的网络,在数据压缩等多种领域,都有其重要应用。   P3 }4 |+ M  m. \. U# w

    3 t5 O' K. W- m8 D, U: b/ |- c
    2 g' ?! w6 t! S% L
    " P2 n5 D# J9 z7 _" G
    . c5 ^( g) U! ]& K4 T
    % ]" H- _2 B$ t; t
    2 Q% Q3 E' v% x6 A8 c$ E
    4 ]; v. E: {% ]7 G# l为了更有效地使用如上算法,下面对实际计算时可能产生的问题,作一些简要说明。: f$ n: Z" M7 a% \9 L0 q. e7 z, K' a
    2 v  \2 g9 O, K9 ~* B
    首先,如果初始权选择不当,那么可能出现这样的输出单元,它的权远离任何输入 向量,因此,永远不会成为优胜者,相应的权也就永远不会得到修正,这样的单元称之 为死单元。为避免出现死单元,可以有多种方法。一种办法是初始权从学习样本中抽样 选取,这就保证了它们都落在正确范围内;另一种办法是修正上述的学习算法,使得每 一步不仅调整优胜者的权,同时也以一个小得多的 η 值,修正所有其它的权。这样,对 于总是失败的单元,其权逐渐地朝着平均输入方向运动,终也会在某一次竞争中取胜。 此外,还存在有多种处理死单元的方法,感兴趣的读者可从文献中找到更多的方法。 ( |4 Q& W7 b5 F( b/ R( \1 x- O& _( t

    " j1 ~( y# R: c8 I& ~9 d9 g  g9 q$ w5 y. R
      J0 S1 Y+ L' z' p8 ~* f5 R
    9 f: K4 c, R7 i
    + N, f6 B- n1 {. M
    3.3  LVQ 方法 --学习矢量量化
    ! O. Z' H+ w9 w3 L+ o+ L( @, v5 h3 @+ B( j$ m# j
    上述有竞争学习的一个重要应用是数据压缩中的向量量子化方法(Vector Quantization,又称,学习矢量量化)。它的基本想法是,把一个给定的输入向量集合   分成M 个类别,然后 用类别指标来代表所有属于该类的向量。向量分量通常取连续值,一旦一组适当的类别确定之后,代替传输或存储输入向量本身,可以只传输或存储它的类别指标。所有的类别由M 个所谓“原型向量”来表示,我们可以利用一般的欧氏距离,对每一个输入向量找到靠近的原型向量,作为它的类别。显然,这种分类方法可以通过有竞争的学习直接得到。一旦学习过程结束,所有权向量的集合,便构成了一个“电码本”。1 l  i8 H, Q, d/ P% b. P
    0 J: g7 c' ~7 T$ r8 o7 f
    一般而言,上述无监督有竞争的学习,实际提供了一种聚类分析方法,对如蠓虫分类这种有监督的问题并不适用。1989 年,Kohonen 对向量量子化方法加以修改,提出 了一种适用于有监督情况的学习方法,称为学习向量量子化(Learning Vector Quantization),该方法可用于蠓虫分类问题。在有监督的情况下,学习样品的类别是事 先已知的,与此相应,每个输出单元所对应的类别也事先作了规定,但是,代表同一类 别的输出单元可以不止一个。 5 s" Z& W7 J5 u6 y) \, z" `1 S

    , K4 u( ]$ d; a& c5 Y
    / Y8 l. c$ {" x: v
    % t; B+ C' l7 J- y' q8 C7 q前一种情况,修正和无监督的学习一致,权朝向样本方向移动一小段距离;后一种 则相反,权向离开样本方向移动,这样就减少了错误分类的机会。 对于上述的蠓虫分类问题,我们编写 Matlab 程序如下:
    1 I4 j1 C+ p+ x6 E0 }7 f$ Q3 Qclear & E3 W# A4 Q) w* M% o) W, g: d
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;- }$ B; ]! C/ `# n
        1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08]; ( b7 H. j- ]( a1 z+ y
    p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00  , B0 J/ c/ r& j. G) x* A5 d
        1.28,2.00;1.30,1.96];
    5 ~+ S  O& `( o; R5 `' ip=[p1;p2]'
    ( ~) w6 G: y. k' ]- w. Kpr=minmax(p) ( }2 z7 y0 b0 N) u5 {0 o* a7 \
    goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)]
    & J7 D3 t/ A/ F* u0 o  ^net = newlvq(pr,4,[0.6,0.4])
    8 U6 p; D2 e- u# D" _% T% C* anet = train(net,p,goal)
    4 J/ i! t$ v9 Z( q" @- n9 QY = sim(net,p) ' H: c. c* \- Y6 R5 F
    x=[1.24 1.80;1.28 1.84;1.40 2.04]'
    % _1 ?7 W' s' m' B; d. Esim(net,x) 0 w; W& ?( G  z0 ^2 Y, O

    + A/ v( A. p) c2 L4 K习 题
    - [' O6 I7 p) }$ M3 I+ x5 D; Q6 X1. 利用 BP 算法及 sigmoid 函数,研究以下各函数的逼近问题 ' M7 T3 }% C$ m- x
    : i: |  P  b, d6 p" t; g  G. u( ^5 _
    + E* K, o7 a$ U/ Z3 l' W

    - W4 Z. X$ Y: w( ?/ V% K# O对每一函数要完成如下工作:- F2 B. g$ m+ P
    ) {$ y9 G/ z; O  ]
    ① 获取两组数据,一组作为训练集,一组作为测试集;2 {3 K2 _) P6 K8 ^) M
    ! o9 c- c' G( Z7 ?$ Q  H* @6 t- m& Q
    ② 利用训练集训练一个单隐层的网络;用测试集检验训练结果,改变隐层单元数, 研究它对逼近效果的影响。
    # G& F5 o$ y$ G; Y4 w: W4 o
      u  V; i! }3 {1 o; |2. 给定待拟合的曲线形式为
    + p' w3 x' j- P- U( L
    + e9 t/ o, T# S" k
    / ~& s6 G2 a$ Z3 F" l$ Z9 Y2 V' [6 c) K' p* a  f, g  [
    在  上等间隔取 11 个点的数据,在此数据的输出值上加均值为 0,均方差  σ = 0.05 的正态分布噪声作为给定训练数据,用多项式拟合此函数,分别取多项式的阶次为 1, 3 和 11 阶,图示出拟合结果,并讨论多项式阶次对拟合结果的影响。
    2 T# |( }8 Y1 |3 H( x" z6 T' J/ p; ~& M7 {6 E) p) }, J

    ' O8 I4 P3 @( c- H/ n0 l
    / d) X# B( b% E/ _% r* S% q2 B$ j/ T2 K3 L

    , l& Q7 ~  N* E* \2 N0 T
    1 l0 k; l" J7 U3 J- ]; y————————————————1 U0 u( ]$ F0 L8 H
    版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
      O3 S' _, u. N' K9 E+ \* \- o" n原文链接:https://blog.csdn.net/qq_29831163/article/details/89509279
    7 g1 {5 Q; s. [0 `8 |3 f3 }' ^( Q& Y# A7 f9 l3 S; |) U
    ' ~' C* K: W" M0 R' U6 D4 u/ w( s
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 18:12 , Processed in 0.445374 second(s), 51 queries .

    回顶部