QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2533|回复: 0
打印 上一主题 下一主题

[建模教程] 神经网络模型用于数学建模

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2020-6-4 11:24 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及 功能的一种抽象数学模型。自 1943 年美国心理学家 W. McCulloch 和数学家 W. Pitts 提 出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了 50 多年 曲折的发展。特别是 20 世纪 80 年代,人工神经网络的研究取得了重大进展,有关的理 论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。 它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及 专家系统等领域得到广泛的应用,提出了 40 多种神经网络模型,其中比较著名的有感 知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这 里我们仅讨论基本的网络模型及其学习算法。5 e' d2 S9 V7 I

    # M- t% s: O. F+ A( ^+ P1.1  人工神经元结构+ X; i& b; S3 j9 E' [9 g
    下图表示出了作为人工神经网络(artificial neural network,以下简称 NN)的基本 单元的神经元模型,它有三个基本要素:
    . ?6 Y" A. Z5 y' ]- U" p9 t8 [  J

    " v+ O) @+ ]1 y, H) o* d" z# V& Z5 G) g: R& f: |1 D# C/ t0 J7 j4 p

    , e7 N/ s1 O0 {3 K8 A, f) E9 P
    ! M5 D6 s# W4 N; ^2 e( G! B, w: B1 S2 s0 R8 N

    : n; f* i- ^1 [! u  |! M) k
    4 R5 G9 _( T, D$ s; v' n! e' a; c1 u; F9 R% p) h( Q" {6 l
    激活函数  ϕ(⋅ )
    # d/ o9 Y$ W: v2 B3 x0 Q6 ^可以有以下几种:
    $ c; c! i" d0 ^& O6 J! K7 D4 z
    8 ]. \2 \1 e9 r (0)Softmax - 用于多分类神经网络输出0 ~" E3 C2 f. s1 a' x
    7 D4 F) |/ ~& i3 B2 |% L

    # Z, C6 K; ]/ y: t; h8 N& Q: i$ y! H3 e& U; O5 I  g
    (1)阈值函数 、阶梯函数
    2 U+ Z, \9 }7 s% M& ~  }8 o, r0 j- M7 x: m/ ^9 W" ^

    5 X1 J! K& N+ e( T( N$ y
      I  P+ }; E1 n! b, W相应的输出   为 ' ]! n* Y0 E' V1 ?4 C3 Z- H/ n$ w+ m
    + s4 b  ?& w4 `( p

    % ]* x7 \5 T" I/ A9 C/ j
    8 j! C# U* l6 S. ~& Y(2)分段线性函数
    5 D2 E8 T/ D# ^. {2 T1 A# B$ V  W
    0 h' I! M3 I! r3 f2 A1 |8 j  e' W- P4 Y$ }  N2 H

    / b8 R! F' y4 Q; W% `$ ~& X它类似于一个放大系数为 1 的非线性放大器,当工作于线性区时它是一个线性组合器, 放大系数趋于无穷大时变成一个阈值单元。 7 A+ G2 _0 G, A8 g' w% n

    4 _0 g$ E* y8 `4 e) W4 H+ u(3)sigmoid 函数 (以前最常用)
    1 D5 I- D' _! k; f0 G, p/ o  ^/ O& y3 y% [7 K3 a/ ~9 z& I( ?+ Y

    # `; W) o+ P# v9 D4 w; a, G
    ) @/ A# s0 ]  \( E) w参数  α  > 0 可控制其斜率。 sigmoid 将一个实值输入压缩至[0,1]的范围,也可用于二分类的输出层。3 g8 G4 F6 Y; U% G- A" T
    8 w. h! G' A" H7 S
    (4)tanh  (双曲正切函数 ;Hyperbolic tangent function)
    1 ^# d3 K/ U# u. ?! A  X$ O( ]# v2 r  J5 b
    5 u  n- O; w0 v! X

    + a9 D  J+ x5 U+ I: I* C 将 一个实值输入压缩至 [-1, 1]的范围,这类函数具有平滑和渐近性,并保持单调性.
    0 j% J4 P5 D% S" e" ]! a, z1 L4 W. Q: A7 L; y  }; F$ F5 S- F

    & a7 q: ]5 w7 \, w/ s
    & ]  V$ k8 [: k$ X' H; i(5)  relu (Rectified linear unit; 修正线性单元 ; 深度学习目前最常用的激活函数)& ~, G# U1 M: V5 H* @! d

    . u6 b3 l# o/ Z. {# ~, l/ k0 U' X, U* z; a- E( V4 d6 _6 Q, v4 m' F
    # v6 y) w% f% j+ g

    9 R3 w( R! d3 ~- W# Y0 x( L9 N# Relu在tensorflow中的实现: 直接调用函数
    ; S" i& u5 K& s: T9 Ttf.nn.relu( features, name= None )- Y5 `. G) ]4 T; |3 _9 M9 O
    3 B) _( ^- u* `  m6 t
    与Sigmoid/tanh函数相比,ReLu激活函数的优点是:
    / ?) Q2 K$ u  |) j  a8 \9 J+ [9 d3 Y8 ~. t8 S- u) a8 |: N7 a
    使用梯度下降(GD)法时,收敛速度更快  
    & M# X! U5 R1 v相比Relu只需要一个门限值,即可以得到激活值,计算速度更快  # C2 l1 t) z7 Y1 O& m
    缺点是:  Relu的输入值为负的时候,输出始终为0,其一阶导数也始终为0,这样会导致神经元不能更新参数,也就是神经元不学习了,这种现象叫做“Dead Neuron”。
    & @1 v/ |8 k( ?4 y* ?3 B$ X1 C; Y; l8 n1 _- r
    为了解决Relu函数这个缺点,在Relu函数的负半区间引入一个泄露(Leaky)值,所以称为Leaky Relu函数。' }0 }  i9 a8 V$ x' Y# X% Q/ {
    ! i$ u3 A" ?: ^
    (6)Leaky Relu  (带泄漏单元的relu ); x# F2 U9 X7 i8 v& g( \
    + W  ~, L# F) [# Y& [* V
               数学表达式: y = max(0, x) + leak*min(0,x) % y! O: _+ ?7 D2 Q0 N1 |* H

    ( Q  I5 y$ s# z  H1 V3 x0 ^' Z  N# P8 @与 ReLu 相比 ,leak 给所有负值赋予一个非零斜率,  leak是一个很小的常数  ,这样保留了一些负轴的值,使得负轴的信息不会全部丢失)
    # J( k( t7 j3 Q3 i% K. h5 g. f; l3 ?, j+ m% ]

    / P6 O0 ]4 |( q' R/ l9 m, i* Pleaky ReLU
    4 F% ?# ~* ]5 q+ f$ F3 c8 o8 _7 h  n# \- w/ I
    4 t+ B4 G+ ?  D+ D8 I
    0 E* V/ P# Q  v# h4 F. x

    6 d( u2 X" b5 z4 Y7 J. L( P. v#leakyRelu在tennsorflow中的简单实现1 Y0 u: Q+ n8 F
    tf.maximum(leak * x, x),; B7 s/ w0 ?. s! P8 F
    ; J  H3 N& G: t3 D
    : P: b1 S2 T  |0 O' r% c
    比较高效的写法为:
    * n2 N+ ~' O# X  p" h  i6 G5 Q) O, s
    import tensorflow as tf
    % ~1 ]" g% m' ndef LeakyReLU(x,leak=0.2,name="LeakyReLU"):- y! @4 A4 |  O' R% U7 K
        with tf.variable_scope(name):, u  v# ~$ c* {. S
            f1 = 0.5*(1 + leak)
    , `$ V7 [# Z, D$ w8 Q9 N8 k        f2 = 0.5*(1 - leak)
    ! u% k; A6 A* g0 s2 w        return f1*x+f2*tf.abs(x): K' j, Q# V- ^! k4 }; @

    , E# R/ a1 z' M$ T: y, f1 q(vi)  RReLU【随机ReLU】
    1 x$ c$ E) ^. F/ b2 r% q( l
    ) ?( J. ]8 \  d. g, T在训练时使用RReLU作为激活函数,则需要从均匀分布U(I,u)中随机抽取的一个数值 ,作为负值的斜率。
    0 F% [& E$ B6 w" x: e7 u" S7 S* f: i$ a& f% y
    & `. o1 Q! F) U* H

    # w4 g" V  v7 B  ]3 Y总结:    激活函数可以分为 两大类
    " H1 h; [; k& O: ?& x: {
    " k( w, `7 G$ Y饱和激活函数: sigmoid、 tanh4 v9 k! A1 |, B* l- R
    非饱和激活函数: ReLU 、Leaky Relu   、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】
    8 r, T3 f% L9 U/ ?# Y8 R
    : ?$ y& F$ _  X9 G# d/ u. V$ j6 o6 C) d" \
    & J' d" P+ c2 }6 ^# J  N4 R" X9 y
    相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点:
    3 \  p5 @$ x# d2 z+ t; x    1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激活函数。
    2 t) \+ q! c, u4 H& c  e    2.其次,它能加快收敛速度。 ; n: j4 ~7 u- }( H; A0 h5 _
    - m9 C9 K: D2 z  G5 ~" f' N) Y
    其它激活函数:softplus、softsign
      `* d. v& W/ @
    6 h+ _# G' r2 S% y% I, K: s# I/ U5 A& I

    1 H6 V  Y/ |$ F7 D) p2 t7 B6 KMatlab 中的激活(传递)函数6 X) |2 L& Z) u0 N& W. n+ H5 O

    * }+ u( Y% `$ ?" d; O! b0 ]' f% M% ^1 ^, r1 F" u  l# ^

    # M& l$ L! o9 z# D; ]; h& f: [; P% P0 D/ w. N

    , N- T) ^0 W" X3 Y1.2  网络结构及工作方式 # y1 Y( p, g; l* e2 r8 m; r, s
    除单元特性外,网络的拓扑结构也是 NN 的一个重要特性。从连接方式看 NN 主要 有两种。
      G5 O; a8 ~  d4 K3 p
    + I6 @5 y- m5 U  b5 \6 S7 f(i)前馈型网络 各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入 单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多 个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第 1 −i 层 输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。; k8 f7 V; o' S9 K; ?
    + n8 N+ D6 I* p( e$ e; B, D
    (ii)反馈型网络 所有结点都是计算单元,同时也可接受输入,并向外界输出。 NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不 变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算 单元状态变化,以达到某种稳定状态。 从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络 按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作 用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解优化问题。
    . b  n5 W6 b3 |, p$ F/ V6 ^. |0 [
    2  蠓虫分类问题与多层前馈网络 9 e! r1 t9 a' g
    2.1  蠓虫分类问题 8 l( X1 J! I' D4 v$ O, k2 `; R
    蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与 Apf)进行鉴别, 依据的资料是触角和翅膀的长度,已经测得了 9 支 Af 和 6 支 Apf 的数据如下:
    ; }1 g" `' f8 p- B" K) d5 X4 b2 e& A& N* H+ O9 k5 L
    Af: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70), (1.48,1.82),(1.54,1.82),(1.56,2.08).9 C+ k  j+ X: _3 E: W

    7 ]2 V7 M8 f: V9 t. vApf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).
    + Z5 }8 h8 y' M
    " D, [8 {5 L7 j  _现在的问题是:
      d2 {- f2 S+ N; J; f+ r; G' r: G2 W. [
    (i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。$ O: R, h5 m6 V% h: ?, P

    $ G: G' F: a5 |(ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的 3 个标本,用所得 到的方法加以识别。
    8 ~$ G# M) k7 f
    ) r% ~! Y% m$ b7 `, S9 I) U  h% `(iii)设 Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。
    8 B% x/ f9 Y0 r) n' v) G% c3 O! x& d9 K% T  y9 w
    如上的问题是有代表性的,它的特点是要求依据已知资料(9 支 Af 的数据和 6 支 Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或 Apf)。今后,我们将 9 支Af 及 6 支 Apf 的数据集合称之为学习样本。
    2 j9 ^/ U3 r3 U3 k% Y2 W9 v1 U' R0 ?! |" s8 p
    2.2  多层前馈网络
    6 P% L3 j* j) _- ~4 R为解决上述问题,考虑一个其结构如下图所示的人工神经网络,
    5 s( \: A% S! a! [$ z; Z2 |4 W2 B1 h
    ; L8 Z5 t$ [* c0 C& a8 C! V, n0 Q0 V7 M$ P* ^& Q# n) Z

    & U8 i- ?* l$ ?! I: u. D% P( h- c1 P
    5 S/ r9 r" f$ I+ S* z使用sigmoid 激活函数:+ C5 k! F9 ?/ W5 H/ t

    ) s8 S  ?4 B  B& J7 u$ W6 Q4 \8 n# J: J3 t8 ~' W: J2 _

    8 a/ q) ^1 f, w* c% S图中下面单元,即由   所示的一层称为输入层,用以输入已知测量值。在 我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。 中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献 进行了讨论,但通过试验来决定,或许是好的途径。在我们的例子中,取三个就足够 了。上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入 数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理 后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入 与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络 结构。有些文献将这样的网络称为两层前馈网络,称为两层的理由是,只有中间层及输 出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层 数之内。; E( h1 d3 O3 }; C/ z

    8 N/ M+ t  a3 W* O7 D( k
    5 ~+ e( q" ?$ s6 |7 \! E# o4 N+ r! O+ y& m$ c
    1 @$ ^. y  H5 Y+ d
    $ X3 o! p9 v2 m' K: [
    2.3  后向传播算法4 \& F$ y1 e# V8 s8 @8 f5 K% ^
    对于一个多层网络,如何求得一组恰当的权值,使网络具有特定的功能,在很长一 段时间内,曾经是使研究工作者感到困难的一个问题,直到 1985 年,美国加州大学的 一个研究小组提出了所谓反向传播算法(Back-Propagation),使问题有了重大进展,这 一算法也是促成人工神经网络研究迅猛发展的一个原因。详细了解请看: 一文弄懂神经网络中的BP反向传播算法
    9 Q" J1 P$ C: w$ N2 `* @% ?6 \. ~/ L' T4 y8 U9 v) R: M
    下面就来介绍这一算法。【注:梯度法又称最速下降法。】# T6 f! q% z# Z* p, z
    9 s* z1 E! I! K0 [5 n. q- H
    3 K5 N$ _2 N: i7 ~4 M, `9 x. {
    , m5 F8 h' ?" H! `$ ]
    1 e- C/ g* E/ E
    7 y& f, c& j! D* {

    4 u4 m- `- m8 Y1 J3 c. x3 T
    0 S2 Z* A" j" x" X' e8 w0 ]: u3 M1 t' }

    * d% w5 R% W* `" [(iii)在如上的讨论中使用的是速下降法,显然,这也不是唯一的选择,其它的 非线性优化方法,诸如共轭梯度法,拟牛顿法等,都可用于计算。为了加速算法的收敛 速度,还可以考虑各种不同的修正方式。( s$ v& t7 a7 b
    3 p/ S- o7 f7 A$ m2 n: ]" Z; i$ n
    (iv)BP 算法的出现,虽然对人工神经网络的发展起了重大推动作用,但是这一 算法仍有很多问题.对于一个大的网络系统,BP 算法的工作量仍然是十分可观的,这 主要在于算法的收敛速度很慢。更为严重的是,此处所讨论的是非线性函数的优化,那 么它就无法逃脱该类问题的共同困难:BP 算法所求得的解,只能保证是依赖于初值选 取的局部极小点。为克服这一缺陷,可以考虑改进方法,例如模拟退火算法,或从多个随机选定的初值点出发,进行多次计算,但这些方法都不可避免地加大了工作量。
    , b. G: ~% [* r. R! z9 z" o
    ( s: U/ F* e; v  L7 }9 F2.4  蠓虫分类问题的求解 ! p/ d5 @7 n  n7 Q. _
    下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写 Matlab 程序 如下:
    6 {  Y9 l* c8 J2 q( ?/ s+ q8 z; a+ Y8 Z, ^$ y# r
    clear + Z% H0 i% C( i& F8 Q" W( ]2 }
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;% O, [5 p1 b+ ?* }
        1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08]; 3 |3 J: n; g/ f
    p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00    ; u8 d, ?- L; x. y9 ?
        1.28,2.00;1.30,1.96]; p=[p1;p2]'; pr=minmax(p); 0 N* j  H2 f) [! n
    goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];
    ' ^; U# v2 v3 n, i( D$ Wplot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o') ( i9 r: L0 |! B
    net=newff(pr,[3,2],{'logsig','logsig'}); + a; D; z: u6 V+ p- }; q1 C
    net.trainParam.show = 10;
    . z( j+ U+ O" E$ wnet.trainParam.lr = 0.05; 7 f7 G1 K8 e- o# g+ g9 T0 n2 P
    net.trainParam.goal = 1e-10; 4 a) F4 z2 A% V% i6 R5 A
    net.trainParam.epochs = 50000;
    , H" v& h1 b$ x/ D% ^net = train(net,p,goal);
    0 y- t( C% o- }- f0 g1 ^# vx=[1.24 1.80;1.28 1.84;1.40 2.04]';
    $ V, }. |( I" N! uy0=sim(net,p)
    ' p4 G  L) \, a1 ky=sim(net,x)
    ' X% s1 o9 Q+ d8 ]0 S7 c( S% [1 f+ I: ]
    4 `+ }. i/ [4 X& T% y' y7 O* x' J4 T

    . Z, X; g+ P5 v1 F3  处理蠓虫分类的另一种网络方法
    : t  N; z6 W; o& _. r) ^3.1 几个有关概念' I$ z5 O! h- S6 ^
    在介绍本节主要内容之前,首先说明几个不同的概念。在上一节中,我们把利用 BP 算法确定联接强度,即权值的过程称为“学习过程”,这种学习的特点是,对任何一 个输入样品,其类别事先是已知的,理想输出也已事先规定,因而从它所产生的实际输 出与理想输出的异同,我们清楚地知道网络判断正确与否,故此把这一类学习称为有监督学习;与它不同的是,有些情况下学习是无监督的,例如,我们试图把一组样品按其本身特点分类,所要划分的类别是事先未知的,需要网络自身通过学习来决定, 因而,在学习过程中,对每一输入所产生的输出也就无所谓对错,对于这样的情况,显 然 BP 算法是不适用的。 另一个有关概念是所谓有竞争的学习。在上节所讨论的蠓虫分类网络中,尽管我们 所希望的理想输出是 (0,1)或(1,0),但实际输出并不如此,一般而言,两个输出单元均同时不为 0。与此不同,我们完全可以设想另外一种输出模式:对应任何一组输入,所 有输出单元中,只允许有一个处于激发态,即取值为 1,其它输出单元均被抑制,即取 值为 0。一种形象的说法是,对应任何一组输入,要求所有的输出单元彼此竞争,唯一 的胜利者赢得一切,失败者一无所获,形成这样一种输出机制的网络学习过程,称为有 竞争的学习。
    + `- H, O2 M  A' V
    4 W# B7 ~, U) Z+ W3.2  简单的无监督有竞争的学习
    0 h" R  ]4 V7 Q. H9 g$ G" x) {$ q; {( K+ H/ M" G
    本节叙述一种无监督有竞争的网络学习方法,由此产生的网络可用来将一组输入样 品自动划分类别,相似的样品归于同一类别,因而激发同一输出单元,这一分类方式, 是网络自身通过学习,从输入数据的关系中得出的。 蠓虫分类问题对应有监督的网络学习过程,显然不能由如上的方法来解决。但在这 种无监督有竞争的学习阐明之后,很容易从中导出一种适用于有监督情况的网络方法; 此外,本节所介绍的网络,在数据压缩等多种领域,都有其重要应用。
    . F$ i1 `9 U- {% Y6 Z0 @% o6 X) e& e1 K

    0 a, Q; L" u  k3 ?# C
    + B7 T: w; c* ^. `6 V
    $ k& v, [( c1 W+ r
    / M5 h- f& D3 n* ^
    - a8 ^% m3 B* A* K! I; i; k! G1 c6 X- v1 r+ k5 J9 x
    为了更有效地使用如上算法,下面对实际计算时可能产生的问题,作一些简要说明。
    ; a* |) C  M# h' ?4 K/ \( i3 z$ {5 o+ g  _! V
    首先,如果初始权选择不当,那么可能出现这样的输出单元,它的权远离任何输入 向量,因此,永远不会成为优胜者,相应的权也就永远不会得到修正,这样的单元称之 为死单元。为避免出现死单元,可以有多种方法。一种办法是初始权从学习样本中抽样 选取,这就保证了它们都落在正确范围内;另一种办法是修正上述的学习算法,使得每 一步不仅调整优胜者的权,同时也以一个小得多的 η 值,修正所有其它的权。这样,对 于总是失败的单元,其权逐渐地朝着平均输入方向运动,终也会在某一次竞争中取胜。 此外,还存在有多种处理死单元的方法,感兴趣的读者可从文献中找到更多的方法。 . B& s9 l& @4 ~0 Q/ \
    . w+ ?1 x' ?+ D1 k
    : M; d% }8 ]6 a& Z9 X' @. I7 v8 u
    3 k4 U' E6 {7 w4 `1 t

    / x! T5 C! w& I. U" V* |1 x" ^
      g' l' k. X% s( X5 N3.3  LVQ 方法 --学习矢量量化
    8 H. ^/ p, m7 N" s. v- C
    ) q5 K# S7 Y- Y1 z, c0 h上述有竞争学习的一个重要应用是数据压缩中的向量量子化方法(Vector Quantization,又称,学习矢量量化)。它的基本想法是,把一个给定的输入向量集合   分成M 个类别,然后 用类别指标来代表所有属于该类的向量。向量分量通常取连续值,一旦一组适当的类别确定之后,代替传输或存储输入向量本身,可以只传输或存储它的类别指标。所有的类别由M 个所谓“原型向量”来表示,我们可以利用一般的欧氏距离,对每一个输入向量找到靠近的原型向量,作为它的类别。显然,这种分类方法可以通过有竞争的学习直接得到。一旦学习过程结束,所有权向量的集合,便构成了一个“电码本”。0 E& c+ u" D; a& C3 }6 C

    3 r) a, t; ~9 }8 n一般而言,上述无监督有竞争的学习,实际提供了一种聚类分析方法,对如蠓虫分类这种有监督的问题并不适用。1989 年,Kohonen 对向量量子化方法加以修改,提出 了一种适用于有监督情况的学习方法,称为学习向量量子化(Learning Vector Quantization),该方法可用于蠓虫分类问题。在有监督的情况下,学习样品的类别是事 先已知的,与此相应,每个输出单元所对应的类别也事先作了规定,但是,代表同一类 别的输出单元可以不止一个。
    9 F6 B, i0 ]6 J) l+ w( L) {7 V9 @8 l, r# L
    & P! w0 B- ~; y
    * V0 B; u+ v: c7 e
    前一种情况,修正和无监督的学习一致,权朝向样本方向移动一小段距离;后一种 则相反,权向离开样本方向移动,这样就减少了错误分类的机会。 对于上述的蠓虫分类问题,我们编写 Matlab 程序如下:
    * l6 i! h6 m! a" B1 J5 Pclear
    $ K: i) ?) a7 y; ^( N+ Xp1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;" V6 _3 g! R$ F) P+ L5 D( M; c
        1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08]; 1 k' F: H! }6 t1 r0 Q; G4 {1 K1 h
    p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00  2 p3 Y! r2 V# s/ S
        1.28,2.00;1.30,1.96];
    # b: S$ u- ]7 U4 H6 Q5 J4 Q9 hp=[p1;p2]' " E& c' I1 `- I  o8 e+ f$ b
    pr=minmax(p) + Z+ b$ v$ \0 J& N
    goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)]   M6 Z% d% j0 f2 o0 ]2 ?" z/ }
    net = newlvq(pr,4,[0.6,0.4])
    ' O0 I# Z+ }% D+ C( `- x6 dnet = train(net,p,goal) ) t% G; I: E% a: P' G
    Y = sim(net,p)
    5 H$ i, s. q) D- P; Mx=[1.24 1.80;1.28 1.84;1.40 2.04]' 1 o- k9 A5 D7 V8 o' _) o/ m1 b
    sim(net,x)
    . `, p5 z; F. N7 h0 l# Z
    & g5 K  b/ y2 R0 a( E习 题 / U- H2 K. v+ k3 w" G6 T1 L; `$ F
    1. 利用 BP 算法及 sigmoid 函数,研究以下各函数的逼近问题
    ( L% F8 g, _6 ?/ D; a" v) `
    ) L' n7 @5 V! [2 w( R
    ( A9 s" Z% M" y# K0 ]3 r- Y3 U' |; o6 [7 R- K' s. q
    对每一函数要完成如下工作:
    3 _5 i* u' S) W! A; L5 a1 Z# {
    3 g6 g) \. b0 y- m8 J① 获取两组数据,一组作为训练集,一组作为测试集;7 b" Z: Y# ~  I7 l/ Y

    1 W/ b1 k$ I( w+ V/ ~7 C; e. {6 D② 利用训练集训练一个单隐层的网络;用测试集检验训练结果,改变隐层单元数, 研究它对逼近效果的影响。 ! p2 q& {; k) X4 C, r- C7 |

    ! [) Z) M, t4 B- S( `2. 给定待拟合的曲线形式为4 P0 Z, d. i$ u0 H

    1 Y" L) b: z$ u3 \  @" t  r $ O* h' O& X4 H8 e  J! j

    " Z/ i) q# W; o1 e" ~3 V) O- C0 N在  上等间隔取 11 个点的数据,在此数据的输出值上加均值为 0,均方差  σ = 0.05 的正态分布噪声作为给定训练数据,用多项式拟合此函数,分别取多项式的阶次为 1, 3 和 11 阶,图示出拟合结果,并讨论多项式阶次对拟合结果的影响。9 \9 K8 n7 S9 V) }/ H: g* C8 G; q
    " V# V8 B7 F, h$ I9 `9 i
    2 S) P0 m3 L7 \5 |
    4 n: }% t% Q' d* W% N

    % D1 Y3 T7 H( c1 f" n; r$ l% n4 J; |+ }% z: ]% I

    ' t( t. o0 y- G" f' `————————————————
    / T6 d4 `+ P3 b0 L版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    ) M' ^* c7 z0 C4 F- L5 y  ^& u原文链接:https://blog.csdn.net/qq_29831163/article/details/89509279
    3 X0 X6 R$ ]- r% \' O6 A( m: y; ?3 Z, \  x: o

    4 @+ T4 B: \2 ^! a0 j
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-13 06:49 , Processed in 0.901847 second(s), 51 queries .

    回顶部