QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2532|回复: 0
打印 上一主题 下一主题

[建模教程] 神经网络模型用于数学建模

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2020-6-4 11:24 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    人工神经网络是在现代神经科学的基础上提出和发展起来的,旨在反映人脑结构及 功能的一种抽象数学模型。自 1943 年美国心理学家 W. McCulloch 和数学家 W. Pitts 提 出形式神经元的抽象数学模型—MP 模型以来,人工神经网络理论技术经过了 50 多年 曲折的发展。特别是 20 世纪 80 年代,人工神经网络的研究取得了重大进展,有关的理 论和方法已经发展成一门界于物理学、数学、计算机科学和神经生物学之间的交叉学科。 它在模式识别,图像处理,智能控制,组合优化,金融预测与管理,通信,机器人以及 专家系统等领域得到广泛的应用,提出了 40 多种神经网络模型,其中比较著名的有感 知机,Hopfield 网络,Boltzman 机,自适应共振理论及反向传播网络(BP)等。在这 里我们仅讨论基本的网络模型及其学习算法。7 ~# @/ I' b- r4 z5 ~% w  j  o
    2 I! m) h. `% u1 ?0 n8 s
    1.1  人工神经元结构
    ; S3 B$ x! S% S- Y( P下图表示出了作为人工神经网络(artificial neural network,以下简称 NN)的基本 单元的神经元模型,它有三个基本要素:
    + c/ {# e1 N2 U8 U9 j5 j
    0 L+ R/ f3 K) ]6 V: g" F$ X! q! \; m, |7 D# Q0 m- h

    0 `; M* ~5 R5 b
    : V. n" K' i$ g/ P. g& l# h0 P& z9 W0 ^/ H! k9 U+ }
    5 E- z9 k  L( d+ k

    4 p. l7 c; N0 i4 i( \6 ]9 `. Z4 L

    7 |) q1 \6 W9 Z2 \, b) w& z( }5 u激活函数  ϕ(⋅ )
    ' I% {- |4 s: J+ }可以有以下几种: . m5 c. R+ N. x' G& y. Z9 M+ M+ r
    . j  R# r" C  \  W! V
    (0)Softmax - 用于多分类神经网络输出
    0 I9 ?! ]4 {6 m) F2 ^' j. {$ M$ B5 K% @* X, i1 t+ q
    0 E& \$ L/ c' m/ q
    * k& H+ }1 \, P9 F2 {* n
    (1)阈值函数 、阶梯函数7 [4 u1 a1 S" r- r5 o9 C5 A
    4 D& ^) H1 l$ t! r8 a! V+ z1 ~
    * v$ d6 h# G! z9 w* [( h  d+ _4 t
    9 R! _. O* K, M# F+ S3 X4 s' D6 e
    相应的输出   为
    7 F2 i+ |! C2 n& q. C
    0 q3 e% u- G4 H9 K5 ]& s/ H6 n- ?) e8 ~% S+ m3 P/ G8 g

    ; W, @; R0 `6 Y. r6 e(2)分段线性函数
    ! f3 e9 j  |# }. K
    6 ~, z$ Z5 A* M! W( R, O
    , t9 ^7 L) c2 e" H# R' v* Z: E  D1 {; K7 f; i
    它类似于一个放大系数为 1 的非线性放大器,当工作于线性区时它是一个线性组合器, 放大系数趋于无穷大时变成一个阈值单元。
    $ z, r6 x7 q1 I3 x! B# b0 g4 u3 t. t/ W" b/ \6 j+ f* `4 K  S' m1 Y: M
    (3)sigmoid 函数 (以前最常用)
    4 s$ X( o% H, i0 k- x- o
    9 H6 I/ x3 M% f5 g. F
    1 x2 @# _2 h5 {: y% `: [& d, A. r; f" z
    参数  α  > 0 可控制其斜率。 sigmoid 将一个实值输入压缩至[0,1]的范围,也可用于二分类的输出层。
    ( w4 z* m! ]7 A
    * c& ]- d* ^( e3 _5 F* q  ^8 d(4)tanh  (双曲正切函数 ;Hyperbolic tangent function)
    - s5 I% V7 u/ N" f
    % r3 E7 ~9 U2 \! T: h, p* D2 ]% ?; ]3 n' A+ C$ g

    . J0 M: c* n- p 将 一个实值输入压缩至 [-1, 1]的范围,这类函数具有平滑和渐近性,并保持单调性.
    9 v  k- @" h: ^
    ) q) m# s2 o& K& f/ d4 B, B, h. N$ v+ T
    ! ]9 V  m& r; P+ K4 \+ r( e. e
    (5)  relu (Rectified linear unit; 修正线性单元 ; 深度学习目前最常用的激活函数)# w" h. v3 u, P9 z5 S1 u

    8 ^2 \. f. f# a' x9 a- D2 E
    3 p8 H7 T7 ^) z6 \* c* z" o0 X$ h' M( `9 L) c
    ( P' v. z& c* F0 f
    # Relu在tensorflow中的实现: 直接调用函数 2 ?* b/ Z; I9 z% E5 B2 l+ j( C
    tf.nn.relu( features, name= None )8 x+ {/ [3 f" f* Y" _

    1 e  Z3 M/ ~! U8 Z, V与Sigmoid/tanh函数相比,ReLu激活函数的优点是:  X' U8 u* A0 A$ y2 g4 K

    ' G% r5 [+ U  X( t 使用梯度下降(GD)法时,收敛速度更快  
    4 G, h4 @* X$ g1 T相比Relu只需要一个门限值,即可以得到激活值,计算速度更快  
    . G( t" A7 Z/ l7 a8 k- E2 o 缺点是:  Relu的输入值为负的时候,输出始终为0,其一阶导数也始终为0,这样会导致神经元不能更新参数,也就是神经元不学习了,这种现象叫做“Dead Neuron”。
    " \" i- B0 m6 L3 P- y3 q/ S  Z9 F4 X8 E7 U/ |
    为了解决Relu函数这个缺点,在Relu函数的负半区间引入一个泄露(Leaky)值,所以称为Leaky Relu函数。
    % p8 R2 ]& j  s: t& B3 t; ^" e. h9 T% c! e$ }" v9 I1 w: o
    (6)Leaky Relu  (带泄漏单元的relu )! c) ?, w5 Y+ @# L

    9 o- Q; p/ P( v2 t# l2 S4 f           数学表达式: y = max(0, x) + leak*min(0,x) 4 i3 ~$ b8 L6 I/ C3 |

    , ~  @& B# R2 G; @: @; j% X6 X与 ReLu 相比 ,leak 给所有负值赋予一个非零斜率,  leak是一个很小的常数  ,这样保留了一些负轴的值,使得负轴的信息不会全部丢失)
    & [' V! W8 Z# v% y+ w: |
    8 b0 |# Z4 z- A9 S
    / W2 d: e$ G- h9 ^0 Z2 v% |7 [leaky ReLU
    ; ~& f! ?; F: z, a6 S1 [: r( C
    5 a/ C. S/ i0 N3 Q1 K; h2 H$ S  B" q5 T( X3 H" U# S+ `5 k$ y' H
    2 W: J& i, F' [% V6 H$ s

    5 }; ~1 O7 f: v+ ~5 h' r#leakyRelu在tennsorflow中的简单实现
    % ^" z1 i6 d! V- O7 S/ m5 o tf.maximum(leak * x, x),
    6 T6 x+ S9 R0 L
    & P3 U/ @7 E' f/ D. C. K& x5 o' U  x& I/ B& E# ^/ k  S: u0 U7 g
    比较高效的写法为:7 c+ M7 I9 Q  |; N. O) F! g
    6 Z) y1 o/ }" g; {: z
    import tensorflow as tf
    1 Z2 o6 B; P- Hdef LeakyReLU(x,leak=0.2,name="LeakyReLU"):
    % Z! E0 z5 ?. T" A& q' m3 \4 G: j    with tf.variable_scope(name):; s5 k2 W) g- y. G; ~; u
            f1 = 0.5*(1 + leak)
    2 @: W) q) u% s' i% K& O% j        f2 = 0.5*(1 - leak)
    6 f) l2 ~# k/ u  r- o. L        return f1*x+f2*tf.abs(x)- z4 U. i9 S6 \1 }
    & X9 j: O* h; {0 `8 ^2 J
    (vi)  RReLU【随机ReLU】
    ! U3 M% T: @; Y4 ^  ^9 ^# a7 D8 u. \* q# |! v* |( z: c9 J  z% Y
    在训练时使用RReLU作为激活函数,则需要从均匀分布U(I,u)中随机抽取的一个数值 ,作为负值的斜率。
    / \6 v" ]  U& e. q/ E4 g; \" I+ g4 }2 `1 u
    $ Y. _9 v5 b6 v9 o/ `- p: X4 T: b

    : k; o& P3 t+ t" r0 O总结:    激活函数可以分为 两大类 $ h# b+ V& [6 H( N% K: q$ l4 \+ ~) f
    $ b$ S9 t1 d7 R+ g/ T( ~1 D' }+ x
    饱和激活函数: sigmoid、 tanh" V' J$ Z+ i3 ^+ q( r; f" Q
    非饱和激活函数: ReLU 、Leaky Relu   、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】; U$ Q! R( T- ?# E( G6 ]' V

    - M1 m& V) n  D  h# D  h6 `% H1 i2 C" u  W% L# \! Z+ L3 P6 W
    ; `: k: m7 Y2 \
    相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点:
    % O! c5 n; s9 a, X) P# P; k    1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激活函数。
    + x6 z( z! J& G9 }    2.其次,它能加快收敛速度。 1 S3 P) Y* F  r

    ' ^: b4 q7 _! I其它激活函数:softplus、softsign5 L2 O9 I" {* @0 \
    2 f* N* q( W! \/ s  b
    " [; o' ~# [" c
    6 H8 F3 I) P% q4 b7 f" h0 }: w
    Matlab 中的激活(传递)函数
    & n  Y: k0 K3 Z3 k- ?7 z, F
    / \  h, N1 o! S; B5 B. J
    " U: d/ e' \3 E, k
    2 b  t- n! V8 U3 R2 K1 ~+ J* v/ g  G

    ( ]+ d/ u; M% p5 w  V9 s1.2  网络结构及工作方式 / K2 s4 J- G' Z9 D. ~
    除单元特性外,网络的拓扑结构也是 NN 的一个重要特性。从连接方式看 NN 主要 有两种。
    ) Z" ^; E0 s9 P
    3 ?- m; ?5 a8 X1 B4 F9 x(i)前馈型网络 各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入 单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多 个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第 1 −i 层 输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。9 X5 q6 J0 `0 K
    ( A; J& e3 H" d" K9 A* i2 J
    (ii)反馈型网络 所有结点都是计算单元,同时也可接受输入,并向外界输出。 NN 的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不 变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算 单元状态变化,以达到某种稳定状态。 从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络 按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作 用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解优化问题。 ; I, o( i5 B3 ~6 m/ G2 J
    ( T; r" V# _* K& m
    2  蠓虫分类问题与多层前馈网络 1 S3 E" l; Z5 C+ s% r: }9 }, ?' a
    2.1  蠓虫分类问题
    % B0 ?) W6 Q4 M! V& w蠓虫分类问题可概括叙述如下:生物学家试图对两种蠓虫(Af 与 Apf)进行鉴别, 依据的资料是触角和翅膀的长度,已经测得了 9 支 Af 和 6 支 Apf 的数据如下:
    & f3 n8 B6 K, Y2 n  h. _" j  v
    " c) g  P! t1 `9 H1 vAf: (1.24,1.27),(1.36,1.74),(1.38,1.64),(1.38,1.82),(1.38,1.90),(1.40,1.70), (1.48,1.82),(1.54,1.82),(1.56,2.08).* {7 b2 W2 r% `- I* X
    ) f3 u! a: q7 |
    Apf: (1.14,1.82),(1.18,1.96),(1.20,1.86),(1.26,2.00),(1.28,2.00),(1.30,1.96).6 b( v3 U" @1 t, z$ U
    " w# a1 u$ j+ M0 I' F- u
    现在的问题是:
    $ ?8 O* a- p/ j) d* n* {7 `+ s8 F, C4 g: v4 m
    (i)根据如上资料,如何制定一种方法,正确地区分两类蠓虫。+ ^7 Z9 `, Q+ f/ ]# g( |1 q4 a
    4 b) x/ k& g6 z# s. ?7 m6 m
    (ii)对触角和翼长分别为(1.24,1.80),(1.28,1.84)与(1.40,2.04)的 3 个标本,用所得 到的方法加以识别。
    + I  N7 ~" O( q3 x( r) D/ z0 ~( J2 e: V) }; K! s, a
    (iii)设 Af 是宝贵的传粉益虫,Apf 是某疾病的载体,是否应该修改分类方法。
    / Y. i) v/ S% N% r5 R
      F; m7 @, Y( l' Z- }如上的问题是有代表性的,它的特点是要求依据已知资料(9 支 Af 的数据和 6 支 Apf 的数据)制定一种分类方法,类别是已经给定的(Af 或 Apf)。今后,我们将 9 支Af 及 6 支 Apf 的数据集合称之为学习样本。
    & Z; \9 R0 w6 t2 Z1 J6 ?! y- S
    $ o0 }( `3 D8 J# B! B( P1 C2.2  多层前馈网络
    8 H2 p: r' H7 W  p为解决上述问题,考虑一个其结构如下图所示的人工神经网络,0 A1 {9 {4 K( H$ i4 [7 a

    - L% c6 h, ]% A( Y0 t
    - J) O# k* v& }+ r1 X0 u; |$ }6 r. \0 g
    ( I* K8 Q2 p+ v) }) l8 X% V9 S8 r
    使用sigmoid 激活函数:
    & O* B' N1 x1 [+ p
    % y" v! Z) q' B0 X/ X4 n4 `" S
    " z+ q7 f% w+ a6 A! K+ k8 }2 ~+ r0 K- P! P
    图中下面单元,即由   所示的一层称为输入层,用以输入已知测量值。在 我们的例子中,它只需包括两个单元,一个用以输入触角长度,一个用以输入翅膀长度。 中间一层称为处理层或隐单元层,单元个数适当选取,对于它的选取方法,有一些文献 进行了讨论,但通过试验来决定,或许是好的途径。在我们的例子中,取三个就足够 了。上面一层称为输出层,在我们的例子中只包含二个单元,用以输出与每一组输入 数据相对应的分类信息.任何一个中间层单元接受所有输入单元传来的信号,并把处理 后的结果传向每一个输出单元,供输出层再次加工,同层的神经元彼此不相联接,输入 与输出单元之间也没有直接联接。这样,除了神经元的形式定义外,我们又给出了网络 结构。有些文献将这样的网络称为两层前馈网络,称为两层的理由是,只有中间层及输 出层的单元才对信号进行处理;输入层的单元对输入数据没有任何加工,故不计算在层 数之内。
    ; T' Q5 Y3 w& r+ ^7 [% b! ?  L" ^9 S+ L, [( }
    9 ~' I( H% C2 h, `7 n: d
    1 O' `# j, s& }( R

    # \0 i* ?: P9 t6 R# k+ [7 s& Y# |7 {( Z  h0 M. d
    2.3  后向传播算法
    5 j# |# l* W* z, [: N# c) \对于一个多层网络,如何求得一组恰当的权值,使网络具有特定的功能,在很长一 段时间内,曾经是使研究工作者感到困难的一个问题,直到 1985 年,美国加州大学的 一个研究小组提出了所谓反向传播算法(Back-Propagation),使问题有了重大进展,这 一算法也是促成人工神经网络研究迅猛发展的一个原因。详细了解请看: 一文弄懂神经网络中的BP反向传播算法, A1 R! w: l2 W2 Q
    9 [+ p& h) c' e5 g( ?% a
    下面就来介绍这一算法。【注:梯度法又称最速下降法。】) ^* o0 R% Q# }. f+ j6 b- }# b
    ; x* Y' I+ K/ V, V, o: j/ F% W

    3 Z- A9 s2 a& d0 y) J% s
    0 a5 P9 `5 t" }& ]& S; ^3 b/ j- s) `7 T3 C  C

    , t7 j9 r- J) H8 w5 t7 Q3 F& f$ _6 x2 c; y

    % j0 W; F1 F  N9 d
    6 B; K& g3 X  G3 x# U
    % H8 E' j+ H8 `  \8 L% c(iii)在如上的讨论中使用的是速下降法,显然,这也不是唯一的选择,其它的 非线性优化方法,诸如共轭梯度法,拟牛顿法等,都可用于计算。为了加速算法的收敛 速度,还可以考虑各种不同的修正方式。& ?7 k: N- Q, ?% G. J  H

    ) L+ X$ C" X  J3 N; f(iv)BP 算法的出现,虽然对人工神经网络的发展起了重大推动作用,但是这一 算法仍有很多问题.对于一个大的网络系统,BP 算法的工作量仍然是十分可观的,这 主要在于算法的收敛速度很慢。更为严重的是,此处所讨论的是非线性函数的优化,那 么它就无法逃脱该类问题的共同困难:BP 算法所求得的解,只能保证是依赖于初值选 取的局部极小点。为克服这一缺陷,可以考虑改进方法,例如模拟退火算法,或从多个随机选定的初值点出发,进行多次计算,但这些方法都不可避免地加大了工作量。 . Z$ i4 L5 Y) C9 y: I
    , u7 P5 ~; U& H! y( d
    2.4  蠓虫分类问题的求解 . B# [6 ^' b1 R$ K# L3 i
    下面利用上文所叙述的网络结构及方法,对蠓虫分类问题求解。编写 Matlab 程序 如下:$ E4 C0 @$ |$ o  b1 L8 N

    & U+ t8 Q4 f0 U6 V3 Rclear 0 b3 b* a4 I/ U
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;) ?: }6 E- N/ ^! w
        1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];
    2 D) A% c- ~3 R9 i6 t# M& t. ^" {& r* }p2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00   
    ( s1 x6 ?6 t3 D, H    1.28,2.00;1.30,1.96]; p=[p1;p2]'; pr=minmax(p); ! n) C2 f2 W3 Y3 u
    goal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)];
    2 c4 F' s* c3 y% i+ \4 u$ Wplot(p1(:,1),p1(:,2),'h',p2(:,1),p2(:,2),'o')
    . H( \7 P% Z3 w0 G, V, Vnet=newff(pr,[3,2],{'logsig','logsig'});
    7 G, s3 l  t9 A7 D' ynet.trainParam.show = 10; + D* Z/ F$ N, F
    net.trainParam.lr = 0.05; 2 u$ w+ X* p* ]. ]& r8 l+ c) l
    net.trainParam.goal = 1e-10; " |' l( W6 I0 [2 r$ U9 \
    net.trainParam.epochs = 50000;
    $ s% K% d9 v3 M3 X* @net = train(net,p,goal);
    ' W; f7 l- {0 |2 Bx=[1.24 1.80;1.28 1.84;1.40 2.04]'; ) e" T6 k  [- p, I; j! V- C
    y0=sim(net,p)6 l8 }; l# c4 q3 _8 X& N
    y=sim(net,x)
    - ]6 b' f: M) j# f6 f+ R% W! n+ u
    5 X, J; x% V  q7 K0 v8 z; v# [: _: G5 H( d8 q4 `2 N% F4 g
    ) ^/ z- L2 L9 c: H% X
    3  处理蠓虫分类的另一种网络方法
    ' ~3 @) s9 b2 l/ I3.1 几个有关概念
    * s8 v' L% e$ R" _4 U3 @" M在介绍本节主要内容之前,首先说明几个不同的概念。在上一节中,我们把利用 BP 算法确定联接强度,即权值的过程称为“学习过程”,这种学习的特点是,对任何一 个输入样品,其类别事先是已知的,理想输出也已事先规定,因而从它所产生的实际输 出与理想输出的异同,我们清楚地知道网络判断正确与否,故此把这一类学习称为有监督学习;与它不同的是,有些情况下学习是无监督的,例如,我们试图把一组样品按其本身特点分类,所要划分的类别是事先未知的,需要网络自身通过学习来决定, 因而,在学习过程中,对每一输入所产生的输出也就无所谓对错,对于这样的情况,显 然 BP 算法是不适用的。 另一个有关概念是所谓有竞争的学习。在上节所讨论的蠓虫分类网络中,尽管我们 所希望的理想输出是 (0,1)或(1,0),但实际输出并不如此,一般而言,两个输出单元均同时不为 0。与此不同,我们完全可以设想另外一种输出模式:对应任何一组输入,所 有输出单元中,只允许有一个处于激发态,即取值为 1,其它输出单元均被抑制,即取 值为 0。一种形象的说法是,对应任何一组输入,要求所有的输出单元彼此竞争,唯一 的胜利者赢得一切,失败者一无所获,形成这样一种输出机制的网络学习过程,称为有 竞争的学习。( S# U0 x0 N3 H* e. f6 o/ n( ~

    - f' @8 O& }1 D3.2  简单的无监督有竞争的学习. n. [! J5 `  O
    7 P9 _: H# _9 U# t1 h1 y
    本节叙述一种无监督有竞争的网络学习方法,由此产生的网络可用来将一组输入样 品自动划分类别,相似的样品归于同一类别,因而激发同一输出单元,这一分类方式, 是网络自身通过学习,从输入数据的关系中得出的。 蠓虫分类问题对应有监督的网络学习过程,显然不能由如上的方法来解决。但在这 种无监督有竞争的学习阐明之后,很容易从中导出一种适用于有监督情况的网络方法; 此外,本节所介绍的网络,在数据压缩等多种领域,都有其重要应用。
      U- k: F& W# Y' s; U1 e( c; K( N6 ]; G" ?1 f" a

    + l' h7 n9 E4 ~+ s( o/ d2 |0 d
    ' b! |) }9 u1 _$ }5 C7 V* I: i. J  u% H4 h
    3 ~7 s. |  s. G( ]

    ) x3 O. q. Q& W( {& Q8 n$ S
    2 [. i  h( H5 d为了更有效地使用如上算法,下面对实际计算时可能产生的问题,作一些简要说明。
    6 X$ u* S' W  E% X5 ^1 n% _% F1 v; {8 i6 |/ U4 e
    首先,如果初始权选择不当,那么可能出现这样的输出单元,它的权远离任何输入 向量,因此,永远不会成为优胜者,相应的权也就永远不会得到修正,这样的单元称之 为死单元。为避免出现死单元,可以有多种方法。一种办法是初始权从学习样本中抽样 选取,这就保证了它们都落在正确范围内;另一种办法是修正上述的学习算法,使得每 一步不仅调整优胜者的权,同时也以一个小得多的 η 值,修正所有其它的权。这样,对 于总是失败的单元,其权逐渐地朝着平均输入方向运动,终也会在某一次竞争中取胜。 此外,还存在有多种处理死单元的方法,感兴趣的读者可从文献中找到更多的方法。
    / e# i! q) v- Z5 V9 }
    , A6 H5 `0 C1 D. v$ b7 M& j1 O+ g- \. i! ^

    7 y5 D" F& V+ a) C% r/ d( U$ q3 C" v* m  m6 P. x

    % x! l5 n; R0 D# G' J3 i3.3  LVQ 方法 --学习矢量量化
    0 ^+ F4 {! R- i. y1 c
    % Q) W4 s' j; D- K: A上述有竞争学习的一个重要应用是数据压缩中的向量量子化方法(Vector Quantization,又称,学习矢量量化)。它的基本想法是,把一个给定的输入向量集合   分成M 个类别,然后 用类别指标来代表所有属于该类的向量。向量分量通常取连续值,一旦一组适当的类别确定之后,代替传输或存储输入向量本身,可以只传输或存储它的类别指标。所有的类别由M 个所谓“原型向量”来表示,我们可以利用一般的欧氏距离,对每一个输入向量找到靠近的原型向量,作为它的类别。显然,这种分类方法可以通过有竞争的学习直接得到。一旦学习过程结束,所有权向量的集合,便构成了一个“电码本”。: [: E' ~" g6 Y! G1 W4 w

    & j: J2 g0 F0 e: [/ u$ o一般而言,上述无监督有竞争的学习,实际提供了一种聚类分析方法,对如蠓虫分类这种有监督的问题并不适用。1989 年,Kohonen 对向量量子化方法加以修改,提出 了一种适用于有监督情况的学习方法,称为学习向量量子化(Learning Vector Quantization),该方法可用于蠓虫分类问题。在有监督的情况下,学习样品的类别是事 先已知的,与此相应,每个输出单元所对应的类别也事先作了规定,但是,代表同一类 别的输出单元可以不止一个。 3 H' ~# `5 R1 G  U6 a

    4 `! P" U5 _3 j& o; A$ @9 S3 s; x; S* o

    . |: m$ b9 f8 l0 K0 Z前一种情况,修正和无监督的学习一致,权朝向样本方向移动一小段距离;后一种 则相反,权向离开样本方向移动,这样就减少了错误分类的机会。 对于上述的蠓虫分类问题,我们编写 Matlab 程序如下: / ]$ Q( P7 U) q  M/ Z0 g
    clear , a# L, d7 N/ X
    p1=[1.24,1.27;1.36,1.74;1.38,1.64;1.38,1.82;1.38,1.90;
    - X3 ^; h$ X7 i3 F6 p1 z+ U; r2 Z    1.40,1.70;1.48,1.82;1.54,1.82;1.56,2.08];
      \, x3 ]4 _; Mp2=[1.14,1.82;1.18,1.96;1.20,1.86;1.26,2.00  , X: J  k, n# y, q
        1.28,2.00;1.30,1.96]; & G: V+ A4 _' B; C$ l
    p=[p1;p2]'
    ( i2 c0 `4 L' ]2 s9 Fpr=minmax(p)
    4 y' E( _5 h$ P6 q! wgoal=[ones(1,9),zeros(1,6);zeros(1,9),ones(1,6)] - S; j+ [# {, Q
    net = newlvq(pr,4,[0.6,0.4]) 3 t  B* l4 F1 n' b
    net = train(net,p,goal)
    9 f) b% ?  Z" u5 n# ZY = sim(net,p)
    , h- y$ C9 R* c( g2 Z# Y& A- Mx=[1.24 1.80;1.28 1.84;1.40 2.04]' 9 d5 v% V3 h3 x8 `4 @1 d
    sim(net,x)
    2 h5 d2 F$ f7 s' A5 a/ i; C5 I! J0 J3 u9 V9 _' [$ _5 H( ~/ o
    习 题 ( n" d4 N6 D4 G' E- a- i
    1. 利用 BP 算法及 sigmoid 函数,研究以下各函数的逼近问题 7 R9 ^, G# I4 l

    $ q# U) k( M+ K5 J' v, `& e% M" d- }

    1 E: z+ y$ ^; C: h  G对每一函数要完成如下工作:% B8 Y& @/ E4 j5 k" M  t

    7 u. ^9 F8 C$ _; ~9 g# N& ]① 获取两组数据,一组作为训练集,一组作为测试集;, y4 i$ l8 d# ]( e2 F( e9 q

    + k, S& c+ |3 s3 x2 s% l4 r② 利用训练集训练一个单隐层的网络;用测试集检验训练结果,改变隐层单元数, 研究它对逼近效果的影响。 $ D- ]3 E0 z; i0 h8 b& l

    6 A2 `2 g3 I6 U6 x& m2. 给定待拟合的曲线形式为
      a9 I) X- _$ k: w$ s+ @) P3 G# ^$ D2 g) b6 f1 \: j
    $ C/ V8 ~! `8 G3 o* [3 c

    - \6 G4 y" J# v9 K* X* o- S在  上等间隔取 11 个点的数据,在此数据的输出值上加均值为 0,均方差  σ = 0.05 的正态分布噪声作为给定训练数据,用多项式拟合此函数,分别取多项式的阶次为 1, 3 和 11 阶,图示出拟合结果,并讨论多项式阶次对拟合结果的影响。4 y" o/ t  }- r/ H1 c2 x! p
    ' H7 Y7 t3 g4 J  l, c3 P1 c/ {
    " z; n- G4 W' d
    & x; g7 s+ `8 F  D  g

    . t5 I  V2 E+ G: f" q
    : b" C) ~$ o7 m0 L& H
    9 B! z/ D: Z) h# ]" E————————————————
    + g0 G3 v" V" w; r: e7 G( L/ v7 j版权声明:本文为CSDN博主「wamg潇潇」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    4 ~$ k/ v+ u6 |/ V" z4 N8 g8 ^原文链接:https://blog.csdn.net/qq_29831163/article/details/89509279" G! r# Y, B9 E8 C; q

      x( ~5 Y/ c0 C& \8 I. M
    5 g& r3 H- W& G- t3 P
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-13 05:02 , Processed in 1.080375 second(s), 51 queries .

    回顶部