1 Z4 l- g5 \. I7 i2 y/ | 大概建模一年多了吧,准备趁着这个暑假,把建模的东西整理一下,留个笔记和纪念,万一哪天不会了还能翻翻笔记。众所周知,建模这东西入门不难,网上各种教程一大把一大把,人家写的也很专业,我写的东西基本登不了大雅之堂,跟人家没法比就写点下里巴人的东西吧。* h' S' U/ t! [5 E, t4 K
6 [! P8 m' V0 x1 W
1.1.概念引入 6 y- V: l! o9 k2 g. n0 i $ [* F+ t2 J# S; W. ?! D2 o! E 1.11.1 图像处理中的卷积运算。看个图生动形象的理解一下下: ' ^" W5 B: Z- C) a v
4 s1 Y9 N9 ?* \% ]0 y) O' F6 V4 z
0 H# }8 A ]: X 在设置好矩阵之后,又该如何运算呢,来,看下面的动图。矩阵对应相乘相加得到卷积的结果。比如,对于左上角的元素4而言,它的运算方式就是:1×1+0×1+1×1+0×0+1×1+0×1+1×0+0×0+1×1=41×1+0×1+1×1+0×0+1×1+0×1+1×0+0×0+1×1=4 7 Z. E! g5 t! F4 ? 1 n7 Z7 ~" G; s+ {% R; [ i( x) t 1.21.2 填充padding。上面的操作看着貌似很好,但是有没有缺陷呢?当然有,第一个问题,5×55×5的矩阵和3×33×3的矩阵的卷积结果会得到3×33×3的输出矩阵,也就是原始图像在提取特征的过程中被缩小了,一直卷积的话图像会被一直缩小到一个像素,显然不是想要的结果;第二个问题,原始图像左上角的像素只参与一次运算,而他右边的像素参与了两次运算,是不是不公平?是的。那么如何解决这两个问题呢? , }7 P. V$ P/ g! F- U- K 8 F( ~& M- ]+ a8 m; s 不失一般性,设原始图像为n×nn×n的矩阵,卷积核为f×ff×f的矩阵,那么输出结果就是(n−f+1)×(n−f+1)(n−f+1)×(n−f+1)的矩阵。言归正传,怎么解决上面的问题呢?答案是填充。在imange矩阵的周围在添加一层像素,使其变成(n+1)×(n+1)(n+1)×(n+1)的矩阵,而填充内容是随意的,如果添加pp层像素,原始图像就会变为(n+2p)×(n+2p)(n+2p)×(n+2p)的矩阵,为了使输出矩阵和原始矩阵的维度相同,就要满足下面的等式:" A3 ~; a0 {% q5 h- V5 u- C
: w5 C' t8 a* e7 t" D4 V l; S
n+2p−f+1=n⇒p=(f−1)/2 . N* h* z8 A" [: mn+2p−f+1=n⇒p=(f−1)/2 & q+ [' q( D, s0 { ~6 ]0 z5 p6 E 1.31.3 卷积步长stride。上面的例子中,卷积的移动步长是1,当移动步长s=2s=2的时候呢,7×77×7和3×33×3的矩阵卷积输出的结果是3×33×3的矩阵(自己脑补,就不画图了),于是又得到一个规律,卷积输出结果的维度是(n+2p−fs+1)×(n+2p−fs+1)(n+2p−fs+1)×(n+2p−fs+1)。% w+ o/ c6 }" F! |7 v! U
( h! c w7 e- `. u" ?/ N: W
1.41.4 卷积步长stride。上面的例子中,卷积的移动步长是1,当移动步长s=2s=2的时候呢,7×77×7和3×33×3的矩阵卷积输出的结果是3×33×3的矩阵(自己脑补,就不画图了),于是又得到一个规律,卷积输出结果的维度是(n+2p−fs+1)×(n+2p−fs+1)(n+2p−fs+1)×(n+2p−fs+1)。 0 a3 l; p( W4 L$ L$ x- k c% x4 Z6 h! |8 O# P
2.2.立体卷积与多特征输出 - e8 ^( k8 i, _1 c; \ $ \3 u+ P2 q2 W0 { 2.12.1 立体卷积。其实感觉立体卷积这个名字不好,确切的说应该是RGB图像的卷积,容我解释一下应该就能理解的更加透彻了。众所周知,RGB图像有三个通道,也就是意味着RGB图像是n×n×3n×n×3的矩阵,那么怎么对这个立方体进行卷积呢?7 s4 t% L( V7 }% L4 R
* r3 a9 X# |! p+ P( f! f
y9 g/ j7 P8 @! w , P+ ~. a/ x* h* `6 T9 B+ M' T9 Z 看上图,左边是RGB三色通道下的图5×5×35×5×3,黄色的是卷积核3×3×33×3×3,当卷积步长s=1s=1时,最右边是输出图像4×4×14×4×1,具体是怎么运算的呢,同二维卷积,卷积核与原图像相乘相加,第一层卷积核和R做二维卷积,第二层卷积核和G做二维卷积,第三层卷积核和B做卷积,(卷积层数和输入的层数保持一致)将三者的结果相加求和,得到输出的第一个元素,以此类推,得到输出矩阵。 & q. t" y. D4 h7 G! C6 |4 L! z" W0 ^0 I' k
2.22.2 多特征输出。先乱入一个重点,关于卷积核提取水平特征,竖直特征等特征的方法,可以先看看我的这个博客,介绍的比较简单。卷积核。在了解了如何提取想要的特诊之后,那么如何同时输出这些特征呢?看下图。通过设置多个卷积核来提取不同的特征,每增加一个卷积核,输出图像的维度就会加一,比如,有xx个卷积核,输出的图像就是n×n×xn×n×x的矩阵。7 d0 b+ P3 y0 c! j) }) ?1 k
; |/ ~; {/ t& [6 j7 k! O$ G6 b I# d1 B. y4 h) J* g# \
, Z2 C- ^+ k& R B; F2 {+ O3 P: J3.3.单层卷积网络2 s% i5 I0 F7 B
5 Y# Z0 d& C: j& F" s3 z 3.13.1 激活函数与偏向。偏向可能翻译的不好,他的英文表达是bias,可能看了英文就理解的更生动吧。用最简单的形式介绍下激活函数和偏向。假设有一个输入xx,x+bx+b即为所求的输入加偏向,bb是随机常数。然后对x+bx+b进行激活,激活函数有很多种,举一个例子说明,看下图sigmoid的函数,(就是高中生物的那个S型增长曲线)。当输入的x+bx+b在[−∞,0][−∞,0]内,得到的yy在[−1,0][−1,0]之间;当输入的x+bx+b在[0,+∞][0,+∞]之间时,得到的yy在[0,1][0,1]之间,因此激活函数可以理解为一种映射关系,将输入的xx映射为yy。3 C* [4 }; u/ _: C I
2 o. k9 z ~7 P' U2 @+ J
6 h6 n" A4 l' G! M& ^- W 3.23.2 偏向、激活函数在卷积中的应用。 + H7 H5 |4 Q1 x8 F; w; x5 W, N
6 ~6 U5 v! o, b0 J, S& q+ r H
如上图所示,承接上文,在得到卷积的输出之后,对输出的每一个像素做偏向、激活的操作,得到新的输出结果。. O1 A3 S2 e$ @: F) ?
" g. w: `& E. W) w0 s! e: v 3.33.3 第一个卷积神经网络。接着看上面那个图,一次卷积之后会得到三个4×44×4的输出矩阵,将输出矩阵的元素排列成一个48×148×1的向量,在导入lofistic、softmax中去判断,你输入的图片是一只猫还是一只狗。当然还可以有多个卷积层,除了卷积层(conv)之外还可以有池化层(pool)和全连接层(FC),接下来介绍池化层和全连接层。 ! K0 ^ ]+ y6 i' u3 h) F4 `' g8 _, P+ ]9 o! V5 x/ |) a9 g
4.4. 池化层 . a9 H5 x$ T1 V1 h8 q) q9 k1 l# g$ a! v/ Q$ A
4.14.1 最大池化。(用的比较广泛)。可以理解为取出特征值最大的做为输出或者取其平均值作为输出。 1 z" w2 V" y) ]( j- s& W" s - }4 l# p! j* f1 M: o 4.24.2 平均池化 ) f, Y1 |& Q( ?7 U+ Z4 A) D5 m2 h1 Y+ z$ Q. N }# @2 {2 \3 l
5.5. 含有常见模块的最简单的卷积神经网络 ; A8 d6 P, C! e1 y 3 W4 J/ s" Y: g& \& z0 [1 O) z( |$ j6 e/ E L* w6 z; F, e: X
$ L/ S' R7 X4 O7 J* g
结构很简单,首先是32×32×332×32×3的图像输入,第一层的内容是卷积,池化;第二层的内容是卷积,池化,第三层是全连接,全连接的形式和普通的神经网络一样,嗯,起码得有一丢丢神经网络的基础。然后得到最终的输出。 , ^/ |. _7 ? i. [- l/ k " W- X. B7 d/ b: M6.6.python实践 ' A, q1 ~3 p+ g4 v% `5 E* X& C) ?- K1 i7 s6 |* G