- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563299 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174213
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
|
数学建模(一)——卷积神经网络 $ {8 l* l! `, v3 M8 n+ e
$ g9 ~5 z d" x: k* L- F# ^6 _ 大概建模一年多了吧,准备趁着这个暑假,把建模的东西整理一下,留个笔记和纪念,万一哪天不会了还能翻翻笔记。众所周知,建模这东西入门不难,网上各种教程一大把一大把,人家写的也很专业,我写的东西基本登不了大雅之堂,跟人家没法比就写点下里巴人的东西吧。
5 e. O& b4 O" S$ j% `* y/ J
) p: g& w) h6 G1.1.概念引入4 W% S1 y- E3 n' N. G& u: `
! Z4 R/ I1 C4 Y$ M
1.11.1 图像处理中的卷积运算。看个图生动形象的理解一下下: 7 ~- ~" M# g6 c+ Q( L1 s: R- X
& h6 u; j, S9 g2 c% Q! d
4 z+ D$ T/ J( ^$ G7 s& N
在设置好矩阵之后,又该如何运算呢,来,看下面的动图。矩阵对应相乘相加得到卷积的结果。比如,对于左上角的元素4而言,它的运算方式就是:1×1+0×1+1×1+0×0+1×1+0×1+1×0+0×0+1×1=41×1+0×1+1×1+0×0+1×1+0×1+1×0+0×0+1×1=4
+ n/ ?$ }3 H+ }* g8 R
% i: E7 \; t8 c3 L1 T+ ~ 1.21.2 填充padding。上面的操作看着貌似很好,但是有没有缺陷呢?当然有,第一个问题,5×55×5的矩阵和3×33×3的矩阵的卷积结果会得到3×33×3的输出矩阵,也就是原始图像在提取特征的过程中被缩小了,一直卷积的话图像会被一直缩小到一个像素,显然不是想要的结果;第二个问题,原始图像左上角的像素只参与一次运算,而他右边的像素参与了两次运算,是不是不公平?是的。那么如何解决这两个问题呢?
D" s3 b G; \! S1 j
/ Y- _) o: N+ x/ `3 ^0 u 不失一般性,设原始图像为n×nn×n的矩阵,卷积核为f×ff×f的矩阵,那么输出结果就是(n−f+1)×(n−f+1)(n−f+1)×(n−f+1)的矩阵。言归正传,怎么解决上面的问题呢?答案是填充。在imange矩阵的周围在添加一层像素,使其变成(n+1)×(n+1)(n+1)×(n+1)的矩阵,而填充内容是随意的,如果添加pp层像素,原始图像就会变为(n+2p)×(n+2p)(n+2p)×(n+2p)的矩阵,为了使输出矩阵和原始矩阵的维度相同,就要满足下面的等式:
0 b- q: W# p9 T6 e# e' h4 K6 e, P* x; S8 c( o7 A
n+2p−f+1=n⇒p=(f−1)/2
4 O# A, x5 L+ A. S; ~7 n7 _: o9 en+2p−f+1=n⇒p=(f−1)/24 M( s+ Z6 E% n" E5 d% X
1.31.3 卷积步长stride。上面的例子中,卷积的移动步长是1,当移动步长s=2s=2的时候呢,7×77×7和3×33×3的矩阵卷积输出的结果是3×33×3的矩阵(自己脑补,就不画图了),于是又得到一个规律,卷积输出结果的维度是(n+2p−fs+1)×(n+2p−fs+1)(n+2p−fs+1)×(n+2p−fs+1)。/ q) q2 a: C9 X8 i3 J% p. t4 ^- Z
9 t" A6 b8 ]/ q( a 1.41.4 卷积步长stride。上面的例子中,卷积的移动步长是1,当移动步长s=2s=2的时候呢,7×77×7和3×33×3的矩阵卷积输出的结果是3×33×3的矩阵(自己脑补,就不画图了),于是又得到一个规律,卷积输出结果的维度是(n+2p−fs+1)×(n+2p−fs+1)(n+2p−fs+1)×(n+2p−fs+1)。3 a- E% f0 P& \- h! h W0 b/ z2 Y
6 e+ o! E8 C# c- a' n' C
2.2.立体卷积与多特征输出$ B: U7 D! D: b8 n
* p7 ?3 U; j( ?6 O$ F
2.12.1 立体卷积。其实感觉立体卷积这个名字不好,确切的说应该是RGB图像的卷积,容我解释一下应该就能理解的更加透彻了。众所周知,RGB图像有三个通道,也就是意味着RGB图像是n×n×3n×n×3的矩阵,那么怎么对这个立方体进行卷积呢?
& }6 M" w1 I5 H. G* B
/ G$ M& C2 ?3 j6 h, F
O3 F! M7 }8 A: `. t: p+ J5 n8 L# p$ `2 Y, [( l5 |* z) |
看上图,左边是RGB三色通道下的图5×5×35×5×3,黄色的是卷积核3×3×33×3×3,当卷积步长s=1s=1时,最右边是输出图像4×4×14×4×1,具体是怎么运算的呢,同二维卷积,卷积核与原图像相乘相加,第一层卷积核和R做二维卷积,第二层卷积核和G做二维卷积,第三层卷积核和B做卷积,(卷积层数和输入的层数保持一致)将三者的结果相加求和,得到输出的第一个元素,以此类推,得到输出矩阵。
2 S# m$ d0 q) d! t6 g0 P$ ~% q; {5 @
* ^2 p/ e$ G' x6 o, }9 h 2.22.2 多特征输出。先乱入一个重点,关于卷积核提取水平特征,竖直特征等特征的方法,可以先看看我的这个博客,介绍的比较简单。卷积核。在了解了如何提取想要的特诊之后,那么如何同时输出这些特征呢?看下图。通过设置多个卷积核来提取不同的特征,每增加一个卷积核,输出图像的维度就会加一,比如,有xx个卷积核,输出的图像就是n×n×xn×n×x的矩阵。
! I1 E0 r) X; y! v0 r2 m. E9 h/ M9 J9 A6 I, i
* {7 G2 a- j1 C: p0 Q
1 `$ X9 L+ ^. @5 U5 M: r( B2 S# O% F3.3.单层卷积网络
5 v9 S& L; j# t+ G5 P
" A7 V' Q0 ~7 o z 3.13.1 激活函数与偏向。偏向可能翻译的不好,他的英文表达是bias,可能看了英文就理解的更生动吧。用最简单的形式介绍下激活函数和偏向。假设有一个输入xx,x+bx+b即为所求的输入加偏向,bb是随机常数。然后对x+bx+b进行激活,激活函数有很多种,举一个例子说明,看下图sigmoid的函数,(就是高中生物的那个S型增长曲线)。当输入的x+bx+b在[−∞,0][−∞,0]内,得到的yy在[−1,0][−1,0]之间;当输入的x+bx+b在[0,+∞][0,+∞]之间时,得到的yy在[0,1][0,1]之间,因此激活函数可以理解为一种映射关系,将输入的xx映射为yy。
, _% L# g( V; f$ a- K
6 n' v2 J. m7 J7 i1 [& g8 O4 P" ~$ u! u' S& a# A
3.23.2 偏向、激活函数在卷积中的应用。 U. j- b. s# o8 t7 X
/ t1 V1 z4 z: ] j9 Q) n( A% Y! e
如上图所示,承接上文,在得到卷积的输出之后,对输出的每一个像素做偏向、激活的操作,得到新的输出结果。6 X7 B- s- L3 s e
n" k4 G+ C; e% k: m 3.33.3 第一个卷积神经网络。接着看上面那个图,一次卷积之后会得到三个4×44×4的输出矩阵,将输出矩阵的元素排列成一个48×148×1的向量,在导入lofistic、softmax中去判断,你输入的图片是一只猫还是一只狗。当然还可以有多个卷积层,除了卷积层(conv)之外还可以有池化层(pool)和全连接层(FC),接下来介绍池化层和全连接层。
2 K, s) c4 B. d5 W5 G6 G# @
( d8 b; U. y/ ?. r9 u6 M4.4. 池化层
* W+ H! h1 l" a8 o- y! y) Z: t9 V# ]% h- b
4.14.1 最大池化。(用的比较广泛)。可以理解为取出特征值最大的做为输出或者取其平均值作为输出。
% d* d; {% a9 h; Z9 D H
# S7 I2 }, y( Q8 H& f. q 4.24.2 平均池化 - _: s6 M0 o5 Q' C$ G" O, x
( W* i3 Z7 Y! n& ] F5.5. 含有常见模块的最简单的卷积神经网络
+ P1 @* f/ A& s) I+ H9 f/ V+ r. i
: b3 `3 R. _# E6 G {' _: R- a$ }# n0 ~7 Q+ s& w* u
+ h9 @/ r7 ^* |
结构很简单,首先是32×32×332×32×3的图像输入,第一层的内容是卷积,池化;第二层的内容是卷积,池化,第三层是全连接,全连接的形式和普通的神经网络一样,嗯,起码得有一丢丢神经网络的基础。然后得到最终的输出。
2 t4 V3 l$ v, z* a# M% @: }9 T% m+ Y) C7 }! _* e
6.6.python实践# U# _+ [8 b; N! g
7 O! p- E- Q, t- R0 s
( \; ^3 O2 g1 d* L
G D# W9 I3 p* y
|
zan
|