- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 562514 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174127
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 18
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
|
数学建模(一)——卷积神经网络
1 C" }! o2 V7 [7 \, {
: u3 j2 c {" q& d& l8 S4 ^ 大概建模一年多了吧,准备趁着这个暑假,把建模的东西整理一下,留个笔记和纪念,万一哪天不会了还能翻翻笔记。众所周知,建模这东西入门不难,网上各种教程一大把一大把,人家写的也很专业,我写的东西基本登不了大雅之堂,跟人家没法比就写点下里巴人的东西吧。
. C" @& R, F P L5 R" ?% w3 M! {0 `0 V/ i: m k7 a) @! y/ J8 J B9 N2 U9 ^( R" e
1.1.概念引入* W( s- \8 u& ]4 i" E6 [" n7 p
1 D+ @1 l" T, A! _/ P0 Q( v' ` ~ 1.11.1 图像处理中的卷积运算。看个图生动形象的理解一下下: : [, ~, S. n4 Y( }1 C$ B
s8 n- I- l O! T8 N; B: S- b* T; s
$ }) Q1 O2 J$ X# O2 S
在设置好矩阵之后,又该如何运算呢,来,看下面的动图。矩阵对应相乘相加得到卷积的结果。比如,对于左上角的元素4而言,它的运算方式就是:1×1+0×1+1×1+0×0+1×1+0×1+1×0+0×0+1×1=41×1+0×1+1×1+0×0+1×1+0×1+1×0+0×0+1×1=4 ( G f, ~) L D! B+ w- \' M
7 J8 x/ N$ D/ T2 O( n4 U r1 [
1.21.2 填充padding。上面的操作看着貌似很好,但是有没有缺陷呢?当然有,第一个问题,5×55×5的矩阵和3×33×3的矩阵的卷积结果会得到3×33×3的输出矩阵,也就是原始图像在提取特征的过程中被缩小了,一直卷积的话图像会被一直缩小到一个像素,显然不是想要的结果;第二个问题,原始图像左上角的像素只参与一次运算,而他右边的像素参与了两次运算,是不是不公平?是的。那么如何解决这两个问题呢?
+ _) `$ ?# K' f8 s
2 y; n7 M- L/ Z 不失一般性,设原始图像为n×nn×n的矩阵,卷积核为f×ff×f的矩阵,那么输出结果就是(n−f+1)×(n−f+1)(n−f+1)×(n−f+1)的矩阵。言归正传,怎么解决上面的问题呢?答案是填充。在imange矩阵的周围在添加一层像素,使其变成(n+1)×(n+1)(n+1)×(n+1)的矩阵,而填充内容是随意的,如果添加pp层像素,原始图像就会变为(n+2p)×(n+2p)(n+2p)×(n+2p)的矩阵,为了使输出矩阵和原始矩阵的维度相同,就要满足下面的等式:
. ^9 p3 d) x+ u4 {4 v
: k1 s. N1 \. E* E$ y9 x5 jn+2p−f+1=n⇒p=(f−1)/2) U: x6 Q; }2 |1 ^5 T. K
n+2p−f+1=n⇒p=(f−1)/2
0 F( w$ e8 [8 u7 F 1.31.3 卷积步长stride。上面的例子中,卷积的移动步长是1,当移动步长s=2s=2的时候呢,7×77×7和3×33×3的矩阵卷积输出的结果是3×33×3的矩阵(自己脑补,就不画图了),于是又得到一个规律,卷积输出结果的维度是(n+2p−fs+1)×(n+2p−fs+1)(n+2p−fs+1)×(n+2p−fs+1)。
* G0 {! R9 w* r( G; P
2 S3 ?' t) k" O" y; h: D5 q& ` 1.41.4 卷积步长stride。上面的例子中,卷积的移动步长是1,当移动步长s=2s=2的时候呢,7×77×7和3×33×3的矩阵卷积输出的结果是3×33×3的矩阵(自己脑补,就不画图了),于是又得到一个规律,卷积输出结果的维度是(n+2p−fs+1)×(n+2p−fs+1)(n+2p−fs+1)×(n+2p−fs+1)。
, i& U8 S ?: u$ v% ?$ v8 Q
Q Z1 n7 l: ^6 K2.2.立体卷积与多特征输出
) x; ~. L+ A3 ^8 r+ K5 H7 l+ `5 g% R; k- M) k* ~) v) O2 x' _
2.12.1 立体卷积。其实感觉立体卷积这个名字不好,确切的说应该是RGB图像的卷积,容我解释一下应该就能理解的更加透彻了。众所周知,RGB图像有三个通道,也就是意味着RGB图像是n×n×3n×n×3的矩阵,那么怎么对这个立方体进行卷积呢?
9 f, [/ A0 u; G; L
# b* `3 z( g* J; F5 i- Q: p- U. K& \; S" r, \
4 V4 Q0 ] Y5 L
看上图,左边是RGB三色通道下的图5×5×35×5×3,黄色的是卷积核3×3×33×3×3,当卷积步长s=1s=1时,最右边是输出图像4×4×14×4×1,具体是怎么运算的呢,同二维卷积,卷积核与原图像相乘相加,第一层卷积核和R做二维卷积,第二层卷积核和G做二维卷积,第三层卷积核和B做卷积,(卷积层数和输入的层数保持一致)将三者的结果相加求和,得到输出的第一个元素,以此类推,得到输出矩阵。
- I4 K7 |1 S4 e! |0 d |: G1 R
2.22.2 多特征输出。先乱入一个重点,关于卷积核提取水平特征,竖直特征等特征的方法,可以先看看我的这个博客,介绍的比较简单。卷积核。在了解了如何提取想要的特诊之后,那么如何同时输出这些特征呢?看下图。通过设置多个卷积核来提取不同的特征,每增加一个卷积核,输出图像的维度就会加一,比如,有xx个卷积核,输出的图像就是n×n×xn×n×x的矩阵。
; k* E( i' ^6 G% I2 `6 [5 m' b
2 ?4 |( d; Z, a* O" U$ z3 r: m6 ^, [! E/ e& v
1 J0 N6 o& Q0 a) a. Q# `# O3.3.单层卷积网络
, `' f. e1 u9 _8 i) X5 Q0 c7 l2 `$ G" f- c p
3.13.1 激活函数与偏向。偏向可能翻译的不好,他的英文表达是bias,可能看了英文就理解的更生动吧。用最简单的形式介绍下激活函数和偏向。假设有一个输入xx,x+bx+b即为所求的输入加偏向,bb是随机常数。然后对x+bx+b进行激活,激活函数有很多种,举一个例子说明,看下图sigmoid的函数,(就是高中生物的那个S型增长曲线)。当输入的x+bx+b在[−∞,0][−∞,0]内,得到的yy在[−1,0][−1,0]之间;当输入的x+bx+b在[0,+∞][0,+∞]之间时,得到的yy在[0,1][0,1]之间,因此激活函数可以理解为一种映射关系,将输入的xx映射为yy。
: S* @1 E2 _2 W" ~& C' `( \6 K
9 t0 J% `; C: I/ D% P3 P% K
9 s3 w+ l" [' P6 e6 h 3.23.2 偏向、激活函数在卷积中的应用。
/ d2 v5 c4 ?6 `( ^+ t" ?' z, O$ x0 Z: o1 R
如上图所示,承接上文,在得到卷积的输出之后,对输出的每一个像素做偏向、激活的操作,得到新的输出结果。
% u1 P9 o/ n% S3 R, V8 v1 a8 R' [4 H) v; e+ m/ C! e
3.33.3 第一个卷积神经网络。接着看上面那个图,一次卷积之后会得到三个4×44×4的输出矩阵,将输出矩阵的元素排列成一个48×148×1的向量,在导入lofistic、softmax中去判断,你输入的图片是一只猫还是一只狗。当然还可以有多个卷积层,除了卷积层(conv)之外还可以有池化层(pool)和全连接层(FC),接下来介绍池化层和全连接层。
$ @" @3 r; I4 Y7 h- t* c# b/ r; b# v! g0 J' \2 p% y, \
4.4. 池化层
3 {$ r- z0 _5 [$ y; G! a6 g# ^- r; C
4.14.1 最大池化。(用的比较广泛)。可以理解为取出特征值最大的做为输出或者取其平均值作为输出。
2 I$ y0 G# Y& @# d& _* T2 g) g( W' |0 ^* z- D
4.24.2 平均池化
/ D; \( M; }: h- a1 D+ O, F, b
/ i2 J6 N- ]4 I" y) @, O5.5. 含有常见模块的最简单的卷积神经网络
% S& e$ y5 K5 O: }' w% b; J% P0 K" U: _
4 I3 Y5 |% R) G" X8 {0 E! r) G' M; Z* R$ d% H) m) N
结构很简单,首先是32×32×332×32×3的图像输入,第一层的内容是卷积,池化;第二层的内容是卷积,池化,第三层是全连接,全连接的形式和普通的神经网络一样,嗯,起码得有一丢丢神经网络的基础。然后得到最终的输出。7 ]# {% y' t7 l; G3 Z9 w: Y
; t" l7 s3 \3 c. F" ?6.6.python实践; R- ]' p# s% w; A% `5 f1 z* x5 @, f
+ ~, J+ D; f& |/ G8 l
6 Y" I7 l H- l* H" n' `1 f6 T
- M; ]8 ?" r5 V+ u# c: p. D7 p! { |
zan
|