数学建模社区-数学中国
标题: 深度学习之感性理解-卷积神经网络 [打印本页]
作者: 1047521767 时间: 2021-11-25 21:46
标题: 深度学习之感性理解-卷积神经网络
深度学习之感性理解-卷积神经网络- U0 a& s: V- G, ?. h) H
是什么 M: q! T. \# C C1 z$ K; L7 x- `
干嘛的3 i9 m5 [. |, S7 N. A: b
卷积核7 M5 O; l% e0 d% }: L4 c
池化层" x% n; c# N3 R5 k
是什么
0 f5 X8 h: s0 m前面我们介绍的神经网络称为全连接神经网络,因为前一层每个神经元的输出都作为下一层每个神经元的输入。卷积神经网络恰恰相反,不需要全连接,只有部分前一层输出做为后一层的输入。可以简单理解为有一张6X6像素的图片,还有一个3X3的窗口,然后进行从左到右,从上到下一格一格的移动,每次计算窗口里的值和对应图片值的乘积和作为新的像素点,放在一个新的图片里。
2 ~3 `3 j5 E& m9 F0 x- U' ^5 y4 Y 
' |. A6 _% H8 R# ^& S0 R如果将图片作为输入,窗口作为参数,对应的就是这种稀疏连接,共享参数的结构。! Q1 {6 k4 e- v' W- A

3 R/ o: g( |4 Y6 F9 H5 q7 k' G干嘛的
; I6 N& i; D. _; z& |7 k这样的连接方式虽然非常全面,不会漏掉任何一个神经元的作用,但是缺点也明显,这种连接使得参数过多,训练时间就会变长,比如处理大图片,像素个数可能有几百万维,参数数量太过庞大,导致训练时间过长,于是有大神提出了卷积神经网络(CNN)。0 J/ w: \ Z+ l0 j8 b( ^
, F! c4 M% N$ f% ~: E. a卷积神经网络至少有一个卷积层,可以用来提取特征,也就是把图片抽象化,这样就可以减少一定的信息量,参数自然就少了,同时卷积层通过共享参数的方式工作,也可以减少参数。举个例子,如果我们要识别一只猫,如果用全连接的方式可能就会描述成,一只有黄色的大耳朵蓝眼睛身体肥大的波斯猫。但是通过卷积神经网络的卷积层后,会描述成一只猫,这样就提高了通用性,只描述了抽象的特征。 c8 e9 Z0 a! l. v
+ `# x# k/ b- ?' v# y4 A( g比如如果我要想学习交通灯的特征,交通灯只在图片里的某一部分,并非全部,如果我把像素点一个个的观察过去,是不是有点浪费,能不能用个大的窗口,直接把交通灯给捕捉出来呢,这也是用CNN的一个特点。
2 N4 G. u7 ]' l& c8 m/ T! l
2 Z- F G2 B& {; \: A G
& y% r0 _) ?2 h9 d' `9 ]# C9 i2 C卷积核# ~5 f7 G6 ^4 L2 H8 I! Y7 R! S
就是上面所说的窗口,可以简单的理解为提取相应特征的参数,把高纬度的映射到低纬度,是一种有损压缩,他的表达式也可以看成0 e. h* w1 \! p1 w0 N
y=wx+b
" e# x8 d- v# _2 H2 Z; f: R
5 `; m" a! d5 _3 ?. r6 F/ v
/ x/ A9 W1 y$ ?( q7 ~, l池化层一种处理层,类似卷积层,又进行了一次特征提取,减少下一层数据的处理量,进一步获取更为抽象的信息。主要分为最大池化和平均池化,即取窗口中最大的或者取平均数放入新图片里。
% `; C2 t1 Y/ J0 D8 \
9 m+ }5 c9 p: a5 t; |" K: }
好了,今天就到这里了,希望对学习理解有帮助,大神看见勿喷,仅为自己的学习理解,能力有限,请多包涵,图片均来自网络,侵删。有问题加我QQ数学中国浅夏3243710560
8 X. m6 f1 q9 E# l/ d# e0 v W2 |5 Q, c; |
4 `- O* U7 Q9 ~6 }1 Z4 `. B- C2 c& Y+ }! s4 z& d
| 欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) |
Powered by Discuz! X2.5 |