深度学习之感性理解-卷积神经网络* I4 z/ ?+ [0 M( [7 q; T
是什么
! G* g1 P5 [: i3 |/ O干嘛的
) Y1 n( P- t/ t0 a5 Y: a9 S卷积核
1 A( q2 C1 Q1 A1 @- V+ r池化层
# `5 ]. U+ s3 S! ~* I* z, T是什么$ m( T* P) X! P; T7 z$ x$ t# M
前面我们介绍的神经网络称为全连接神经网络,因为前一层每个神经元的输出都作为下一层每个神经元的输入。卷积神经网络恰恰相反,不需要全连接,只有部分前一层输出做为后一层的输入。可以简单理解为有一张6X6像素的图片,还有一个3X3的窗口,然后进行从左到右,从上到下一格一格的移动,每次计算窗口里的值和对应图片值的乘积和作为新的像素点,放在一个新的图片里。
# D ]) I. |7 _3 N; `' _: Z* |; v ![]()
$ C( b- e6 h/ C8 h' K如果将图片作为输入,窗口作为参数,对应的就是这种稀疏连接,共享参数的结构。
; V) H5 y/ u+ }![]()
9 _8 [6 {0 V8 p. A0 z [干嘛的
& I! b( }6 F' L7 r( R* [/ s2 W/ z/ Z0 n H这样的连接方式虽然非常全面,不会漏掉任何一个神经元的作用,但是缺点也明显,这种连接使得参数过多,训练时间就会变长,比如处理大图片,像素个数可能有几百万维,参数数量太过庞大,导致训练时间过长,于是有大神提出了卷积神经网络(CNN)。8 n2 x0 g* s2 l) H4 K* m; U
, ]; g- \* E0 L' L4 W7 A. F/ d卷积神经网络至少有一个卷积层,可以用来提取特征,也就是把图片抽象化,这样就可以减少一定的信息量,参数自然就少了,同时卷积层通过共享参数的方式工作,也可以减少参数。举个例子,如果我们要识别一只猫,如果用全连接的方式可能就会描述成,一只有黄色的大耳朵蓝眼睛身体肥大的波斯猫。但是通过卷积神经网络的卷积层后,会描述成一只猫,这样就提高了通用性,只描述了抽象的特征。( k+ I( z) n+ ^5 U+ D! }9 v2 Y; G
% p# A7 Z0 o2 V9 M1 i( e4 T
比如如果我要想学习交通灯的特征,交通灯只在图片里的某一部分,并非全部,如果我把像素点一个个的观察过去,是不是有点浪费,能不能用个大的窗口,直接把交通灯给捕捉出来呢,这也是用CNN的一个特点。0 X( R: j3 `/ K: h8 g' O
% b, h: o6 a8 Q6 ~% L7 ~8 ~
5 S4 l0 ]0 J ~0 x. D2 O; t# z4 i- z
卷积核
- s" J7 R8 u. E- g2 X就是上面所说的窗口,可以简单的理解为提取相应特征的参数,把高纬度的映射到低纬度,是一种有损压缩,他的表达式也可以看成9 ?1 Y" h; V4 } T, |& S
y=wx+b
& I& n% k% ?- |* N' z- `/ L/ ?7 f9 l' B
% X% S' _/ w: l8 P![]()
5 P$ W( ?& ~2 w; a- c$ y池化层一种处理层,类似卷积层,又进行了一次特征提取,减少下一层数据的处理量,进一步获取更为抽象的信息。主要分为最大池化和平均池化,即取窗口中最大的或者取平均数放入新图片里。
" ?) j6 j! j' y* z0 Y4 B. y * X( X- R* k2 N* Z& _7 D" D/ Q
好了,今天就到这里了,希望对学习理解有帮助,大神看见勿喷,仅为自己的学习理解,能力有限,请多包涵,图片均来自网络,侵删。有问题加我QQ数学中国浅夏32437105608 \% w B. h6 ~9 b1 F T. \# b
- G4 D! Q- H+ m7 |1 j9 K1 e
" x# |0 S# z8 q. D; F2 r9 r. ]4 x$ S0 m9 T" I
|