深度学习之感性理解-卷积神经网络' H+ x* z+ d" `& v) K. C( p
是什么+ p) f. J6 Z. ?6 B. ~, u0 d& x3 H
干嘛的! l. ^4 |9 q. s( N0 b7 j% J7 F
卷积核' B; Q( Z2 ?9 j5 }9 g
池化层
' m/ h! @3 L6 ^( J是什么* l4 v u0 z7 i. j+ H( U3 b
前面我们介绍的神经网络称为全连接神经网络,因为前一层每个神经元的输出都作为下一层每个神经元的输入。卷积神经网络恰恰相反,不需要全连接,只有部分前一层输出做为后一层的输入。可以简单理解为有一张6X6像素的图片,还有一个3X3的窗口,然后进行从左到右,从上到下一格一格的移动,每次计算窗口里的值和对应图片值的乘积和作为新的像素点,放在一个新的图片里。% { f& O/ n4 {& r
* t3 ?& t' C. K! V5 e
如果将图片作为输入,窗口作为参数,对应的就是这种稀疏连接,共享参数的结构。 } a" G1 ]' k5 ~4 G5 e
![]()
% k' x% E! l2 o# ^干嘛的7 j* ] n: O4 c2 I/ {% L
这样的连接方式虽然非常全面,不会漏掉任何一个神经元的作用,但是缺点也明显,这种连接使得参数过多,训练时间就会变长,比如处理大图片,像素个数可能有几百万维,参数数量太过庞大,导致训练时间过长,于是有大神提出了卷积神经网络(CNN)。# ?9 k7 J% V+ N6 i6 W6 r
# }% ^0 e7 I9 u卷积神经网络至少有一个卷积层,可以用来提取特征,也就是把图片抽象化,这样就可以减少一定的信息量,参数自然就少了,同时卷积层通过共享参数的方式工作,也可以减少参数。举个例子,如果我们要识别一只猫,如果用全连接的方式可能就会描述成,一只有黄色的大耳朵蓝眼睛身体肥大的波斯猫。但是通过卷积神经网络的卷积层后,会描述成一只猫,这样就提高了通用性,只描述了抽象的特征。2 I# |" H. b ~: U* C8 v
, r% e: `1 X" J; J/ v
比如如果我要想学习交通灯的特征,交通灯只在图片里的某一部分,并非全部,如果我把像素点一个个的观察过去,是不是有点浪费,能不能用个大的窗口,直接把交通灯给捕捉出来呢,这也是用CNN的一个特点。
! f% U& i& q& g 8 s( _8 y8 c% r" l
3 t% N, J7 x6 B卷积核
5 [: o+ v8 N9 @6 J% B就是上面所说的窗口,可以简单的理解为提取相应特征的参数,把高纬度的映射到低纬度,是一种有损压缩,他的表达式也可以看成
! l" Q; ~* N& }7 \y=wx+b
( _. S- g9 \7 m! f, h9 [8 R, ~
! Z% b( n( ]9 }% A. y, D5 K . W" k" h! n+ d" {+ W+ }# J
池化层一种处理层,类似卷积层,又进行了一次特征提取,减少下一层数据的处理量,进一步获取更为抽象的信息。主要分为最大池化和平均池化,即取窗口中最大的或者取平均数放入新图片里。
9 a: d( _3 p5 E3 J" T% p![]()
4 [- g8 E) p7 ?) E0 ^好了,今天就到这里了,希望对学习理解有帮助,大神看见勿喷,仅为自己的学习理解,能力有限,请多包涵,图片均来自网络,侵删。有问题加我QQ数学中国浅夏3243710560
5 _# Q7 M- `* E4 b2 }4 v2 E/ K* q0 w7 Q" P$ U9 k
/ F9 r/ h5 u. J. E: o. @' V6 q* ~& I2 B5 A% D& u$ t: g4 T/ \# x! m, W
|