深度学习之感性理解-卷积神经网络1 f R2 @ y& C1 a
是什么- s: t0 \& l$ ?' }4 X2 D8 F( _- ?( n
干嘛的, q5 h9 v, r$ v. Y) g& e; W) G
卷积核
4 R% e4 P: C# O) A+ v池化层# k5 p/ w, z9 z( U
是什么
. z5 X) f" z' W前面我们介绍的神经网络称为全连接神经网络,因为前一层每个神经元的输出都作为下一层每个神经元的输入。卷积神经网络恰恰相反,不需要全连接,只有部分前一层输出做为后一层的输入。可以简单理解为有一张6X6像素的图片,还有一个3X3的窗口,然后进行从左到右,从上到下一格一格的移动,每次计算窗口里的值和对应图片值的乘积和作为新的像素点,放在一个新的图片里。4 ?0 v! D+ f& F/ b( } F3 w2 [5 \: S
![]()
. l# }( W3 R3 z; N, o如果将图片作为输入,窗口作为参数,对应的就是这种稀疏连接,共享参数的结构。' V$ y a/ P. ]; E' y
![]()
9 L0 d. x F1 H8 o# J9 y4 L干嘛的. b8 F! g# o4 @, Q0 m/ i, F
这样的连接方式虽然非常全面,不会漏掉任何一个神经元的作用,但是缺点也明显,这种连接使得参数过多,训练时间就会变长,比如处理大图片,像素个数可能有几百万维,参数数量太过庞大,导致训练时间过长,于是有大神提出了卷积神经网络(CNN)。- Q- M8 [+ [" m
8 y8 F& ]6 O) H# z( v卷积神经网络至少有一个卷积层,可以用来提取特征,也就是把图片抽象化,这样就可以减少一定的信息量,参数自然就少了,同时卷积层通过共享参数的方式工作,也可以减少参数。举个例子,如果我们要识别一只猫,如果用全连接的方式可能就会描述成,一只有黄色的大耳朵蓝眼睛身体肥大的波斯猫。但是通过卷积神经网络的卷积层后,会描述成一只猫,这样就提高了通用性,只描述了抽象的特征。- P+ C. r8 ?$ |1 @1 i3 a8 {
+ k8 T( c' d; A, Q& z
比如如果我要想学习交通灯的特征,交通灯只在图片里的某一部分,并非全部,如果我把像素点一个个的观察过去,是不是有点浪费,能不能用个大的窗口,直接把交通灯给捕捉出来呢,这也是用CNN的一个特点。$ O- v; ~" w9 y8 d' V- Z
, F3 V" G+ N& {) K W
8 n8 f- T7 Z7 q卷积核
; u; s/ f+ g3 V6 {6 z! U" j9 W就是上面所说的窗口,可以简单的理解为提取相应特征的参数,把高纬度的映射到低纬度,是一种有损压缩,他的表达式也可以看成* H4 f/ M. M- [, @& M
y=wx+b# x3 c1 m9 @- V* c L6 X
6 e( m+ _* _6 I& N3 Z
![]()
$ f# D7 d- S# \ f2 v4 g6 z池化层一种处理层,类似卷积层,又进行了一次特征提取,减少下一层数据的处理量,进一步获取更为抽象的信息。主要分为最大池化和平均池化,即取窗口中最大的或者取平均数放入新图片里。 / C% J o( y" m+ M3 }
![]()
9 n& {+ _* t. y, k4 b" M7 g好了,今天就到这里了,希望对学习理解有帮助,大神看见勿喷,仅为自己的学习理解,能力有限,请多包涵,图片均来自网络,侵删。有问题加我QQ数学中国浅夏32437105601 \/ E0 Y9 n+ h2 E! J" B" K
8 m3 n* c6 a. k/ c# H; ]4 U: l g% k$ s) N% J1 p
* m: ?, `9 B% Y! C |