深度学习之感性理解-卷积神经网络2 V1 Y8 S) y( C% D. w7 Z1 o% r. I# s
是什么. S# F6 j0 N# [* A" u z
干嘛的# j/ z9 ]5 Y- E
卷积核3 ~, d/ v' {6 U a+ u' ^1 h* b/ d4 }
池化层
! q8 N8 K. j j4 n8 r是什么
( e8 o2 q* h7 w5 C3 A前面我们介绍的神经网络称为全连接神经网络,因为前一层每个神经元的输出都作为下一层每个神经元的输入。卷积神经网络恰恰相反,不需要全连接,只有部分前一层输出做为后一层的输入。可以简单理解为有一张6X6像素的图片,还有一个3X3的窗口,然后进行从左到右,从上到下一格一格的移动,每次计算窗口里的值和对应图片值的乘积和作为新的像素点,放在一个新的图片里。& q0 X t6 V3 U3 |) \- w; V6 ?1 c
![]()
0 _) ~/ c7 @+ O: ~. F9 p* ]如果将图片作为输入,窗口作为参数,对应的就是这种稀疏连接,共享参数的结构。& o6 j( L2 ~+ y( V% w% n
) P. m& W; E2 O8 h
干嘛的
4 i, [: n* ?) k" Q3 \! m9 E这样的连接方式虽然非常全面,不会漏掉任何一个神经元的作用,但是缺点也明显,这种连接使得参数过多,训练时间就会变长,比如处理大图片,像素个数可能有几百万维,参数数量太过庞大,导致训练时间过长,于是有大神提出了卷积神经网络(CNN)。
/ }4 P9 F0 L# w% `9 Q8 C) j; L9 J4 T$ ]! I& U! l& M) a
卷积神经网络至少有一个卷积层,可以用来提取特征,也就是把图片抽象化,这样就可以减少一定的信息量,参数自然就少了,同时卷积层通过共享参数的方式工作,也可以减少参数。举个例子,如果我们要识别一只猫,如果用全连接的方式可能就会描述成,一只有黄色的大耳朵蓝眼睛身体肥大的波斯猫。但是通过卷积神经网络的卷积层后,会描述成一只猫,这样就提高了通用性,只描述了抽象的特征。2 _2 o# @ M/ Q1 a6 ~# e
2 S/ z2 }0 `0 u) I( q
比如如果我要想学习交通灯的特征,交通灯只在图片里的某一部分,并非全部,如果我把像素点一个个的观察过去,是不是有点浪费,能不能用个大的窗口,直接把交通灯给捕捉出来呢,这也是用CNN的一个特点。, b' M) D. p* I# K
![]()
1 H; Z9 D a4 Q# A8 s/ c: N
* a9 G1 t/ k% [9 _, t! w! _卷积核: e7 p0 J6 z5 A2 z2 Z: z" U
就是上面所说的窗口,可以简单的理解为提取相应特征的参数,把高纬度的映射到低纬度,是一种有损压缩,他的表达式也可以看成
) k0 {) t7 t% k# Ry=wx+b
1 s& Y p9 |; g+ x* H) U# j, J, _; {8 E
! l0 k+ ~8 A+ F @' b3 t
池化层一种处理层,类似卷积层,又进行了一次特征提取,减少下一层数据的处理量,进一步获取更为抽象的信息。主要分为最大池化和平均池化,即取窗口中最大的或者取平均数放入新图片里。 - h+ D2 j! `7 ^9 Z' z
0 n% B! ]7 l) S0 Q3 c5 i
好了,今天就到这里了,希望对学习理解有帮助,大神看见勿喷,仅为自己的学习理解,能力有限,请多包涵,图片均来自网络,侵删。有问题加我QQ数学中国浅夏3243710560
+ I) G. t$ n) B1 S+ L& {! D
! o4 l5 J/ z$ T3 |+ B8 E) E' Y7 y! I& p# A3 A6 r2 q; R0 b
9 Z6 N$ F# n2 m. i+ p6 e2 M0 i* K |