深度学习之感性理解-卷积神经网络2 _) m$ A9 b2 F' X6 ?4 w$ c* M
是什么8 f0 b8 @) T& i. k! U4 A1 S
干嘛的
% e3 B( v3 o/ F- i$ y卷积核- H" j& t( j0 {5 v, C8 g" G0 F0 f
池化层9 H q* o$ o* u8 y1 T5 }: A# ~* G
是什么8 A! x, a5 `2 D+ ~: X; U% \2 I
前面我们介绍的神经网络称为全连接神经网络,因为前一层每个神经元的输出都作为下一层每个神经元的输入。卷积神经网络恰恰相反,不需要全连接,只有部分前一层输出做为后一层的输入。可以简单理解为有一张6X6像素的图片,还有一个3X3的窗口,然后进行从左到右,从上到下一格一格的移动,每次计算窗口里的值和对应图片值的乘积和作为新的像素点,放在一个新的图片里。
1 J: I% |) \( Z2 \ 4 R/ R7 r. S: K5 M0 K
如果将图片作为输入,窗口作为参数,对应的就是这种稀疏连接,共享参数的结构。( v4 |% E" w e- l
6 `7 R8 j8 F' w$ m: {- w) c
干嘛的' w/ G- G* T( g' D8 d# t4 b6 ~ j5 u g
这样的连接方式虽然非常全面,不会漏掉任何一个神经元的作用,但是缺点也明显,这种连接使得参数过多,训练时间就会变长,比如处理大图片,像素个数可能有几百万维,参数数量太过庞大,导致训练时间过长,于是有大神提出了卷积神经网络(CNN)。
* j. L. x" `8 z8 m6 U/ a1 d
. w( ~7 _( s; U0 A( x& Q+ N% B) Z卷积神经网络至少有一个卷积层,可以用来提取特征,也就是把图片抽象化,这样就可以减少一定的信息量,参数自然就少了,同时卷积层通过共享参数的方式工作,也可以减少参数。举个例子,如果我们要识别一只猫,如果用全连接的方式可能就会描述成,一只有黄色的大耳朵蓝眼睛身体肥大的波斯猫。但是通过卷积神经网络的卷积层后,会描述成一只猫,这样就提高了通用性,只描述了抽象的特征。1 U: S6 c" _! o& X4 q! K0 Y3 x7 u# T4 Z
, U9 ^/ f8 y& X% y5 f& X
比如如果我要想学习交通灯的特征,交通灯只在图片里的某一部分,并非全部,如果我把像素点一个个的观察过去,是不是有点浪费,能不能用个大的窗口,直接把交通灯给捕捉出来呢,这也是用CNN的一个特点。0 K; m: j9 v0 A: V/ I" d
0 v7 e7 s6 b( e0 J
" O3 o% Q1 V9 V: Z
卷积核
: w8 I0 D* L4 b* J就是上面所说的窗口,可以简单的理解为提取相应特征的参数,把高纬度的映射到低纬度,是一种有损压缩,他的表达式也可以看成
: r/ c9 \* t- d) ?: W8 D5 }/ q# py=wx+b8 n: l3 n& D; T: j7 k" y/ I) Q+ l
! j; B3 l2 p5 S5 o. ]5 d& B
![]()
! l8 _4 C- y0 E7 A池化层一种处理层,类似卷积层,又进行了一次特征提取,减少下一层数据的处理量,进一步获取更为抽象的信息。主要分为最大池化和平均池化,即取窗口中最大的或者取平均数放入新图片里。
- z# I% N7 B2 J. v. ~" g![]()
# O2 x' x0 h# f! S' l" J1 _5 j& G: u5 U好了,今天就到这里了,希望对学习理解有帮助,大神看见勿喷,仅为自己的学习理解,能力有限,请多包涵,图片均来自网络,侵删。有问题加我QQ数学中国浅夏3243710560
1 r5 ^( K8 c6 @- Q* t0 y! f2 o- d
3 w# N9 C+ G: W( \+ ]3 L& q7 t4 U; J8 G4 V2 C& C
; K' @4 n% W+ I# \5 K1 C0 S |