数学建模社区-数学中国

标题: 深度学习之感性理解-卷积神经网络 [打印本页]

作者: 1047521767    时间: 2021-11-25 21:46
标题: 深度学习之感性理解-卷积神经网络
                                                深度学习之感性理解-卷积神经网络/ M" J+ m5 I8 k6 t# w% Y  b
是什么
  o3 Q( W% h9 ^9 I( \3 F5 s- h9 G/ g干嘛的
  Z, R; J6 t+ |& H4 e卷积核
2 X2 g' `$ B1 p7 z池化层
  _6 |' s3 Z! z4 x3 C* H. r是什么! C: t6 i1 ~6 F& o; D  ^
前面我们介绍的神经网络称为全连接神经网络,因为前一层每个神经元的输出都作为下一层每个神经元的输入。卷积神经网络恰恰相反,不需要全连接,只有部分前一层输出做为后一层的输入。可以简单理解为有一张6X6像素的图片,还有一个3X3的窗口,然后进行从左到右,从上到下一格一格的移动,每次计算窗口里的值和对应图片值的乘积和作为新的像素点,放在一个新的图片里。) @3 J! [& k4 b2 x- j
                      # X, I# A; o$ `$ k" m* s
如果将图片作为输入,窗口作为参数,对应的就是这种稀疏连接,共享参数的结构。
0 S% q5 k* ?5 {1 w7 t5 V. \% U! `) b) [# d' }$ m- [' F
干嘛的
6 k, R) w3 i# r# G这样的连接方式虽然非常全面,不会漏掉任何一个神经元的作用,但是缺点也明显,这种连接使得参数过多,训练时间就会变长,比如处理大图片,像素个数可能有几百万维,参数数量太过庞大,导致训练时间过长,于是有大神提出了卷积神经网络(CNN)。% k  b. u% o9 Z2 y5 ^4 t9 F
1 I: z. _4 d: l3 W! s
卷积神经网络至少有一个卷积层,可以用来提取特征,也就是把图片抽象化,这样就可以减少一定的信息量,参数自然就少了,同时卷积层通过共享参数的方式工作,也可以减少参数。举个例子,如果我们要识别一只猫,如果用全连接的方式可能就会描述成,一只有黄色的大耳朵蓝眼睛身体肥大的波斯猫。但是通过卷积神经网络的卷积层后,会描述成一只猫,这样就提高了通用性,只描述了抽象的特征。
5 W& V8 d) d6 Y/ [/ Y% r) z0 D: F1 T$ D0 ?
比如如果我要想学习交通灯的特征,交通灯只在图片里的某一部分,并非全部,如果我把像素点一个个的观察过去,是不是有点浪费,能不能用个大的窗口,直接把交通灯给捕捉出来呢,这也是用CNN的一个特点。+ o' ^# J) }% ~/ T# B' a! w
4 v* {/ E1 x6 n- K3 s6 a) ?

- j3 q9 v6 M! D2 `% B卷积核& ?5 x0 X6 G5 ]4 F
就是上面所说的窗口,可以简单的理解为提取相应特征的参数,把高纬度的映射到低纬度,是一种有损压缩,他的表达式也可以看成6 t1 @2 F- `: {+ k
y=wx+b
$ c1 Q, ?  E% |& Z
- e2 Z" _! O1 Z. h5 o/ M
1 |$ B1 b5 O9 @# e8 |池化层

一种处理层,类似卷积层,又进行了一次特征提取,减少下一层数据的处理量,进一步获取更为抽象的信息。主要分为最大池化和平均池化,即取窗口中最大的或者取平均数放入新图片里。


& y3 h; H$ k) k/ @4 Z" J" h
9 `3 f2 H' B5 L) R6 N9 O好了,今天就到这里了,希望对学习理解有帮助,大神看见勿喷,仅为自己的学习理解,能力有限,请多包涵,图片均来自网络,侵删。有问题加我QQ数学中国浅夏32437105607 r- i+ i' Z9 ]5 p4 X# n

# v9 m. B- f: ~( k" K$ E! T, U8 G+ E+ G

, @6 V# R3 s: T% u




欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5