QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 650|回复: 0
打印 上一主题 下一主题

[其他资源] 深度神经网络的缺点

[复制链接]
字体大小: 正常 放大

775

主题

1

听众

1953

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2023-7-21 11:13 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
  • 00001. 梯度消失, 梯度爆炸问题。 在传统的深度神经网络中,由于存在多层堆叠的非线性变换,梯度很容易在反向传播过程中逐层缩小或变得非常大,导致训练不稳定、难以收敛。这被称为梯度消失和梯度爆炸问题。梯度消失是指梯度在网络层间逐渐减小至接近零的现象,导致浅层网络层的权重几乎不更新,使得网络无法学习有效的特征表示。梯度爆炸则是指梯度变得非常大,导致模型参数更新过于剧烈,使得模型变得不稳定且无法利用训练数据进行良好的学习
    00002. 过拟合问题。随着网络层数的加深,参数变多,神经网络的拟合能力变得很强, 这也就意味着其表达出来的函数会更复杂, 而如果对于简单问题如二分类问题, 采用过于复杂的函数, 是极容易导致过拟合的。而对于复杂问题如图像问题以及语言问题, 由于其本身的复杂度, 网络的深度一般是越深, 效果越好。
    00003. 退化问题。随着网络层数的增加, 会出现退化问题, 该问题的本质是由于出现了信息丢失而产生的过拟合问题。 该问题最初是在CNN网络中提出的, 对于CNN而言, 每一层在通过卷积核后都会产生一种类似有损压缩的效果, 如果卷积多次, 不可避免的导致由于抽象程度过高以及信息丢失, 最终导致训练误差变大, 最终导致退化问题。
  • * d% B7 c1 F" n: w: W

4 w* J$ z6 X% [. `% I8 E
2 P: {$ M& L$ w& ~% T
zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2024-4-28 01:24 , Processed in 0.273904 second(s), 50 queries .

回顶部