- 在线时间
- 479 小时
- 最后登录
- 2026-4-17
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7792 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2923
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1171
- 主题
- 1186
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
重新设计网络层更少的网络,在循环神经网络中,训练过程中在更少的先前时间步上进行更新。(沿时间的截断反方向传播)来缓解梯度爆炸问题。使用ReLU激活函数使用LSTM网络6 H% J- U) A' x6 B
LSTM(长短期记忆),是一种特殊的RNN, 在循环神经网络中,梯度爆炸发生可能是因为某种网络的训练本身存在不稳定性,如随时间的反向传播本质上是将循环网络转换成深层神经网络。
/ J) F, O* _8 R- f5 a3 p/ l9 t使用LSTM单元和相关的门类神经元结构可以减少梯度爆炸问题。使用梯度截断, 在训练过程中检查和限制梯度的大小,当梯度超过阈值就截断。对权重使用正则化。惩罚产生较大权重的损失函数。
8 @. q- p4 w- e' o5 d/ ?4 N
C: ^, A- k; M/ V$ W( b r& v$ |' ]& [" s8 Z& ]8 t! [
9 \* [. e4 P u( \' j# L- D1 F! G
& [2 K) ^! v, T! z2 u6 g* i9 Z |
zan
|