- 在线时间
- 479 小时
- 最后登录
- 2026-4-17
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7792 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2923
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1171
- 主题
- 1186
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
重新设计网络层更少的网络,在循环神经网络中,训练过程中在更少的先前时间步上进行更新。(沿时间的截断反方向传播)来缓解梯度爆炸问题。使用ReLU激活函数使用LSTM网络
0 ]' b$ S' l+ _2 wLSTM(长短期记忆),是一种特殊的RNN, 在循环神经网络中,梯度爆炸发生可能是因为某种网络的训练本身存在不稳定性,如随时间的反向传播本质上是将循环网络转换成深层神经网络。
2 W4 x, z; t# y8 w! D: |/ o2 B使用LSTM单元和相关的门类神经元结构可以减少梯度爆炸问题。使用梯度截断, 在训练过程中检查和限制梯度的大小,当梯度超过阈值就截断。对权重使用正则化。惩罚产生较大权重的损失函数。
* K: B) z# O4 k' p
# m* z. w9 f0 e
/ d2 i( d/ p/ ^- b, i2 z- c, f- w6 l- I8 g9 q h
# l6 Q6 M8 Y3 a) B& J' {
|
zan
|