QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3198|回复: 0
打印 上一主题 下一主题

[已经解决] 不同的激活函数,选择权重的初始化方法可能会有所差异

[复制链接]
字体大小: 正常 放大

1176

主题

4

听众

2884

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2023-9-30 09:47 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
对于不同的激活函数,权重的初始化方法可能会有所差异。选择适当的权重初始化方法可以推动神经网络的训练过程,并有助于加快收敛速度。
9 C! q* }1 q8 p) ^( X以下是一些常见的权重初始化方法和它们与激活函数的关系:
9 B' {9 Z1 a) R) l" K' P/ k# f0 `0 l4 l9 ~+ T9 _8 @" Q
1.零均值初始化(Zero Initialization): 对于激活函数如sigmoid和tanh等在值域中心接近于零的函数,可以使用零均值初始化(将权重初始化为零或接近零)。然而,仅使用零初始化可能导致所有神经元的输出都相等,从而影响参数的更新和网络的表达能力,因此在实践中很少使用纯零均值初始化。) J& U' `; c9 V& P+ B
2.Xavier/Glorot初始化: 常用于sigmoid和tanh等函数的权重初始化方法。根据激活函数的特点,Xavier/Glorot初始化通过从高斯分布中抽取权重,并根据之前和当前层的神经元数量进行缩放,以使权重具有适当的范围,以避免梯度消失或梯度爆炸。
) H, k" M. I. L1 l7 Q( {2 @" v9 H3.He初始化: 对于具有ReLU和其变种(例如Leaky ReLU)等激活函数的网络,He初始化是常用的选择。He初始化根据ReLU激活函数将权重从高斯分布中采样,并根据之前和当前层的神经元数量进行缩放。它提供了适当的方差,使得网络能够更好地学习非线性特征。
, \. ]/ W& S& C. j1 @2 v2 Q0 z4.自适应方法: 还有一些自适应的权重初始化方法,如均匀分布的Kaiming初始化和正态分布的Lecun初始化。这些方法基于网络层的激活函数和参数数量,自动选择适当的初始化范围和方差。6 I6 ^% S1 g, q
. G3 V. U& i4 R  j8 n
请注意,这些权重初始化方法仅考虑了权重的初始化,偏置项的初始化通常可以选择为零或根据特定需求进行初始化。
$ C) \! a, V1 W6 H8 O2 q  X总之,在选择权重初始化方法时,应根据所使用的激活函数和网络结构的特点进行选择,并可能需要进行实验和调整以获得最佳结果。同时,其他的正则化方法,如批归一化和权重衰减,也可以进一步提升网络的表现。
  p3 q3 ^2 w6 h# a. E' A" b6 D! `4 a+ f2 h7 E; P
$ [2 w7 P9 L5 Q1 [; u
zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2025-9-16 10:27 , Processed in 0.362729 second(s), 50 queries .

回顶部