- 在线时间
- 468 小时
- 最后登录
- 2025-7-19
- 注册时间
- 2023-7-11
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 7493 点
- 威望
- 0 点
- 阅读权限
- 255
- 积分
- 2828
- 相册
- 0
- 日志
- 0
- 记录
- 0
- 帖子
- 1160
- 主题
- 1175
- 精华
- 0
- 分享
- 0
- 好友
- 1
该用户从未签到
 |
人工智能本质上是一个最优化过程,对于我们要实现的智能,也就是通过学习求得最优解,人工智能技术的最后几乎都是回到最优解问题上。机器学习、深度学习的核心是模型和算法,而最优化的任务就是告诉模型应该学什么、怎么学和如何才能学得更好。 模型学习往往都归结为求一个带参数的映射函数,需要运用大量数据学到这些参数,并通过不断的测试运行,才能发现模型中参数的优劣。 最优化的任务就是调整参数,向着好的方面调整,假如没有最优化,模型就不知道该怎么学习而导致停滞不前。模型的训练一般会给参数随机赋初始值,然后采用各种优化算法来寻找能让信息量损失或分类错误率更小的参数设置。常用的有一阶算法(如随机梯度下降法、共轭梯度法等)和二阶算法(如基于BFGS或L-BFGS,截断牛顿法(Hessian-free)、Newton-CG等)。
. [ K; H4 s! E5 m) O: y! M2 A
. x* w% D4 S2 N0 ^) ~1 m. l" P! a3 H( @
. V7 E/ t/ y- x- h. w |
zan
|