QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 442|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1175

主题

4

听众

2859

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数
, Y" J) E8 p2 k: w
# p2 |- Z. B, n### Logistic 回归原理- n' \) U# o: I, A

, H: H0 x; a" Z6 d0 c1. **Sigmoid 函数**:
2 Y  n/ A# j2 b: w0 z: K   \[: g. {7 x) ?+ s6 ?: q* P: z
   \sigma(z) = \frac{1}{1 + e^{-z}}
) j4 f, z2 O& ], p0 H* p0 j   \]- Y9 V8 N- ]9 ~; q
   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。' Y' K3 k4 R" e
: e# F0 i. u+ l9 b) ~% j! E0 Q
2. **损失函数**:& B" J$ ^! l3 E8 u
   Logistic回归的损失函数是对数损失函数(Log Loss):
0 {% O  ~  T2 ^0 x2 b' R5 d; E   \[3 V% A  o/ j- x+ N. y4 X
   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]# j2 ^7 B/ r# o/ M' T1 A$ ^! I9 d9 }
   \], X0 m: V3 P/ e
   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。# o2 d6 t$ {1 Z; z% I. N+ c
" j( n& A' Z0 p5 r+ b2 ^
3. **梯度下降法**:9 p6 v3 O, h1 i$ Z- s. d; D
   梯度下降更新参数的公式为:
1 T6 W/ c; r, X   \[2 z- n& Y# r, I0 z+ {
   \theta := \theta - \alpha \nabla J(\theta)3 d( k- E3 p, r9 R
   \]; y1 I2 j  {8 i- d: ]/ ]* l
   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。
! B+ G/ m* }- L0 R& k' v
- e% g- [- [* q8 ?  w& ^, g' |9 k
( l! u3 E9 Y- \2 q4 d- H; {. g9 E% v, [
9 u1 S; C$ w* D# y, I) n

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2025-8-7 18:36 , Processed in 0.541869 second(s), 54 queries .

回顶部