QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 381|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1175

主题

4

听众

2818

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数
, E' c2 }8 S$ n3 D2 `  L- @7 s/ P- V5 d* Z7 w" i" q& L5 P; }
### Logistic 回归原理; ?( Z* B: \* X7 R2 N3 b1 N
4 w' Q0 E& Q% U' V* S
1. **Sigmoid 函数**:" n* v% W8 L# b, V% w; C+ H
   \[
0 K4 O+ n6 h5 X% y7 C1 b- f   \sigma(z) = \frac{1}{1 + e^{-z}}" g0 I- ^/ _5 ~8 I) b+ Q' B
   \]: x  q  B6 f7 h" z6 N0 y
   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。
. `, Q0 B+ M( }* o0 J
/ v- e" J: @+ Y! \2. **损失函数**:
& y! Y, q  ~/ S5 \   Logistic回归的损失函数是对数损失函数(Log Loss):
9 v9 |; d# F# ]% j) f3 T4 \5 [   \[4 a4 c: Y9 E+ A" U
   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]" U# K/ S( I( r2 I8 J+ W% u
   \]& n) U: r  F/ k2 S
   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。1 Q, f3 G1 l: d( `$ S2 j# }

7 L7 l9 \2 U) Z3. **梯度下降法**:5 V- W: n1 H2 ~- X- b
   梯度下降更新参数的公式为:% X4 y* }  h0 M: }2 b% @
   \[
2 i2 w1 g$ m! Q. g( G   \theta := \theta - \alpha \nabla J(\theta)
* ~* u% p; `* M+ s$ X5 v$ y& O& v   \]- q4 E3 {; L! X: y7 `) u
   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。
8 I* _3 a8 {- m' I  y: u( H1 W4 {9 V( t( K9 R

, A" P8 t( h' |) t
5 Y$ K& c0 c$ X' h  ~( p& A5 l/ i& I
, Z" o+ ]+ M+ I4 d% \

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2025-7-20 04:39 , Processed in 0.412429 second(s), 54 queries .

回顶部