QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 434|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1175

主题

4

听众

2849

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |正序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数
" `& K/ x! {8 V$ N7 ]2 H+ p" T& j6 g, g9 T7 K# T
### Logistic 回归原理) D! I" ^6 z5 U7 W! q
3 T6 K# M- }2 i2 t
1. **Sigmoid 函数**:
3 C$ I/ h0 R# a+ M- p: e! B7 a0 [* x) A   \[
$ {" R0 z! c7 i- p! e& ^/ ^   \sigma(z) = \frac{1}{1 + e^{-z}}
# V# ~/ r& ?" {   \]
2 v7 f  R2 Z; Z   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。' F' N: q: u( u) n$ ]+ ?
' ~! W+ S6 k: S3 _1 G/ ?9 P. Y  G
2. **损失函数**:
9 u+ K0 u+ F* N7 n) O+ i6 o# a   Logistic回归的损失函数是对数损失函数(Log Loss):
% R: f$ r, V. W1 D; e   \[
6 K# q; P, J$ j2 b% `! |; u/ n   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]
% E$ G$ y2 n' g   \]
& m1 L/ c5 r5 l7 F+ m3 Z: F2 \( B   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。* a+ R0 p/ Z8 I+ V, a4 e
+ T8 R: E: ^1 v9 _0 |: Q
3. **梯度下降法**:
( H- r, }$ [& o* K6 Y   梯度下降更新参数的公式为:  c! l4 L! t2 ?# ?$ G* Y0 M( T  i/ i
   \[! Q/ P; K" ?9 x- H, B
   \theta := \theta - \alpha \nabla J(\theta)
/ H2 _' m; D" O   \]" \1 t) ^1 u% y
   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。
) L- R! C, a5 n0 I- k+ t5 b( b; G, h  n
5 F) U; v6 ^7 Z) b5 V
- ?8 A+ ~# W. ]6 Z' U

1 ~* n) x$ z9 p' B+ L  ^

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2025-8-4 01:45 , Processed in 0.397413 second(s), 55 queries .

回顶部