QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 633|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1177

主题

4

听众

2891

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数
9 F, P. v* q% X! I( y9 X. N+ y- F( ^- \/ @& ^) }2 c
### Logistic 回归原理
6 @5 j6 `# P8 W9 m+ B; x9 G: |" ?; \% E
) l- L9 [; {- t5 t0 Y1. **Sigmoid 函数**:
  p2 r( M) e6 r$ u+ _; X+ y! V   \[
- I$ c/ \* b6 B; Q8 d   \sigma(z) = \frac{1}{1 + e^{-z}}; g$ y: E% N; T8 k
   \]6 K7 _+ ?# `/ w2 e' z, i" `2 J
   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。0 q" A& x, w: b2 O- Z

/ P" [3 G9 f8 p4 F0 \2. **损失函数**:
* `3 s* o) \# E" u8 X   Logistic回归的损失函数是对数损失函数(Log Loss):/ N! {( q6 T8 G  R7 Q- l
   \[& t5 T+ v5 {) }2 Q" X
   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]: \. M" @' L/ Z- y1 O
   \]0 L5 ~5 f* S% l7 Y. W
   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。
6 z7 }* a& Y+ T2 _8 Q9 \: P2 a  ^7 B$ l# c& a& n: g- z
3. **梯度下降法**:* T/ Y4 B8 ]% r7 w( u
   梯度下降更新参数的公式为:
- V% S; j, Z0 S, b; R/ `& N   \[! G5 f6 q) P, y
   \theta := \theta - \alpha \nabla J(\theta)
4 M+ m$ }& y/ ?: E9 ]6 }* }   \]
  f9 C9 A1 K: u$ p6 i5 {1 a   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。
+ k/ Y- J9 w8 b9 q& y+ Q  T+ Q( s: r0 t, U* o! Y

$ Z, z; s7 J" _
- F% c8 _& K, ?4 H( N
' B1 N7 p; {, X# n* \( G

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2025-11-12 02:25 , Processed in 1.577806 second(s), 54 queries .

回顶部