QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 636|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1177

主题

4

听众

2891

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数
9 I* m3 [) c- q) H/ ]* \0 l0 j" [5 p! p& m& O* h! ~
### Logistic 回归原理% }6 Q. r0 F+ ~' B3 y+ I: T0 I( J
' j% s- X3 u# N% ^' B
1. **Sigmoid 函数**:( G6 u3 I8 ~6 R5 Q1 \
   \[- n# r$ X' c3 ?7 Z/ k
   \sigma(z) = \frac{1}{1 + e^{-z}}: l$ g- a2 `; m/ B8 L' E
   \]
8 L7 F) @( ~1 q# B$ \: G( U2 Q7 q" ~   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。
4 q9 }8 n6 l4 V8 l4 n
0 G- I4 u9 _. q& ~! L& Q$ O2 @$ t2. **损失函数**:
; D5 V5 R! ^8 @1 O   Logistic回归的损失函数是对数损失函数(Log Loss):
* i2 ]& T) q7 `. d6 `   \[
" m* N1 k7 F+ K  ]   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]3 V" G) C/ |' Q7 i
   \]% l6 F2 J# Y) P0 m0 f; N' Y; @
   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。1 t3 i% o% h  D+ A+ X, O7 ~

' p  O1 n: a! e9 P( M/ L4 k3. **梯度下降法**:* H$ ^1 q' S6 J5 k2 y
   梯度下降更新参数的公式为:0 @* ]5 `6 T/ e- w5 Z2 a! a
   \[8 L' c1 @! K# P/ z  \& ]7 k
   \theta := \theta - \alpha \nabla J(\theta)( R( L# e4 M" H# c* Q% D
   \]
# Y  `5 X) J. K7 R   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。# L) Z/ L5 m% |% }: x  q

3 N% C4 {' c% r+ J8 c# o
7 N' z& R7 Q$ ?% s3 S) ~1 i  |' m- u! a, G
7 Q' k5 ^" O; H& K4 L/ R' U

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2025-11-12 18:34 , Processed in 0.436033 second(s), 54 queries .

回顶部