QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 760|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1184

主题

4

听众

2916

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数$ A# Q; s5 L, a: E3 ~
* m  L9 F! ^- i8 a
### Logistic 回归原理( }. j: l4 ]" x- f" r  m1 \- ~
2 a2 C9 m, Z0 {$ k, ^# u* _$ T+ a
1. **Sigmoid 函数**:6 S% [7 _9 W/ n% w
   \[/ W1 ~) w) t  n& B/ ~; ^5 t* `" o% T3 k
   \sigma(z) = \frac{1}{1 + e^{-z}}
! Q1 F' H& h4 D   \]9 v5 U" ]+ @  F5 W" G2 W2 @0 B
   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。
; {! ~  Y, E. Q, ]. s) Q' l
  u7 M' \0 g; q4 Z" H2. **损失函数**:5 q" T/ [' {& l8 X# u/ S
   Logistic回归的损失函数是对数损失函数(Log Loss):2 N- J4 r+ k5 h- h1 h6 h5 ~2 s
   \[1 B1 B9 d; Y# V& p- g
   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]
2 c' S  V3 p0 T   \]
3 o) |1 l) h# s6 r   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。
" Z; _4 a( @* s' S4 J  H- C
4 ~9 y7 l( ~2 D3. **梯度下降法**:
' H! Y) T5 U$ |7 A# I   梯度下降更新参数的公式为:( R0 r. U9 O0 j% F7 t3 ?
   \[" {" @. Q/ Z, C; \! G
   \theta := \theta - \alpha \nabla J(\theta)
% D1 D6 ~- N' i) o$ h% B% M1 N- y' q   \]1 W9 n$ l- \6 I" `" f
   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。
6 I- z+ X/ X5 S
5 V1 F5 P+ v& D) f% r) q1 W9 ~* O; `, \* b4 X+ M! j- d

7 s" g& Y  Q, j1 o/ a; R% ]2 r( f4 D) x$ Q" j: D

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2025-12-28 16:58 , Processed in 0.398025 second(s), 54 queries .

回顶部