QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 812|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2923

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数
3 C& T4 m: v. |' A8 F: P+ s  L) B; b
### Logistic 回归原理
* h' f! T7 W; D8 ^5 F5 R/ A
% D" l0 l' G, y5 {0 O2 a9 l" p# f1. **Sigmoid 函数**:
7 H6 W3 [  r' R: _   \[
0 h: ^8 ^# }+ @6 ~7 z+ ]+ b0 v4 @   \sigma(z) = \frac{1}{1 + e^{-z}}: i5 `- P' ?- E
   \]
' F! {4 J' i8 h. t3 i* D   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。# @7 c2 G& I8 W- I; X5 V; ?) V
6 f% ]1 w" k( n1 L3 n- T, n
2. **损失函数**:
5 |. z  q7 z' @, W) C   Logistic回归的损失函数是对数损失函数(Log Loss):
3 q9 `* p5 a! F   \[
% V1 j0 Z( l4 S   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]
" O, F* y* ?% D. y0 h6 E* e0 s   \]1 \  n, Z- \" |. ~; G
   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。9 W: b% e. ~; @( S/ S9 t( y- ]

' `! u. h. s3 y/ u+ d3. **梯度下降法**:3 P$ |7 d6 h& \9 g% _  C$ {% Z
   梯度下降更新参数的公式为:
5 C* z7 e) \' y/ L   \[
. z5 o( d0 Q4 `: n   \theta := \theta - \alpha \nabla J(\theta)# l" `) X. r6 k$ ~
   \]
4 a. Y$ O7 p0 u  i7 y   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。, W3 f$ u+ p& H$ I9 G

: ^3 z7 s: W% i; S4 J5 k( g2 ]8 w$ g' q* A: J) Y# ]$ G- _

9 ]9 h  |/ a" Q: V* V* l6 v/ I* y  y3 K4 }

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-18 09:04 , Processed in 0.408277 second(s), 54 queries .

回顶部