QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 810|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2923

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |正序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数
1 R- p0 }7 y5 y! O
4 X2 @6 D6 Z$ q& G0 Q### Logistic 回归原理
; [2 X7 e3 g( U; x. m5 B/ \" @3 y# x+ F. p
1. **Sigmoid 函数**:( E0 V. S4 A/ ]/ N
   \[
' J7 Q' a+ ]7 q! N  m- g0 z   \sigma(z) = \frac{1}{1 + e^{-z}}
) U6 l7 |5 u$ k4 k   \]
) V& ]* ~( X/ f& R: U$ Y$ v4 s: @   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。
9 @1 y3 ^4 d" N5 R3 f5 @9 t2 T2 n4 E  l/ p9 x' P
2. **损失函数**:7 F' w5 G- x1 d. p3 z  o- w
   Logistic回归的损失函数是对数损失函数(Log Loss):4 r; x0 |! Q% M: L+ {1 q7 e
   \[
; L" Y8 i5 o0 U, F0 [   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]' T. P7 h. U! `9 {" _+ Z$ L
   \]
+ |! ?" f  \# c/ d$ A: l   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。
( W0 S: f) X1 e+ P
3 @3 w9 R: ?0 I5 C; w' r3. **梯度下降法**:2 h) }3 C, x$ [3 y5 i
   梯度下降更新参数的公式为:! _; Y5 _+ T& M3 q
   \[
, ?* [8 b. L0 G! z* r' W( w   \theta := \theta - \alpha \nabla J(\theta)+ w5 p& A& w, V% u# B+ X* ?
   \]
% z0 G6 q0 H% v6 Q) P/ b   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。
5 ?5 `0 m  L" T" Q1 h& K
& F6 A+ y4 N. {+ a: b8 j+ p
$ h  N, w6 m$ L) _( F5 y' A
6 `( J, a7 y' P8 M: A& s/ Y  R1 O5 M0 H8 e

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-18 01:36 , Processed in 0.705970 second(s), 55 queries .

回顶部