QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 793|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1185

主题

4

听众

2919

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数* g, x7 r$ |0 N7 C" w8 ?

2 j( x* n  b) J1 }% {### Logistic 回归原理
& y" W+ X4 G7 ~: P
1 M6 k* P! B: r0 P& E4 s% e1. **Sigmoid 函数**:
- o( m1 U$ E  O; x7 j7 j   \[7 b* ?, _# `4 h4 M3 v1 p3 |
   \sigma(z) = \frac{1}{1 + e^{-z}}% }' {' ^% m4 u
   \]
  Y+ [2 Z7 h+ ]# a   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。1 [2 P9 O9 I# P9 `
/ j3 {6 m5 v9 s, h7 ~: D' Z$ d
2. **损失函数**:! k" \1 A/ V1 H. F) m2 J
   Logistic回归的损失函数是对数损失函数(Log Loss):
, b/ Y- ?8 Y: G; l   \[
! v' @" u  A5 A: ?5 V! d* ~/ f   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]
4 Z! K6 l" c1 m! ^( l: i7 O- d   \]
" J3 ~7 X6 R, c+ e* I, s   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。0 t' z8 f9 M, B4 ~

6 ^3 [. X, F( Z# E4 M! L3 \# q; M3. **梯度下降法**:
( O2 Z1 y2 v& I6 w4 P   梯度下降更新参数的公式为:
* s' ^. _0 U+ E% a2 P   \[6 G6 U% A& `" b
   \theta := \theta - \alpha \nabla J(\theta)
+ {' R- ?, B/ N8 j! }1 A- a+ \$ g   \]$ ~$ m  g% S: t' }
   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。+ o% o" y" [5 T' K& h7 n; T
9 u/ \! y3 ]. O

4 S: T$ ?) j, Q
/ s% ^6 h* Q" E1 a  I: j8 g, D
9 C+ S8 i3 U8 O5 h5 P" j$ I

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-1-12 00:18 , Processed in 1.418128 second(s), 54 queries .

回顶部