QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 811|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2923

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数3 v# d, |& i: |3 u  ^

$ I: z& ?% e% o$ B8 Z0 a2 ^* k### Logistic 回归原理; o% T6 R# ?4 M* [/ g& s9 ~/ X% z

7 A' q) q4 H. c1. **Sigmoid 函数**:4 ~; j/ `, S0 n
   \[
; ~6 w; f! H0 c: `' F  G( M. o; I   \sigma(z) = \frac{1}{1 + e^{-z}}/ {" P; G) w3 f) j  T% r
   \]  _7 ~1 b0 J4 v
   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。) u& A' E/ u. F0 m: }0 q0 r
# ]4 q6 y1 h0 p% a2 a5 V; j  z
2. **损失函数**:
; X, S2 t( N, l5 \- _. W   Logistic回归的损失函数是对数损失函数(Log Loss):/ k' |+ Y) _& z
   \[8 P' [9 C7 s5 Y
   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]( B% z+ P9 Y+ O3 [# b. G& p0 D
   \]" M. O$ \6 E' V& v
   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。3 U+ j5 g2 i; r2 H5 n0 \
# w" k- X1 Z7 \6 p
3. **梯度下降法**:
' l! Q! H. j! L& x2 t. O" Y0 S% w   梯度下降更新参数的公式为:
$ J( ^* L9 G, n* u0 I$ U   \[
; f' x) A/ j& x, g( ~   \theta := \theta - \alpha \nabla J(\theta)
, [& p& T0 N0 X- h) \; j9 F/ u5 b   \]3 j/ b: Q1 s3 W
   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。5 j! K, ?/ _; H  t* t; B7 O
+ \: q* N) U2 Z: `
0 \, H' ^4 _1 Y6 a$ k2 T

* j8 a# p% ]7 X6 l$ r. M
% s/ L& T1 @# \, z9 u7 y

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-18 05:25 , Processed in 0.404826 second(s), 55 queries .

回顶部