QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 807|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2922

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数* i! X. L1 T' G; f4 q7 X

) N/ m& d' W0 U  C: C! z9 i7 F### Logistic 回归原理
! Z" I% U; U6 U" J2 k. b& n1 c' r. @% j$ L4 B/ F9 w! M, G: Z( \
1. **Sigmoid 函数**:
. Y; {' ]9 e7 k) C   \[
0 |3 q& m3 T3 v2 x   \sigma(z) = \frac{1}{1 + e^{-z}}' u( J4 E$ t* t% F
   \]
9 Y# {6 l% O- Z- F7 k   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。4 K! a$ x9 w* t

4 A0 |6 K! m/ u: ~/ Q2. **损失函数**:
0 ]/ M4 j2 j2 x, P0 T   Logistic回归的损失函数是对数损失函数(Log Loss):6 z& G" q3 ^4 M/ o  e
   \[
, q, I! I  e& `. S& r  A+ {  K: |   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]6 T3 ]6 K) y; h) `( E1 [2 r0 j9 o
   \]
5 G4 Q3 x& j9 Y$ a" x6 k. }   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。" H+ g# n0 H) E

6 V' l! Q7 O9 r8 p7 Q3. **梯度下降法**:1 [! x; i( p' ]2 i
   梯度下降更新参数的公式为:
0 Q! }% c! K" x  \   \[% v, r8 _- I7 O- j
   \theta := \theta - \alpha \nabla J(\theta)  ?- p3 Y7 p3 e" Z( z
   \]; j( }, |2 e+ H# e2 f2 v3 `
   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。
6 F! }$ ?0 `" o0 J# v! b8 u
9 n/ G! O' ?+ S+ Z+ l6 F) ~
; M* q, H% I" h  t6 j( \/ \% R- C) @/ e' }6 T

2 J4 p) I# V2 |2 `) U- Q! ]- B! x& w

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-15 14:53 , Processed in 0.487582 second(s), 60 queries .

回顶部