QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 809|回复: 0
打印 上一主题 下一主题

实现Logistic回归模型学习的梯度下降法

[复制链接]
字体大小: 正常 放大

1186

主题

4

听众

2922

积分

该用户从未签到

跳转到指定楼层
1#
发表于 2025-1-23 19:06 |只看该作者 |倒序浏览
|招呼Ta 关注Ta
在实现Logistic回归模型的学习过程中,梯度下降法是一种常用的优化算法。Logistic回归用于二分类问题,通过使用sigmoid函数来预测样本属于某一类的概率。以下是如何用Python实现Logistic回归,并使用梯度下降法来学习模型参数9 t/ ?3 ~- G- l  N. z
" [. [# L- y, [) g$ Y- e) M
### Logistic 回归原理! ^7 Z: l4 W  V" e% K5 w3 Y

6 x7 B9 T* v, h0 C9 r3 R% d1. **Sigmoid 函数**:
5 h" Y. D1 z/ }. ?, R; o3 M   \[4 f( I7 o! ^8 }4 ]4 P
   \sigma(z) = \frac{1}{1 + e^{-z}}2 O+ e4 \6 k& r) C5 E
   \]
# z1 P; B  m/ P2 ~4 h5 V3 f   这个函数将任何实数映射到(0, 1)区间,用于计算预测概率。
) w. z# L3 J( G& C* c' ?
# o, C4 P  W( @" e0 G' d2. **损失函数**:6 ?% t5 a, {. j5 l
   Logistic回归的损失函数是对数损失函数(Log Loss):9 S/ H9 c5 K7 `4 g4 |8 a
   \[
  |$ u, `( O+ z. ^: \9 |/ R5 N/ z   J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} [y^{(i)} \log(h_\theta(x^{(i)})) + (1 - y^{(i)}) \log(1 - h_\theta(x^{(i)}))]
) I' V9 Z9 U5 F! d  q" A   \]: H2 X+ F' @* Q8 r
   其中 \( h_\theta(x) = \sigma(\theta^T x) \)。4 j# n% t, l  x) [/ H( G) ~
  M. a8 n. X& x$ S9 i
3. **梯度下降法**:
8 c; M6 V1 K8 q: \( X. t- N   梯度下降更新参数的公式为:
6 l9 h, ?9 p+ o0 e/ o   \[
9 H3 t# l% s! I( l: C3 @$ Y' W; n" q   \theta := \theta - \alpha \nabla J(\theta)
8 k5 l$ [" N' Y$ l4 ?) I* t   \]
' }; `% I! f" l6 `' |   其中,\(\alpha\)是学习率,\(\nabla J(\theta)\)是损失函数的梯度。
; \7 `2 f- h, {1 C3 j- @/ D9 r% Z

" X6 X, m% x; D
& n1 Y, ?- o" I) V( M  L6 D/ n; c. O4 H: @% s  X! A" ?( o0 A& r

my_logistic_regression.py

4.64 KB, 下载次数: 0, 下载积分: 体力 -2 点

售价: 2 点体力  [记录]  [购买]

zan
转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
您需要登录后才可以回帖 登录 | 注册地址

qq
收缩
  • 电话咨询

  • 04714969085
fastpost

关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

手机版|Archiver| |繁體中文 手机客户端  

蒙公网安备 15010502000194号

Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

GMT+8, 2026-4-17 04:31 , Processed in 0.432140 second(s), 55 queries .

回顶部