- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563437 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174254
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
Logistic回归原理浅谈原文参考http://blog.csdn.net/ariessurfer/article/details/41310525 ! J4 M0 R. @8 g4 z( S- Q$ g
Logistic回归为概率型非线性回归模型,是研究二分类观察结果与一些影响因素之间关系的一种多变量分析方法。通常的问题是,研究某些因素条件下某个结果是否发生,比如医学中根据病人的一些症状来判断它是否患有某种病。 " R0 }' @& }6 L/ O
在讲解Logistic回归理论之前,我们先从LR分类器说起。LR分类器,即Logistic Regression Classifier。在分类情形下,经过学习后的LR分类器是一组权值,当测试样本的数据输入时,这组权值与测试数据按照线性加和得到 7 [# a6 s4 h4 N8 Y, |
) i, W" {1 }7 d, p6 b% z+ a, \ p这里是每个样本的n个特征。 ' X* ]# H0 Z9 ]4 I
/ e ^$ M5 q. \' |5 x( r' `5 a+ J% R! w( Q; ^4 a9 L) B" w. [% U* d, z. w
这里是每个样本的n个特征。
' L k" I) F7 U( `解出x之后,按照sigmoid函数的形式求出
* {0 I+ r5 W* ~4 t( Dsigmoid函数的图像如图所示
8 U3 T: r/ N$ r1 O2 n! o2 g" P0 Esigmoid函数的定义域为,值域为(0,1)。当x取值为(-INF,0),y的概率小于0.5,y取0的概率比较大;当x取值为(0,INF),y的概率大于0.5,y取1的概率比较大。因此最基本的LR分类器适合对两类目标进行分类。
& v: V4 u/ \) @2 j9 T* {sigmoid函数解释:假设在n个独立自变量作用下,记y取1的概率是p=P(y=1 | x),取0的概率是1-p,取1和取0的概率之比为,称为事件的优势比(odds),对odds取自然对数即得,则 - ?! a* f5 j5 N6 V/ w& g
所以Logistic回归最关键的问题就是研究如何求得这组权值。这个问题是用极大似然估计来做的。
" ^1 P3 o. s' q2 p# G/ N y1 C9 k8 l' [# N; n, Y" n3 ?& D
下面正式地来讲Logistic回归模型。
3 p) v b6 ~% @Logistic回归模型是建立与自然变量的线性回归模型。
# v( b4 X0 A2 P k) ^考虑具有n个独立变量的向量,记y取1的概率是p=P(y=1 | x),取0的概率是1-p,取1和取0的概率之比为,称为事件的优势比(odds),对odds取自然对数即得,则,
* ]+ t: K- @5 l1 b+ ?+ T
e6 g) C7 P$ \3 Y假设有m个观测样本,观测值分别为,设取1的概率是,取0的概率是,所以得到一个观测值的概率服从二点分布,,因为各个观测样本之间相互独立,那么它们的联合分布为各边缘分布的乘积。得到似然函数为,然后我们的目标是求出使这一似然函数的值最大的参数估计,最大似然估计就是求出参数,使得L(w)取得最大值,对函数L(w)取对数,然后对n+1个分别求偏导,得到n+1个方程,解这个n+1个方程组得到。
E. J" P% C+ D4 \7 u3 J" L上述方程比较复杂,一般方法似乎不能解之,所以我们引用了牛顿-拉菲森迭代方法求解。 z6 W7 R8 b* p3 J( h0 O3 C
5 J1 B$ ~" d# I* D
+ U' C) A0 b, `8 s. r& s. `1 R
" b3 D0 Y1 G6 R5 K* w! h |
zan
|