QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 4404|回复: 0
打印 上一主题 下一主题

回归模型的判断方法

[复制链接]
字体大小: 正常 放大
浅夏110 实名认证       

542

主题

15

听众

1万

积分

  • TA的每日心情
    开心
    2020-11-14 17:15
  • 签到天数: 74 天

    [LV.6]常住居民II

    邮箱绑定达人

    群组2019美赛冲刺课程

    群组站长地区赛培训

    群组2019考研数学 桃子老师

    群组2018教师培训(呼伦贝

    群组2019考研数学 站长系列

    跳转到指定楼层
    1#
    发表于 2018-10-31 11:25 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    在回归模型中,需要判断模型是否很好地拟合实际数据,一般来讲会有以下方法:
    7 \. x+ S# j% ^. y" ~+ D- j; u0 J7 k
    R平方:表示Y变量中的方差有百分之多少是可以预测的,R平方越高,Y中的方差就预测得越准确,模型的拟合程度也就越高。6 N0 F0 l  n* }9 [0 F
    7 P3 H* @3 j5 v5 b- V0 t$ z4 q- Y
    举个例子,R平方=10%,表示Y中有10%的方差是可以通过X预测出来的。3 R8 ?9 m- u* v: i# u
    1 k8 q9 ?0 y( o" u  G
    F检验(F - test):主要用以判断两个总体(Population)的平均值是否存在显著差异(Significantly different),因此我们可以判断预测值跟实际值两组“总体”数据的平均值是否存在显著差异,如果存在,则可以认为回归模型拟合得不够好。如果F - value大于F值的统计量,我们认为拒绝原假设(两组数据不相关),则x和y(预测值和实际值)是线性(或者非线性)相关的,反正就是两组数有关。% A6 s# P/ k+ m; m$ u- X+ q: h
    2 y2 D# n# n# B8 p& N' |6 n) F7 S
    T检验(T - test):T检验相对F检验来说,更关注回归方程中每个变量的显著程度,可以说F检验是评价模型整体的拟合程度,而T检验是评价回归方程中每个特征x变量的系数的显著程度。在这里,系数是跟0比较的,如果T - value大于T值的统计量,我们认为该特征的系数显著大于0,因此不可以忽略,需要考虑该特征,回归方程中也要保留该特征,如果小于T值统计量,则接收原假设,认为该特征系数跟0没有显著区别,我们可以忽略该特征。; M$ a2 V- `& M9 P1 x

    1 f9 g  J8 K0 ~ AIC(Akaike Information Criterion):AIC是一种信息准则,它提供的是一个参考标准,也就是说,仅仅通过一个AIC值我们并不能得出回归模型的拟合程度,它更多的是通过多个AIC值对比不同回归模型。AIC的公式如下: , ]; _; j& V: V/ N/ |! X

    7 U/ U# ~5 N! @& I) |其中L是似然函数,K是参数数量,而如果总体数据(Population)的误差服从独立正态分布的时候,AIC公式变成:7 O; _: T2 }2 Z; D6 u3 S8 S3 l

    % T: C  K( t5 t1 E( b8 G其中N是数据的数量(观察数),K是参数数量,SSE(Sum of Squared Error)是误差的平方和。
    + e1 `! i  l: G% u$ c3 t$ @, T; U6 d0 W+ Y1 V3 g/ m2 A
    AIC综合考虑了模型的拟合程度以及复杂程度,参考上述正态的公式,当SSE越大的时候,也就是拟合越不好,AIC值也会随着增大;同理,如果参数数量增多,也就是模型复杂度越大,AIC也会增大。单个AIC值参考的意义不大,但如果有两个或者多个AIC值在一起的时候,我们比较两者的AIC值,越小越好。因为考虑了模型复杂度,因此AIC减少了过拟合的可能性。
    $ r, R" q% I3 ?2 Q
    2 f. h0 I" F6 N) LBIC(Bayesian Information Criterion):BIC跟AIC类似,同样提供拟合模型的信息准则,相对AIC,其对模型复杂度的惩罚更大,它的公式如下:. g1 d( {6 w0 y4 M* L( n. C% e
    4 l! E5 \/ L( k7 c
    其中L是似然函数,K是参数数量,当误差服从正态分布时候,BIC公式变成:' D( x7 d2 P" X  ^! l- |4 Y

    ( p& P; Q, G. m- }/ K# J可以看出,当训练样本较小的时候,而模型过于复杂的时候(参数K过多),惩罚较大,BIC会增大,可以避免维度过多的情况。/ j1 q3 Q% l& T" V$ x8 g

    . A$ ~9 }4 w4 k# r! V9 v& o4 |7 R: c) U$ r5 }
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-15 08:47 , Processed in 0.390945 second(s), 51 queries .

    回顶部