QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1546|回复: 0
打印 上一主题 下一主题

多项式函数拟合sin函数(最小二乘法求解参数及其正则化)

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-25 16:12 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    多项式函数拟合sin函数(最小二乘法求解参数及其正则化)) L! n8 Q2 G! u' n0 M8 E) C5 S

    ; A1 Q# Z& k% @# W1.统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行分析与预测的一门学科。统计学习包括监督学习、非监督学习、半监督学习和强化学习。
    + S- g( ^0 h+ |4 V* \: r: s( a5 ~2.统计学习方法三要素——模型、策略、算法,对理解统计学习方法起到提纲挈领的作用。
    0 R" z: l$ U; C3 Q+ T( _3.本书主要讨论监督学习,监督学习可以概括如下:从给定有限的训练数据出发, 假设数据是独立同分布的,而且假设模型属于某个假设空间,应用某一评价准则,从假设空间中选取一个最优的模型,使它对已给训练数据及未知测试数据在给定评价标准意义下有最准确的预测。
    ( S4 g9 R$ ]. N) v. K* k4.统计学习中,进行模型选择或者说提高学习的泛化能力是一个重要问题。如果只考虑减少训练误差,就可能产生过拟合现象。模型选择的方法有正则化与交叉验证。学习方法泛化能力的分析是统计学习理论研究的重要课题。& x* @5 i  w$ y! ]. r8 ]% s
    5.分类问题、标注问题和回归问题都是监督学习的重要问题。本书中介绍的统计学习方法包括感知机、K近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、支持向量机、提升方法、EM 算法、隐马尔可夫模型和条件随机场。这些方法是主要的分类、标注以及回归方法。它们又可以归类为生成方法与判别方法。- U' O# q; U: T

    - i4 c' \9 Y* N. V( p8 o
    ; s* [; e; B! o% i" F 1.png
    4 n/ E6 A& {. s0 T% _$ z0 z% n# X# Y
    $ J' r6 s2 p) A1 D5 W/ T 2.png # K; x2 g8 U5 H
    import numpy as np& X! {) i7 e( _3 M
    import matplotlib.pyplot as plt8 m0 M/ G. }: c0 m5 u5 Z# a1 t
    from scipy.optimize import leastsq, H% o% |' P* a
    9 W7 c7 h2 g% L( g3 g& [1 M

    % @, @+ e9 D1 h# 我们要拟合的目标函数: r! F/ _3 S- K3 M) p9 E
    def real_func(x):
    " R: U; P/ B, b& B0 \    return np.sin(2*np.pi*x)
    ; C6 J) p! Z( Q; n9 v6 Z) C; `) S2 Z- N0 f! ^

    ! u0 o& h+ x7 S# c' r; s# 我们自己定义的多项式函数
    2 W% K3 m# n% ^- b8 I2 mdef fit_func(p, x):& Z/ `! p/ |: O( ~" E5 Z
        f = np.poly1d(p)  # np.poly1d([2,3,5,7])返回的是函数,2x3 + 3x2 + 5x + 7
    & ^# `2 p3 p2 h' E: u; c* e. e    ret = f(x)
      x% g; t* p5 p8 B- \    return ret
    6 v$ _) u/ `) o1 y. [4 S) E. X
    - ^! i- J$ Q$ w( n' z* \+ J0 V6 \8 _! O% j0 o
    # 计算残差2 v+ w! x& _2 M
    def residuals_func(p, x, y):
    * k; a9 }: G, M, u- n9 U    ret = fit_func(p, x) - y
    3 _* `7 ~+ L& b, n2 l9 F    return ret
    5 r0 o1 q& p( P5 G. Y
    % p9 O$ T5 A% s" x
    * f) s/ ~0 V3 T/ d/ F) B  D* |* Gdef fitting(M=0):( G% H9 [; [. G4 k" U& D% _( Q% ]
        """  V, X3 e! I) ]6 q7 B- v+ G
            M    为 多项式的次数
    % O7 s! T9 Q# k' `( `1 @    """
    ! _! P- c. M1 N' P8 @* G    # 随机初始化多项式参数
    6 u* I- F/ c4 E% a- E; f" L  C    p_init = np.random.rand(M + 1)  # 返回M+1个随机数作为多项式的参数4 ^( K: S" c! s3 k5 y) W" V
        # 最小二乘法:具体函数的用法参见我的博客:残差函数,残差函数中参数一,其他的参数
    1 E9 ?9 G* Z8 p' b    p_lsq = leastsq(residuals_func, p_init, args=(x, y))6 F, K6 }; N* h# @! F3 O8 @
        # 求解出来的是多项式当中的参数,就是最小二乘法中拟合曲线的系数9 f- n9 g" u) T. X, Q3 x
        # print('Fitting Parameters:', p_lsq[0])
    * {/ @! `7 q% ?  ^$ s# q    return p_lsq[0]3 }5 [1 j( g9 {5 Z) }) X: r1 [' I
    6 v* p8 p7 r# u) q8 K8 Y, `  M

    * ~( U) Z, g% ?. t0 h: F* I) |1 D1 N# 书中10个点,对y加上了正态分布的残差
    5 X+ B1 `1 @" b" _x = np.linspace(0, 1, 10)
    7 Q. W) h+ Q, V5 wy_old = real_func(x)# Z' D2 i7 T- p2 `  f( C9 P' k6 o
    y = [np.random.normal(0, 0.1) + yi for yi in y_old]. F# m& H' ~  J  |
    7 A- a7 c' h! r, n  u: A

    + k. D$ g7 l" y! V" gx_real = np.linspace(0, 1, 1000)5 p' x$ f- x& G: J- a
    y_real = real_func(x_real)8 L) m2 _7 Y! U( {# C

    ; `/ b0 C* C  |# H; i
    . ^! |$ _) Z# A' nplt.plot(x_real, y_real, label="real"), [$ z* N  n( s  L, R- H
    plt.plot(x, y, 'bo', label='point') / t: P& W0 V( ]& x% J
    #  fiitting函数中args=(x, y)是条用的是上面定义的10个点的全局变量x,y9 f6 T4 D1 ~- f. u0 L1 Y1 r8 C
    plt.plot(x_real, fit_func(fitting(9), x_real), label="fitted curve")' \  V) S" c4 w' t
    plt.legend()0 Q! U; Z* R9 s
    plt.show()$ r& p  n# z0 a' z6 o
    $ f7 N) c4 N+ }% N, l( A
    M=0
    ; b" f/ X! c% Q) j- g* {; W8 K% H& K4 x0 T
    3.png $ w+ a% N+ w- t: ~$ H( X- }  D
    M=1# W: {6 q6 [, Y4 K9 |! `
    4.png " T1 W6 e9 R8 Z8 F3 y
    M=3
    8 |8 m7 n6 g5 o# A# E6 q" T9 T4 r1 E6 d6 E5 k* T
    5.png
    0 K! H* [  [' Y4 Q& t2 F# ?$ V& f0 B& J  F* n3 \
    M=9; l, i* p5 I: |2 s. E/ }0 K
    6.png
    2 |) ^5 F2 f+ T' H( L 7.png
    2 A0 U( v6 v+ Z) |' }$ z, U3 L. R2 h% _; y
    / e! o# j. b8 T* n6 ^' @0 _+ y1 FW是参数,就是最小二乘法求得到的系数
    2 x& S  G% R& x& K+ v0 olambda是regularization,是自定义的系数。3 u9 V5 f, o# }3 Y9 P4 h# X% }
    import numpy as np
    5 I$ m6 e5 n5 G- _8 fimport matplotlib.pyplot as plt5 Z% K7 z' f; z3 d  \7 s9 ~+ @
    from scipy.optimize import leastsq
    0 E6 Q5 D, c" R+ o3 N2 C) ~6 ^
    ) d* M6 @/ w$ y2 r  X7 [5 `* h0 J% m6 z+ R5 G
    # 我们要拟合的目标函数
    : {4 [; S! [+ m( i/ Ndef real_func(x):* T1 I) y/ S4 Z/ M- C
        return np.sin(2*np.pi*x)
    7 {# N  u3 b+ `6 ?; ^
    ; p9 I0 C! P  Q1 n' B
    & e# ]+ i. ~% K5 `4 Z/ I0 l: E. k% m# 我们自己定义的多项式函数
    $ P. e# ^8 S) i$ n( l. [3 vdef fit_func(p, x):4 y* K, B. p( A5 R
        f = np.poly1d(p)  # np.poly1d([2,3,5,7])返回的是函数,2x3 + 3x2 + 5x + 7. h5 {  w. h& j& k  e% c( q  ~
        ret = f(x)2 Q: D4 n2 ^& U7 U  F
        return ret
    % T; H3 \% b3 o" l
    ) [7 o, P- S( g, |: {& S  C+ J- G: U$ A( M$ n0 a
    # 计算残差* O2 J8 B6 ?2 l5 s: j3 K+ u  j
    def residuals_func(p, x, y):/ P% G, g! ~& n) B
        ret = fit_func(p, x) - y) H- _: O$ |( o8 t6 b
        return ret
    3 K; N: w: Z( _/ W  k* O/ [4 d& G  k) @0 k+ u
    9 |+ U2 g6 B, P/ `0 M  b
    # 返回残差和正则项1 k6 B" V8 h2 a# B. n
    def residuals_func_regularization(p, x, y):8 y/ `5 E) K7 s
        ret = fit_func(p, x) - y
      Y7 w9 w/ T; s  S- M6 B    ret = np.append(ret,
    % {* d! r$ ^) ]- H                    np.sqrt(0.5 * regularization * np.square(p)))  # L2范数作为正则化项1 r( p0 D. U& _  c$ x; c% A2 K
        return ret
    1 w% A5 h/ p6 \& e5 p2 i' z! J
    + `- g7 z3 g  t0 U" {; K4 x% {$ C7 L9 R
    def fitting(M=0):
    * F2 [. Q  l0 C& e    """
    ( [! Y% C& K9 ~+ \% |0 l* b0 k- Z        M    为 多项式的次数& G1 h1 i1 i, G/ Z) x) x
        """
      V' D: y: u6 O: o7 K/ n3 s, X    # 随机初始化多项式参数, h( B5 q+ z; _9 p; c
        p_init = np.random.rand(M + 1)  # 返回M+1个随机数作为多项式的参数. P+ Z/ ]% H# v2 A) L. [6 u
        # 最小二乘法:具体函数的用法参见我的博客:残差函数,残差函数中参数一,其他的参数
    : e* |  }: V( c5 r1 j5 y    p_lsq = leastsq(residuals_func, p_init, args=(x, y))
    * p. X8 Q* Y6 H8 \. n    # 求解出来的是多项式当中的参数,就是最小二乘法中拟合曲线的系数
      E# t0 z$ ]" e5 Q% L. y5 `    # print('Fitting Parameters:', p_lsq[0])
    ) o* r$ R: J( \2 s# e- n    return p_lsq[0]
    " q+ z7 g* m: }8 s2 u6 N1 M5 ^' s' h, C/ f2 J$ z; n) l6 r

    4 E, I- Q/ ?; [- w# 书中10个点,对y加上了正态分布的残差
    7 o1 r- H& @$ |% z( m7 u( Nx = np.linspace(0, 1, 10)
    : Q7 S9 Z2 k4 R( y/ [- gy_old = real_func(x)
    0 I3 b1 \- d5 U: k8 w( G* ly = [np.random.normal(0, 0.1) + yi for yi in y_old]
    & J  `4 i. p( q' D$ t8 e) K, Z+ @
    " \8 C# ~) q+ B) Q! ?& p. G& W+ R: b8 w6 H5 b. x" t
    x_real = np.linspace(0, 1, 1000)5 S  n8 H- J9 U9 f1 f9 G- p" {
    y_real = real_func(x_real)
    4 |) @7 H2 e7 z; }
    % I# G  Z6 R& m0 S# U
    / E; T" l' y/ Z: P+ w# # 画出10个散点,sin图像,和拟合的曲线
    8 X' A/ J( e9 D& h7 o8 W# plt.plot(x_real, y_real, label="real")
    8 L; N1 N/ Y( j$ H$ g# plt.plot(x, y, 'bo', label='point')+ T+ ^3 y, Q0 f0 q4 j
    # plt.plot(x_real, fit_func(fitting(9), x_real), label="fitted curve")
    4 a4 V! o9 w( @6 j% P. g! w( M# plt.legend()
    3 z6 v# X  o( g' C/ Y' Z3 `4 M# plt.show()
    * J2 y2 ^9 C+ D, [4 a9 d9 J0 c  ?9 V  I% n* P

    6 t. s9 B" c+ m4 ~+ x4 q8 n+ O# 画出添加正则项的曲线
    5 ?& J. O5 u( r: `$ [: B& [regularization = 0.0001
    - X7 W0 D7 y* q( D& S2 S4 bp_init = np.random.rand(9 + 1)
    / E3 S: A4 c6 X! [) o$ j2 ?p_lsq_regularization = leastsq(! e, t" j+ T! f) I) C2 H$ a# z
        residuals_func_regularization, p_init, args=(x, y))
    2 H" d) g* b6 Q/ D) ~$ c8 z: n+ x
    % `3 O/ b7 V% O0 k) J2 A, l# z6 e$ J; S
    # 画出原sin图像,不加正则项的图像,加上正则项的图像,10个点的散点图) K# b/ L# H' @( ^
    # 不加正则项和加上正则项都是9次方,10个系数
    - s  S* N# ]& s& j- Q" jplt.plot(x_real, real_func(x_real), label='real')' v4 n$ D) y: A' O6 g) F6 i, s) E' c& K
    plt.plot(x_real, fit_func(fitting(9), x_real), label='fitted curve')# G, |6 b, M0 Q
    plt.plot(
    2 D# m: _0 e* b2 N3 @    x_real,
    ' o' v' S. q$ ~! {! m8 J    fit_func(p_lsq_regularization[0], x_real),
    ! N' j  K" i; O8 j) s7 L    label='regularization')
      M! E' E8 }# z' i+ e! T6 g9 vplt.plot(x, y, 'bo', label='noise')
    ; d: V1 s2 R' M+ m) @/ Y8 q# ]. Fplt.legend()
    $ F6 u4 e& D2 w& z7 n" D5 hplt.show()3 {$ I8 Q! t) t5 x* V$ D' v
    2 O! [0 Z: A" j+ l0 M3 ?( f
    8.png ! x) |; a% C: t! h/ s

    1 e: J$ `% b, M0 U' c
    8 N; S1 E6 r1 J# w
    ' A1 q( r7 f7 a& k& f! {6 {9 r
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 22:10 , Processed in 0.427969 second(s), 53 queries .

    回顶部