- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563425 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174250
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
多项式函数拟合sin函数(最小二乘法求解参数及其正则化)) L! n8 Q2 G! u' n0 M8 E) C5 S
; A1 Q# Z& k% @# W1.统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行分析与预测的一门学科。统计学习包括监督学习、非监督学习、半监督学习和强化学习。
+ S- g( ^0 h+ |4 V* \: r: s( a5 ~2.统计学习方法三要素——模型、策略、算法,对理解统计学习方法起到提纲挈领的作用。
0 R" z: l$ U; C3 Q+ T( _3.本书主要讨论监督学习,监督学习可以概括如下:从给定有限的训练数据出发, 假设数据是独立同分布的,而且假设模型属于某个假设空间,应用某一评价准则,从假设空间中选取一个最优的模型,使它对已给训练数据及未知测试数据在给定评价标准意义下有最准确的预测。
( S4 g9 R$ ]. N) v. K* k4.统计学习中,进行模型选择或者说提高学习的泛化能力是一个重要问题。如果只考虑减少训练误差,就可能产生过拟合现象。模型选择的方法有正则化与交叉验证。学习方法泛化能力的分析是统计学习理论研究的重要课题。& x* @5 i w$ y! ]. r8 ]% s
5.分类问题、标注问题和回归问题都是监督学习的重要问题。本书中介绍的统计学习方法包括感知机、K近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、支持向量机、提升方法、EM 算法、隐马尔可夫模型和条件随机场。这些方法是主要的分类、标注以及回归方法。它们又可以归类为生成方法与判别方法。- U' O# q; U: T
- i4 c' \9 Y* N. V( p8 o
; s* [; e; B! o% i" F
4 n/ E6 A& {. s0 T% _$ z0 z% n# X# Y
$ J' r6 s2 p) A1 D5 W/ T
# K; x2 g8 U5 H
import numpy as np& X! {) i7 e( _3 M
import matplotlib.pyplot as plt8 m0 M/ G. }: c0 m5 u5 Z# a1 t
from scipy.optimize import leastsq, H% o% |' P* a
9 W7 c7 h2 g% L( g3 g& [1 M
% @, @+ e9 D1 h# 我们要拟合的目标函数: r! F/ _3 S- K3 M) p9 E
def real_func(x):
" R: U; P/ B, b& B0 \ return np.sin(2*np.pi*x)
; C6 J) p! Z( Q; n9 v6 Z) C; `) S2 Z- N0 f! ^
! u0 o& h+ x7 S# c' r; s# 我们自己定义的多项式函数
2 W% K3 m# n% ^- b8 I2 mdef fit_func(p, x):& Z/ `! p/ |: O( ~" E5 Z
f = np.poly1d(p) # np.poly1d([2,3,5,7])返回的是函数,2x3 + 3x2 + 5x + 7
& ^# `2 p3 p2 h' E: u; c* e. e ret = f(x)
x% g; t* p5 p8 B- \ return ret
6 v$ _) u/ `) o1 y. [4 S) E. X
- ^! i- J$ Q$ w( n' z* \+ J0 V6 \8 _! O% j0 o
# 计算残差2 v+ w! x& _2 M
def residuals_func(p, x, y):
* k; a9 }: G, M, u- n9 U ret = fit_func(p, x) - y
3 _* `7 ~+ L& b, n2 l9 F return ret
5 r0 o1 q& p( P5 G. Y
% p9 O$ T5 A% s" x
* f) s/ ~0 V3 T/ d/ F) B D* |* Gdef fitting(M=0):( G% H9 [; [. G4 k" U& D% _( Q% ]
""" V, X3 e! I) ]6 q7 B- v+ G
M 为 多项式的次数
% O7 s! T9 Q# k' `( `1 @ """
! _! P- c. M1 N' P8 @* G # 随机初始化多项式参数
6 u* I- F/ c4 E% a- E; f" L C p_init = np.random.rand(M + 1) # 返回M+1个随机数作为多项式的参数4 ^( K: S" c! s3 k5 y) W" V
# 最小二乘法:具体函数的用法参见我的博客:残差函数,残差函数中参数一,其他的参数
1 E9 ?9 G* Z8 p' b p_lsq = leastsq(residuals_func, p_init, args=(x, y))6 F, K6 }; N* h# @! F3 O8 @
# 求解出来的是多项式当中的参数,就是最小二乘法中拟合曲线的系数9 f- n9 g" u) T. X, Q3 x
# print('Fitting Parameters:', p_lsq[0])
* {/ @! `7 q% ? ^$ s# q return p_lsq[0]3 }5 [1 j( g9 {5 Z) }) X: r1 [' I
6 v* p8 p7 r# u) q8 K8 Y, ` M
* ~( U) Z, g% ?. t0 h: F* I) |1 D1 N# 书中10个点,对y加上了正态分布的残差
5 X+ B1 `1 @" b" _x = np.linspace(0, 1, 10)
7 Q. W) h+ Q, V5 wy_old = real_func(x)# Z' D2 i7 T- p2 ` f( C9 P' k6 o
y = [np.random.normal(0, 0.1) + yi for yi in y_old]. F# m& H' ~ J |
7 A- a7 c' h! r, n u: A
+ k. D$ g7 l" y! V" gx_real = np.linspace(0, 1, 1000)5 p' x$ f- x& G: J- a
y_real = real_func(x_real)8 L) m2 _7 Y! U( {# C
; `/ b0 C* C |# H; i
. ^! |$ _) Z# A' nplt.plot(x_real, y_real, label="real"), [$ z* N n( s L, R- H
plt.plot(x, y, 'bo', label='point') / t: P& W0 V( ]& x% J
# fiitting函数中args=(x, y)是条用的是上面定义的10个点的全局变量x,y9 f6 T4 D1 ~- f. u0 L1 Y1 r8 C
plt.plot(x_real, fit_func(fitting(9), x_real), label="fitted curve")' \ V) S" c4 w' t
plt.legend()0 Q! U; Z* R9 s
plt.show()$ r& p n# z0 a' z6 o
$ f7 N) c4 N+ }% N, l( A
M=0
; b" f/ X! c% Q) j- g* {; W8 K% H& K4 x0 T
$ w+ a% N+ w- t: ~$ H( X- } D
M=1# W: {6 q6 [, Y4 K9 |! `
" T1 W6 e9 R8 Z8 F3 y
M=3
8 |8 m7 n6 g5 o# A# E6 q" T9 T4 r1 E6 d6 E5 k* T
0 K! H* [ [' Y4 Q& t2 F# ?$ V& f0 B& J F* n3 \
M=9; l, i* p5 I: |2 s. E/ }0 K
2 |) ^5 F2 f+ T' H( L
2 A0 U( v6 v+ Z) |' }$ z, U3 L. R2 h% _; y
/ e! o# j. b8 T* n6 ^' @0 _+ y1 FW是参数,就是最小二乘法求得到的系数
2 x& S G% R& x& K+ v0 olambda是regularization,是自定义的系数。3 u9 V5 f, o# }3 Y9 P4 h# X% }
import numpy as np
5 I$ m6 e5 n5 G- _8 fimport matplotlib.pyplot as plt5 Z% K7 z' f; z3 d \7 s9 ~+ @
from scipy.optimize import leastsq
0 E6 Q5 D, c" R+ o3 N2 C) ~6 ^
) d* M6 @/ w$ y2 r X7 [5 `* h0 J% m6 z+ R5 G
# 我们要拟合的目标函数
: {4 [; S! [+ m( i/ Ndef real_func(x):* T1 I) y/ S4 Z/ M- C
return np.sin(2*np.pi*x)
7 {# N u3 b+ `6 ?; ^
; p9 I0 C! P Q1 n' B
& e# ]+ i. ~% K5 `4 Z/ I0 l: E. k% m# 我们自己定义的多项式函数
$ P. e# ^8 S) i$ n( l. [3 vdef fit_func(p, x):4 y* K, B. p( A5 R
f = np.poly1d(p) # np.poly1d([2,3,5,7])返回的是函数,2x3 + 3x2 + 5x + 7. h5 { w. h& j& k e% c( q ~
ret = f(x)2 Q: D4 n2 ^& U7 U F
return ret
% T; H3 \% b3 o" l
) [7 o, P- S( g, |: {& S C+ J- G: U$ A( M$ n0 a
# 计算残差* O2 J8 B6 ?2 l5 s: j3 K+ u j
def residuals_func(p, x, y):/ P% G, g! ~& n) B
ret = fit_func(p, x) - y) H- _: O$ |( o8 t6 b
return ret
3 K; N: w: Z( _/ W k* O/ [4 d& G k) @0 k+ u
9 |+ U2 g6 B, P/ `0 M b
# 返回残差和正则项1 k6 B" V8 h2 a# B. n
def residuals_func_regularization(p, x, y):8 y/ `5 E) K7 s
ret = fit_func(p, x) - y
Y7 w9 w/ T; s S- M6 B ret = np.append(ret,
% {* d! r$ ^) ]- H np.sqrt(0.5 * regularization * np.square(p))) # L2范数作为正则化项1 r( p0 D. U& _ c$ x; c% A2 K
return ret
1 w% A5 h/ p6 \& e5 p2 i' z! J
+ `- g7 z3 g t0 U" {; K4 x% {$ C7 L9 R
def fitting(M=0):
* F2 [. Q l0 C& e """
( [! Y% C& K9 ~+ \% |0 l* b0 k- Z M 为 多项式的次数& G1 h1 i1 i, G/ Z) x) x
"""
V' D: y: u6 O: o7 K/ n3 s, X # 随机初始化多项式参数, h( B5 q+ z; _9 p; c
p_init = np.random.rand(M + 1) # 返回M+1个随机数作为多项式的参数. P+ Z/ ]% H# v2 A) L. [6 u
# 最小二乘法:具体函数的用法参见我的博客:残差函数,残差函数中参数一,其他的参数
: e* | }: V( c5 r1 j5 y p_lsq = leastsq(residuals_func, p_init, args=(x, y))
* p. X8 Q* Y6 H8 \. n # 求解出来的是多项式当中的参数,就是最小二乘法中拟合曲线的系数
E# t0 z$ ]" e5 Q% L. y5 ` # print('Fitting Parameters:', p_lsq[0])
) o* r$ R: J( \2 s# e- n return p_lsq[0]
" q+ z7 g* m: }8 s2 u6 N1 M5 ^' s' h, C/ f2 J$ z; n) l6 r
4 E, I- Q/ ?; [- w# 书中10个点,对y加上了正态分布的残差
7 o1 r- H& @$ |% z( m7 u( Nx = np.linspace(0, 1, 10)
: Q7 S9 Z2 k4 R( y/ [- gy_old = real_func(x)
0 I3 b1 \- d5 U: k8 w( G* ly = [np.random.normal(0, 0.1) + yi for yi in y_old]
& J `4 i. p( q' D$ t8 e) K, Z+ @
" \8 C# ~) q+ B) Q! ?& p. G& W+ R: b8 w6 H5 b. x" t
x_real = np.linspace(0, 1, 1000)5 S n8 H- J9 U9 f1 f9 G- p" {
y_real = real_func(x_real)
4 |) @7 H2 e7 z; }
% I# G Z6 R& m0 S# U
/ E; T" l' y/ Z: P+ w# # 画出10个散点,sin图像,和拟合的曲线
8 X' A/ J( e9 D& h7 o8 W# plt.plot(x_real, y_real, label="real")
8 L; N1 N/ Y( j$ H$ g# plt.plot(x, y, 'bo', label='point')+ T+ ^3 y, Q0 f0 q4 j
# plt.plot(x_real, fit_func(fitting(9), x_real), label="fitted curve")
4 a4 V! o9 w( @6 j% P. g! w( M# plt.legend()
3 z6 v# X o( g' C/ Y' Z3 `4 M# plt.show()
* J2 y2 ^9 C+ D, [4 a9 d9 J0 c ?9 V I% n* P
6 t. s9 B" c+ m4 ~+ x4 q8 n+ O# 画出添加正则项的曲线
5 ?& J. O5 u( r: `$ [: B& [regularization = 0.0001
- X7 W0 D7 y* q( D& S2 S4 bp_init = np.random.rand(9 + 1)
/ E3 S: A4 c6 X! [) o$ j2 ?p_lsq_regularization = leastsq(! e, t" j+ T! f) I) C2 H$ a# z
residuals_func_regularization, p_init, args=(x, y))
2 H" d) g* b6 Q/ D) ~$ c8 z: n+ x
% `3 O/ b7 V% O0 k) J2 A, l# z6 e$ J; S
# 画出原sin图像,不加正则项的图像,加上正则项的图像,10个点的散点图) K# b/ L# H' @( ^
# 不加正则项和加上正则项都是9次方,10个系数
- s S* N# ]& s& j- Q" jplt.plot(x_real, real_func(x_real), label='real')' v4 n$ D) y: A' O6 g) F6 i, s) E' c& K
plt.plot(x_real, fit_func(fitting(9), x_real), label='fitted curve')# G, |6 b, M0 Q
plt.plot(
2 D# m: _0 e* b2 N3 @ x_real,
' o' v' S. q$ ~! {! m8 J fit_func(p_lsq_regularization[0], x_real),
! N' j K" i; O8 j) s7 L label='regularization')
M! E' E8 }# z' i+ e! T6 g9 vplt.plot(x, y, 'bo', label='noise')
; d: V1 s2 R' M+ m) @/ Y8 q# ]. Fplt.legend()
$ F6 u4 e& D2 w& z7 n" D5 hplt.show()3 {$ I8 Q! t) t5 x* V$ D' v
2 O! [0 Z: A" j+ l0 M3 ?( f
! x) |; a% C: t! h/ s
1 e: J$ `% b, M0 U' c
8 N; S1 E6 r1 J# w
' A1 q( r7 f7 a& k& f! {6 {9 r |
zan
|