- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563356 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174230
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
|
一种基于高斯过采样的集成学习算法
A1 S- ]% X# x7 s5 ^
* Y9 R5 O& P1 I. [. A8 c4 i% v& E. l
9 n& L) l+ u/ m& E* [" A* h5 q* G: X" [9 U( N7 a$ k# y
在数据挖掘研究领域, 分类任务广泛存在着数据分布不均衡问题, 例如制造状态检测, 医疗' w3 @, \1 p; P& ~
诊断, 金融服务, 等等. SMOTE 是处理不均衡数据分类问题的常用技术, 与 Boosting 算法相结合可% {& i: s1 F$ e& [
进一步提升分类系统性能, 但是这种集成学习容易导致基分类器多样性缺失. 基于此, 本文提出了) v Z8 ~! x }
一种基于高斯过程 SMOTE过采样的 Boosting集成学习算法, 即(Gaussian-based SMOTE in Boosting, ) r' ~% k& K+ `; F8 E; `
GSMOTEBoost). 该算法在 Boosting 集成框架下构建不均衡学习模型, 为了提高分类系统的鲁棒性,' `) A% X& j0 x3 t
采用基于高斯过程 SMOTE 过采样技术来增加基分类器训练样本的多样性, 从而提高基分类器之) _. O, K7 a1 O* l! c! v( {$ n0 Z
间的差异. 为了验证算法的有效性, 以常用的处理不均衡分类问题的算法作为对比方法, 采用 KEEL
7 f. o" b3 K/ |8 Z数据库里的 20 个标准数据集对算法进行测试, 以 G-mean, F-measure 以及 AUC 作为算法的评价指+ ^ i( k$ Q. F6 ], i7 B/ M
标, 利用统计检验手段对实验结果进行分析. 实验结果表明, 相对于其他算法, 本文提出的
4 M+ H! F) |- M! R! T- mGSMOTEBoost 具有显著的优势.
: F4 g# }( R1 j; ^6 Z: G2 m2 z) q# u( ?$ k" R
& U! V: Q- e/ i! S# J$ A
" |/ m4 E" A/ B1 |; Q3 ?- \- ]' z2 _% c5 B! \7 k
|
zan
|