- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563261 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174201
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
|
一种基于高斯过采样的集成学习算法 Z3 g* _( A% [% B' r1 a
4 ~* k# ?& W, o! _
2 _( a7 O4 s% t/ r) Q6 b. z# }, u' |% N" v; _$ M3 U6 N, q8 Q1 s
在数据挖掘研究领域, 分类任务广泛存在着数据分布不均衡问题, 例如制造状态检测, 医疗
' z, a; O& C- S- s诊断, 金融服务, 等等. SMOTE 是处理不均衡数据分类问题的常用技术, 与 Boosting 算法相结合可4 w9 @3 b3 R: U* ?
进一步提升分类系统性能, 但是这种集成学习容易导致基分类器多样性缺失. 基于此, 本文提出了
2 ~& p W% i$ F: \一种基于高斯过程 SMOTE过采样的 Boosting集成学习算法, 即(Gaussian-based SMOTE in Boosting,
5 u: I% ^' u: M% R9 U' FGSMOTEBoost). 该算法在 Boosting 集成框架下构建不均衡学习模型, 为了提高分类系统的鲁棒性,5 a+ e8 x q5 y4 }; Y8 p) k
采用基于高斯过程 SMOTE 过采样技术来增加基分类器训练样本的多样性, 从而提高基分类器之. [: z2 L& k4 b& @# n, ?7 b
间的差异. 为了验证算法的有效性, 以常用的处理不均衡分类问题的算法作为对比方法, 采用 KEEL
( [8 J2 b% |9 g. B: Q数据库里的 20 个标准数据集对算法进行测试, 以 G-mean, F-measure 以及 AUC 作为算法的评价指
% K. W/ L4 `; H- T& r" P: N$ I标, 利用统计检验手段对实验结果进行分析. 实验结果表明, 相对于其他算法, 本文提出的7 @) T& q; } x# U
GSMOTEBoost 具有显著的优势.$ }: G5 i' i% C+ t: l' |1 e* V
3 w; }. A: C" w% W7 o3 s& {
3 T& t0 A( ~5 P
8 P9 n0 n) ?2 A" D- b c: ~# d7 g
' L4 b7 H/ c z( h% O |
zan
|