AI智能推荐题库-试题通 AI智能整理导入题库-试题通
×
首页 题库中心 ADABOOST数据题库共6章西安 题目详情
C9ED61926A600001A62B87891FC01988
ADABOOST数据题库共6章西安
2,134
多选题

如果希望减少数据集中的特征数量,则可以采取的措施有()。

A
使用正向选择法(Forward Selection)
B
使用反向消除法(Backward Elimination)
C
逐步选择消除法(Stepwise)
D
计算不同特征之间的相关系数,删去相关系数高的特征之一

答案解析

正确答案:ABCD

解析:

正向选择法(Forward Selection)是首先选择一个特征,每个特征都试一遍,选择对模型准确率提升最高的那个特征;然后再在这个特征基础上添加另外一个特征,方法类似,直到模型准确率不再提示为止。反向消除法(Backward Elimination)是首先包含了所有的特征,然后尝试删除每个特征,最终删掉对模型准确率提升最高的一个特征(如果删除这个特征模型准确率反而增加了,则说明这个特征是无用特征)。以此类推,直到删除特征并不能提升模型为止。相对于正向选择法,反向消除法的优点在于其允许一些低贡献值的特征能够进到模型中去(有时候低贡献值的特征能在组合中有更大的贡献值,而正向选择法忽略了这种组合的可能性),因此反向消除法能够避免受一两个占主导地位的特征的干扰。另外还有一种特征选择方法是逐步选择消除法(Stepwise),该方法结合上述两者的方法,新加入一个特征之后,再尝试删去一个特征,直至达到某个预设的标准。这种方法的缺点是预设的标准不好定,而且容易陷入到过拟合当中。除此之外,也可以使用基于相关性的特征选择,可以去除多重线性特征。
题目纠错
ADABOOST数据题库共6章西安

扫码进入小程序
随时随地练习

关闭登录弹窗
专为自学备考人员打造
勾选图标
自助导入本地题库
勾选图标
多种刷题考试模式
勾选图标
本地离线答题搜题
勾选图标
扫码考试方便快捷
勾选图标
海量试题每日更新
波浪装饰图
欢迎登录试题通
可以使用以下方式扫码登陆
APP图标
使用APP登录
微信图标
使用微信登录
试题通小程序二维码
联系电话:
400-660-3606
试题通企业微信二维码