扫码进入小程序随时随地练习
哪些项属于集成学习?
下面哪句话正确描述了马尔科夫链中定义的马尔可夫性
下列关于XGboost算法描述中错误的是
Lasso回归的误差函数的惩罚项是学习参数的平方之和
岭回归的误差函数的惩罚项是学习参数的绝对值之和
正则化通过向损失函数增加惩罚项的方式对模型施加制约,以提高模型的泛化能力
采用不同的分割方案对数据集进行划分并进行验证,即所谓的“交叉验证”,可有效防止过拟合
对于超参数的设置可采用网格搜索法确定其最优值
防止过拟合的方法有
对训练数据的预测效果很好,但对验证数据的预测效果不好的现象称为过拟合
为了提高加载速度和练习体验,每3000道题目分为一段,请选择您要练习的分段:
请选择您要练习的章节,系统将加载该章节下的所有题目:
请设置各类题型的数量和分值,系统将随机抽取题目生成试卷:
提示:非会员最多300题,会员最多1000题
以下是您的考试记录,点击可查看详情: