相关题目
单选题
bagging不允许训练实例被同一个预测器多次采样。
单选题
通过计算一个特征在森林中所有树上的平均深度,可以估算出一个特征的重要程度。
单选题
随机森林的一大优势在于它既可用于分类,也可用于回归问题。
单选题
信息的不确定性越大,熵的值也就越大。
单选题
Gini指数越大表示集合中被选中的样本被分错的概率越小,也就是说集合的纯度越高。
单选题
数据集太小,数据样本不足时,深度学习相对其它机器学习算法,有明显优势。
单选题
Kmean模型能自动生成K个聚类中心。
单选题
KNN不需要进行训练。
单选题
LR的损失函数为hingeloss(或者说是逻辑损失都可以)、而SVM的损失函数为Log损失。
单选题
LR更侧重全局优化,而树模型主要是局部的优化。
