相关题目
单选题
降维是通过获得一组基本上是重要特征的主变量来减少所考虑的特征变量的过程。
单选题
数据归一化是非常重要的预处理步骤,用于重新缩放输入的数值以适应特定的范围,从而确保在反向传播期间更好地收敛。
单选题
朴素贝叶斯分类器将会比判别模型,譬如逻辑回归收敛得更快,因此你只需要更少的训练数据。其主要缺点是它学习不了特征间的交互关系。
单选题
为了解决特定的计算程序,如分类器或专家知识等多种模式,进行战略性生产和组合。这个过程被称为集成学习。
单选题
池化层减小图像尺寸即数据降维,缓解过拟合,保持一定程度的旋转和平移不变性。
单选题
xgboost借鉴了随机森林的做法,支持列抽样,不仅能降低过拟合,还能减少计算。
单选题
标准的SVM只能支持二分类问题。
单选题
bagging不允许训练实例被同一个预测器多次采样。
单选题
通过计算一个特征在森林中所有树上的平均深度,可以估算出一个特征的重要程度。
单选题
随机森林的一大优势在于它既可用于分类,也可用于回归问题。
