相关题目
下面的交叉验证方法 :( )¥i. 有放回的 Bootstrap 方法¥ii. 留一个测试样本的交叉验证¥iii. 5 折交叉验证¥iv. 重复两次的 5 折交叉验证¥当样本是 1000 时,下面执行时间的顺序,正确的是:
如果一个训练好的模型在测试集上有 100%的准确率, 这是不是意味¥着在一个新的数据集上,也会有同样好的表现?( )
以下说法正确的是 :()¥1.一个机器学习模型,如果有较高准确率,总是说明这个分类器是好的¥2.如果增加模型复杂度, 那么模型的测试错误率总是会降低¥3.如果增加模型复杂度, 那么模型的训练错误率总是会降低¥4.我们不可以使用聚类“类别 id”作为一个新的特征项, 然后再用监督学¥习分别进行学习
在有监督学习中, 我们如何使用聚类方法?( )¥1.我们可以先创建聚类类别, 然后在每个类别上用监督学习分别进行学习¥2.我们可以使用聚类“类别 id”作为一个新的特征项, 然后再用监督学习¥分别进行学习¥3.在进行监督学习之前, 我们不能新建聚类类别¥4.我们不可以使用聚类“类别 id”作为一个新的特征项, 然后再用监督学¥习分别进行学习
数据科学家可能会同时使用多个算法(模型)进行预测, 并且最后把¥这些算法的结果集成起来进行最后的预测(集成学习),以下对集成学习¥说法正确的是 :( )
对于 PCA 说法正确的是 :( )¥1.我们必须在使用 PCA 前规范化数据¥2.我们应该选择使得模型有最大 variance 的主成分¥3.我们应该选择使得模型有最小 variance 的主成分¥4.我们可以使用 PCA 在低维度上做数据可视化
对于随机森林和 GradientBoosting Trees, 下面说法正确的是: ( )¥1.在随机森林的单个树中, 树和树之间是有依赖的, 而 GradientBoosting ¥Trees 中的单个树之间是没有依赖的¥2.这两个模型都使用随机特征子集, 来生成许多单个的树¥3.我们可以并行地生成 GradientBoosting Trees 单个树, 因为它们之间是¥没有依赖的, GradientBoosting Trees 训练模型的表现总是比随机森林好
我们建立一个 5000 个特征, 100 万数据的机器学习模型. 我们怎么有¥效地应对这样的大数据训练 : ()
请选择下面可以应用隐马尔科夫(HMM)模型的选项: ( )
假如我们使用非线性可分的 SVM 目标函数作为最优化对象, 我们怎么¥保证模型线性可分?( )
