相关题目
单选题
()的基本想法是适当考虑一部分属性间的相互依赖信息,从而既不需要进行完全联合概率计算,又不至于彻底忽略了比较强的属性依赖关系。
单选题
()算法可以较好地避免样本的不平衡问题。
单选题
()算法要求基学习器能对特定的数据分布进行学习,在训练过程的每一轮中,根据样本分布为每个训练样本重新赋予一个权重。
单选题
在训练的每一轮都要检查当前生成的基学习器是否满足基本条件的算法是()。
单选题
下列说法正确的是()。
单选题
学习率对机器学习模型结果会产生影响,通常希望学习率()。
单选题
当合适的样本容量很难确定时,可以使用的抽样方法是()。
单选题
下列算法中不属于外推法的是()。
单选题
多分类学习中,最经典的三种拆分策略不包括()。
单选题
与生成方法、半监督SVM、图半监督学习等基于单学习机器利用未标记数据不同,基于分歧的方法(disagreement-based methods)使用多学习器,而学习器之间的分歧(disagreement)对未标记数据的利用至关重要。()是此类方法的重要代表。
