相关题目
单选题
如果使用数据集的全部特征并且准确率能够达到100%,但在测试集上准确率仅能达到70%左右,这说明()。
单选题
当学习器将训练样本自身的特点作为所有潜在样本都具有的一般性质,这样会导致泛化性能下降,这种现象称为()。
单选题
()表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界,即刻画了学习问题本身的难度。
单选题
在逻辑回归输出与目标对比的情况下,下列评估指标不适用的是()。
单选题
假如使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其他特征保持不变。然后重新训练测试。则下列说法正确的是()。
单选题
逻辑回归将输出概率范围限定为[0,1],()函数能起到这样的作用。
单选题
()的系数没有封闭形式(closed-form)的解。
单选题
假设在庞大的数据集上使用Logistic回归模型,可能遇到一个问题,Logistic回归需要很长时间才能训练,如果对相同的数据进行逻辑回归,则花费更少的时间,并给出比较相似的精度的方法是()。
单选题
下列关于选择Logistic回归中的One-Vs-All方法的描述正确的是()。
单选题
()算法是决策树学习的基本算法,其他多数决策树学习方法都是它的变体。
