相关题目
单选题
高方差是指模型过拟合了,导致在测试集中的泛化能力较差。
单选题
降维是通过获得一组基本上是重要特征的主变量来减少所考虑的特征变量的过程。
单选题
数据归一化是非常重要的预处理步骤,用于重新缩放输入的数值以适应特定的范围,从而确保在反向传播期间更好地收敛。
单选题
朴素贝叶斯分类器将会比判别模型,譬如逻辑回归收敛得更快,因此你只需要更少的训练数据。其主要缺点是它学习不了特征间的交互关系。
单选题
为了解决特定的计算程序,如分类器或专家知识等多种模式,进行战略性生产和组合。这个过程被称为集成学习。
单选题
mini-batch太小会导致收敛变慢,太大容易陷入sharpminima,泛化性不好。
单选题
LSTM代表长期短期记忆。这是一种人工RNN(递归神经网络)架构,用于深度学习领域。
单选题
数据规范化是必不可少的预处理步骤,用于对值进行重新缩放以适合特定范围。
单选题
反向传播是一种用于多层神经网络的训练算法。它将错误信息从网络末端传输到网络内部的所有权重。它允许有效地计算梯度
单选题
Relu激活函数能解决梯度消失问题,但是会出现dyingrelu现象,即训练过程中,有些神经元实际上已经"死亡“而不再输出任何数值
