相关题目
单选题
我们想在大数据集上训练决策树,为了使训练时间更少,我们可以()。(难度:★)
单选题
以P(w)表示词条w的概率,假设已知P(南京)=0.8,P(市长)=0.6,P(江大桥)=0.4,P(南京市)=0.3,P(长江大桥)=0.5,在训练语料中未出现的词条概率为0。假设前后两个词的出现是独立的,那么分词结果就是()。(难度:★★★)
单选题
假设在训练中我们突然遇到了一个问题:在几次循环之后,误差瞬间降低。你认为数据有问题,于是你画出了数据并且发现也许是数据的偏度过大造成了这个问题,你打算怎么做来处理这个问题?(难度:★★★)
单选题
下列哪个不属于常用的文本分类的特征选择算法?(难度:★★★)
单选题
下列不是SVM核函数的是()。(难度:★★★)
单选题
以下哪种技术对于减少数据集的维度会更好?(难度:★★)
单选题
以下哪种方法不属于特征选择的标准方法?(难度:★★)
单选题
在训练神经网络时,损失函数在最初的几个epoch时没有下降,可能的原因是()。(难度:★★)
单选题
在一个神经网络中,下面()方法可以用来处理过拟合。(难度:★)
单选题
下列哪个不是人工智能的技术应用领域?(难度:★)
