相关题目
对于神经网络的说法,下面正确的是()。(难度:★)1)增加神经网络层数,可能会增加测试数据集的分类错误率2)减少神经网络层数,总是能减小测试数据集的分类错误率3)增加神经网络层数,总是能减小训练数据集的分类错误率
语言模型的参数估计经常使用最大似然估计,面临的一个问题是没有出现的项概率为0,这样会导致语言模型的效果不好。为了解决这个问题,需要使用()。(难度:★★)
当考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个针对类似问题已经预先训练好的神经网络。你可以用下面哪种方法来利用这个预先训练好的网络?(难度:★★)
我们想在大数据集上训练决策树,为了使训练时间更少,我们可以()。(难度:★)
以P(w)表示词条w的概率,假设已知P(南京)=0.8,P(市长)=0.6,P(江大桥)=0.4,P(南京市)=0.3,P(长江大桥)=0.5,在训练语料中未出现的词条概率为0。假设前后两个词的出现是独立的,那么分词结果就是()。(难度:★★★)
假设在训练中我们突然遇到了一个问题:在几次循环之后,误差瞬间降低。你认为数据有问题,于是你画出了数据并且发现也许是数据的偏度过大造成了这个问题,你打算怎么做来处理这个问题?(难度:★★★)
下列哪个不属于常用的文本分类的特征选择算法?(难度:★★★)
下列不是SVM核函数的是()。(难度:★★★)
以下哪种技术对于减少数据集的维度会更好?(难度:★★)
以下哪种方法不属于特征选择的标准方法?(难度:★★)
