相关题目
梯度下降算法的正确步骤是什么?(难度:★★)1)计算预测值和真实值之间的误差2)重复迭代,直至得到网络权重的最佳值3)把输入传入网络,得到输出值4)用随机值初始化权重和偏差5)对每一个产生误差的神经元,调整相应的(权重)值以减小误差
基于统计的分词方法为()。(难度:★★★)
在大规模的语料中,挖掘词的相关性是一个重要的问题。以下哪一个信息不能用于确定两个词的相关性?(难度:★★★★)
对于神经网络的说法,下面正确的是()。(难度:★)1)增加神经网络层数,可能会增加测试数据集的分类错误率2)减少神经网络层数,总是能减小测试数据集的分类错误率3)增加神经网络层数,总是能减小训练数据集的分类错误率
语言模型的参数估计经常使用最大似然估计,面临的一个问题是没有出现的项概率为0,这样会导致语言模型的效果不好。为了解决这个问题,需要使用()。(难度:★★)
当考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个针对类似问题已经预先训练好的神经网络。你可以用下面哪种方法来利用这个预先训练好的网络?(难度:★★)
我们想在大数据集上训练决策树,为了使训练时间更少,我们可以()。(难度:★)
以P(w)表示词条w的概率,假设已知P(南京)=0.8,P(市长)=0.6,P(江大桥)=0.4,P(南京市)=0.3,P(长江大桥)=0.5,在训练语料中未出现的词条概率为0。假设前后两个词的出现是独立的,那么分词结果就是()。(难度:★★★)
假设在训练中我们突然遇到了一个问题:在几次循环之后,误差瞬间降低。你认为数据有问题,于是你画出了数据并且发现也许是数据的偏度过大造成了这个问题,你打算怎么做来处理这个问题?(难度:★★★)
下列哪个不属于常用的文本分类的特征选择算法?(难度:★★★)
