相关题目
LDA算法假设文档中主题的先验分布和主题中词的先验分布都服从狄利克雷分布。
GMM-HMM模型中,GMM主要用于求某一因素的概率,HMM主要用于对每个文本-语音对建模。
GatedRecurrentunits的出现可以帮助防止在RNN中的梯度消失问题。
Batch归一化简化参数搜索问题。
如果我们希望预测n个类(p1,p2 ... pk)的概率使得所有n的p的和等于1,那么下列哪个函数可以用作输出层中的激活函数?
Dropout是一种在深度学习环境中应用的正规化手段。它是这样运作的:在一次循环中我们先随机选择神经层中的一些单元并将其临时隐藏,然后再进行该次循环中神经网络的训练和优化过程。在下一次循环中,我们又将隐藏另外一些神经元,如此直至训练结束。 根据以上描述,Dropout技术在下列哪种神经层中将无法发挥显著优势?
随着句子的长度越来越多,神经翻译机器将句意表征为固定维度向量的过程将愈加困难,为了解决这类问题,下面哪项是我们可以采用的?
反向传播算法一开始计算什么内容的梯度,之后将其反向传播?
下面哪个叙述是对的? Dropout对一个神经元随机屏蔽输入权重 Dropconnect对一个神经元随机屏蔽输入和输出权重
下列哪些项目是在图像识别任务中使用的数据扩增技术(data augmentation technique)? 1 水平翻转(Horizontal flipping) 2 随机裁剪(Random cropping) 3 随机放缩(Random scaling) 4 颜色抖动(Color jittering) 5 随机平移(Random translation) 6 随机剪切(Random shearing)
