相关题目
单选题
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题
单选题
在神经网络中,每个参数可以有不同的学习率
单选题
可以通过将所有权重初始化为0来训练网络
单选题
卷积的物理意义是:一个函数(如:单位响应)在另一个函数(如:输入信号)上的加权叠加。
单选题
训练CNN时,可以对输入进行旋转、平移、缩放等预处理提高模型泛化能力
单选题
强化学习中最终目标不是短期的某一步行动之后获得最大的奖励,而是希望长期地获得更多的奖励。
单选题
相较于机器学习经典的有监督学习、无监督学习问题,强化学习最大的特点是在交互中学习
单选题
在现有的深度学习模型中,句子情感分类通常会形成一个联合的三类别分类问题,即预测句子为积极、中立或消极。
单选题
神经网络中的注意力机制受到人类视觉中注意力的启发,即人类视觉注意力能够聚焦到图像的特定区域,并在这个区域有非常低的分辨率,而在其它区域有较高的分辨率。
单选题
BoW 模型忽略词的顺序,这意味着包含相同单词的两个文档的表征是完全相同的。
