相关题目
单选题
relu函数只能在全连接层的神经网络里面有意义,在卷积层没有意义。
单选题
注意力机制的非线性激活函数常用tanh。
单选题
在卷积神经网络训练时,可以对输入进行旋转、平移、缩放等操作,从而提高模型泛化能力。
单选题
有监督学习和无监督学习相比的一个区别在于,有监督学习需要对数据进行标识,无监督学习不用。
单选题
循环神经网络只能进行分类处理
单选题
提升卷积核(convolutionalkernel)的大小会显著提升卷积神经网络的性能,这种说法是
单选题
梯度下降算法的收敛点取决于代价函数。
单选题
生成对抗网络中的生成器既可以是卷积神经网络,也可以是循环神经网络。
单选题
深层神经网络,不添加激活函数效果也很好。
单选题
强化学习需要预先给定数据,才能通过接收环境对动作的奖励进行学习。
