相关题目
单选题
全局最优解的函数损失值最小。
单选题
卷积神经网络中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到,其作用是特征提取。
单选题
经过权值和阈值不断迭代调整的过程,就是网络的学习与训练过程。
单选题
SOFTMAX函数,是用来将全数域函数结果映射到概率空间。
单选题
relu函数只能在全连接层的神经网络里面有意义,在卷积层没有意义。
单选题
注意力机制的非线性激活函数常用tanh。
单选题
在卷积神经网络训练时,可以对输入进行旋转、平移、缩放等操作,从而提高模型泛化能力。
单选题
有监督学习和无监督学习相比的一个区别在于,有监督学习需要对数据进行标识,无监督学习不用。
单选题
循环神经网络只能进行分类处理
单选题
提升卷积核(convolutionalkernel)的大小会显著提升卷积神经网络的性能,这种说法是
