相关题目
单选题
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题
单选题
在神经网络中,每个参数可以有不同的学习率
单选题
可以通过将所有权重初始化为0来训练网络
单选题
卷积的物理意义是:一个函数(如:单位响应)在另一个函数(如:输入信号)上的加权叠加。
单选题
训练CNN时,可以对输入进行旋转、平移、缩放等预处理提高模型泛化能力
单选题
给定一个长度为n的不完整单词序列,我们希望预测下一个字母是什么。比如输入是“predictio”(9个字母组成),希望预测第十个字母是什么。下面哪种神经网络结构适用于解决这个工作?
单选题
深度学习是当前很热门的机器学习算法,在深度学习中,涉及到大量的矩阵相乘,现在需要计算三个稠密矩阵A,B,C的乘积ABC,假设三个矩阵的尺寸分别为m∗n,n∗p,p∗q,且m<n<p<q,以下计算顺序效率最高的是
单选题
输入图片大小为200×200,依次经过一层卷积(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一层卷积(kernelsize3×3,padding1,stride1)之后,输出特征图大小为
单选题
在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的权重和偏移呢?
单选题
在下列哪些应用中,我们可以使用深度学习来解决问题?
