相关题目
单选题
假设我们有一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNORfunction)
单选题
L-BFGS使用的是二阶差分(secondorderdifferentiation)
单选题
AdaGrad使用的是一阶差分(firstorderdifferentiation)
单选题
深度学习与机器学习算法之间的区别在于,后者过程中无需进行特征提取工作,也就是说,我们建议在进行深度学习过程之前要首先完成特征提取的工作。
单选题
对于神经网络,减少神经网络层数,总是能减小测试数据集的分类错误率
单选题
增加卷积核的大小对于改进卷积神经网络的效果是必要的
单选题
当在卷积神经网络中加入池化层(poolinglayer)时,变换的不变性会被保留
单选题
基于二次准则函数的H-K算法较之于感知器算法的优点是计算量小
单选题
LeakyReLU函数解决了神经死亡问题
单选题
当在内存网络中获得某个内存空间时,通常选择读取矢量形式数据而不是标量,这里需要基于内容的寻址或基于位置的寻址来完成
