相关题目
单选题
数据规范化是必不可少的预处理步骤,用于对值进行重新缩放以适合特定范围。
单选题
反向传播是一种用于多层神经网络的训练算法。它将错误信息从网络末端传输到网络内部的所有权重。它允许有效地计算梯度
单选题
Relu激活函数能解决梯度消失问题,但是会出现dyingrelu现象,即训练过程中,有些神经元实际上已经"死亡“而不再输出任何数值
单选题
卷积的作用:捕获图像相邻像素的依赖性;起到类似滤波器的作用,得到不同形态的featuremap
单选题
mini-batch太小会导致收敛变慢
单选题
BN的本质就是利用优化变一下方差大小和均值位置,使得新的分布更切合数据的真实分布,保证模型的非线性表达能力
单选题
用多个小卷积核串联可以有大卷积核同样的能力,2个3*3卷积核可以代替一个7*7卷积核,参数更少;
单选题
对于多分类问题神经网络一般使用欧氏距离损失而不用交叉熵
单选题
感受野的定义是:卷积神经网络每一层输出的特征图上的像素点在原始图像上映射的区域大小。
单选题
空洞卷积也叫扩张卷积,在保持参数个数不变的情况下增大了卷积核的感受野。
