相关题目
单选题
对于多分类问题神经网络一般使用欧氏距离损失而不用交叉熵
单选题
感受野的定义是:卷积神经网络每一层输出的特征图上的像素点在原始图像上映射的区域大小。
单选题
空洞卷积也叫扩张卷积,在保持参数个数不变的情况下增大了卷积核的感受野。
单选题
池化层减小图像尺寸即数据降维,缓解过拟合,保持一定程度的旋转和平移不变性。
单选题
xgboost借鉴了随机森林的做法,支持列抽样,不仅能降低过拟合,还能减少计算。
单选题
标准的SVM只能支持二分类问题。
单选题
bagging不允许训练实例被同一个预测器多次采样。
单选题
通过计算一个特征在森林中所有树上的平均深度,可以估算出一个特征的重要程度。
单选题
随机森林的一大优势在于它既可用于分类,也可用于回归问题。
单选题
信息的不确定性越大,熵的值也就越大
