相关题目
单选题
信息的不确定性越大,熵的值也就越大。
单选题
Gini指数越大表示集合中被选中的样本被分错的概率越小,也就是说集合的纯度越高。
单选题
数据集太小,数据样本不足时,深度学习相对其它机器学习算法,有明显优势。
单选题
Kmean模型能自动生成K个聚类中心。
单选题
KNN不需要进行训练。
单选题
LR的损失函数为hingeloss(或者说是逻辑损失都可以)、而SVM的损失函数为Log损失。
单选题
LR更侧重全局优化,而树模型主要是局部的优化。
单选题
交叉熵损失函数的设计是基于最大似然思想:最大概率得到观察结果的假设是真的。
单选题
卷积神经网络由多个卷积层和池化层组成,卷积层负责对输入进行扫描以生成更抽象的特征表示,池化层对这些特征表示进行过滤,保留最关键的特征信息。
单选题
对于计算机视觉问题,效果最好的模型是经典的全连接神经网络。
