相关题目
单选题
KNN不需要进行训练。
单选题
LR的损失函数为hingeloss(或者说是逻辑损失都可以)、而SVM的损失函数为Log损失。
单选题
LR更侧重全局优化,而树模型主要是局部的优化。
单选题
交叉熵损失函数的设计是基于最大似然思想:最大概率得到观察结果的假设是真的。
单选题
卷积神经网络由多个卷积层和池化层组成,卷积层负责对输入进行扫描以生成更抽象的特征表示,池化层对这些特征表示进行过滤,保留最关键的特征信息。
单选题
对于计算机视觉问题,效果最好的模型是经典的全连接神经网络。
单选题
神经网络中,前向计算是指从输入计算输出的过程,顺序从网络后至前。
单选题
多层非线性映射(multi-layernonlinearprojection):表示深度学习网络的隐层,DSSM使用三个全连接层,每一层神经元的个数是300,然后最后一层的维度是128维度,激活函数采用tanh。
单选题
两个变量的 Pearson 相关性系数为零,但这两个变量的值同样可以相关。
单选题
对于 PCA(主成分分析)转化过的特征 , 朴素贝叶斯的”不依赖假设”总是成立, 因为所有主要成分是正交的。
