A、从偏差-方差分解的角度看,Boosting主要关注降低偏差
B、从偏差-方差分解的角度看,Bagging主要关注降低方差
C、随机森林简单、容易实现、计算开销小
D、 Boosting不能基于泛化性能相当弱的学习器构建出很强的集成
答案:D
解析:从偏差一方差分解的角度看,Boosting主要关住降低偏差,因此Boosting能基于泛化性能相当弱的学习器构建出很强的集成
A、从偏差-方差分解的角度看,Boosting主要关注降低偏差
B、从偏差-方差分解的角度看,Bagging主要关注降低方差
C、随机森林简单、容易实现、计算开销小
D、 Boosting不能基于泛化性能相当弱的学习器构建出很强的集成
答案:D
解析:从偏差一方差分解的角度看,Boosting主要关住降低偏差,因此Boosting能基于泛化性能相当弱的学习器构建出很强的集成
A. 让每一层的输入的范围都大致固定
B. 它将权重的归一化平均值和标准差
C. 它是一种非常有效的反向传播(BP)方法
D. 这些均不是
A. 数据处理
B. 网络定义
C. 网络训练
D. 网络评估
解析:基础知识
A. 基本假设包括随机干扰项是均值为0,方差为1的标准正态分布
B. 基本假设包括随机干扰项是均值为0的同方差正态分布
C. 多重共线性会使得参数估计值方差减小
D. 基本假设包括不服从正态分布的随机干扰项
解析:线性回归基本假设包括随机干扰项是均值为0的同方差正态分布
A. 字符串
B. 整型
C. 列表
D. 元组
A. 可读,可写入,可执行
B. 可读
C. 可读,可执行
D. 可写入
A. 符号主义
B. 连接主义
C. 行为主义
D. 模拟主义
解析:人工智能主要研究流派为符号主义、连接主义和行为主义
A. 到2035年
B. 到2030年
C. 到2025年
D. 到2020年
解析:我国人工智能三步走战略,其中第一步,到2020年人工智能总体技术和应用与世界先进水平同步,人工智能产业成为新的重要经济增长点
A. 负梯度方向是使函数值下降最快的方向
B. 当目标函数是凸函数时,梯度下降法的解是全局最优解
C. 梯度下降法比牛顿发收敛速度快
D. 梯度下降法需要确定合适的迭代步长
解析:牛顿法需要二阶求导,梯度下降法只需一阶,因此牛顿法比梯度下
降法更快收敛。
A. 不定长
B. 收集
C. 可变
D. 不可变