APP下载
首页
>
IT互联网
>
随便搞的题库做做
搜索
随便搞的题库做做
题目内容
(
判断题
)
比起极小--极大法来,α-β剪枝法增大了找不到最佳走步的危险性,但其效率较高。

答案:B

随便搞的题库做做
朴素贝叶斯算法不需要样本特征之间的独立
同分布。
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-da98-c07f-52a228da600c.html
点击查看题目
在深度学习任务中,遇到数据不平衡问题
时,我们可以用以下哪些方法进行解诀?
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-da98-c07f-52a228da6004.html
点击查看题目
大数据的应用注重因果分析而不是相关分析
https://www.shititong.cn/cha-kan/shiti/0005e939-dbd1-f8e0-c07f-52a228da603a.html
点击查看题目
神经网络中各个隐藏层能提取出和人类看到的一样的特征。()
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-ea38-c07f-52a228da6021.html
点击查看题目
()的本质是一种逼近离散值目标函数的过程。
https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-9448-c07f-52a228da6030.html
点击查看题目
SVM中的核技巧(Kernaltrick)的作用包括以下哪项?()
https://www.shititong.cn/cha-kan/shiti/0005e939-dbd2-0498-c07f-52a228da602b.html
点击查看题目
语音识别让机器把语音转变为相应的文本或命令。不涉及对语音内容的理解。
https://www.shititong.cn/cha-kan/shiti/0005e939-e31f-a598-c07f-52a228da603b.html
点击查看题目
下列关于线性回归分析中的残差(Residuals)说法正确的是
https://www.shititong.cn/cha-kan/shiti/0005e939-f894-6620-c07f-52a228da6013.html
点击查看题目
关于搜索与求解,描述正确的是() 
https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-0590-c07f-52a228da6013.html
点击查看题目
假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-bf40-c07f-52a228da601e.html
点击查看题目
首页
>
IT互联网
>
随便搞的题库做做
题目内容
(
判断题
)
手机预览
随便搞的题库做做

比起极小--极大法来,α-β剪枝法增大了找不到最佳走步的危险性,但其效率较高。

答案:B

分享
随便搞的题库做做
相关题目
朴素贝叶斯算法不需要样本特征之间的独立
同分布。

A. 正确$;$错误

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-da98-c07f-52a228da600c.html
点击查看答案
在深度学习任务中,遇到数据不平衡问题
时,我们可以用以下哪些方法进行解诀?

A. 批量删除$;$随机过采样$;$合成采样$;$随机欠采样

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-da98-c07f-52a228da6004.html
点击查看答案
大数据的应用注重因果分析而不是相关分析
https://www.shititong.cn/cha-kan/shiti/0005e939-dbd1-f8e0-c07f-52a228da603a.html
点击查看答案
神经网络中各个隐藏层能提取出和人类看到的一样的特征。()
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-ea38-c07f-52a228da6021.html
点击查看答案
()的本质是一种逼近离散值目标函数的过程。

A. 基于实例学习$;$概念学习$;$决策树学习$;$人工神经网络学习

https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-9448-c07f-52a228da6030.html
点击查看答案
SVM中的核技巧(Kernaltrick)的作用包括以下哪项?()

A. 特征升维$;$特征降维$;$防止过拟合

https://www.shititong.cn/cha-kan/shiti/0005e939-dbd2-0498-c07f-52a228da602b.html
点击查看答案
语音识别让机器把语音转变为相应的文本或命令。不涉及对语音内容的理解。

A. 正确$;$错误

https://www.shititong.cn/cha-kan/shiti/0005e939-e31f-a598-c07f-52a228da603b.html
点击查看答案
下列关于线性回归分析中的残差(Residuals)说法正确的是

A. 残差均值总是为零$;$残差均值总是小于零$;$残差均值总是大于零$;$以上说法都不对

https://www.shititong.cn/cha-kan/shiti/0005e939-f894-6620-c07f-52a228da6013.html
点击查看答案
关于搜索与求解,描述正确的是() 

A. 搜索是为了达到某一目标而多次进行某种操作、运算、推理或计算的过程$;$所有的智能活动过程,都可以看作或者抽象为一个基于搜索的问题求解$;$搜索是人在求解问题时不知现成解法的情况下所采取的一种普遍方法$;$搜索可以看作人类和其他生物所具有的一种元知识

https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-0590-c07f-52a228da6013.html
点击查看答案
假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗

A. 可以$;$ 不好说$;$ 不一定$;$ 不能

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-bf40-c07f-52a228da601e.html
点击查看答案
试题通小程序
试题通app下载