APP下载
首页
>
IT互联网
>
随便搞的题库做做
搜索
随便搞的题库做做
题目内容
(
多选题
)
LibraRCNN从()几个角度论证并增强了两阶段检测模型

A、FPN特征$;$RPN结构$;$正负样本采样$;$Loss

答案:ACD

随便搞的题库做做
机器学习中L1正则化和L2正则化的区别是?(  )
https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-9c18-c07f-52a228da6011.html
点击查看题目
下列关于XGboost算法描述中错误的是
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-caf8-c07f-52a228da6024.html
点击查看题目
下列关于Python函数调用说法错误的是( )。
https://www.shititong.cn/cha-kan/shiti/0005e939-eea4-f120-c07f-52a228da6010.html
点击查看题目
掷2n+1次硬币,正面向上次数多于反面向上次数的概率是()。
https://www.shititong.cn/cha-kan/shiti/0005e939-f894-6df0-c07f-52a228da6011.html
点击查看题目
一般而言,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于同一类别,即结点的()越来越高。
https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-9448-c07f-52a228da6007.html
点击查看题目
国际标准分类中,人工智能技术涉及到信息技术应用、信息技术(IT)综合、工业自动化系统、信息技术用语言、()、网络
https://www.shititong.cn/cha-kan/shiti/0005e939-dbd1-fcc8-c07f-52a228da602f.html
点击查看题目
假设我们已经在ImageNet数据集(物体识别)上训练好了一个卷积神经网络。然后给这张卷积神经网络输入一张全白的图片。对于这个输入的输出结果为任何种类的物体的可能性都是一样的,对吗?
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-d2c8-c07f-52a228da6002.html
点击查看题目
随着卷积层数的增加,下面描述正确的是:①.在一定层数范围内,效果越来越好②.能够抽取的特征更加复杂③.层数越多越容易发生梯度消失
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-de80-c07f-52a228da6006.html
点击查看题目
以下关于最大似然估计MLE的说法正确的是
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-c710-c07f-52a228da6039.html
点击查看题目
以下属于梯度下降的是
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-bf40-c07f-52a228da601f.html
点击查看题目
首页
>
IT互联网
>
随便搞的题库做做
题目内容
(
多选题
)
手机预览
随便搞的题库做做

LibraRCNN从()几个角度论证并增强了两阶段检测模型

A、FPN特征$;$RPN结构$;$正负样本采样$;$Loss

答案:ACD

分享
随便搞的题库做做
相关题目
机器学习中L1正则化和L2正则化的区别是?(  )

A. 使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值$;$使用L1可以得到平滑的权值,使用L2可以得到平滑的权值$;$使用L1可以得到平滑的权值,使用L2可以得到稀疏的权值$;$使用L1可以得到稀疏的权值,使用L2可以得到稀疏的权值

https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-9c18-c07f-52a228da6011.html
点击查看答案
下列关于XGboost算法描述中错误的是

A. 由于其特殊原因,无法分布式化$;$xgboost在代价函数里加入了正则项,用于控制模型的复杂度;$;$可以处理带有缺失值的样本$;$允许使用列抽样来减少过拟合

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-caf8-c07f-52a228da6024.html
点击查看答案
下列关于Python函数调用说法错误的是( )。

A. 函数的递归调用必须有一个明确的结束条件
$;$函数的递归调用每次进入更深一层递归时,问题规模相比上次递归都应有所减少
$;$函数的递归调用效率不高,递归层次过多会导致栈溢出(在计算机中,函数调用是通过栈(stack)这种数据结构实现的,每当进入一个函数调用,栈就会加一层栈帧,每当函数返回,栈就会减一层栈)
$;$函数的递归调用由于栈的大小是无限的,所以,递归调用的次数过多,也不会导致栈溢出

https://www.shititong.cn/cha-kan/shiti/0005e939-eea4-f120-c07f-52a228da6010.html
点击查看答案
掷2n+1次硬币,正面向上次数多于反面向上次数的概率是()。

A. 0.5$;$n/(2n+1)$;$(n-1)/(2n+1)$;$(n+1)/(2n+1)

https://www.shititong.cn/cha-kan/shiti/0005e939-f894-6df0-c07f-52a228da6011.html
点击查看答案
一般而言,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于同一类别,即结点的()越来越高。

A. 纯度$;$精度$;$准确度$;$可信度

https://www.shititong.cn/cha-kan/shiti/0005e939-eb78-9448-c07f-52a228da6007.html
点击查看答案
国际标准分类中,人工智能技术涉及到信息技术应用、信息技术(IT)综合、工业自动化系统、信息技术用语言、()、网络

A. 语言$;$词汇$;$逻辑$;$语法

https://www.shititong.cn/cha-kan/shiti/0005e939-dbd1-fcc8-c07f-52a228da602f.html
点击查看答案
假设我们已经在ImageNet数据集(物体识别)上训练好了一个卷积神经网络。然后给这张卷积神经网络输入一张全白的图片。对于这个输入的输出结果为任何种类的物体的可能性都是一样的,对吗?

A. 对的$;$不知道$;$看情况$;$不对

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-d2c8-c07f-52a228da6002.html
点击查看答案
随着卷积层数的增加,下面描述正确的是:①.在一定层数范围内,效果越来越好②.能够抽取的特征更加复杂③.层数越多越容易发生梯度消失

A. ①③$;$①②③$;$②③$;$①②

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-de80-c07f-52a228da6006.html
点击查看答案
以下关于最大似然估计MLE的说法正确的是

A. MLE中加入了模型参数本身的概率分布$;$MLE认为模型参数本身概率是不均匀的$;$MLE体现了贝叶斯认为参数也是随机变量的观点$;$MLE是指找出一组参数,使得模型产生出观测数据的概率最大

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-c710-c07f-52a228da6039.html
点击查看答案
以下属于梯度下降的是

A. BGD$;$SGD$;$Mini-Batch$;$dropout

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-bf40-c07f-52a228da601f.html
点击查看答案
试题通小程序
试题通app下载