单选题
已知数组a=np.array([[0,0,0],[10,10,10],[20,20,20],[30,30,30]])b=np.array([1,2,3]),则a+b的输出结果为()。
A
[[1,2,3],[10,10,10],[20,20,20],[30,30,30]]
B
[[1,2,3],[0,0,0],[10,10,10],[20,20,20],[30,30,30]]
C
[[1,2,3],[11,12,13],[21,22,23],[31,32,33]]
D
无法计算
答案解析
正确答案:C
解析:
在Numpy中两个维度不同的数组进行计算时会自动触发Numpy的广播机制,原公式会转换为[[1,2,3],[1,2,3],[1,2,3],[1,2,3]]+[[0,0,0],[10,10,10],[20,20,20],[30,30,30]]。
题目纠错
相关题目
单选题
归纳与演绎是科学推理的两大基本手段,前者是从一般到特殊的特化过程,后者是从特殊到一般的泛化过程。()
单选题
基于邻近度的离群点检测方法不能处理具有不同密度区域的数据集。()
单选题
k近邻学习是一种常用的无监督学习方法,其工作机制为给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个邻居的信息来进行预测。()
单选题
KNN算法可以较好地避免样本的不平衡问题。()
单选题
机器学习可以解决给定数据的预测问题,也可以解决大数据存储和并行计算。()
单选题
分类预测型任务从已分类的数据中学习模型,并对新的未知分类的数据使用该模型进行解释,得到这些数据的分类。根据标签的不同,分别称为分类任务和预测任务。如果标签是连续的类别,称为预测任务。()
单选题
分类规则的挖掘方法通常有机器学习法、贝叶斯法、人工机器学习法、粗糙集法和遗传算法。()
单选题
Support Vector Machine的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,应该属于结构风险最小化。()
单选题
Logistic Regression和Support Vectpr Machine都可以处理分类问题,且一般都用于处理线性二分类问题。()
单选题
进行PCA降维时需要计算协方差矩阵。()
