保密知识概论(第二版)练习题2025修正
该题库主要针对神经网络相关知识进行考核,涵盖人工智能基础、神经网络基本概念、卷积神经网络、循环神经网络、优化算法、正则化、过拟合与欠拟合等多个主题,涉及深度学习、机器学习等领域,旨在考察考生对神经网络各方面知识的理解和掌握程度。
章节数量
2
查看次数
27
题目总数
116
题库作者
未知
更新时间
2026-01-06 20:22:34
练习中心
顺序练习
按照章节顺序依次练习所有题目,适合系统学习
组卷考试
随机抽取题目进行练习,适合巩固知识和检验学习效果
错题重做
针对做错的题目进行重点练习,强化薄弱环节
章节练习
选择特定章节进行练习,针对性提升某一知识点
轻松一刻
收藏题目
集中练习收藏的重点题目,加深理解和记忆
考试记录
按题型或难度进行专项练习,突破学习瓶颈
题型练习
按照章节题型获取题目练习,适合系统学习
小练习
随机抽取题目练习
题目预览
单选题
46.对于如下图所示的双向循环神经网络,那个说法是错误的?
A
双向循环神经网络的两层循环网络的输入是相同的
B
双向循环神经网络的两层循环网络的信息传递方向不同
C
双向循环神经网络的正向计算和反向计算共享权重
D
以上都正确
单选题
41、下列关于卷积神经网络说法错误的是
A
用多层小卷积核来代替大卷积核,可以减少计算量和参数量
B
Inception module优点包括减少网络参数,降低运算量和实现多尺度,多层次滤波
C
残差网络可以解决由于网络加深而引起的梯度消失和爆炸以及网络退化等问题,并且没有带来额外的参数和计算开销
D
深度残差网络能够缓解网络退化等问题,但是模型精度会因此而降低
单选题
47.循环神经网络不能向前看序列中任意多个点的原因是( )
A
网络深度问题
B
短程依赖问题
C
长程依赖问题
D
计算能力问题
单选题
48.以下关于梯度消失和梯度爆炸的描述,哪个是错误的?( )
A
梯度消失或者梯度爆炸会导致梯度为0或NaN,无法继续训练更新参数
B
通常来说,梯度爆炸比梯度消失更容易处理一些
C
合理的参数初始化和使用ReLU函数可以用来解决梯度消失问题
D
通过优化网络结构无法解决梯度消失问题
单选题
49.LSTM的门控单元不包括下列哪个门?( )
A
更新门
B
遗忘门
C
输入门
D
输出门
单选题
50.以下关于GRU和LSTM的说法,哪个是错误的?( )
A
GRU是LSTM的一种变体,但是比LSTM结构更简单
B
更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息带入越多
C
重置门控制前一状态有多少信息被写入到当前的候选集上,重置门越小,前一状态的信息被写入的越少
D
GRU比LSTM需要更多的数据来进行训练
单选题
42.以下关于卷积核的描述,哪个是错误的?
A
卷积核和滤波器是一个概念
B
在图像处理领域,卷积核代表图像的某种特征
C
卷积核越大,感受野越大,特征提取能力越强
D
网络层数越深,卷积核提取的特征越抽象
单选题
43.以下结构是哪个经典的卷积神经网络?
A
LeNet
B
AlexNet
C
VGG16
D
GoogLeNet
单选题
44.以下循环神经网络结构与实际任务对应错误的是()
A
One-to-Many 结构:看图作文
B
Many-to-One 结构:机器翻译
C
Many-to-Many(同步)结构:实体识别
D
Many-to-Many(异步)结构:文档摘要
单选题
45.以下关于循环神经网络训练方法的描述,哪个是正确的?
A
循环神经网络的训练需要基于时间反向传播误差
B
BPTT算法的核心思想和BP算法是相同的
C
BPTT算法与BP算法不同之处在于参数的寻优过程需要追溯历史数据
D
以上都正确