相关题目
单选题
知识蒸馏(Knowledge Distillation)的核心思想是将复杂模型的知识迁移到简单模型中,以提升简单模型的性能。
单选题
模型剪枝(Pruning)技术通过移除不重要的神经元,可以显著减少模型参数数量,但不会影响模型推理速度。
单选题
在大模型中,增加注意力头(Attention Heads)的数量一定会提高模型性能
单选题
人类反馈强化学习(RLHF)技术的主要作用是提高大模型的生成速度
单选题
在大模型评估中,困惑度(Perplexity)是衡量模型生成多样性的指标
单选题
提示工程不影响模型底层参数
单选题
模型API调用无需考虑伦理问题
单选题
模型透明度与性能始终正相关
单选题
模型安全仅需考虑技术因素
单选题
大模型训练必须使用FP32精度
