题目
Transformer模型的核心创新是()。A. 使用卷积层提取特征B. 引入自注意力机制(Self-Attention)并行计算上下文C. 依赖循环神经网络(RNN)处理序列D. 采用强化学习优化模型
Transformer模型的核心创新是()。 A. 使用卷积层提取特征 B. 引入自注意力机制(Self-Attention)并行计算上下文 C. 依赖循环神经网络(RNN)处理序列 D. 采用强化学习优化模型
题目解答
答案
B
解析
考查要点:本题主要考查对Transformer模型核心创新的理解,需要明确其与传统模型(如RNN、CNN)的关键区别。
解题核心思路:
- 自注意力机制(Self-Attention)是Transformer的核心创新,它通过并行计算捕捉序列中全局依赖关系,突破了RNN串行处理的局限性。
- 其他选项中,卷积层(A)是CNN的核心,RNN(C)是序列模型基础,强化学习(D)并非模型结构层面的创新。
破题关键点:
- 明确Transformer的核心贡献在于并行化处理序列数据,而非依赖传统结构或优化方法。
选项分析
A. 使用卷积层提取特征
- 卷积层是CNN的核心组件,用于局部特征提取,但Transformer并未依赖卷积层,而是通过注意力权重矩阵直接建模全局关系。
- 错误原因:混淆了CNN与Transformer的核心差异。
B. 引入自注意力机制(Self-Attention)并行计算上下文
- 自注意力机制允许模型在处理每个位置时,同时关注整个序列的其他位置,实现全局依赖建模。
- 并行计算特性显著提升了处理速度,这是Transformer取代RNN的重要优势。
- 正确选项,直接对应模型的核心创新。
C. 依赖循环神经网络(RNN)处理序列
- RNN通过串行处理序列数据,存在长序列依赖问题。Transformer通过注意力机制完全取代了RNN的结构。
- 错误原因:与Transformer的设计目标直接矛盾。
D. 采用强化学习优化模型
- 强化学习是训练策略之一,但Transformer的核心创新在于模型结构(注意力机制),而非训练方法。
- 错误原因:混淆了模型结构与优化方法。