题目
大语言模型基于Transformer架构延伸出不同的路线图,BERT属于其中哪一种路线图A. Encoder-OnlyB. Decoder-EncoderC. Encoder-DecoderD. Decoder-Only
大语言模型基于Transformer架构延伸出不同的路线图,BERT属于其中哪一种路线图
A. Encoder-Only
B. Decoder-Encoder
C. Encoder-Decoder
D. Decoder-Only
题目解答
答案
A. Encoder-Only
解析
BERT(Bidirectional Encoder Representations from Transformers)是一种基于Transformer架构的预训练模型,它主要用于自然语言处理任务。BERT模型只使用了Transformer的编码器部分,因此它属于Encoder-Only的路线图。这种架构使得BERT能够从文本的前后文信息中学习到丰富的语义表示。