不是。

BERT模型(Bidirectional Encoder Representation from Transformers)是谷歌AI团队发布于2018年10月的BERT预训练模型,被认为是 NLP 领域的极大突破,刷新了11个NLP任务的当前最优结果。 其对GPT语言模型做了进一步的改进,通过左、右两侧上下文来预测当前词和通过当前句子预测下一个句子,预训练的 BERT 表征可以仅用一个额外的输出层进行微调,在不对任务特定架构做出大量修改条件下,就可以为很多任务创建当前最优模型。