正确。BERT(Bidirectional Encoder Representations from Transformers)是一种基于深度神经网络的预训练模型,由Google于2018年提出。它通过大规模无监督的预训练和特定任务的微调来提取文本中的语义信息。BERT在自然语言处理任务中取得了很多突破,成为了一种非常有效的模型。
发布 问题
在线 客服
回到 顶部