1. BERT-Base-Chinese简介 BERT-Base-Chinese是一种基于transformer的模型,已经在大量的中文文本数据上进行了预训练。它由12个transformer编码器层组成,每个层的隐藏大小为768维,具有12个自注意力头。该模型使用掩码语言建模(MLM)和下一句预测(NSP)目标进行训练,使其适合各种NLP任务。 2. 使用Netron分析模型结构 Netr...