Roberta-WWM-ext-large是RoBERTa(Robustly Optimized BERT Pretraining Approach)的一种增强版本,它在RoBERTa的基础上加入了Whole Word Masking(WWM)的特性。WWM是指将一个词作为一个整体进行掩盖,而不是将词中的每个字母都进行掩盖。这种方法能够更好地维持句子的语义结构,并提高了模型对于整体概念的理解能力。 二、...
模型/数据集Dureader-2021tencentmedical F1-score Accuracy dev / A榜 test-1 macbert-large (哈工大预训练语言模型) 65.49 / 64.27 82.5 roberta-wwm-ext-large (哈工大预训练语言模型) 65.49 / 64.27 82.5 macbert-large (ours) 70.45 / 68.13 83.4 roberta-wwm-ext-large (ours) 68.91 / 66.91 83.1...
chinese_roberta_wwm_large_extchinese_roberta_wwm_large_ext 喜爱 1 2342423 Devin_Liu 2枚 CC0 0 11 2020-03-27 详情 相关项目 评论(0) 创建项目 数据集介绍 chinese_roberta_wwm_large_ext_pytorch 文件列表 bert_config.json vocab.txt pytorch_model.bin bert_config.json (0.00M) 下载关于...
roberta-wwm-ext-large阅读理解 Roberta-wwm-ext-large是一个预训练的深度学习模型,主要用于阅读理解任务。它基于BERT模型,加入了对中国大陆高考语文阅读理解的改进,适用于中文问答系统等场景。若想使用Roberta-wwm-ext-large进行阅读理解任务,可以参考以下步骤: 1.首先,确保您已安装了相关的Python库,如Hugging Face的...