使用预训练语言模型BERT做中文NER. Contribute to yangbeyond/bert-chinese-ner development by creating an account on GitHub.
Bert-ChineseNER Introduction 该项目是基于谷歌开源的BERT预训练模型,在中文NER任务上进行fine-tune。 Datasets & Model 训练本模型的主要标记数据,来自于zjy-usas的ChineseNER项目。本项目在原本的BiLSTM+CRF的框架前,添加了BERT模型作为embedding的特征获取层,预训练的中文BERT模型及代码来自于Google Research的bert。
lilingTG/BERT-NER-Pytorch 加入Gitee 与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :) 免费加入 已有帐号?立即登录 master 克隆/下载 git config --global user.name userName git config --global user.email userEmail 分支2 ...
master 克隆/下载 分支1 标签0 songheqi Create LICENSE 96efd23 5年前 17 次提交 data init commit 6年前 BERT_NER.py prevent potential bug 6年前 LICENSE Create LICENSE 5年前 README.md Update README.md 5年前 conlleval.pl init commit 6年前 test.png init commit ...
在汉语中预训练的字符级BERT受到缺乏词汇信息的限制,这表明了汉语NER的有效性。为了将词汇整合到汉语NER的预训练LMs中,我们研究了一种半监督实体增强的BERT预训练方法。特别是,我们首先使用新词发现方法从相关原始文本中提取实体词典。然后,我们使用Char-Entity-Transformer将实体信息集成到BERT中,该转换器使用字符和实体...
在汉语中预训练的字符级BERT受到缺乏词汇信息的限制,这表明了汉语NER的有效性。为了将词汇整合到汉语NER的预训练LMs中,我们研究了一种半监督实体增强的BERT预训练方法。特别是,我们首先使用新词发现方法从相关原始文本中提取实体词典。然后,我们使用Char-Entity-Transformer将实体信息集成到BERT中,该转换器使用字符和实体...
albert-chinese-ner 下载albert中文模型,这里使用的是base 将模型文件夹重命名为albert_base_zh,放入项目中 运行 python albert_ner.py --task_name ner --do_train true --do_eval true --data_dir data --vocab_file ./albert_config/vocab.txt --bert_config_file ./albert_base_zh/albert_config_base...
1、引入标签扩展策略,在few-shot NER中实现标签迁移学习,有效地提高了模型性能。 2、我们提出了一个新的PCBERT模型,由P-BERT组件和C-BERT组件组成,以集成词汇特征和隐式标签特征。 3、实验结果表明,该方法适用于汉语few-shot NER迁移学习,在few-shot 学习上取得了良好的性能。
中文预训练BERT-wwm(Pre-Trained Chinese BERT with Whole Word Masking) 在自然语言处理领域中,预训练模型(Pre-trained Models)已成为非常重要的基础技术。 为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(Whole Word Masking)技术的中文预训练模型BERT-wwm,以及与此技术密切相关的模型:BERT-wwm-ext,...
BERT-NER BERT-TF 使用方法 从BERT-TF下载bert源代码,存放在路径下bert文件夹中 从BERT-Base Chinese下载模型,存放在checkpoint文件夹下 使用BIO数据标注模式,使用人民日报经典数据 train: python BERT_NER.py --data_dir=data/ --bert_config_file=checkpoint/bert_config.json --init_checkpoint=checkpoint/bert...