chinese-bert-wwm-ext.rar co**le上传NLP 哈工大版本,for pytorch (0)踩踩(0) 所需:1积分 calligra-core-24.12.1-2.mga10.aarch64 2025-02-04 19:25:57 积分:1 calligra-core-24.12.1-2.mga10.x86_64 2025-02-04 19:25:23 积分:1
hfl / chinese-bert-wwm-ext Copied like 72 Fill-Mask PyTorch TensorFlow JAX Transformers Chinese bert AutoTrain Compatible arxiv: 1906.08101 arxiv: 2004.13922 License: apache-2.0 Model card Files and versions Chinese BERT with Whole Word Masking For further accelerating Chinese natural language processi...
哈工大讯飞联合实验室(HFL)发布在更大规模语料上训练的基于全词Mask的中文预训练模型BERT-wwm-ext。该模型在多项基准测试上获得了进一步性能提升。我们欢迎各界同行下载使用。 下载地址:https://github.com/ymcui/Chinese-BERT-wwm 摘要 哈工大讯飞联合实验室在2019年6月20日发布了基于全词Mask的中文预训练模型BERT...
全词Mask输入 使用语言 [MASK] [MASK] 来 [MASK] [MASK] 下一个词的 [MASK] [MASK] [MASK] 。 中文模型下载 由于目前只包含base模型,故我们不在模型简称中标注base字样。 BERT-base模型:12-layer,768-hidden,12-heads,110M parameters 模型简称 语料 Google下载 讯飞云下载 BERT-wwm-ext,Chinese 中文维基...
hfl / chinese-bert-wwm-ext Copied like 72 Fill-Mask PyTorch TensorFlow JAX Transformers Chinese bert AutoTrain Compatible arxiv: 1906.08101 arxiv: 2004.13922 License: apache-2.0 Model card Files and versions Chinese BERT with Whole Word Masking For further accelerating Chinese natural language processi...