作者徐亮(实在智能算法专家) 创建了一个中文自然语言处理语料库项目:nlp_chinese_corpus ,初步贡献了几个已经预处理好的中文语料,包括维基、新闻和百科语料。希望大家一起为该项目贡献语料,感兴趣的同学可以直接关注该项目github地址,和作者直接联系,点击文末"阅读原文"直达github链接,可下载相关语料: 大规模中文自然语...
{"english": "In Italy, there is no real public pressure for a new, fairer tax system.", "chinese": "在意大利,公众不会真的向政府施压,要求实行新的、更公平的税收制度。"} 贡献语料/Contribution 贡献中文语料,请发送邮件至nlp_chinese_corpus@163.com 为了共同建立一个大规模开放共享的中文语料库,...
Liang Xu, NLPCC2019: Large-Scale Chinese Datasets for NLP, http://github.com/brightmart/nlp_chinese_corpus 也请发邮件告知我们您的论文名称或在这个项目的数据集上的工作 Reference 利用Python构建Wiki中文语料词向量模型试验 A tool for extracting plain text from Wikipedia dumps Open Chinese convert (...
nlp_chinese_corpus是一个大规模的中文自然语言处理语料库,包含了丰富、多样的中文文本数据,涵盖了新闻报道、社交媒体内容、学术论文等多个领域。该语料库经过精心筛选和整理,具有高质量和广泛覆盖的特点,为研究者和开发者提供了丰富的实验数据和训练素材。其中包含了大量的标注数据,如分词、词性标注、命名实体识别等,可...
https://github.com/InsaneLife/ChineseNLPCorpus 以下来自该项目介绍页 中文自然语言处理数据集,平时做做实验的材料。欢迎补充提交合并。 文本分类 新闻分类 今日头条中文新闻(短文本)分类数据集:https://github.com/fateleak/toutiao-text-classfication-dataset ...
nlp_chinese_corpus:大规模中文自然语言处理语料 人工智能 - 自然语言处理St**rn 上传3.93 MB 文件格式 zip nlp news wiki text-classification word2vec nlp_chinese_corpus:大规模中文自然语言处理语料 点赞(0) 踩踩(0) 反馈 所需:7 积分 电信网络下载 ...
python 处理nlp_chinese_corpus中baike2018qa的数据,最近需要使用baike2018qa的数据,数据的地址为:https://github.com/brightmart/nlp_chinese_corpus。
git config --global user.name userName git config --global user.email userEmail 分支1 标签1 brightmartUpdate README.mdc5abad74年前 60 次提交 提交 resources update 6年前 LICENSE create license 5年前 README.md Update README.md 4年前 ...
王丽颖/nlp_chinese_corpus 加入Gitee 与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :) 免费加入 已有帐号?立即登录 master 克隆/下载 git config --global user.name userName git config --global user.email userEmail 分支1
https://github.com/InsaneLife/ChineseNLPCorpus 以下来自该项目介绍页 中文自然语言处理数据集,平时做做实验的材料。欢迎补充提交合并。 文本分类 新闻分类 情感/观点/评论 倾向性分析 实体识别&词性标注 微博实体识别。 boson数据。 1998年人民日报数据集。