Add a description, image, and links to the chinese-dataset topic page so that developers can more easily learn about it. Curate this topic Add this topic to your repo To associate your repository with the chinese-dataset topic, visit your repo's landing page and select "manage topics....
Chinese_dataset5w.zip (144.34M) 下载 File Name Size Update Time Chinese_dataset5w_rec_test_win.txt 178792 2023-03-28 21:29:10 Chinese_dataset5w_rec_test.txt 168792 2023-03-28 21:29:10 Chinese_dataset5w.txt 4203619 2023-03-28 21:29:10 Chinese_dataset5w/img_0000001.jpg 3531 2023-03-...
alpaca_chinese_dataset 鲁迅说过:有多少人工,才有多少智能 当前的聊天对话模型数据集主要都是由英文构成,但是当前中文聊天模型构建的需求也较为迫切,因此我们将斯坦福的alpaca数据集进行中文翻译,并再制造一些对话数据,并开源提供。 此翻译并非完全的chatgpt机翻,会进行人工校验,遇到英文特异性表达的时候会变为较为中文...
alpaca_chinese_datasetJe**ff 上传16.89 MB 文件格式 zip alpaca chatglm dataset 人工精调的中文对话数据集和一段chatglm的微调代码 点赞(0) 踩踩(0) 反馈 所需:1 积分 电信网络下载 Problem 2025-02-12 03:19:07 积分:1 remark 2025-02-12 03:18:20 积分:1 ...
In this paper, a deep-learning based face editing approach, StyleGAN, is used to synthesize a Chinese face dataset, namely SZU-EmoDage, where faces with different expressions and ages are synthesized. Leverage on the interpolations of latent vectors, continuously dynamic expressions with different ...
Chinese_NLP_Dataset是一个中文命名实体识别(NER)、分词(CWS)、实体分类(Entity Typing)和关系抽取(Relation Extraction)等任务的数据集。该数据集涵盖了中文文本中的各种信息,包括人名、地名、组织名、时间、数字等实体,以及它们之间的关系。 在命名实体识别(NER)任务中,数据集包含了各种类型的中文命名实体,如人名、...
Chinese_book_dataset故事**已淡 上传 data-mining dataset informatics library-management machine-learning natural-language-processing text-classification 中文图书数据集是自然语言处理领域的宝贵资源,它涵盖了大量的中文图书信息。这些数据经过精心整理和分类,包括了图书的基本信息、作者信息、出版日期、出版社等。通过...
【2023最新】文本蕴含论文代码边读边复现 P1:《CHFF:A pilot Chinese Dataset for Evidence-Based》 1.0万 4 24:20 App 【研究生速进!】全网最新最全的多模态情感识别前沿论文带读,代码与教程一并打包!——人工智能|AI|计算机视觉|机器学习 662 0 29:35 App 多模态融合前沿知识点讲解+代码复现教程 1426 ...
https://github.com/JiangYanting/Chinese_book_dataset Chinese_book_dataset 中文图书分类数据集/自然语言处理/中国图书分类法/图书情报学/数据挖掘/文本分类/ 若在科研论文、项目工程中使用了该数据集,欢迎引用: 蒋彦廷,胡韧奋. 基于BERT模型的图书表示学习与多标签分类研究[J]. 新世纪图书馆(图书馆学情报学CSSCI...
alpaca_chinese_dataset 鲁迅说过:有多少人工,才有多少智能 当前的聊天对话模型数据集主要都是由英文构成,但是当前中文聊天模型构建的需求也较为迫切,因此我们将斯坦福的alpaca数据集进行中文翻译,并再制造一些对话数据,并开源提供。 我们发现翻译API的效果不如chatGPT,因此我们现在将切分成17份的数据集使用chatGPT替代了...