中文的GPT2模型训练代码,基于Pytorch-Transformers,可以写诗,写新闻,写小说,或是训练通用语言模型等。 Resources Readme License MIT license Activity Stars 0 stars Watchers 1 watching Forks 0 forks Report repository Releases No releases published Packages No packages published Languages Python 10...
用于人与AI交互的中文单词的“单字”简称 | 我想为中文创造一种用于AI交互的中文单词的“单字”简称,类似以下英文1 AI 表示 Artificial Intelligence 人工智能2 AGI 表示 Artificial General Intelligence 通用人工智能3 GPT 表示 Generative Pre-trained Transformer 生成式预训练变换模型 这样的人与AI交互或编程时专用的...
中文的GPT2训练代码,使用BERT的Tokenizer或GPT2自带的BPE Tokenizer或Sentencepiece的BPE model(感谢kangzhonghua的贡献)。可以写诗,新闻,小说,或是训练通用语言模型。支持字为单位或是分词模式或是BPE模式。支持大语料训练。 微信交流群:请见Issue第一条。 UPDATE 10.25 本项目第一个预训练模型已公布,为散文生成模型,...
GPT2-Chinese 项目简介 中文的GPT2模型训练代码,based on the extremely awesome repository from HuggingFace team Pytorch-Transformers。可以写诗,写新闻,写小说,或是训练通用语言模型等。支持分字模式与分词模式,可通过参数切换。支持切分语料库以适应极大训练语料。 项目状态 目前项目处于积极开发状态,但是主要架构已经...
中文的GPT2模型训练代码,基于Pytorch-Transformers,可以写诗,写新闻,写小说,或是训练通用语言模型等。 - i-lovelife/GPT2-Chinese