moss-moon-003-sft: 基座模型在约110万多轮对话数据上微调得到,具有指令遵循能力、多轮对话能力、规避有害请求能力。 moss-moon-003-sft-plugin: 基座模型在约110万多轮对话数据和约30万插件增强的多轮对话数据上微调得到,在moss-moon-003-sft基础上还具备使用搜索引擎、文生图、计算器、解方程等四种插件的能力...
moss-003-sft-data:moss-moon-003-sft所使用的多轮对话数据,基于MOSS-002内测阶段采集的约10万用户输...
moss-003-sft-plugin-data: moss-moon-003-sft-plugin所使用的插件增强的多轮对话数据,包含支持搜索引擎、文生图、计算器、解方程等四个插件在内的约30万条多轮对话数据。已开源所有数据。 moss-003-pm-data: moss-moon-003-pm所使用的偏好数据,包含在约18万额外对话上下文数据及使用moss-moon-003-sft所产生...
而作为这一领域的佼佼者,MOSS-MOON-003-SFT模型更是引起了广泛的关注。MOSS,全名为大规模开放式序列训练模型,是由复旦大学出品的一款大语言模型。它在灵积平台上以“moss-moon-003-sft-v1”的名称呈现,展现了强大的对话能力,是千帆大模型平台中备受瞩目的模型之一(更多信息,请访问:百度智能云千帆大模型平台)。
moss-moon-003-plugin:在moss-moon-003-sft-plugin基础上经过偏好模型moss-moon-003-pm训练得到的最终模型,具备更强的意图理解能力和插件使用能力,将在近期开源。 数据 moss-002-sft-data: MOSS-002所使用的多轮对话数据,覆盖有用性、忠实性、无害性三个层面,包含由text-davinci-003生成的约57万条英文对话和...
MOSS-MOON-003-SFT模型是复旦大学出品的大规模语言模型,它在DashScope上的模型名称为"moss-moon-003-sft-v1"。MOSS是一个支持中英双语和多种插件的开源对话语言模型,MOSS-MOON系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约...
Github: https://github.com/OpenLMLab/MOSS 项目介绍¶本项目提供了 moss-moon-003-sft 非量化版本在 ModelWhale 平台 V100 双卡机型上进行部署、推理测试复现流程环境配置计算资源:V100 Tensor Core GPU 双卡镜像:Python3.9 Cuda11.6 Torch1.12.1 官方镜像官方注:ModelWhale GPU机型需要从云厂商拉取算力资源,耗时...
infer = Inference(model_dir="fnlp/moss-moon-003-sft", device_map="auto") #!!!如果需要运行量化版本,请以以下方式load模型!!! # If you need to load a quantized model, please instead load the model and then pass it into Inference.__init__. # model = MossForCausalLM.from_pretrained(...
tokenizer = AutoTokenizer.from_pretrained("fnlp/moss-moon-003-sft", trust_remote_code=True) 第五步:加载数据集 这里自定义一个数据集,数据格式可以提供两种形式,具体请参考文档。 train_dataset = [ { 'input': 'Collie is a python package for ', 'output': 'finetuning large language models.' ...
async def generate_text(input_data: TextGenerationInput): inputs = tokenizer(input_data.text, return_tensors='pt') inputs = inputs.to('cuda:0') pred = model.generate(**inputs, max_new_tokens=64, repetition_penalty=1.1) generated_text = tokenizer.decode(pred.cpu()[0], skip_special_...