MOSS-MOON-003-SFT模型是复旦大学出品的大规模语言模型,它在DashScope上的模型名称为"moss-moon-003-sft-v1"。MOSS是一个支持中英双语和多种插件的开源对话语言模型,MOSS-MOON系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约...
MOSS,全名为大规模开放式序列训练模型,是由复旦大学出品的一款大语言模型。它在灵积平台上以“moss-moon-003-sft-v1”的名称呈现,展现了强大的对话能力,是千帆大模型平台中备受瞩目的模型之一(更多信息,请访问:百度智能云千帆大模型平台)。 MOSS是一个支持中英双语和多种插件的开源对话语言模型。其基座语言模型在...
官方称后续会公布他们的评估结果,但就我个人的使用moss-moon-003-sft的主观体验来看,的确是ChatGLM-6...
moss-moon-003-sft: 基座模型在约 110 万多轮对话数据上微调得到,具有指令遵循能力、多轮对话能力、规避有害请求能力。moss-moon-003-sft-plugin: 基座模型在约 110 万多轮对话数据和约 30 万插件增强的多轮对话数据上微调得到,在 moss-moon-003-sft 基础上还具备使用搜索引擎、文生图、计算器、解方程等四...
moss-moon-003-sft: 基座模型在约 110 万多轮对话数据上微调得到,具有指令遵循能力、多轮对话能力、规避有害请求能力。 moss-moon-003-sft-plugin: 基座模型在约 110 万多轮对话数据和约 30 万插件增强的多轮对话数据上微调得到,在 moss-moon-003-sft 基础上还具备使用搜索引擎、文生图、计算器、解方程等四...
若使用 A100 或 A800,可以单卡运行moss-moon-003-sft,使用 FP16 精度时约占用 30GB 显存;若使用更小显存的显卡(如 NVIDIA 3090),可以参考moss_inference.py进行模型并行推理。 MOSS 于两个月前开始首次公测,不过当时由于瞬时访问压力过大,MOSS 服务器被挤崩溃。随后复旦 MOSS 团队公开致歉:“没有想到会引起这么...
· moss-moon-003-base:基座语言模型,具备较为丰富的中文知识。 · moss-moon-003-sft:基座模型在约110万多轮对话数据上微调得到,具有指令遵循能力、多轮对话能力、规避有害请求能力。 · moss-moon-003-sft-plugin:基座模型在约110万多轮对话数据和约30万插件增强的多轮对话数据上微调得到,在moss-moon-003-...
moss-moon-003: 在 moss-moon-003-sft 基础上经过偏好模型 moss-moon-003-pm 训练得到的最终模型,具备更好的事实性和安全性以及更稳定的回复质量,将在近期开源。 moss-moon-003-plugin: 在 moss-moon-003-sft-plugin 基础上经过偏好模型 moss-moon-003-pm 训练得到的最终模型,具备更强的意图理解能力和插件使...
moss-moon-003-pm: 在基于 moss-moon-003-sft 收集到的偏好反馈数据上训练得到的偏好模型,将在近期开源。 moss-moon-003: 在 moss-moon-003-sft 基础上经过偏好模型 moss-moon-003-pm 训练得到的最终模型,具备更好的事实性和安全性以及更稳定的回复质量,将在近期开源。
若使用 A100 或 A800,可以单卡运行moss-moon-003-sft,使用 FP16 精度时约占用 30GB 显存;若使用更小显存的显卡(如 NVIDIA 3090),可以参考moss_inference.py进行模型并行推理。 MOSS 于两个月前开始首次公测,不过当时由于瞬时访问压力过大,MOSS 服务器被挤崩溃。随后复旦 MOSS 团队公开致歉:“没有想到会引起这么...