在中文开放测试集中的表现优异,继承了两方面的优势: 微调训练的底座是 Ziya-LLaMA-13B 模型,是较强的中英文底座模型, 微调使用的是高质量 240 万条中英文医疗指令数据集,和多种通用指令数据集,微调后的模型在医疗行业答复能力达到领先水平,在通用问题上的答复能力不弱于 LLaMA-13B。 1.1.1 训练评估结果 training...
'MedicalGPT-zh:中文医疗通用语言模型,基于28个科室的医疗共识与临床指南文本,提高模型的医疗领域知识与对话能力' MediaBrain-SJTU GitHub: github.com/MediaBrain-SJTU/MedicalGPT-zh #开源# #机器学习# û收藏 118 7 ñ119 评论 o p 同时转发到我的微博 按热度 按时间 正在加载...
MedicalGPT-zh:中文医疗对话语言模型 项目简介 本项目开源了基于ChatGLM-6B LoRA 16-bit指令微调的中文医疗通用模型。基于共计28科室的中文医疗共识与临床指南文本,我们生成医疗知识覆盖面更全,回答内容更加精准的高质量指令数据集。以此提高模型在医疗领域的知识与对话能力。
应用场景 Main Scenario: 让语言模型可以更好的进行医疗主题的对话 Make language models better able to engage in conversations about medical topics. 模型Model: 在原始ChatGLM-6B模型的基础上,通过使用特定领域的数据对模型进行微调,得到调整后的模型 Fine-tune the original ChatGLM-6B model using domain-specif...
1.模型介绍 1.1 基于LLaMA-13B的中英医疗问答模型(LoRA) 在中文开放测试集中的表现优异,继承了两方面的优势: 微调训练的底座是 Ziya-LLaMA-13B 模型,是较强的中英文底座模型, 微调使用的是高质量 240 万条中英文医疗指令数据集,和多种通用指令数据集,微调后的模型在医疗行业答复能力达到领先水平,在通用问题上的...
1.1 基于LLaMA-13B的中英医疗问答模型(LoRA) 在中文开放测试集中的表现优异,继承了两方面的优势: 微调训练的底座是 Ziya-LLaMA-13B 模型,是较强的中英文底座模型, 微调使用的是高质量 240 万条中英文医疗指令数据集,和多种通用指令数据集,微调后的模型在医疗行业答复能力达到领先水平,在通用问题上的答复能力不弱...
1.1 基于LLaMA-13B的中英医疗问答模型(LoRA) 在中文开放测试集中的表现优异,继承了两方面的优势: 微调训练的底座是 Ziya-LLaMA-13B 模型,是较强的中英文底座模型, 微调使用的是高质量 240 万条中英文医疗指令数据集,和多种通用指令数据集,微调后的模型在医疗行业答复能力达到领先水平,在通用问题上的答复能力不弱...
MedicalGPT: Training Your Own Medical GPT Model with ChatGPT Training Pipeline. 训练医疗大模型,实现了包括增量预训练、有监督微调、RLHF(奖励建模、强化学习训练)和DPO(直接偏好优化)。 - rusalka-sh/MedicalGPT
22万条中文医疗对话数据集(华佗项目):shibing624/huatuo_medical_qa_sharegpt[本项目支持格式] ☎️ Contact Issue(建议) : 邮件我:xuming:xuming624@qq.com 微信我: 加我微信号:xuming624, 备注:姓名-公司名-NLP进NLP交流群(加我拉你进群)。
'MedicalGPT-zh:中文医疗通用语言模型,基于28个科室的医疗共识与临床指南文本,提高模型的医疗领域知识与对话能力' MediaBrain-SJTU GitHub: github.com/MediaBrain-SJTU/MedicalGPT-zh #开源# #机器学习# û收藏 115 7 ñ119 转发到微博 转发到私信 全部 热门 关注的人 陌生人 互联...