MedicalGPT:基于LLaMA-13B的中英医疗问答模型(LoRA)、实现包括二次预训练、有监督微调、奖励建模、强化学习训练[LLM:含Ziya-LLaMA]。 1.模型介绍 1.1 基于LLaMA-13B的中英医疗问答模型(LoRA) 1.1.1 训练评估结果 1.1.2 HuggingFace Transformers 1.1.3 预测结果 1.1.4 训练数据集 1.2 姜子牙系列模型 1.2.1 简介...
MedicalGPT是一个基于LLaMA-13B模型构建的中英医疗问答系统。LLaMA-13B作为一种轻量级模型,以其高效性能和可扩展性在NLP领域占有一席之地。通过针对医疗领域的定制化训练,MedicalGPT能够准确理解并回答医疗相关问题,为医生和患者提供便捷的沟通桥梁。 训练过程 MedicalGPT的训练过程分为四个主要阶段:二次预训练、有监督微调...
人工智能应用-MedicalGPT-zh医学微调大模型, 视频播放量 252、弹幕量 0、点赞数 5、投硬币枚数 2、收藏人数 4、转发人数 0, 视频作者 编程知识导航, 作者简介 承接微信小游戏,微信小程序后台管理系统,web3, 人工智能嵌入 公众号:编程知识导航,相关视频:一款和pdf对话
项目 https://github.com/shibing624/MedicalGPT 来自腾讯大佬的GitHub 服务器环境 租用autodl 镜像PyTorch 1.11.0 Python 3.8(ubuntu20.04) Cuda 11.3 更换 GPURTX 4090D(24GB) * 1升降配置 CPU15 vCPU Intel(R) Xeon(R) Platinum 8474C 内存80GB ...
本文将介绍一种基于LLaMA-13B模型的中英医疗问答系统构建方法,通过二次预训练、有监督微调、奖励建模和强化学习训练等技术手段,提升模型在医疗问答任务上的性能。 首先,我们选择了LLaMA-13B模型作为基础模型。LLaMA(Large Language Model Family of AI)是OpenAI开发的一系列大型语言模型,其中LLaMA-13B模型拥有130亿个参数...
人工智能应用-MedicalGPT-zh医学微调大模型 #人工智能 #医学 #算法 #大模型 #计算机 - 编程知识导航于20240126发布在抖音,已经收获了5372个喜欢,来抖音,记录美好生活!
Add a description, image, and links to the medicalgpt topic page so that developers can more easily learn about it. Curate this topic Add this topic to your repo To associate your repository with the medicalgpt topic, visit your repo's landing page and select "manage topics." Learn...
'MedicalGPT-zh:中文医疗通用语言模型,基于28个科室的医疗共识与临床指南文本,提高模型的医疗领域知识与对话能力' MediaBrain-SJTU GitHub: github.com/MediaBrain-SJTU/MedicalGPT-zh #开源# #机器学习# û收藏 118 7 ñ119 评论 o p 同时转发到我的微博 按热度 按时间 正在加载...
MedicalGPT: Training Your Own Medical GPT Model with ChatGPT Training Pipeline. 训练医疗大模型,实现了包括增量预训练(PT)、有监督微调(SFT)、RLHF、DPO、ORPO。 - shibing624/MedicalGPT