GitHub is where people build software. More than 100 million people use GitHub to discover, fork, and contribute to over 420 million projects.
pip install torch==1.12.1 tokenizers==0.13.3 git+https://github.com/huggingface/transformers 1.2.2 模型信息 Model Information 继续预训练 Continual pretraining 原始数据包含英文和中文,其中英文数据来自 openwebtext、Books、Wikipedia 和 Code,中文数据来自清洗后的悟道数据集、自建的中文数据集。在对原始数据...
@misc{MedicalGPT, title={MedicalGPT: Training Medical GPT Model}, author={Ming Xu}, year={2023}, howpublished={\url{https://github.com/shibing624/MedicalGPT}}, } 😍 Contribute 项目代码还很粗糙,如果大家对代码有所改进,欢迎提交回本项目,在提交之前,注意以下两点: ...
@misc{MedicalGPT, title={MedicalGPT: Training Medical GPT Model}, author={Ming Xu}, year={2023}, howpublished={\url{https://github.com/shibing624/MedicalGPT}}, } 😍 Contribute 项目代码还很粗糙,如果大家对代码有所改进,欢迎提交回本项目,在提交之前,注意以下两点: ...
项目 https://github.com/shibing624/MedicalGPT 来自腾讯大佬的GitHub 服务器环境 租用autodl 镜像PyTorch 1.11.0 Python 3.8(ubuntu20.04) Cuda 11.3 更换 GPURTX 4090D(24GB) * 1升降配置 CPU15 vCPU Intel(R) Xeon(R) Platinum 8474C 内存80GB ...
MedicalGPT-zh:一个基于ChatGLM的在高质量指令数据集微调的中文医疗对话语言模型. Contribute to lyhiving/MedicalGPT-zh development by creating an account on GitHub.
本项目开源在 github repo: shibing624/textgen shibing624/MedicalGPT 使用textgen 库:textgen,可调用 LLaMA 模型: Install package: pipinstall-U textgen fromtextgen import GptModel def generate_prompt(instruction): return f"""Below is an instruction that describes a task. Write a response that ap...
本项目开源在 github repo: shibing624/textgen shibing624/MedicalGPT 使用textgen 库:textgen,可调用 LLaMA 模型: Install package: pip install -U textgen 1. 2. 3. from textgen import GptModel def generate_prompt(instruction): return f"""Below is an instruction that describes a task. Write ...
pip install torch==1.12.1 tokenizers==0.13.3 git+https://github.com/huggingface/transformers 1.2.2 模型信息 Model Information 继续预训练 Continual pretraining 原始数据包含英文和中文,其中英文数据来自 openwebtext、Books、Wikipedia 和 Code,中文数据来自清洗后的悟道数据集、自建的中文数据集。在对原始数据...
如果需要训练 ChatGLM/LLAMA/BLOOM 模型,请参考 https://github.com/shibing624/textgen 1.2 姜子牙系列模型 Ziya-LLaMA-13B-v1.1 Ziya-LLaMA-13B-v1 Ziya-LLaMA-7B-Reward Ziya-LLaMA-13B-Pretrain-v1 Ziya-BLIP2-14B-Visual-v1 1.2.1 简介 姜子牙通用大模型 V1 是基于 LLaMa 的 130 亿参数的大规模预...