不仅如此,它还附带着把全球最大之一的中文数据集也一并开源了出来:600G、1500亿tokens!这就是来自昆仑万维的Skywork-13B系列,包含两大版本:Skywork-13B-Base:该系列的基础模型,在多种基准评测中都拔得头筹的那种。Skywork-13B-Math:该系列的数学模型,数学能力在GSM8K评测上得分第一。在各大权威评测bench...
并且,为了尽可能降低模型的使用门槛,百川智能同时开源了Baichuan-13B-Chat的INT8和INT4两个量化版本,在近乎无损的情况下可以很方便的将模型部署在如3090等消费级显卡上。本次百川智能发布的Baichuan-13B中英文大语言模型,凭借百亿参数量已经展现出可以媲美千亿模型的能力,大大降低企业部署和调试的使用成本,让中国...
好消息是,在 Meta Al 开源 Llama 2 模型的次日,开源社区首个能下载、能运行的开源中文 LLaMA2 模型就出现了。该模型名为「Chinese Llama 2 7B」,由国内 AI 初创公司 LinkSoul.Al 推出。仅仅两周时间,该项目在 Hugging Face 上收获过万次下载,并在 GitHub 上获得了 1200 Stars。据项目介绍,Chinese-Llama...
VisCPM 是由面壁智能、清华大学 NLP 实验室和知乎联合开源在 OpenBMB 的多模态大模型系列,其中 VisCPM-Chat 模型支持中英双语的多模态对话能力,VisCPM-Paint 模型支持文到图生成能力,评测显示 VisCPM 在中文多模态开源模型中达到最佳水平。VisCPM 基于百亿参数基座模型 CPM-Bee 训练,融合视觉编码器(Q-Former ...
近日,度小满正式发布千亿级中文对话大模型轩辕,集中文、金融、开源特色于一身。 基于BLOOM-176B研发的轩辕大模型,在金融场景中的任务评测中,效果相较于通用大模型大幅提升,表现出明显的金融领域优势。 在诸如金融名词理解、金融市场评论、金融数据分析和金融新闻理解等任务的评测中,轩辕超越了其他四种开源大模型,赢得了...
北京大学人工智能研究院助理教授杨耀东认为,baichuan-7B 模型的开源将对于中文基础语言模型的生态建设及学术研究产生重要推动作用,同时他也表示将持续关注相关领域探索,并且在中文大语言模型的安全和对齐上进行进一步深入研究。百川智能 CEO 王小川表示:「本次开源模型的发布是百川智能成立 2 个月后的第一个里程碑,对...
最终的测试结果显示,相较于基于 LLaMa 和 ChatGLM 的开源中文医疗模型,HuatuoGPT 表现显著优秀(以 HuatuoGPT 为基准)。这一优势得益于 HuatuoGPT 同时使用了从 ChatGPT 蒸馏的数据和真实世界数据进行训练,并借助来自 ChatGPT 和专业医生的混合反馈进行了优化。此外,HuatuoGPT 在总体性能上甚至超过了 GPT-3.5-...
OPT模型本身并没有特意针对多语言进行训练,不过他们的数据集很大,因此也能在简单的中英文翻译中获得不错的结果。这也是早期支持中文的大模型,不过由于OPT太早了,现在用的人不多。OPT的开源协议也是不允许商用。OPT在DataLearner上的AI模型信息卡地址:https://www.datalearner.com/ai/pretrained-models/OPT 二、...
开源中文医疗大模型信息一览表(202308) 1. MedicalGPT-zh - 一个基于ChatGLM的在高质量指令数据集微调的中文医疗对话语言模型 (2023年7月更名为MING) 项目简介 项目最初开源了基于ChatGLM-6B LoRA 16-bit指令微调的中文医疗通用模型。基于共计28科室的中文医疗共识与临床指南文本,从而生成医疗知识覆盖面更全,回答...
“我们原来其实走的是闭源这条路线,包括去年都是把模型迭代,再把接口开放给大家用。我们发现在开源社区能让大家都参与进来,这件事情是非常好的,大家共建这件事情能走得更快。”腾讯文生图负责人芦清林坦言,在大模型这条赛道上,腾讯这样的科技企业除了要将技术能力提升外,通过成为“开路”者的角色让大模型应用更广...