Visual-Chinese-LLaMA-Alpaca(VisualCLA)是基于中文LLaMA&Alpaca大模型项目开发的多模态中文大模型。VisualCLA在中文LLaMA/Alpaca模型上增加了图像编码等模块,使LLaMA模型可以接收视觉信息。在此基础上,使用了中文图文对数据进行了多模态预训练,对齐图像与文本表示,赋予其基本的多模态理解能力;并使用多模态
与Chinese-LLaMA-Alpaca类似,VisualCLA采用LoRA对模型进行高效精调。可训练参数包括图像编码器的LoRA参数,LLM的LoRA参数以及Resampler的全部参数。训练过程分为两个阶段: 多模态预训练:采用中文图文对数据训练,模型根据图像生成对应的文本描述(caption)。 多模态指令精调:基于上一步得到的模型,在由多种有监督任务数据构...
Visual-Chinese-LLaMA-Alpaca 中文多模态大模型,基于中文LLaMA & Alpaca大模型项目开发,支持多模态功能。Github地址:https://github.com/airaria/Visual-Chinese-LLaMA-Alpaca。点赞(0) 踩踩(0) 反馈 访问所需:1 积分 电信网络下载 访问申明(访问视为同意此申明) 1.在网站平台的任何操作视为已阅读和同意网站...
ycpan/Visual-Chinese-LLaMA-Alpaca 中文多模态大模型 代码Issues1Pull Requests0Wiki统计流水线 服务 Gitee Pages JavaDoc PHPDoc 质量分析 Jenkins for Gitee 腾讯云托管 腾讯云 Serverless 悬镜安全 阿里云 SAE Codeblitz 我知道了,不再自动展开 统计 搜索
【LLMs九层妖塔】分享 LLMs在自然语言处理(ChatGLM、Chinese-LLaMA-Alpaca、小羊驼 Vicuna、LLaMA、GPT4ALL等)、信息检索(langchain)、语言合成、语言识别、多模态等领域(Stable Diffusion、MiniGPT-4、VisualGLM-6B、Ziya-Visual等)等 实战与经验。 Resources Readme Activity Stars 2 stars Watchers 0 watc...
【Visual Med-Alpaca: 建立在 LLaMa-7B 基础上的一个专门为生物医学领域设计的开源、多模态的基础模型】'Visual Med-Alpaca: A Parameter-Efficient Biomedical LLM with Visual Capabilities - Visual Med-Alpaca is an open-source, multi-modal foundation model designed specifically for the biomedical domain, bu...
Visual Studio 2008 Team Suite 绿色版点赞(0) 踩踩(0) 反馈 所需:1 积分 电信网络下载 h2o-app-3.10.2.2.jar 2025-03-21 15:06:19 积分:1 Chinese-LLaMA-Alpaca 2025-03-21 15:06:10 积分:1 幂果文字转语音 2025-03-21 15:00:39 积分:1 ...
Efficient and effective text encoding for Chinese Llama and Alpaca. arXiv 2023, arXiv:2304.08177. [Google Scholar] Savva, M.; Kadian, A.; Maksymets, O.; Zhao, Y.; Wijmans, E.; Jain, B.; Straub, J.; Liu, J.; Koltun, V. Habitat: A platform for embodied AI research. In ...
Watch 2 Star 5 Fork 3 ycpan/Visual-Chinese-LLaMA-Alpaca 中文多模态大模型 代码 Issues 1 Pull Requests 0 Wiki 统计 流水线 服务 Gitee Pages JavaDoc PHPDoc 质量分析 Jenkins for Gitee 腾讯云托管 腾讯云 Serverless 悬镜安全 阿里云 SAE Codeblitz 我知道了,不再自动展开 ...
Visual Med-Alpaca is an open-source, multi-modal foundation model designed specifically for the biomedical domain, built on the LLaMa-7B. - GitHub - 23jmo/visual-med-alpaca: Visual Med-Alpaca is an open-source, multi-modal foundation model designed spec