本项目旨在分享大模型相关技术原理以及实战经验。. Contribute to yocop/llm-action development by creating an account on GitHub.
forked fromliguodongiot/llm-action NotificationsYou must be signed in to change notification settings Fork0 Star0 main 1Branch 0Tags Code This branch is4 commits behindliguodongiot/llm-action:main. README License 🔥🔥🔥 最近正在做一个在 NVIDIA GPU、Ascend NPU 上训练大模型的简易工具unify-ea...
'llm-action - LLM 实战' Jelly Lee GitHub: github.com/liguodongiot/llm-action #开源# #机器学习# û收藏 53 7 ñ32 评论 o p 同时转发到我的微博 按热度 按时间 正在加载,请稍候... 互联网科技博主 4 毕业于 北京邮电大学 3 公司 北京邮电大学 查看更多 a 75...
docker build -f ./docker/docker-rocm/Dockerfile \ --build-arg INSTALL_BNB=false \ --build-arg INSTALL_VLLM=false \ --build-arg INSTALL_DEEPSPEED=false \ --build-arg INSTALL_FLASHATTN=false \ --build-arg PIP_INDEX=https://pypi.org/simple \ -t llamafactory:latest.docker run -dit \...
You might be most familiar with using LLMs through a chat interface. One way for your extension to leverage the power of GitHub Copilot is to build a chat participant that users can interact with in the Chat view inside VS Code. You can create a chat participant with the Chat API, ...
CogAgent 是一个通用的视觉理解大模型,具备视觉问答、视觉定位(Grounding)、GUI Agent 等多种能力,在 9 个经典的图像理解榜单上(含 VQAv2,STVQA, DocVQA,TextVQA,MM-VET,POPE 等)取得了通用能力第一的成绩,并在涵盖电脑、手机的GUI Agent数据集上(含 Mind2Web,AITW 等),大幅超过基于 LLM 的 Agent,取得第...
CogAgent 是一个通用的视觉理解大模型,具备视觉问答、视觉定位(Grounding)、GUI Agent 等多种能力,在 9 个经典的图像理解榜单上(含 VQAv2,STVQA, DocVQA,TextVQA,MM-VET,POPE 等)取得了通用能力第一的成绩,并在涵盖电脑、手机的GUI Agent数据集上(含 Mind2Web,AITW 等),大幅超过基于 LLM 的 Agent,取得第...
forked fromliguodongiot/llm-action NotificationsYou must be signed in to change notification settings Fork0 Star0 main 1Branch 0Tags Code README License 目录 LLM训练 LLM训练实战 下面汇总了我在大模型实践中训练相关的所有教程。从6B到65B,从全量微调到高效微调(LoRA,QLoRA,P-Tuning v2),再到RLHF(基...
LLM剪枝万字长文谈深度神经网络剪枝综述 目前,大多数针对大模型模型的压缩技术都专注于模型量化领域,即降低单个权重的数值表示的精度。另一种模型压缩方法模型剪枝的研究相对较少,即删除网络元素,包括从单个权重(非结构化剪枝)到更高粒度的组件,如权重矩阵的整行/列(结构化剪枝)。
本项目旨在分享大模型相关技术原理以及实战经验。. Contribute to Vinlic/llm-action development by creating an account on GitHub.