跑34B大小的大模型需要多大显存的显卡? | 刚出的code llama,据说它的34B 版本代码能力超过gpt4。请问4090可以跑的动吗?如果跑不动的话,跑他的半精度可以吗?半精度损失多少能力?如果跑的动的话,最少多大显存的显卡跑得动它? 发布于 2023-08-29 14:17・IP 属地上海 赞同 分享收藏 写下你...