1、如果是ChatGLM粉丝就选fastllm 2、如果是书生.浦语粉丝就选LMDeploy 3、如果追求通用vllm、llama.cpp、deepspeed MII是不错选择,支持模型也最为广泛 二、internlm2一些关键要点 这里主要总结了笔者感兴趣的部分,不同人应该有不同的理解,大家轻拍。 2.1、数据如何去重 internlm2的技术报告是这样说的。互联网上...