此外,我们还开源了**Qwen2-VL-72B**,相比上个月的发布,该模型具有性能提升。 与往常一样,我们不仅开源了bf16检查点,还提供了量化模型检查点,例如GPTQ,AWQ和GGUF,因此这次我们总共有100多个模型变体! 值得注意的是,我们的旗舰开源LLM,Qwen2.5-72B-Instruct,在多个基准评估中取得了竞争性表现,超越了大多数开源...