他们已经集成了Llama 3.1模型,似乎可以瞬间推理8B模型: https://t.co/b2kdSsz0fH 而且(由于服务器压力,我似乎无法尝试)在Groq上运行的405B可能是今天能力最高、速度最快的LLM(?)。 早期模型评估看起来不错: https://t.co/RLR5YBpmks https://t.co/ipT4x4wCvy 还有待进行“氛围检查”,请在接下来的几天...