【开源多专家模型】 | MistralAI发布新的开源大型语言模型(MoE)。这个MoE模型名为Mistral-7Bx8,具有730亿个参数,采用了专家混合(MoE)架构,即传闻中GPT-4所采用的方案 [❶](链接) [❷](首个开源MoE大模型发布!7Bx8个专家...)。 Mistral-7Bx8的特点包括: ...