什么是Mistral-8*22B模型 mistralai发布最新的MoE开源底座模型,是Mistral-8*7B之后,开源的千亿级别的大模型底座,目前整体测评暂未出来,后续社区的instruct版本也会出来。 具体测评指标还没有放出来,后续补充 Mistral-8*22B模型参数 参数:1760 亿参数磁盘内存:281GB详细参数 Mixtral-8×22B-MoE 还是8个专家组成的...
| 合着官方发什么,就啥都信。这个Reka.ai,跟Mistral 差不多,规整,能解读文本,推理性能有,但一般,文笔是没有的,角色扮演也不行。Wizard 8*22B,一个个都没用过,就在那边嗨。(有成熟版本了,我会测试)现在除了GPT-4,Claude Sonnet / Opus,最好的就是Cohere Command R+.(游乐场免费,推理性能和中文比Sonnet...