使用本地模型, chatglm3-6b-int8 (chatglm3-6b int8量化后模型),启动后 对话后台会报错。 **复现问题的步骤 修改modelConfig为量化模型,并且地址修改为本地路径 启动python startup.py -a 界面可以正常显示,模型也可以正常加载(使用单独的chatglm3-6b-int8是可以对话的) 发送任何语句后,后台报错。 **预期...