在AnythingLLM 的 API 调用中,你需要确保 API 支持流式响应(通常通过Content-Type: text/event-stream或类似机制实现)。 2.代码实现 以下是一个完整的 Python 示例,展示如何使用requests库实现流式输出: importrequestsimportjsondefask_anythingllm(question,workspace_name,api_key):url=f"http://ip:port/api/v...
调用本地ollama部署的llm,报错找不到模型,但可以正常返回结果 期望行为 | Expected Behavior 正常返回结果 运行环境 | Environment - OS:ubuntu20.04 - NVIDIA Driver: - CUDA: - Docker Compose: - NVIDIA GPU Memory: QAnything日志 | QAnything logs 2024-09-08 14:01:52,245 Warning: qwen2-q4_0 not ...