API Key: 需要现在智谱 AI 开放平台创建。 3.2.7 添加通义千问大模型 API Key: 需要在阿里云 ->DashScope 灵积模型服务 ->API Key 管理中获取。 3.2.8 添加 Kimi 大模型 API 域名:https://api.moonshot.cn/v1 API Key: 在 Kimi 账户中心的 API Key 管理中获取 key。 3.2.9
例如它已经被整合到DataEase产品中,以DataEase小助手的身份为用户提供即时的帮助和支持,展示了其在实际业务场景中的强大适应性。 在技术实现上MaxKB采用了现代Web开发框架Vue.js来构建用户界面,后端则依赖Python的Django框架,保证了系统的稳定性和可扩展性。此外,利用LangChain这样的工具包,MaxKB能够流畅地与不同的大语...
后端:Python / Django Langchain:Langchain 向量数据库:PostgreSQL / pgvector 大模型:Ollama、Azure OpenAI、OpenAI、通义千问、Kimi、百度千帆大模型、讯飞星火、Gemini、DeepSeek等。 2.安装部署 2.1 离线安装 环境要求 安装前请确保您的系统符合安装条件: 操作系统:Ubuntu 22.04 / CentOS 7 64 位系统; CPU...
-v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages \ docker.1ms.run/1panel/maxkb 启动之后访问http://localhost:8080/ 用户名: admin 密码: MaxKB@123.. 设置模型 系统设置-->模型设置-->添加模型,这里添加ollama的deepseek-r1:8b,其中API URL设置为http://host.docker.internal:11434,API...
#!/usr/bin/env python # -*- coding:utf-8 -*-# Author: zhibo.wang # E-mail: gm.zhibo.wang@gmail.com # Date : # Desc :import pytz from collections import defaultdict import datetime from config import global_config from bridge.reply import Reply, ReplyType ...
version: "3.5"services: maxkb: image: cr2.fit2cloud.com/1panel/maxkb container_name: maxkb restart: unless-stopped ports: - "3456:8080" volumes: - ./maxkb:/var/lib/postgresql/data - ./python-packages:/opt/maxkb/app/sandbox/python-packages volumes:映射容器...
API Key: 需要现在智谱 AI 开放平台创建。3.2.7 添加通义千问大模型 API Key: 需要在阿里云 ->DashScope 灵积模型服务 ->API Key 管理中获取。3.2.8 添加 Kimi 大模型 API 域名: https://api.moonshot.cn/v1 API Key: 在 Kimi 账户中心的 API Key 管理中获取 key。3.2...
后端:Python/Django Langchain:Langchain 向量数据库:PostgreSQL/ pgvector 大模型:Ollama、Azure OpenAI、OpenAI、通义千问、Kimi、百度千帆大模型、讯飞星火、Gemini、DeepSeek等。 2.Dify Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以...
`-- python-packages 2 directories, 1 file maxkb 即为 postgresql 数据库目录 python-packages 即为python库依赖目录 基于MaxkB搭建本地知识库问答系统,能够实现对敏感数据的本地化存储与管理,确保信息安全。同时,该系统支持快速检索与智能生成,帮助企业或个人高效利用已有知识,提升工作效率。适用于教育培训、企业内...
■ 需要安装Python环境和相关依赖,对技术要求较高(也支持Docker); ■ 支持从huggingface/modelscope等平台下载的模型文件。 2. 性能 ■ 采用PagedAttention技术,提高内存利用率,支持高并发处理; ■ 在高用户负载下,vLLM官方给出的吞吐量比HuggingFace Transformers高出24倍,比Text Generation Inference高出3.5倍。 3....