项目地址 GPT-Academic 安装方法 Ollama api 部署 Latex翻译插件一键生成 项目地址 GitHub - binary-husky/gpt_academic: 为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持...
为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, cl...
wiki文档最新动态(2024.12.5): 更新ollama接入指南 master主分支最新动态(2024.12.19): 更新3.91版本,更新release页一键安装脚本 2024.10.10: 突发停电,紧急恢复了提供whl包的文件服务器 2024.10.8: 版本3.90加入对llama-index的初步支持,版本3.80加入插件二级菜单功能(详见wiki) ...
ChatGPT + LLAMA + 盘古 + RWKV(需要熟悉Docker) 代码语言:javascript 代码运行次数:0 运行 AI代码解释 # 修改docker-compose.yml,保留方案3并删除其他方案。修改docker-compose.yml中方案3的配置,参考其中注释即可 docker-compose up 3.安装方法III:其他部署姿势 一键运行脚本。 完全不熟悉python环境的Windows用户...
Class | 类型 大语言模型 Feature Request | 功能请求 添加ollama的本地大模型API接口功能接入
["jittorllms_rwkv", "jittorllms_pangualpha", "jittorllms_llama"] # 【可选步骤VI】支持本地模型INT8,INT4量化(这里所指的模型本身不是量化版本,目前deepseek-coder支持,后面测试后会加入更多模型量化选择) pip install bitsandbyte # windows用户安装bitsandbytes需要使用下面bitsandbytes-windows-webui ...
wiki文档最新动态(2024.12.5): 更新ollama接入指南 2025.2.2: 三分钟快速接入最强qwen2.5-max视频 2025.2.1: 支持自定义字体 2024.10.10: 突发停电,紧急恢复了提供whl包的文件服务器 2024.5.1: 加入Doc2x翻译PDF论文的功能,查看详情 2024.3.11: 全力支持Qwen、GLM、DeepseekCoder等中文大语言模型! SoVits语音克隆...
中科院科研工作专用ChatGPT,特别优化学术Paper润色体验,支持自定义快捷按钮,支持markdown表格显示,Tex公式双显示,代码显示功能完善,新增本地Python工程剖析功能/自我剖析功能,TBC 本地大模型ollama - yangboz/chatgpt_academic
为ChatGPT/GLM提供实用化交互界面,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm2等本地模型。兼容文心一言, moss, llama2, rwkv,
为ChatGPT/GLM提供实用化交互界面,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm2等本地模型。兼容文心一言, moss, llama2, rwkv,