2.本项目中每个文件的功能都在自译解报告self_analysis.md详细说明。随着版本的迭代,您也可以随时自行点击相关函数插件,调用GPT重新生成项目的自我解析报告。常见问题wiki。常规安装方法 | 一键安装脚本 | 配置说明。 3.本项目兼容并鼓励尝试国产大语言模型ChatGLM等。支持多个api-key共存,可在配置文件中填写如API_KE...
version 3.45: 支持自定义ChatGLM2微调模型 version 3.44: 正式支持Azure,优化界面易用性 version 3.4: +arxiv论文翻译、latex论文批改功能 version 3.3: +互联网信息综合功能 version 3.2: 函数插件支持更多参数接口 (保存对话功能, 解读任意语言代码+同时询问任意的LLM组合) ...
得益于 ChatGLM2 的优秀特性,CodeGeeX2 可以更好地支持中英文输入,支持最大 8192 序列长度,推理速度较一代 CodeGeeX-13B 大幅提升,量化后仅需 6GB 显存即可运行,支持轻量级本地化部署。 此外,CodeGeeX 插件(VS Code, Jetbrains)后端也全面升级,支持超过 100 种编程语言,新增上下文补全、跨文件补全等实用功能。
另外,您也可以直接使用docker-compose获取Latex功能(修改docker-compose.yml,保留方案4并删除其他方案)。 ChatGPT + ChatGLM2 + MOSS + LLAMA2 + 通义千问(需要熟悉Nvidia Docker运行时) # 修改docker-compose.yml,保留方案2并删除其他方案。修改docker-compose.yml中方案2的配置,参考其中注释即可 docker-compose...
2.本项目中每个文件的功能都在自译解报告self_analysis.md详细说明。随着版本的迭代,您也可以随时自行点击相关函数插件,调用GPT重新生成项目的自我解析报告。常见问题wiki。常规安装方法 | 一键安装脚本 | 配置说明。 3.本项目兼容并鼓励尝试国产大语言模型ChatGLM和Moss等等。支持多个api-key共存,可在配置文件中填写...
2.本项目中每个文件的功能都在自译解报告self_analysis.md详细说明。随着版本的迭代,您也可以随时自行点击相关函数插件,调用GPT重新生成项目的自我解析报告。常见问题请查阅wiki。 3.本项目兼容并鼓励尝试国产大语言模型ChatGLM等。支持多个api-key共存,可在配置文件中填写如API_KEY="openai-key1,openai-key2,azure...
直接把整个工程炫ChatGPT嘴里 多种大语言模型混合调用(ChatGLM + OpenAI-GPT3.5 + GPT4) Installation 安装方法I:直接运行 (Windows, Linux or MacOS) 下载项目 git clone --depth=1 https://github.com/binary-husky/gpt_academic.git cd gpt_academic 配置API_KEY等变量 在config.py中,配置API KEY等...
version 3.0: 对chatglm和其他小型llm的支持 version 2.6: 重构了插件结构,提高了交互性,加入更多插件 version 2.5: 自更新,解决总结大工程源代码时文本过长、token溢出的问题 version 2.4: (1)新增PDF全文翻译功能; (2)新增输入区切换位置的功能; (3)新增垂直布局选项; (4)多线程函数插件优化。
version 3.45: 支持自定义ChatGLM2微调模型 version 3.44: 正式支持Azure,优化界面易用性 version 3.4: +arxiv论文翻译、latex论文批改功能 version 3.3: +互联网信息综合功能 version 3.2: 函数插件支持更多参数接口 (保存对话功能, 解读任意语言代码+同时询问任意的LLM组合) version 3.1: 支持同时问询多个gpt模型!
version 3.45: 支持自定义ChatGLM2微调模型 version 3.44: 正式支持Azure,优化界面易用性 version 3.4: +arxiv论文翻译、latex论文批改功能 version 3.3: +互联网信息综合功能 version 3.2: 函数插件支持更多参数接口 (保存对话功能, 解读任意语言代码+同时询问任意的LLM组合) ...