transformers:在大模型对话(chatglm2-6b)用的是4.34.0;Stable difusion画小姐姐用的是4.30.0 大模型选用的是智谱AI与清华KEG实验室发布的中英双语对话模型chatglm2-6b,有60亿个参数,控制得当在980Ti的6Gb显存也勉强可以跑起来。参考:https://github.com/THUDM/ChatGLM2-6B 大模型加载webui用的官方text-generat...
transformers :在大模型对话(chatglm2-6b)用的是4.34.0;Stable difusion画小姐姐用的是4.30.0 大模型选用的是智谱AI与清华KEG实验室发布的中英双语对话模型chatglm2-6b,有60亿个参数,控制得当在980Ti的6Gb显存也勉强可以跑起来。参考:https://github.com/THUDM/ChatGLM2-6B 大模型加载webui用的官方text-gener...
图表解析:可以尝试一些基于大模型的库可来解析图表,例如DePlot。 时间关系这里用了两个不同的大模型:RWKV-Raven-7B和ChatGLM2-6B分别做摘要和信息抽取,可以考虑只用一个大模型。 PDF结构化后,可以用大模型对结构化好的部位做问答,为了让问答更有效率我们需要将结构化的内容做切分然后存入向量库。
3. **阿里云的M6大模型系列**(或者类似描述但未明确提及名称的中国大模型)- 来自中国的超大规模预训练模型,在国内具有高影响力,并在多个领域应用广泛。 4. **ChatGLM-6B** - 清华大学开源的对话机器人,具有较强的语言理解和生 发布于 2024-02-21 21:40・IP 属地辽宁 ...