同样的,我们再用相似的手法来测试qwen-14b。我这里分开两个notebook运行是因为kaggle不能同时训练两个大模型,显存会爆。这里我就不展示qwen-14b的测试代码了,感兴趣可以在kaggle搜索: chatglm3 vs qwen-14b 同时,我这里提供的书评是来自 github 的uer-py 项目,需要用于更进一步测试的同学可以找来更多例子来进行深...
"Qwen-14B-Chat", "Qwen-7B-Chat", ] LLM_MODEL_CONFIG = { # 意图识别不需要输出,模型后台知道就行 "preprocess_model": { "zhipu-api": { "temperature": 0.4, "max_tokens": 2048, "history_len": 100, "chatglm3-6b": { "temperature": 0.01, "max_tokens": 5, "prompt_name": "de...
应网友需求,写一篇langchain-chatchat+Qwen-14B-Chat在阿里云上的部署文档,但由于qwen系列在阿里云上报错较多,最后转为部署chatglm3-6b,之所以写100%复现,是根据真实过程编写,但由于官方更新较快,如不能复现,请联系我,我将及时跟新。有关阿里云的安装部署,见我的专栏文章Kevin:完全复现ChatGLM3-6b在阿里云人工智能...
应网友需求,写一篇langchain-chatchat+Qwen-14B-Chat在阿里云上的部署文档,但由于qwen系列在阿里云上报错较多,最后转为部署chatglm3-6b,之所以写100%复现,是根据真实过程编写,但由于官方更新较快,如不能复现,请联系我,我将及时跟新。有关阿里云的安装部署,见我的专栏文章Kevin:完全复现ChatGLM3-6b在阿里云人工智能...
"Qwen-1_8B-Chat", "openai-api" "openai-api", "Qwen-14B-Chat", "Qwen-7B-Chat", ] LLM_MODEL_CONFIG = { # 意图识别不需要输出,模型后台知道就行 "preprocess_model": { "zhipu-api": { "temperature": 0.4, "max_tokens": 2048, "history_len": 100, "chatglm3-6b": { "temperatu...
(missing: https://www.kaggle.com/static/assets/6084.f4312d5ceab69cdedec9.js) at r.f.j (https://www.kaggle.com/static/assets/runtime.js?v=dc5e9e2d37e9ce537d83:1:10505) at https://www.kaggle.com/static/assets/runtime.js?v=dc5e9e2d37e9ce537d83:1:1295 at Array.reduce (<...
Explore and run machine learning code with Kaggle Notebooks | Using data from No attached data sources