Sakura-14B-Qwen2beta-v0.9-iq4_xs_ver2: 4.43 Sakura-32B-Qwen2beta-v0.9-iq4xs: 3.28 推理 openai api messages格式: v0.9 使用代码处理如下: input_text_list=['a','bb','ccc', ...]# 一系列上下文文本,每个元素代表一行的文本raw_text="\n".join(input_text_list)messages=[ {"role":"syst...
【漫画/Sakura..使用的模型是sakura-14b-qwen2beta-v0.9.2-iq4xs,用的日文生肉翻译的,个人自看没经过校对,有兴趣可以将就看一下1-89-1617-24
32B 模型与 14B 模型相比,速度显著降低,但是翻译能力的提升有限,除 4090 用户以外不推荐使用。 显存大小推荐模型大小推荐模型及链接 8G7BGalTransl-7B-v1-IQ4_XS.gguf 11G/12G/16G/24G14BSakura-14B-Qwen2beta-v0.9.2-GGUF 从SakuraLLMScript目录下载common.bat以及与您的显存大小对应的启动...
version "6.0.0-beta.21.1" resolved "https://registry.yarnpkg.com/@vue/devtools-api/-/devtools-api-6.0.0-beta.21.1.tgz#f1410f53c42aa67fa3b01ca7bdba891f69d7bc97" integrity sha512-FqC4s3pm35qGVeXRGOjTsRzlkJjrBLriDS9YXbflHLsfA9FrcKzIyWnLXoNm+/7930E8rRakXuAc2QkC50swAw== "...
Sakura-14B-Qwen2beta-v0.9-iq4_xs_ver2: 4.43 Sakura-32B-Qwen2beta-v0.9-iq4xs: 3.28 推理 openai api messages格式: v0.9 使用代码处理如下: input_text_list=['a','bb','ccc', ...]# 一系列上下文文本,每个元素代表一行的文本raw_text="\n".join(input_text_list)messages=[ {"role":"syst...
Sakura-14B-Qwen2beta-v0.9-iq4_xs_ver2: 4.43 Sakura-32B-Qwen2beta-v0.9-iq4xs: 3.28 推理 openai api messages格式: v0.9 使用代码处理如下: input_text_list=['a','bb','ccc', ...]# 一系列上下文文本,每个元素代表一行的文本raw_text="\n".join(input_text_list)messages=[ {"role":"syst...
Sakura-14B-Qwen2beta-v0.9-iq4_xs_ver2: 4.43 Sakura-32B-Qwen2beta-v0.9-iq4xs: 3.28推理openai api messages格式: v0.9 使用代码处理如下: input_text_list = ['a', 'bb', 'ccc', ...] # 一系列上下文文本,每个元素代表一行的文本 raw_text = "\n".join(input_text_list) messages=[ {...
更新了使用Importance Matrix进行量化的Sakura-14B-Qwen2beta-v0.9-GGUF模型。模型地址 更新了基于Qwen1.5底模的v0.9版本模型,包括14B和1.8B两个版本。注意:此版本模型的结构为Qwen2. 同时补充更新了基于Qwen 7B的v0.9版本模型。 更新了0.9的正式版模型v0.9b。清洗并增加了预训练与微调的数据量。更推荐使用正式...
Sakura-14B-Qwen2beta-v0.9-iq4_xs_ver2: 4.43 Sakura-32B-Qwen2beta-v0.9-iq4xs: 3.28 推理 openai api messages格式: v0.9 使用代码处理如下: input_text_list=['a','bb','ccc', ...]# 一系列上下文文本,每个元素代表一行的文本raw_text="\n".join(input_text_list)messages=[ {"role":"syst...