一、参数规模与显存占用 Sakura 7B:模型参数较少,仅为70亿左右,因此其显存占用也相对较低,适合在显存资源有限的设备上运行。 Sakura 13B:拥有130亿参数,量化后占用显存在12G左右,能够提供更为复杂和准确的翻译服务。 二、翻译质量与领域适应性 Sakura 7B:虽然翻译速度较快,但由于参数较少,可能在某些特定领域的翻译...
简介:sakura的三种不同参数量的模型对同一个原文进行翻译的对比,所以有三重字幕 sakura7B-13B-32B模型由Galtranl - ASMR WebUI加载,教程看这里BV1Nw4m1C7oZ 原文由faster-whisper-GUI听译 正常是三重字幕,有时会有缺失的,那是因为多重字幕时,剪映有时丢失一些字幕。
*NV是N卡使用,VULKAN属于通用可供A卡和I卡使用 下载框里的sakura模型到sakura文件夹里 *7b模型适合翻译galgame *14b模型适合翻译小说 点击download下载 开始运行sakura,在sakura文件夹里找到最先下载的Sakura_Launcher_GUI_v1.1.0-beta.exe点击打开软件就会如图显示后点击粉色的启动按钮就可以开始运行sakura了...
更新了基于Qwen1.5-7B的Galtransl模型,为视觉小说翻译任务专项优化。对视觉小说脚本中的行内换行、控制符、ruby注音等符号具有较好的保留能力。适配GalTransl视觉小说翻译工具并调优,支持GPT字典(字典写法见此)。 增加了vllm模型后端的支持,详见#40 感谢Isotr0py提供运行模型的NoteBook仓库SakuraLLM-Notebooks,可在Colab...
更新了基于Qwen2.5的v1.0正式版14B模型Sakura-14B-Qwen2.5-v1.0、1.5B模型Sakura-1.5B-Qwen2.5-v1.0和7B模型Sakura-7B-Qwen2.5-v1.0。prompt格式参见下方说明。主要改进: 改善翻译质量,提高翻译准确率,尤其是人称的准确率。 支持术语表(GPT字典),以保持专有名词和人称的一致性。
此处以Qwen1.5-7B-Galtransl-v1.5为例, HuggingFace Model card 给出了不同量化等级使用的显存大小,但在模型文件中只给出了IQ4_KS和Q6_K两个等级。根据实测,Q6_K在 llama-cpp-python 部署方式下搭配GalTransl使用时显存占用小于 8 GB。 将模型下载到SakuraLLM/models/目录中即可。
直接挂luna 开 sakura gal 7b模型实时翻译虽然吃显卡,但基本都可以看得懂 贴吧热榜 按内容热度排行,每小时更新一次 1 换做是你敢不敢拿? 热度152.8W 2 其实我很好奇,一个r18的gal 女主之一 热度152.5W 3 梁大仁没脸见人了 热度124.5W 4 哎,歼10的首战啊,就这样没了 热度115W 5 长期更新BLG...
xtuner train命令用于启动模型微调进程。该命令需要一个参数:CONFIG用于指定微调配置文件。这里我们使用修改好的配置文件internlm2_5_chat_7b_qlora_alpaca_e3_copy.py。 训练过程中产生的所有文件,包括日志、配置文件、检查点文件、微调后的模型等,默认保存在work_dirs目录下,我们也可以通过添加--work-dir指定特定的...
樱花校园模拟器全部衣服解锁版优势 1、各种精彩的模拟活动等着你参与,感受更多乐趣。 2、游戏画面清新精致,游戏玩法丰富有趣。 3、完成各项任务,享受精彩的高中生活。 4、很多很酷的道具都是给你用的,更多的模型很精彩。包名:jp.garud.ssimulator MD5值:fcc39eeb61ba1fcfe3fd0da7b2303a59相关应用樱花...
7B 模型的翻译能力较差,除非显存受限,否则应避免使用。 32B 模型与 14B 模型相比,速度显著降低,但是翻译能力的提升有限,除 4090 用户以外不推荐使用。 显存大小推荐模型大小推荐模型及链接 8G7BGalTransl-7B-v1-IQ4_XS.gguf 11G/12G/16G/24G14BSakura-14B-Qwen2beta-v0.9.2-GGUF ...