SakuraLLM Sakura 🤗Hugging Face• 🤖ModelScope 目前Sakura发布的所有模型均采用CC BY-NC-SA 4.0协议,Sakura所有模型与其衍生模型均禁止任何形式的商用!Sakura系列所有模型皆仅供学习交流使用,开发者对使用Sakura模型造成的问题不负任何责任。 介绍 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域...
于是换成了用Sakura LLM。由于其github页面并没有写明API的调用方法(隐藏在一个很不起眼的地方,后面才找到),因此只能将错就错: 先在kaggle部署了Sakura LLM(教程链接:https://github.com/SakuraLLM/Sakura-13B-Galgame/wiki/%E7%99%BD%E5%AB%96Kaggle%E5%B9%B3%E5%8F%B0%E9%83%A8%E7%BD%B2%E6%95%...
SakuraLLM是一款适配轻小说和 GalGame 的日中翻译大语言模型。 该项目的使用文档主要面向 Windows 用户,然而,大多数 GPU 服务器都运行 Linux 系统。本文将简单介绍在 Unbutu 系统中运行 SakuraLLM 的过程。 本文使用的软硬件环境如下: 系统:Ubuntu 22.04 部署方式:llama-cpp-python CPU:Intel Xeon w7-3465X(分配 ...
注:如果你并不具备一定的python和debug的能力,请一定不要用text-generation-webui部署模型! 注2:理论上我们对任何人均推荐llama.cpp(包括一键包、Linux下自行编译)的方式(也即上面的Sakura启动器GUI和SakuraLLMServer)部署模型。如果你对LLM与python非常熟悉且能够自行解决可能出现的一系列问题,也可以尝试使用python部署...
衔接已经汉化的13话,前13话已经有熟肉。, 视频播放量 705、弹幕量 0、点赞数 18、投硬币枚数 8、收藏人数 9、转发人数 0, 视频作者 只等反方向的钟, 作者简介 ,相关视频:紫云寺家的孩子们漫画32话生肉ai汉化,紫云寺家的孩子们24话生肉ai汉化,紫云寺家的孩子们漫画28话
3116.2万 青年文摘 4268.3万 五分钟心理学 1861.5万 情商高,不只是会说话 3587.6万 文魁说:如何成为最会说话的人 3311.1万 一切都是最好的安排 2923.2万 高情商沟通力问答 TA的资料 Sakurallm 0 个人电台 https://www.ximalaya.com/zhubo/142270700 分享到: ...
14卷 Sakura..分别用14B v0.9.2 6bit量化和32B v0.10preview 4bit量化本地跑了下,个人感觉读起来还可以,有正经汉化前不错的代餐。意外的是个人感觉14B Q6的质量要稍好一点。2L度盘
它还支持本地模型,例如 SakuraLLM。 3. 支持多种语言: 支持多种语言之间的互译,例如中文、英文、日文、韩文、俄语等。 4. 批量翻译和多线程: 支持多文件批量翻译和多线程翻译,可以显著提高翻译效率。 5. 翻译优化: 针对长文本翻译进行了优化,包括 AI 术语表、思维链 (Chain of Thought, COT) 翻译、动态 ...
python server.py --model_name_or_path SakuraLLM/Sakura-13B-LNovel-v0_8-4bit --use_gptq_model --model_version 0.8 --trust_remote_code --no-auth 翻译Epub文件 仓库提供了脚本translate_epub.py(感谢CjangCjengh),用于翻译Epub格式的小说。使用示例如下:...
28 + * **`🚀性能优化`**: [⚡ 查看 SakuraLLM 性能优化指南,轻松获取 500% 性能提升 !! ⚡](./SakuraLLMScript/OptimizationGuide.md) 28 29 29 30 30 31 0 commit comments Comments0 (0) Failed to load comments.Retry