本测试采用的是当前 Sakura 13B 的最新测试版本:基于 Qwen1.5 微调,具体为: sakura0.9_13B_Qwen1.5_iq4xs_1.3.gguf · shing3232/Sakura13B-LNovel-v0.9-qwen1.5-GGUF-IMX at main (huggingface.co) 本次测试不是一个经过系统设计的研究,作者也仅具有非常有限的日语支持。模型提示词设计较为简易,更多的是希...
脚本与Sakura模型下载:请看评论区置顶 MTool作者鬼才琪露诺:https://space.bilibili.com/38249?TGW一键懒人包(解压即用):https://www.bilibili.com/video/BV1dVCzYUE7G相关项目参考链接: Text-generation-webui原始项目:https://github.com/oobabooga/text-generation-webui TGW全参数详解:https://www.bilibili....
一、参数规模与显存占用 Sakura 7B:模型参数较少,仅为70亿左右,因此其显存占用也相对较低,适合在显存资源有限的设备上运行。 Sakura 13B:拥有130亿参数,量化后占用显存在12G左右,能够提供更为复杂和准确的翻译服务。 二、翻译质量与领域适应性 Sakura 7B:虽然翻译速度较快,但由于参数较少,可能在某些特定领域的翻译...
AI自动翻译已完成。本翻译脚本是由Sakura13b这个日语专精AI运行翻译。欢迎大家来尝试。使用方法请参考吧里gpt翻译脚本使用方法。只不过需要用我这个json文件替代那个json文件。如果有错翻漏翻的部分请截图告诉我。 送TA礼物 来自iPhone客户端1楼2024-08-12 15:56回复 ...
Sakura-13B-Galgame基于LLaMA2-13B,OpenBuddy(v0.1-v0.4)和Baichuan2-13B(v0.5+)构建,在Galgame/轻小说中日文本数据上进行微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型.目前仍为实验版本。小规模评估显示,同等条件下可达到约80%~110%ChatGPT(GPT-3.5)水平。效果:详见Sakura-13B-Gal...
Sakura-13B-Galgame 介绍 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型。 目前仍为实验版本,v0.9版本模型在文风、流畅度与准确性上均强于GPT-3.5,但词汇量略逊于GPT-3.5(主观评价). ...
sakura-umi Add(pack): create server.spec to pack Python to EXE. acdd7c2· Jan 1, 2024 HistoryHistory Breadcrumbs Sakura-13B-Galgame / server.specTop File metadata and controls Code Blame 90 lines (84 loc) · 2.37 KB Raw # -*- mode: python ; coding: utf-8 -*- from PyInstaller....
简介:sakura的三种不同参数量的模型对同一个原文进行翻译的对比,所以有三重字幕 sakura7B-13B-32B模型由Galtranl - ASMR WebUI加载,教程看这里BV1Nw4m1C7oZ 原文由faster-whisper-GUI听译正常是三重字幕,有时会有缺失的,那是因为多重字幕时,剪映有时丢失一些字幕。三种模型各有千秋,不是说32B就一定好有三...
放一波使用最新模型的..第4到14卷,使用最新的sakura-13b-lnovel-v0.9模型进行的翻译,对照萌娘百科和wiki对部分日语人名构建了术语表。感谢机翻机器人网页链接
别用sakura13..首先需要把你的tgw扔一边 用lm studio然后照着睿站的视频配置一下(up主叫smzh,根据他发的a卡的教程配置)再从hugging face上下又好又快的sakura 14b qwen2.5