# 安装LLaMA-Factory的核心包 pip install -e . 4、LLaMA-Factory 启动 注意:一定要 LLaMA-Factory 的目录下面启动 # 进入 LLaMA-Factory 目录下 cd LLaMA-Factory-main # 使用此命令开启llamafactory,若界面关闭模型训练便会终止 llamafactory-cli webui ...
"predict_bleu-4": 2.487403191204076, "predict_rouge-1": 16.790678761061947, "predict_rouge-2": 1.1607781979082865, "predict_rouge-l": 14.878193322606597, "predict_runtime": 900.9563, "predict_samples_per_second": 4.139, "predict_steps_per_second": 1.38 } 这些指标应该怎么看呢?首先我们来了解一下...
predict_bleu-4: BLEU(Bilingual Evaluation Understudy)是一种常用的用于评估机器翻译质量的指标。 BLEU-4 表示四元语法 BLEU 分数,它衡量模型生成文本与参考文本之间的 n-gram 匹配程度,其中 n=4。 值越高表示生成的文本与参考文本越相似,最大值为 100。 predict_rouge-1 和 predict_rouge-2: ROUGE(Recall...
参数名称参数说明 do_predict 现在是预测模式 predict_with_generate 现在用于生成文本 max_samples 每个数据集采样多少用于预测对比 运行后输出的尾部: *** predict metrics *** predict_bleu-4 = 27.9112 predict_model_preparation_time = 0.0037 predict_rouge-1 = 48.432 predict_rouge-2 = 27.0109 predict_...
--do_predict True \ --adapter_name_or_path saves/LLaMA3-8B-Chinese-Chat/lora/test1 开启测试评估后页面如图所示,预计时间2.5小时 命令行运行状态如下: 三、评估结果分析 运行结束后结果如图所示 { "predict_bleu-4": 65.52780035587189, "predict_rouge-1": 77.68434395017793, ...
对于有微调大模型需求,却对大模型微调完全是一个门外汉的用户来说,通过学习LLaMA-Factory后,可以快速的训练出自己需要的模型。对于想要了解微调大模型技术的技术人员,通过学习LLaMA-Factory后也能快速理解模型微调的相关概念。所以,我认为LLaMA-Factory是走向大模型微调的一条捷径。 如何学习? 如果你只想了解如何利用...
本文是对LLaMA-Factory入门教程https://zhuanlan.zhihu.com/p/695287607的个人重制版,记录一下学习过程,省略掉了很多文字部分,建议直接阅读https://zhuanlan.zhihu.com/p/695287607 准备环境 gitclonehttps://github.com/hiyouga/LLaMA-Factory.git conda create -n llama_factory python=3.10 ...
predict_bleu-4 = 86.0879 predict_rouge-1 = 91.5523 predict_rouge-2 = 86.1083 predict_rouge-l = 89.6543 predict_runtime = 0:00:16.23 predict_samples_per_second = 1.232 predict_steps_per_second = 1.232 07/04/2024 03:17:33 - INFO - llamafactory.train.sft.trainer - Saving prediction resul...
LLaMA-Factory项目的目标是整合主流的各种高效训练微调技术,适配市场主流开源模型,形成一个功能丰富,适配性好的训练框架。项目提供了多个高层次抽象的调用接口,包含多阶段训练,推理测试,benchmark评测,API Server等,使开发者开箱即用。同时借鉴 Stable Diffsion WebUI相关,本项目提供了基于gradio的网页版工作台,方便初学...
conda create -n llama_factory python=3.10 conda activate llama_factory cd LLaMA-Factory pip install -e .[metrics]安装后使用以下命令做简单的正确性校验 校验1 import torch torch.cuda.current_device() torch.cuda.get_device_name(0) torch.__version__ ...