使用新数据集进行微调: from uniem.finetuner import FineTuner finetuner = FineTuner.from_pretrained('moka-ai/m3e-base', dataset=df.to_dict('records')) fintuned_model = finetuner.run(epochs=3, output_dir='finetuned-model') 微调后加载新模型,并使用该模型实现文本转向量: from sentence_tr...
belle_2m 百科 2,000,000 指令微调 无 优 LianjiaTech/BELLE belle 的指令微调数据集,使用 self instruct 方法基于 gpt3.5 生成 是 否 是 是 https://huggingface.co/datasets/BelleGroup/train_2M_CN 否 firefily 百科 1,649,399 指令微调 无 优 YeungNLP Firefly(流萤) 是一个开源的中文对话式大语言...
Embedding,此模型是文本嵌入模型,可以将自然语言转换成稠密的向量 以上是作者的简单介绍,关于m3e微调、训练、评测等更详细信息都可以点击链接查看。 安装sentence-transformers 进入模型的conda环境安装,因为conda环境安装过PyTorch等依赖库,无需重复下载;若考虑到多环境都须使用建议下载到base环境,当然,一些依赖文件需要重新...
firefily 百科 1,649,399 指令微调 无 优 YeungNLP Firefly(流萤) 是一个开源的中文对话式大语言模型,使用指令微调(Instruction Tuning)在中文数据集上进行调优。使用了词表裁剪、ZeRO等技术,有效降低显存消耗和提高训练效率。 在训练中,我们使用了更小的模型参数量,以及更少的计算资源。 未说明 未说明 是 是 ...
firefily 百科 1,649,399 指令微调 无 优 YeungNLP Firefly(流萤) 是一个开源的中文对话式大语言模型,使用指令微调(Instruction Tuning)在中文数据集上进行调优。使用了词表裁剪、ZeRO等技术,有效降低显存消耗和提高训练效率。 在训练中,我们使用了更小的模型参数量,以及更少的计算资源。 未说明 未说明 是 是...
belle_2m 百科 2,000,000 指令微调 无 优 LianjiaTech/BELLE belle 的指令微调数据集,使用 self instruct 方法基于 gpt3.5 生成 是 否 是 是 https://huggingface.co/datasets/BelleGroup/train_2M_CN 否 firefily 百科 1,649,399 指令微调 无 优 YeungNLP Firefly(流萤) 是一个开源的中文对话式大语言...
firefily 百科 1,649,399 指令微调 无 优 YeungNLP Firefly(流萤) 是一个开源的中文对话式大语言模型,使用指令微调(Instruction Tuning)在中文数据集上进行调优。使用了词表裁剪、ZeRO等技术,有效降低显存消耗和提高训练效率。 在训练中,我们使用了更小的模型参数量,以及更少的计算资源。 未说明 未说明 是 ...
firefily 百科 1,649,399 指令微调 无 优 YeungNLP Firefly(流萤) 是一个开源的中文对话式大语言模型,使用指令微调(Instruction Tuning)在中文数据集上进行调优。使用了词表裁剪、ZeRO等技术,有效降低显存消耗和提高训练效率。 在训练中,我们使用了更小的模型参数量,以及更少的计算资源。 未说明 未说明 是 ...
使用新数据集进行微调: fromuniem.finetunerimportFineTuner finetuner=FineTuner.from_pretrained('moka-ai/m3e-base',dataset=df.to_dict('records'))fintuned_model=finetuner.run(epochs=3,output_dir='finetuned-model') 微调后加载新模型,并使用该模型实现文本转向量: ...