最近,CodeFuse-CodeLlama-34B 4bits量化版本发布,CodeFuse-CodeLlama-34B-4bits是CodeFuse-CodeLlama-34B模型的4bits量化版本,后者是通过QLoRA对基座模型CodeLlama-34b-Python进行多代码任务微调而得到的代码大模型,模型输入长度为4K。 经4bits量化后,CodeFuse-CodeLlama-34B-4bits可用单张A10 (24GB显存)或者RTX 40...
据悉,该模型是 CodeFuse-CodeLlama-34B 模型的 4bits 量化版本,后者是通过 QLoRA 对基座模型 CodeLlama-34b-Python 进行多代码任务微调而得到的代码大模型,模型输入长度为 4K。 经4bits 量化后,CodeFuse-CodeLlama-34B-4bits 可用单张 A10(24 GB 显存)或者 RTX4090 (24 GB 显存)加载,同时,量化后的模型在 ...
简介: 继2023-09-11 CodeFuse-CodeLlama-34B发布,HumanEval pass@1指标达到74.4% (贪婪解码), 为当前开源SOTA。最近,CodeFuse-CodeLlama-34B 4bits量化版本发布,CodeFuse-CodeLlama-34B-4bits是CodeFuse-CodeLlama-34B模型的4bits量化版本,后者是通过QLoRA对基座模型CodeLlama-34b-Python进行多代码任务微调而得到...
据站长之家 9 月 27 日消息,近日,蚂蚁集团代码大模型 CodeFuse-CodeLlama-34B 4bits 量化版本发布。据悉,该模型是 CodeFuse-CodeLlama-34B 模型的 4bits 量化版本,后者是通过 QLoRA 对基座模型 CodeLlama-34b-Python 进行多代码任务微调而得到的代码大模型,模型输入长
9月27日,近日,蚂蚁集团代码大模型CodeFuse-CodeLlama-34B 4bits量化版本发布。据悉,该模型是CodeFuse-CodeLlama-34B模型的4bits量化版本,后者是通过QLoRA对基座模型CodeLlama-34b-Python进行多代码任务微调而得到的代码大模型,模型输入长度为4K。 经4bits量化后,CodeFuse-CodeLlama-34B-4bits可用单张A10(24 GB显存...
据站长之家 9 月 27 日消息,近日,蚂蚁集团代码大模型 CodeFuse-CodeLlama-34B 4bits 量化版本发布。据悉,该模型是 CodeFuse-CodeLlama-34B 模型的 4bits 量化版本,后者是通过 QLoRA 对基座模型 CodeLlama-34b-Python 进行多代码任务微调…