git clone https://github.com/gordicaleksa/lm-evaluation-harness-serbian cd lm-evaluation-harness-serbian pip install -e . Currently you might need to manually install also the following packages (do pip install)
git clone https://github.com/EleutherAI/lm-evaluation-harnesscdlm-evaluation-harness pip install -e. We also provide a number of optional dependencies for extended functionality. Extras can be installed viapip install -e ".[NAME]" NameUse ...
原文链接:https://arxiv.org/pdf/2402.18158.pdf仓库地址:https://github.com/thu-nics/qllm-eval 欢迎Follow该仓库查看更详细的实验数据以及绘图工具,并追踪更多模型的测试结果。后续该项目还将随着Transformer的版本更新持续迭代,以支持更多模型的KV Cache量化。1、训练后量化(Post-Training Quantization,PTQ)...
仓库地址:https://github.com/thu-nics/qllm-eval 欢迎Follow该仓库查看更详细的实验数据以及绘图工具,并追踪更多模型的测试结果。后续该项目还将随着Transformer的版本更新持续迭代,以支持更多模型的KV Cache量化。 1、训练后量化(Post-Training Quantization,PTQ) 大模型推理过程包括两个阶段:Prefill阶段和Decoding阶段:...
本次评测涵盖了17个大类、453个问题,包括事实性问答、阅读理解、框架生成、段落重写、摘要、数学解题、推理、诗歌生成、编程等各个领域。目前LLMEVAL正在撰写详细的分析报告,并计划投稿EMNLP 2023中。评测问题和各个参评系统的回答结果已经上传至https://github.com/llmeval/llmeval-1。
仓库地址:https://github.com/thu-nics/qllm-eval 欢迎Follow该仓库查看更详细的实验数据以及绘图工具,并追踪更多模型的测试结果。后续该项目还将随着Transformer的版本更新持续迭代,以支持更多模型的KV Cache量化。 1、训练后量化(Post-Training Quantization,PTQ) ...
仓库地址:https://github.com/thu-nics/qllm-eval 欢迎Follow该仓库查看更详细的实验数据以及绘图工具,并追踪更多模型的测试结果。后续该项目还将随着Transformer的版本更新持续迭代,以支持更多模型的KV Cache量化。 1、训练后量化(Post-Training Quantization,PTQ) ...
github地址:https://github.com/SJTU-LIT/ceval C-Eval榜单地址:https://cevalbenchmark.com/static/leaderboard.html 数据集地址:https://huggingface.co/datasets/ceval/ceval-exam C-Eval的科目覆盖及难度设计 C-Eval包括四个难度级别的多项选择题:初中、高中、大学和专业。C-Eval还附带有C-Eval HARD,...
【LLM AutoEval:在Google Colab上自动评估LLM的工具,可以简化LLM模型的评估过程,并提供自定义的评估参数和生成摘要的功能。该项目还包括了Nous和Open LLM两个基准套件,以及对GPU资源的选择和调整】'LLM AutoEval - Automatically evaluate your LLMs in Google Colab' GitHub: github.com/mlabonne/llm-autoeval #开...
GitHub:https://github.com/OpenCompass/OpenCompass 在使用GPT-4等评审模型进行“模型输出打分”时,一个常见的问题是:输出越长,评分越高。这被称为长度偏差(LengthBias)。这种倾向可能导致评估失真——模型只要“啰嗦”,就能赢。为了纠正这一点,AlpacaEval引入了长度控制评估方法。该方法在技术上也称作...