Hugging Face Open LLM Leaderboard (pretrained) 大模型排行榜, Yi-34B高居榜首(2023年11月5日) 来源(勾选 pretrained):https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard 作为国产优质大模型, Yi-34B更“懂”中文。在C-Eval中文权威榜单排行榜上超越了全球所有开源模型。对比大模型标杆GPT-4,...
open_llm_leaderboard.jpg 如何使用 Falcon 180B?从 Transfomers 4.33 开始,Falcon 180B 可以在 Hugging Face 生态中使用和下载。Demo 你可以在 这个 Hugging Face Space 或以下场景中体验 Falcon 180B 的 demo。体验地址:https://hf.co/spaces/HuggingFaceH4/falcon-chat 硬件要求 Prompt 格式 其基础模型没有...
Yi-VL-34B模型托管在Hugging Face上,是全球首个开源的340亿视觉语言模型,代表了人工智能领域的重大进展。它以其双语多模态能力脱颖而出,可以进行英文和中文的多轮文本-图像对话。该模型在图像理解方面表现出色,并在MMMU和CMMMU等基准测试中... 内容导读 Yi-VL-34B模型托管在Hugging Face上,是全球首个开源的340...
01-ai/Yi-VL-6B · Hugging Face 01-ai/Yi-34B-200K · Hugging Face ### Building the Next Generation of Open-Source and Bilingual LLMs 🤗 Hugging Face • 🤖 ModelScope • ✡️ WiseModel 👩🚀 Ask questions or discuss ideas on GitHub 👋 Join us on 👾 Discord or 💬...
Large pretrained Transformer language models have been shown to exhibit zero-shot generalization, i.e. they can perform a wide variety of tasks that they were not explicitly trained on. However, the architectures and pretraining objectives used across state-of-the-art models differ significantly, ...
open_rail.md openvino.md opinion-classification-with-kili.md optimum-inference.md optimum-onnxruntime-training.md os-llms.md owkin-substra.md paddlepaddle.md panel-on-hugging-face.md peft.md perceiver.md playlist-generator.md policy-ntia-rfc.md porting-fsmt.md pretraining-bert.md pr...
open_rail.md openvino.md opinion-classification-with-kili.md optimum-inference.md optimum-onnxruntime-training.md os-llms.md owkin-substra.md paddlepaddle.md panel-on-hugging-face.md peft.md perceiver.md playlist-generator.md policy-ntia-rfc.md porting-fsmt.md pretraining-bert....
我们很高兴地宣布由 Technology Innovation Institute (TII) 训练的开源大模型 Falcon 180B 登陆 Hugging Face! Falcon 180B 为开源大模型树立了全新的标杆。作为当前最大的开源大模型,有180B 参数并且是在在 3.5 万亿 token 的 TII RefinedWeb 数据集上进行训练,这也是目前开源模型里最长的单波段预训练。 你可以...
结果显示,40B 基础模型和指令模型都非常强,目前在 Open LLM 排行榜 上分列第一和第二 ! leaderboard.png 正如Thomas Wolf 所述,我们惊喜地发现,目前预训练 40B 模型所用的计算量大约只有 LLaMa 65B 所用计算量的一半 (Falcon 40B 用了 2800 petaflop- 天,而 LLaMa 65B 用了 6300 petaflop- 天),这表明该...
Hugging Face Datasets是一个社区驱动的开源包,用于标准化 NLP 数据集的处理、分发和文档。核心库旨在简单、快速加载并为各种大小的数据集使用相同的界面。它使标准数据集的使用变得容易, 鼓励了跨数据集 NLP 的新用例,并为索引和流式处理大数据集等任务提供了复杂的功能,来自 250 多个贡献者的 650 个数据集。