code地址:github.com/01-ai/Yi 模型地址:01-ai (01-ai)--始智AI-wisemodel-中国AI开源创新社区-- Yi-6B.tar Yi-6B-200K.tar Yi-34B.tar Yi-34B-200K.tar 0 简介 开源Yi-34B模型可支持200K 超长上下文窗口(context window)版本,可以处理约40万汉字超长文本输入,理解超过1000页的PDF文档。零一万物创始人...
Yi-34B-Chat-4bits 环境安装 !pip install transformers -U !wget https://github.com/casper-hansen/AutoAWQ/releases/download/v0.1.7/autoawq-0.1.7+cu118-cp310-cp310-linux_x86_64.whl !pip install autoawq-0.1.7+cu118-cp310-cp310-linux_x86_64.whl 推理代码 from modelscope import AutoMode...
在Yi开源模型的全球首发日,李开复也宣布,在完成Yi-34B预训练的同时,已经旋即启动下一个千亿参数模型的训练。“零一万物的数据处理管线、算法研究、实验平台、GPU资源和AI Infra都已经准备好,我们的动作会越来越快”。3、打造更多ToC Super App,培育新型“AI-first”创新生态 零一万物认为,34B的模型尺寸在开源社...
AiBase提要:1. 零一万物推出「Yi」系列开源大模型,其中Yi-34B成为全球开源大模型的双料冠军,击败竞品,表现出色,特别在中文指标上表现突出。2. Yi-34B的上下文窗口大小全球最长,支持200K字符,相比OpenAI的GPT-4大幅增加,提供更丰富的语义信息。3. 零一万物采用科学训模方法和AI Infra团队的支持,成功降低了训练...
OrionStar-Yi-34B-Chat 是一款开源中英文Chat模型,由猎户星空基于Yi-34B开源模型、使用15W+高质量语料微调而成。 - OrionStarAI/OrionStar-Yi-34B-Chat
目前最具公信力的 HuggingFace 榜单中,包括 Yi-34B 在内,排在它前面的模型只有 26 个,但是其中 48% (14个)都是 Yi-34B 和 Yi-34B 200K 的变体模型,其中第一名是来自社区用户 fblgit 的“LLaMa Yi 34B” ,比之前因为数据污染而被取消榜单资格的 TigerBot 的 70B 的效果还要好一些,千问憋出的大招 QWen...
Reminder I have read the README and searched the existing issues. Reproduction model model_name_or_path: /home/ubuntu/Yi-1.5-34B method stage: pt do_train: true finetuning_type: freeze template: default ddp ddp_timeout: 180000000 deepspe...
pip install https://github.com/casper-hansen/AutoAWQ/releases/download/v0.1.7/autoawq-0.1.7+cu118-cp310-cp310-linux_x86_64.whl 其余需要的包, 可以根据官方git进行安装。依赖包 安装环境依赖 模型服务 服务部署 这里使用fastapi搭建web服务,代码如下: from fastapi import FastAPI from fastapi import...
我使用34B-chat和langchain 配合作为一个agent使用。 prompt如下: ou are a friendly Chatbot that having a conversation with a human. You NEVER answer that you are an AI language model. If you don't know the answer truthfully say you don't have an answer. Don't make up an answer. You ...
李开复的 Yi-34B 被指是对 LLaMA 的重构 近日,国外开发者 ehartford 在开源大模型 Yi-34B 的 Hugging Face 主页上评论称,除了对两个张量做重命名之外,Yi 团队完全使用了 LLaMA 架构(input_layernorm, post_attention_layernorm) https://github.com/turboderp/exllamav2/commit/6d24e1ad40d89f64b1bd3...