成立于2023年4月的百川智能,用了仅仅6个月的时间,便接连发布了Baichuan-7B/13B,Baichuan2-7B/13B四款开源可免费商用大模型,以及Baichuan-53B、Baichuan2-53B两款闭源大模型。这么算来,基本上是一月一更LLM。现在,随着Baichuan2-192K的发布,大模型长上下文窗口技术也将全面走进中文时代!
Baichuan2-192K在Dureader、NarrativeQA、LSHT、TriviaQA等10项中英文长文本问答、摘要的评测集上表现优异,有7项取得SOTA,显著超过其他长窗口模型。此外,LongEval的评测结果显示,在窗口长度超过100K后Baichuan2-192K依然能够保持非常强劲的性能,而其他开源或者商用模型在窗口增长后效果都出现了近乎直线下降的情况。Claud...
百川智能的核心合作伙伴已经通过 API 调用的方式将Baichuan2-192K 接入到了自己的应用和业务当中,现在已有财经类媒体、律师事务所等机构和百川智能达成了合作。 可以想象,随着Baichuan2-192K全球领先的长上下文能力应用到传媒、金融、法律等具体场景中,无疑会给大模型落地拓展出更广阔的空间。 通过API,Baichuan2-192K...
百川智能的核心合作伙伴已经通过API调用的方式将Baichuan2-192K 接入到了自己的应用和业务当中,现在已有财经类媒体、律师事务所等机构和百川智能达成了合作。 可以想象,随着Baichuan2-192K全球领先的长上下文能力应用到传媒、金融、法律等具体场景中,无疑会给大模型落地拓展出更广阔的空间。 通过API,Baichuan2-192K能...
今天,百川智能正式发布全球上下文窗口长度最长的大模型——Baichuan2-192K。 与以往不同的是,此次模型的上下文窗口长度高达192K,相当于约35万个汉字。 再具体点,Baichuan2-192K能够处理的汉字是GPT-4(32K上下文,实测约2.5万字)的14倍,Claude 2(100K上下文,实测约8万字)的4.4倍,可以一次性读完一本《三体》。
Baichuan2-192K是百川智能发布的第7款大模型,自今年4月10日成立至今,百川智能平均每个月发布一款大模型。在8月31日,百川智能率先通过国家《生成式人工智能服务管理暂行办法》备案,是首批八家公司中唯一一家今年成立的大模型初创公司。并于今年9月25日,百川智能开放了Baichuan 2的API接口,正式进军企业级市场,...
为此,百川智能打造了全新的搜索增强知识库,以及基于搜索增强的Turbo系列API——Baichuan2-Turbo-192K和Baichuan2-Turbo。基于此,企业可以直接通过API,私人定制一套更完整、高效的智能解决方案。一大波体验来袭 API的完整体验虽然很难展现,但我们可以通过百川智能官网的模型管中窥豹的感受搜索增强带来的体验升级。现在...
Baichuan2-192K在Dureader、NarrativeQA、LSHT、TriviaQA等10项中英文长文本问答、摘要的评测集上表现优异,有7项取得SOTA,显著超过其他长窗口模型。 此外,LongEval的评测结果显示,在窗口长度超过100K后Baichuan2-192K依然能够保持非常强劲的性能,而其他开源或者商用模型在窗口增长后效果都出现了近乎直线下降的情况。Claude...
10月30日消息,大模型初创企业百川智能发布了Baichuan2-192K大模型,其上下文窗口长度高达192K。据悉,Baichuan2-192K能够处理约35万个汉字,是GPT-4(支持32K上下文窗口,实测约2.5万字)的14倍,Claude2(支持100K上下文窗口,实测约8万字)的4.4倍,而后者是支持上下文窗口长度的大模型典型代表。10月初,成立仅...
【环球网科技综合报道】10月30日消息, 百川智能发布Baichuan2-192K大模型,能够处理约35万个汉字,是目前支持长上下文窗口大模型Claude2(支持100K上下文窗口,实测约8万字)的 4.4倍,也是 GPT-4(支持32K上下文窗口,实测约 2.5万字)的14倍。 资料显示,今年9月25日,百川智能已开放了Baichuan2的API接口,正式进军企业级...