【环球网科技综合报道】10月30日消息, 百川智能发布Baichuan2-192K大模型,能够处理约35万个汉字,是目前支持长上下文窗口大模型Claude2(支持100K上下文窗口,实测约8万字)的 4.4倍,也是 GPT-4(支持32K上下文窗口,实测约 2.5万字)的14倍。 资料显示,今年9月25日,百川智能已开放了Baichuan2的API接口
百川智能的核心合作伙伴已经通过 API 调用的方式将Baichuan2-192K 接入到了自己的应用和业务当中,现在已有财经类媒体、律师事务所等机构和百川智能达成了合作。可以想象,随着Baichuan2-192K全球领先的长上下文能力应用到传媒、金融、法律等具体场景中,无疑会给大模型落地拓展出更广阔的空间。通过API,Baichuan2-192K...
10月30日,百川智能发布Baichuan2-192K大模型,上下文窗口长度高达192K,是目前全球最长的上下文窗口,能够一次处理约35万个汉字,是目前支持长上下文窗口最优秀大模型Claude2(支持100K上下文窗口,实测约8万字)的4.4倍,GPT-4(支持32K上下文窗口,实测约 2.5万字)的14倍。Baichuan2-192K是百川智能发布的第7款...
百川智能的核心合作伙伴已经通过API调用的方式将Baichuan2-192K 接入到了自己的应用和业务当中,现在已有财经类媒体、律师事务所等机构和百川智能达成了合作。 可以想象,随着Baichuan2-192K全球领先的长上下文能力应用到传媒、金融、法律等具体场景中,无疑会给大模型落地拓展出更广阔的空间。 通过API,Baichuan2-192K能...
百川智能发布的Baichuan2-192K大模型在人工智能领域取得了重要进展,成为了当前技术发展的一个里程碑。该模型的发布,将为人工智能在医疗、金融、智能家居等领域的应用带来新的突破,改变我们的生活和工作方式。在人工智能领域,大模型的研发一直是各个企业和机构的重点之一。Baichuan2-192K大模型不仅拥有全球最长的上下文...
今天,百川智能正式发布全球上下文窗口长度最长的大模型——Baichuan2-192K。 与以往不同的是,此次模型的上下文窗口长度高达192K,相当于约35万个汉字。 再具体点,Baichuan2-192K能够处理的汉字是GPT-4(32K上下文,实测约2.5万字)的14倍,Claude 2(100K上下文,实测约8万字)的4.4倍,可以一次性读完一本《三体》。 Cla...
10月30日消息,大模型初创企业百川智能发布了Baichuan2-192K大模型,其上下文窗口长度高达192K。据悉,Baichuan2-192K能够处理约35万个汉字,是GPT-4(支持32K上下文窗口,实测约2.5万字)的14倍,Claude2(支持100K上下文窗口,实测约8万字)的4.4倍,而后者是支持上下文窗口长度的大模型典型代表。10月初,成立仅...
IT之家 10 月 30 日消息,百川智能今日宣布推出 Baichuan2-192K 大模型。据介绍,该模型上下文窗口长度达 192K,能够处理约 35 万个汉字,号称是目前全球最长的上下文窗口。百川智能表示,Baichuan2-192K 是目前支持长上下文窗口最优秀大模型 Claude2(100K 上下文窗口,实测约 8 万字)的 4.4 倍,是 GPT-4...
IT之家 12 月 19 日消息,在今天举办的 Baichuan2 Turbo 系列 API 发布会上,百川智能宣布开放基于搜索增强的 Baichuan2-Turbo 系列 API,两款模型“Baichuan2-Turbo-192K”、“Baichuan2-Turbo”,在“支持 192K 上下文窗口”的基础上,新增“搜索增强知识库”的能力。▲ 图源 百川智能官网 王小川声称,百川...
今天,百川智能正式发布全球上下文窗口长度最长的大模型——Baichuan2-192K。 与以往不同的是,此次模型的上下文窗口长度高达192K,相当于约35万个汉字。 再具体点,Baichuan2-192K能够处理的汉字是GPT-4(32K上下文,实测约2.5万字)的14倍,Claude 2(100K上下文,实测约8万字)的4.4倍,可以一次性读完一本《三体》。