近日,Cerebras Systems 与 Perplexity AI 宣布达成合作,共同推出一款新的超快速 AI 搜索模型 Sonar,旨在挑战传统搜索引擎的主导地位。合作的核心在于 Sonar 模型,该模型在 Cerebras 专用的 AI 芯片上运行,速度达到每秒1200个标记,成为目前市场上最快的 AI 搜索系统之一。Sonar 模型建立在 Meta 的 Llama3.370B ...
据Perplexity透露,新版Sonar的Token解码速度惊人,每秒可达1200个,这一速度远超Gemini 2.0 Flash的8.5倍,实现了近乎即时的答案生成,为用户带来前所未有的高效体验。 在回答质量方面,新版Sonar同样表现出色。Perplexity表示,用户对新版Sonar的评价显著超越了GPT-4o mini和Claude 3.5 Haiku,甚至与前沿模型Claude 3.5 Sonnet相...
IT之家 2 月 12 日消息,AI 搜索引擎企业 Perplexity 当地时间昨日宣布推出其开发的新版 Sonar 搜索模型。该模型由 Llama 3.3 70B 进一步训练而来,对搜索应用进行了优化,运行在 Cerebras 推理基础设施上。Perplexity 表示新版 Sonar 的 Token 解码速度达到 1200 个每秒,是 Gemini 2.0 Flash 的 8.5 倍以上,...
Sonar超高速AI搜索模型, 视频播放量 1、弹幕量 0、点赞数 0、投硬币枚数 0、收藏人数 0、转发人数 0, 视频作者 数字炼丹师, 作者简介 本硕计算机专业,AI产品经理每天更新国内外AI热点和资讯共同见证人工智能时代的发展 AI哪有这么难?,相关视频:马克龙居然在巴黎人工智
Perplexity AI:超快速搜索模型问世Perplexity AI推出了升级版的Sonar搜索模型,该模型由 Meta 的Llama 3.3 70B驱动,并通过Cerebras Systems的专用硬件进行优化。内部测试显示,Sonar在用户满意度方面优于GPT-4o mini和Claude 3.5 Haiku,并在搜索准确性方面与GPT-4o和Clau
了解Sonar模型 Sonar有两个版本:Sonar(基础版)和Sonar Pro。这些模型通过利用实时互联网连接与传统的LLMs区别开来,使它们能够提供基于最新信息的响应。与受训练数据限制的传统LLMs不同,Sonar的实时网络访问确保提供的信息始终是最新的和相关的,这使得它成为搜索增强型LLMs领域的一项重大进步。Sonar是一个轻量级且...
对于开发者而言,Perplexity 的 Sonar 提供了一个构建创新型应用程序的机会,这些应用程序可以利用实时 AI 搜索的强大功能。 译自How Developers Can Take Advantage of Perplexity’s Sonar LLMs,作者 Janakiram MSV。 Perplexity,这家AI搜索初创公司,已经开发了Sonar系列大型语言模型(LLMs)。这些模型通过提供对互联网信...
作为一家AI搜索引擎企业,Perplexity一直在致力于提高其搜索模型的性能和准确性。最近,Perplexity宣布推出新版Sonar搜索模型,该模型由Llama 3.3 70B进一步训练而来,对搜索应用进行了优化,运行在Cerebras推理基础设施上。新版Sonar的Token解码速度达到了惊人的1200个每秒,是Gemini 2.0 Flash的8.5倍以上,被誉为“几乎可以即时...
基于Cerebras推理架构的Sonar模型,展现出碾压级技术优势。实测数据显示:其解码吞吐量达到同类模型的近10倍,相较Gemini 2.0 Flash实现指数级飞跃。这意味着在相同时间内,Sonar可完成十倍量级的信息处理任务。这种突破性进展或将重塑AI推理领域的性能基准,为实时交互场景打开全新可能。#人工智能 #大模型 #高性能计算 #...
Perplexity公司近日宣布推出新版Sonar搜索模型,该模型基于Llama 3.3 70B进一步优化,专注于提升搜索应用性能,并运行在Cerebras推理基础设施上。官方数据显示,新版Sonar的Token解码速度高达每秒1200个,是Gemini 2.0 Flash的8.5倍以上,能够几乎即时生成答案。 在回答质量方面,Perplexity表示用户对新版Sonar的评价显著优于GPT-4o ...