事实上,在不到 30 分钟的发布会中,最为人津津乐道的不是 GPT-4o 这个模型自身,而是在 GPT-4o 的支撑下,ChatGPT 的交互体验。不仅是人机语音对话体验更接近人与人之间的实时对话,视觉识别能力的进步也让 AI 更能基于现实世界进行语音交互。简而言之就是更自然的人机交互。这很容易让人想起《她(Her)》...
当地时间5月13日,OpenAI通过直播展示了产品更新。与此前传出的市场消息不同,OpenAI并未推出搜索引擎,也未推出GPT-4.5或GPT-5,而是发布了GPT-4系列新模型GPT-4o以及AI聊天机器人ChatGPT的桌面版本,聚焦多模态和端侧应用。此前OpenAI公司CEO奥尔特曼(Sam Altman)就已经否认了公司将会发布GPT-5,他表示新版GP...
在第三个场景里,巴雷特希望GPT辅导自己做数学题,但不能直接说答案,而是要一步一步给出解题思路。这个任务对GPT-4o就是小菜一碟,于是巴雷特加大了任务难度,把一串源代码展现给GPT-4o看,然后要求GPT-4o用一句话描述这段代码的含义。没有一秒钟迟疑,GPT-4o就给出了巴雷特想要的答案。最后一个场景是,米拉...
北京时间5月14日凌晨,OpenAI推出兼具听、看、说能力的GPT-4o。新版GPT-4o最大的看点在于,可实时对音频、视觉、文本进行推理,并接受三者的任意组合,最终能生成文本、音频、图像的任意组合。如在现场演示视频中,OpenAI前沿研究负责人马克·陈在和GPT-4o对话时,当马克·陈稍微有些紧张时,GPT-4o很快进行安慰...
在第一次现场演示中,主持人要求GPT-4o对他的呼吸技巧做出反馈。他对着手机深深地吸了一口气,而ChatGPT则诙谐地回应道:“你不是吸尘器。”它建议使用一种速度较慢的技术,展示其理解和回应人类细微差别的能力。除了具有幽默感,ChatGPT也会改变回应的语气,在传达“思想”的同时用不同的语调来完成。就像人类对话一...
根据OpenAI的说法,GPT-4o可以“在短短232毫秒内响应用户的音频提示,平均为320毫秒,与人类在对话中的反应时间相似。”是不是被彻底惊艳到了,和谷歌去年12月演示的Gemini似乎有异曲同工之妙,只是谷歌那次演示被认为夸大和误导的成分居多,是剪辑制造出来的,那么Gpt-4o这个,是不是也有夸张和误导的成分呢?我...
GPT-4o 是面向未来人机交互范式的全新大模型,具有文本、语音、图像三种模态的理解力,反应极快还带有感情,也很通人性。在现场,OpenAI 的工程师拿出一个 iPhone 演示了新模型的几种主要能力。最重要的是实时语音对话,Mark Chen 说:「我第一次来直播的发布会,有点紧张。」ChatGPT 说,要不你深呼吸一下。...
这还是一份给所有人的大礼,GPTo与ChatGPT Plus会员版所有的能力,包括视觉、联网、记忆、执行代码、GPT Store……将对所有用户免费开放!(新语音模式几周内先对Plus用户开放)在直播现场,CTO Murati穆姐说:这是把GPT-4级别的模型开放出去,其实她还谦虚了。在场外,研究员William Fedus揭秘,GPT-4o就是之前...
实测 GPT-4o:速度飞快,视觉能力惊艳 打开 ChatGPT 官网,就会收到 GPT-4o 的试用邀请,点击「立即试用」即可进入对话页面。如果没有收到邀请,可能是灰度测试阶段,稍等一会再重新进入。然后,直接在下方的对话框中与其进行对话,系统会自动切换到 4o 版本。值得注意的是,免费用户每天使用 GPT-4o 的次数有限...