美东时间5月13日周一,OpenAI首席技术官Mira Murati在直播演示中宣布,推出新的OpenAI旗舰AI模型,名为GPT-4o,称它面向所有人,包括免费用户,为“我们的免费用户带来GPT-4级的智能”。OpenAI还推出了台式机版本的ChatGPT以及新的用户界面(UI)。Murati说:“这是我们第一次在便于使用方面真正迈出一大步。” 她...
“GPT-4o可以综合利用语音、文本和视觉信息进行推理。”穆拉蒂在OpenAI公司总部举行的主题演讲中表示。GPT-4是OpenAI此前的旗舰模型,可以处理由图像和文本混合而成的信息,并能完成诸如从图像中提取文字或描述图像内容等任务,GPT-4o则在此基础上新增了语音处理能力。GPT-4o的运行速度将大大提升,最大亮点在于其语...
据报道,当地时间5月10日,OpenAI在社交媒体X上宣布,将于下周一上午10点(北京时间下周二凌晨1点)在其官网上直播演示ChatGPT和GPT-4的更新。报道称,OpenAI正在开发具备音频和视觉理解能力的AI语音助手,最早可能会在下周一的活动上预览。OpenAI认为这样的助手可能引发像智能手机一样的科技变革,能够完成许多现有的AI...
其中最重磅的是新的模型GPT-4o。根据OpenAI的官网解释,"o"代表“全知”,是朝着更自然的人类与计算机交互迈出的一步。有情绪的AI来了 OpenAI在活动中发布了新旗舰模型“GPT-4o”,“可以实时对音频、视觉和文本进行推理。”据介绍,新模型使ChatGPT能够处理50种不同的语言,同时提高了速度和质量。据了解,GPT...
而GPT-4o的语音对话是OpenAI跨文本、视觉和音频端到端训练一个新模型的产物,这意味着所有输入和输出都由同一神经网络处理。OpenAI称,GPT-4o是其第一个结合所有这些模式的模型,因此仍然只是浅尝辄止地探索该模型的功能及其局限性。 上周...
OpenAI推出新旗舰模型GPT-4o 上线语音交互等新功能 美国时间周一上午10点,OpenAI推出新的旗舰AI模型,名为GPT-4o,跟此前的版本相比,GPT-4o最大的特点是增加了语音交互。并且号称和一些同类竞品相比,它的响应时间更快,可以减少延时,更接近和真人对话的节奏。 OpenAI官网介绍,GPT-4o中的“o”代表“omni”,...
OpenAI 2024 Spring推出 GPT-4o,这是OpenAI的新旗舰模型,可以实时对音频、视觉和文本进行推理。 GPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合输出。它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,与人...
本次发布会发布的不是GPT-5,而是GPT-4的迭代版本,GPT-4o。OpenAI表示,GPT-4o是一个“原生多模态”模型,它的命名来源于“omni”,即包罗万象之意。这么一上来就来了一个“王炸”,真的让人又有了更高的期待。米拉·穆拉蒂一上来就说OpenAI的目标是进一步减小人们使用AI的障碍,让所有人都能在工作、学习...
美东时间5月13日周一,OpenAI首席技术官Mira Murati在直播演示中宣布,推出新的OpenAI旗舰AI模型,名为GPT-4o,称它面向所有人,包括免费用户,为“我们的免费用户带来GPT-4级的智能”。OpenAI还推出了台式机版本的ChatGPT以及新的用户界面(UI)。 Murati说:“这是我们第一次在便于使用方面真正迈出一大步。” 她评价,...
OpenAI称,“我们跨文本、视觉和音频端到端地训练了一个新模型,这意味着所有输入和输出都由同一神经网络处理。由于GPT-4o是我们第一个结合所有这些模式的模型,因此我们仍然只是浅尝辄止地探索该模型的功能及其局限性。” 除了在直播中重点强调的功能,在OpenAI的技术文档中,我们看到在GPT4-o的能力列表中,还包含3D能力...