“GPT-4o可以综合利用语音、文本和视觉信息进行推理。”穆拉蒂在OpenAI公司总部举行的主题演讲中表示。GPT-4是OpenAI此前的旗舰模型,可以处理由图像和文本混合而成的信息,并能完成诸如从图像中提取文字或描述图像内容等任务,GPT-4o则在此基础上新增了语音处理能力。GPT-4o的运行速度将大大提升,最大亮点在于其语...
据报道,当地时间5月10日,OpenAI在社交媒体X上宣布,将于下周一上午10点(北京时间下周二凌晨1点)在其官网上直播演示ChatGPT和GPT-4的更新。报道称,OpenAI正在开发具备音频和视觉理解能力的AI语音助手,最早可能会在下周一的活动上预览。OpenAI认为这样的助手可能引发像智能手机一样的科技变革,能够完成许多现有的AI...
美东时间5月13日周一,OpenAI首席技术官Mira Murati在直播演示中宣布,推出新的OpenAI旗舰AI模型,名为GPT-4o,称它面向所有人,包括免费用户,为“我们的免费用户带来GPT-4级的智能”。OpenAI还推出了台式机版本的ChatGPT以及新的用户界面(UI)。 Murati说:“这是我们第一次在便于使用方面真正迈出一大步。” 她评价,G...
其中最重磅的是新的模型GPT-4o。根据OpenAI的官网解释,"o"代表“全知”,是朝着更自然的人类与计算机交互迈出的一步。有情绪的AI来了 OpenAI在活动中发布了新旗舰模型“GPT-4o”,“可以实时对音频、视觉和文本进行推理。”据介绍,新模型使ChatGPT能够处理50种不同的语言,同时提高了速度和质量。据了解,GPT...
本次发布会发布的不是GPT-5,而是GPT-4的迭代版本,GPT-4o。OpenAI表示,GPT-4o是一个“原生多模态”模型,它的命名来源于“omni”,即包罗万象之意。这么一上来就来了一个“王炸”,真的让人又有了更高的期待。米拉·穆拉蒂一上来就说OpenAI的目标是进一步减小人们使用AI的障碍,让所有人都能在工作、学习...
OpenAI推出新旗舰模型GPT-4o 上线语音交互等新功能 美国时间周一上午10点,OpenAI推出新的旗舰AI模型,名为GPT-4o,跟此前的版本相比,GPT-4o最大的特点是增加了语音交互。并且号称和一些同类竞品相比,它的响应时间更快,可以减少延时,更接近和真人对话的节奏。 OpenAI官网介绍,GPT-4o中的“o”代表“omni”,...
OpenAI在活动中发布了新旗舰模型“GPT-4o”,“可以实时对音频、视觉和文本进行推理。”据介绍,新模型使ChatGPT能够处理50种不同的语言,同时提高了速度和质量。 据了解,GPT-4o是迈向更自然人机交互的一步,它可以接受文本、音频和图像三者组合作为输入,并生成文本、音频和图像的任意组合输出,“与现有模型相比,GPT-...
OpenAI 2024 Spring推出 GPT-4o,这是OpenAI的新旗舰模型,可以实时对音频、视觉和文本进行推理。 GPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合输出。它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,与人...
而GPT-4o的语音对话是OpenAI跨文本、视觉和音频端到端训练一个新模型的产物,这意味着所有输入和输出都由同一神经网络处理。OpenAI称,GPT-4o是其第一个结合所有这些模式的模型,因此仍然只是浅尝辄止地探索该模型的功能及其局限性。 上周曾有消息称,OpenAI将发布基于AI的搜索产品,但上周五OpenAI的CEO Sam Altman否认...
OpenAI在线上举办了“春季更新”活动:推出新旗舰模型“GPT-4o”每经AI快讯,北京时间周二(5月14日)凌晨,美国人工智能研究公司OpenAI在线上举办了“春季更新”活动。整体来看,活动主要分为两大部分:推出新旗舰模型“GPT-4o”,以及在ChatGPT中免费提供更多功能。每日经济新闻 ...