深夜重磅炸弹!OpenAI再压谷歌一头,最强模型GPT-4o免费发布,语言对话媲美人类反应(组图)
GPT-4o 语音延迟大幅降低,能在 232 毫秒内回应音频输入,平均为 320 毫秒,这与对话中人类的响应时间相似。
5月14日,OpenAI春季发布会,依旧是奥特曼熟悉的味道:
不仅抢在自己最大竞争对手“Google I/O”大会前发布,并在会前数次吹风:“将会带来很有意思的东西。”
现场,OpenAI首席技术官MiraMurati,在轻松的氛围中宣布:Open AI推出桌面版ChatGPT,并推出名为GPT-4o的全新旗舰人工智能模型。
那么,GPT-4o有何特别之处?
而堪称AI圈里最懂PR的奥特曼,这一次,有没有继续吹牛?
一、电影《Her》,从科幻走进现实
“GPT-4o 可以综合利用语音、文本和视觉信息进行推理。”
现场,OpenAI首席技术官MiraMurati指出,过去的GPT-4可以处理由图像和文本混合而成的信息,并能完成诸如从图像中提取文字或描述图像内容等任务。
不过,GPT-4o的强大之处,就是可以在GPT-4的基础上,新增语音处理能力。
并且,GPT-4o还可接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合输出。
这也意味着,GPT-4o相比GPT-4,不仅能看文本,还能看图像,能言善道,反应迅速。
并且更加像人。
而这,是这次GPT-4o的核心变化。大家纷纷惊呼,OpenAI再次改变世界!
1、实时回应,反应迅速
现场,演示者提问结束后,GPT-4o 几乎可以做到即时回应,没有停顿。
答案生成后,GPT-4o 能够立马将文本转语音,进行朗读。
准确来说,这不像是和一个AI进行模块式问答,而更像是和一个“真人”对话。
事实上,GPT-4o有着更快的反应速度:它可以在232毫秒的时间内响应音频输入,平均为320毫秒,这与人类在谈话中的反应时间,基本一致。
此外,GPT-4o在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了50%,速度是GPT-4-turbo的两倍。
与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。
2、全能立体,沟通无障碍
相比前辈们,GPT-4o变得更加强大了
现场,它不仅可以通过画面实时解答数学方程,并能根据统计画图,进行现场指导。
并且,GPT-4o还能跨越国界,掌握多国语言。
现场,GPT-4o就根据实时提问,来了一段意大利语。
事实上,根据传统基准测试,GPT-4o 在文本、推理和编码智能方面实现了 GPT-4 Turbo 级别的性能。
此外,GPT-4o同时在多语言、音频和视觉功能上设置了新的高水位线。
3、更加自然,更加真实,也更加“像人”
GPT-4o 还有着更加拟人的功能。
现场,GPT-4o还能调整说话时的语气,根据指令改变声音。
能够以自然的、听起来像人类的声音说话,甚至还可以唱出部分回应。
不管是夸张、戏剧,乃至低沉阴冷,甚至机械嗓音。
GPT-4o都展现出了其声音极强的张力和可塑性。
不仅如此,在与人对话中,它还能发出不止一种语气词。
以及最重要的,对话中,GPT-4o体现了很多“情绪化”的表达。能够查看图表图像并进行讨论,检测用户情绪。
现场,它能通过音频感知,去试着对观看提问者的面部表情,做出情绪分析。
这不由得令人联想道电影《Her》中,那位具有磁性嗓音、复杂多变的AI,正从科幻走向现实。
二、更加简单、直观的GPT-4o ,要不要钱?
那么,强大的GPT-4o是如何感知情绪的?它是否会收费呢?
GPT-4o 之前,人们虽然可以使用语音模式与 ChatGPT 对话。然而,其平均延迟为2.8秒 (GPT-3.5) 和5.4秒 (GPT-4)。
一般而言,ChatGPT 采用的语音模式,是由三个独立模型组成:例如,其中一个简单的模型,是将音频转录为文本,GPT-3.5或 GPT-4接收文本并输出文本,再由型将该文本转换回音频。
然而,这也意味着GPT-4丢失了大量信息:它无法直接观察音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。
因此,此次的 GPT-4o,则达成了跨文本、视觉和音频端到端地训练了一个新模型,这意味着所有输入和输出都由同一神经网络处理。
这也使得,该模型使用起来将更加简单、直观。
GPT-4o 的出现,则标志着一个够使用文本、语音和视觉交互的数字助手,一个能够查看用户上传的屏幕截图、照片、文档或图表,并进行对话的贴心管家,正在加速而来。
此外,OpenAI 首席技术官 Mira Murati 表示,ChatGPT 现在还将具有记忆功能,这意味着它可以从之前与用户的对话中学习。
“这是我们第一次在易用性方面真正迈出一大步,”穆拉蒂在公司旧金山总部的现场演示中说道。 “这种互动变得更加自然,也更加容易。”
值得注意的是,此前OpenAI 发布新版 ChatGPT 模型时,通常会将其置于付费墙之后。不过,这次 GPT-4o 将免费提供给所有用户,付费用户则可以享受五倍的调用额度。
Mira Murati表示,该模型将在未来几周内分阶段集成至 OpenAI 的各个产品之中GPT-4O将免费提供。
此外,OpenAI还将推出桌面版ChatGPT,并推出名为GPT-4o的全新旗舰人工智能模型。
三、GPT-4o只是开胃小菜
尽管此次GPT-4O亮点不少,然而,不管是展示时间置于谷歌大会前一天的微妙,还是推出桌面版ChatGPT免费使用,无一例外都凸显了OpenAI 隐隐的竞争压力和增长焦虑。
事实上,本次OpenAI 春季发布会之前的数天,OpenAI创始人萨姆奥特曼就多次发声,提前预热,给观众留足了悬念:“我们一直在努力开发一些我们认为人们会喜欢的新东西,对我来说感觉就像魔法一样。”
不过,最终呈现的产品,既不是GPT5、也不是搜索引擎,似乎摆了大众一道。
从这点伤说,奥特曼堪称AI圈最懂PR的人。
此前,Sora发布的时间点,恰好赶在 Anthropic 的 Claude3以及其他大模型上线时间段。
彼时Sora登场“抢戏”,就用生成式视频的形式,对其他文本大模型进行降维打击。
于是立即舆论调转,全世界都将聚光灯对准Sora,OpenAI 又成了业界唯一的明星。可值得玩味的是,Sora直至现在,也没有开放给公众使用。
而屡屡“抢戏”的奥特曼,实则有着肉眼可见的急迫与压力。
一方面,OpenAI本次春季开发大会,呼声最高的AI搜索产品,就被放了鸽子。
业内人士曾指出,OpenAI要想在AI聊天机器人领域保持领先,AI搜索是绕不过去的,现在包括谷歌及AI搜索初创公司Perplexity等对手正在发力。
此前,Perplexity已凭借AI搜索和引用功能获得了10亿美元的估值。此外,OpenAI强大的对手谷歌,也在全面AI化它的搜索引擎业务,并计划在下周的开发者大会上公布Gemini AI模型的最新计划。
然而,根据报道,先前ChatGPT搜索的内测资格,虽然总体评价不错,但仍有瑕疵:OpenAI的AI搜索评价是,对于它不知道的信息会去联网,但对于非常实时的信息,依然不能很好地处理。
不仅如此,此次GPT-4O的免费推出,则凸显出OpenAI在增长上的面临的焦虑。
此前,OpenAI的用户增长在短时间内经历了显著的波动。
例如,从2023年初到中期,OpenAI的月活跃用户数量迅速增长,从1亿增加到接近10亿。
然而,进入2024年后,OpenAI的GPT-4的性能下降和用户体验问题开始受到关注。一个直观的例子是,即用户在使用GPT-4时,发现其记忆能力和对指令的遵从性有所下降,这意味着GPT-4可能无法有效地记住之前的对话内容或正确执行复杂的指令。
此外,OpenAI与微软的合作关系紧张也影响了开发者社区,导致一些中小企业开发者选择离开OpenAI平台。
尽管,竞争与增长并非是OpenAI一家难念的经。不过,作为AI的领头羊,OpenAI这次的GPT-4O,或许只能是道开胃小菜。