当前位置:首页 > 百科 > 综合 > 正文

OpenAI发布全能模型GPT-4o!速度提升200% 支持实时音视频交互

发布时间:2024-05-14 11:55:05 编辑: 来源:

导读 今天【OpenAI发布全能模型GPT-4o!速度提升200% 支持实时音视频交互】登上了全网热搜,那么【OpenAI发布全能模型GPT-4o!速度提升200% 支...

今天【OpenAI发布全能模型GPT-4o!速度提升200% 支持实时音视频交互】登上了全网热搜,那么【OpenAI发布全能模型GPT-4o!速度提升200% 支持实时音视频交互】具体的是什么情况呢,下面大家可以一起来看看具体都是怎么回事吧!

5月14日上午消息,赶在Google I/O开发者大会公布 AI 产品前夕,OpenAI又来抢风头了。

北京时间5月14日凌晨,OpenAI在一则简短的视频介绍中发布了可实时进行音频、视觉和文本推理的新一代AI模型GPT-4o,并将推出PC桌面版ChatGPT。

据介绍,GPT-4o里的“o”是Omni的缩写,也就是“全能”的意思。在API使用方面,相比去年11月发布的GPT-4-turbo,GPT-4o价格下降50%,速度提升200%,未来几周内GPT-4o语音和视频输入功能也将随之推出。

此外,OpenAI还宣布,GPT4-o与ChatGPT Plus会员版所有的能力,包括视觉、联网、记忆、执行代码、GPT Store等,将对所有用户免费开放!

发布会上,OpenAI联合创始人兼总裁格雷格·布罗克曼(Greg Brockman)还将旧版本只具备对话功能的ChatGPT,与基于GPT-4o发布的具备视觉能力的新版ChatGPT进行了5分钟的对话。

对话中,新版本ChatGPT不仅能通过视觉AI能力理解摄像头中发生的事情,同时还能够将理解的内容通过语音与旧版本ChatGPT交互,进行更加丰富有趣的互动。同时还支持中途打断和对话插入,且具备上下文记忆能力。

对于此次发布,OpenAI CEO萨姆·奥尔特曼(Sam Altman)发实时推文表示,“新的GPT-4o模型是OpenAI有史以来最好的模型,它很智能,速度很快,是原生多模态,并且可供所有ChatGPT用户使用,无论是免费版本还是付费GPT-4版。”

“这对我们的使命很重要,我们希望将出色的AI工具交到每个人手中。”萨姆·奥尔特曼表示。

对于此次发布会,此前外媒传言OpenAI会发布会新的智能搜索能力,但随后出现反转——称“散布发布搜索产品系抓捕公司内部泄密者”。

此次发布会,OpenAI没有带来新的AI搜索产品,而是在虚晃一枪后发布了升级后的GPT-4o。但除了新模型的性能提升外,OpenAI此次发布,在有了更多产品性能改进之时,也出现了一些问题。

OpeanAI发布会后,便有业内专家表示,“GPT-4o的多模态能力只是看起来很好,实际上OpenAI并未展示对于视觉多模态来说真正算是突破的功能。”此外,在实时音频交互方面,目前国内诸如豆包、文心一言等产品也已具备类似通话功能。

以上就是关于【OpenAI发布全能模型GPT-4o!速度提升200% 支持实时音视频交互】的相关内容了,希望对大家有所帮助!


免责声明:本文由用户上传,如有侵权请联系删除!

上一篇:《黑神话:悟空》宣发在即!游戏科学CEO开新号:关注Steam、腾讯游戏等

下一篇:最后一页


最新文章
精选文章