据外媒报道,在今日凌晨1点开始的春季更新中,OpenAI宣布了他们新一代的旗舰模型GPT-4o,可以利用语音、视频和文本信息进行实时推理。
从OpenAI在官网上公布的信息来看,GPT-4o中的“o”源自“oMni”,也就是全面、全能的意思,朝着更自然的人机交互又迈出了关键一步。
而GPT-4o也的确如名字中“oMni”的全能一样,是一款能力更全面的大语言模型,打通了文本、音频和图像,接受任何文本、音频和视频的组合输入,并生成文本、音频和视频的组合输出。
OpenAI在官网上披露,GPT-4o在英文文本和代码中的表现与GPT-4 TuRbo相当,但在非英文文本上的能力大幅提升,在视频和音频的理解上,GPT-4o要明显强于当前的其他模型。
在官网上,OpenAI提到,在GPT-4o之前,通过语音模式同ChatGPT对话时,有较长时间的延迟,GPT-3.5平均为2.8秒,GPT-4平均为5.4秒。而由三个独立模式组成的语音模式,也丢失了大量信息,无法直接识别音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。
但在GPT-4o中,OpenAI训练一个跨文本、音频和视频的端到端新模型,所有的输入和输出都是由同一神经网络处理,GPT-4o也是他们首个整合了个文本、音频和视频模式的模型,
能力更全面的GPT-4o,响应速度也更快,最快232毫秒响应音频输入,平均响应时间为320毫秒,与人类在对话中的响应速度相当。
除了更强、更全面的能力,OpenAI也在推动GPT-4o更广泛的应用。GPT-4o的文本和图片功能自推出之日起就向ChatGPT推送,ChatGPT用户可免费使用,ChatGPT Plus用户的数据量上限将是免费用户的5倍,新版本的音频模式将在未来几周向ChatGPT PlUS用户推送。
周二凌晨1点开始的春季更新,是由CTO MiRa MuRati主持进行,登台的还有两位研发人员,公司CEO萨姆•奥特曼并未登场。
不过,未现身直播的萨姆•奥特曼,在社交媒体上对GPT-4o也进行了推广。他在社交媒体上就表示,他们最新的模型GPT-4o,是他们到目前为止最好的模型,它很聪明、速度很快,是天然的多模态。
萨姆•奥特曼在社交媒体上也提到,GPT-4o对所有的ChatGPT用户免费,而此前GPT-4级别的模型仅对按月付费的用户免费。
而值得注意的是,OpenAI在周二凌晨推出能力更全面的GPT-4o,无疑会给谷歌带来更大的压力,谷歌2024年度的I/O开发者大会,将在当地时间周二开始,外界预计他们会推出大量人工智能相关的产品。