OpenAI发布GPT-4o,多模态能力大幅提升且免费对用户开放 5月14日,OpenAI发布了新一代旗舰生成模型GPT-4o。GPT-4o是面向未来人机交互范式的全新大模型,具有文本、语音、图像三种模态的理解力,反应极快还带有感情,也很通人性。GPT-4o主要有几大特点:(1)多模态能力大幅提升,可以跨文本、音频和视频进行实时推理:GPT-4o在英语文本和代码上的性能与GPT-4 Turbo的性能相匹配,但在非英语文本上的性能显著提高,与现有模型相比,GPT-4o在视觉和音频理解方面尤其出色,GPT-4o还可以跨文本、音频和视频进行实时推理,用户可以上传各种图片、视频,以及包含图片和文字的文档,讨论其中的内容,使得人机交互更加自然。(2)更加“像人”:GPT-4o能够以自然的、听起来想人类的声音说话,也能够通过音频和图像感知,做出情绪分析。(3)毫秒级响应,API成本更低:在GPT-4o发布之前,通过语音模式与ChatGPT对话,平均延迟为2.8秒(GPT-3.5)和5.4秒(GPT-4),而GPT-4o的平均响应时间为320毫秒。同时API的速度也更快,成本降低了50%;(4)拥有3D视觉内容生产能力:能够从6个生成的图像进行3D重建。此外,GPT-4o将免费提供给所有用户,OpenAI还将推出桌面版ChatGPT,轻量化的使用体验可以融入到任何工作流程中。 海内外大模型竞争加剧,不断提性能、降使用成本,继续布局AI应用 谷歌的I/O开发者大会将于北京时间5月15日凌晨1点举行,届时或发布Gemini大模型的重要更新。国内方面,5月7日,幻方量化旗下的AI公司深度求索(DeepSeek)发布全新第二代MoE大模型DeepSeek-V2。DeepSeek-V2拥有2360亿参数,中文综合能力(AlignBench)超过GPT-4,与GPT-4-Turbo、文心4.0等处于同一梯队,其英文综合能力(MT-Bench)与最强的开源模型LLaMA3-70B处于同一梯队,超过最强MoE开源模型Mixtral8x22B,而DeepSeek-V2训练所需的运算量或为GPT-4的1/20,性能却相差不大,目前API定价仅为“每百万token输入1元、输出2元(32K上下文)”。我们认为,OpenAI推出GPT-4o及近期海内外厂商频频发布大模型迭代升级成果,竞争焦点或集中在多模态能力、Agent能力和API调用成本优化等,均为大模型应用落地并商业化的关键因素,或助力影视、音乐、教育、营销、搜索、办公等各个领域的AI应用“更加好用、性价比更高”,从而推动AI应用商业化空间打开,建议继续布局AI应用:(1)AI影视:重点推荐上海电影、阅文集团,受益标的包括光线传媒、华策影视、捷成股份、中广天择等。(2)AI音乐:重点推荐盛天网络、云音乐,受益标的包括昆仑万维、腾讯音乐等。(3)AI教育:受益标的包括世纪天鸿、南方传媒、盛通股份等。(4)AI营销:受益标的包括引力传媒、因赛集团、蓝色光标等。(5)AI Agent:重点推荐奥飞娱乐,受益标的包括汤姆猫等。(6)AI+3D:受益标的包括锋尚文化、风语筑、凡拓数创、丝路视觉、恒信东方等。 风险提示:多模态大模型进展不及预期;AIGC商业化落地进展不及预期。