推理模型,文本生成模型,文本转音频模型,文本转视频模型,图像识别模型,Embedding 模型。

GPT-4o

We’re announcing GPT-4o, our new flagship model that can reason across audio, vision, and text in real time.

特性

GPT-4o 是 OpenAI 推出的新模型,可以实时跨越音频、视觉和文本进行聊天。简单来说,可以进行实时的视频聊天:

  1. 延迟很低。和正常人类的聊天的延迟差不多(短至232毫秒、平均320毫秒的时间内响应音频输入)。
  2. 可以随时打断 AI 的回答:AI 在回答时,如果用户有新的问题, AI 会停下来,回答新的问题。
  3. 可以理解人的(语气中带的)感情。 Hume AI 压力山大。
  4. 表达感情。输出的可以带语调的,比如唱歌啥的。
  5. 输出的多模态:文字,图片,语音。

4o 中的 o 是 Omni的缩写,也就是“全能”的意思。

费用上也降低了(价格打5折,速度提高一倍,单位时间调用次数足足是原来的5倍)。非付费用户也可以用。

2024/05/13(美国时间) 发布的。

技术

如何做到回复的低延迟? 在GPT-4o之前,ChatGPT语音模式由三个独立模型组成,语音转文本→GPT3.5/GPT-4→文本转语音。整个系统的延迟足足有2.8秒(GPT-3.5)和5.4秒(GPT-4),而且丢失了大量的信息,它无法直接感受音调、多个说话者或背景噪音,也无法输出笑声、唱歌声,或表达情感。

GPT-4o则是跨文本、视觉和音频端到端训练的新模型,这意味着所有输入和输出都由同一个神经网络处理。

参考

Sora

通俗易懂地解释OpenAI Sora视频生成的特点有哪些?Sora与此前的Stable Video Diffusion、Runway Gen2、Pika等有什么区别?OpenAI Sora的缺点是什么?

能力项OpenAI Sora其它模型
视频时长60秒最多十几秒
视频长宽比1920x1080与1080x1920之间任意尺寸固定尺寸,如16:9, 9:16, 1:1等
视频清晰度1080P upscale之后达到4K文本生成视频
文本生成视频支持支持
图片生成视频支持支持
视频生成视频支持支持
文本编辑视频支持支持
扩展视频向前/向后扩展仅支持向后扩展
视频连接支持不支持
真实世界模拟支持支持
运动相机模拟
依赖关系进行建模
影响世界状态(世界交互)
人工过程(数字世界)模拟支持不支持

GPT-4

GPT-4V

带视觉(version)的功能。