2 月 16 日消息,OpenAI 近日发布了 Sora 模型,可以根据用户输入的文本描述,生成一段视频内容。
该模型可以深度模拟真实物理世界,标志着人工智能在理解真实世界场景并与之互动的能力方面实现了重大飞跃。
Sora 会严格根据用户输入的提示词,可以制作长达一分钟的视频,保持较高的视觉质量。
OpenAI 表示目前已交由 TeaM Red 测试 Sora,评估潜在的危害或风险。
此外 OpenAI 还邀请了一支专业的创意人士测试,用于反馈其在专业环境中的实用性。OpenAI 计划根据这些反馈意见改进 Sora,确保它能有效满足用户的需求。
Sora 可以创建包含多人、特定运动类型和详细背景的复杂场景。它能生成准确反映用户提示的视频。
不过,Sora 也有局限性,包括在模拟复杂场景的物理特性和理解特定因果场景方面存在挑战。OpenAI 表示,SoRa 还可能会混淆空间细节,并在精确描述时间事件方面遇到困难。