大约一年前, OpenAI 首次发布Sora时,就进行了精彩的演示,其中包括高度逼真的场景,例如外星球上的宇宙飞船和宇航员四处行走。这些最初的演示让人们对 AI 视频生成的未来寄予了极高的期望。
然而,现实的计算
需求导致公开版本做出了重大调整。Wolfe 解释说:“当我们最终获得 Sora 时,他们实际上提供了一个计算量更小的模型,它生成的视频所需的计算能力也更少。” 这个版本,Sora Turbo,在性能和易用性之间实现了务实的妥协。
出于成本考虑,
他们决定发布一个计算效率更高的版本。“如果他们给我们那个模型,使用起来成 tg 用户 本太高了,”沃尔夫指出。“处理这些视频的成本仍然太高。” 这揭示了人工智能视频生成领域的一个关键挑战:技术上可行的目标与公众使用的经济可行性之间的差距。
虽然 Sora Turbo 的视觉保真度可能无法与原始演示相媲美,但它 优化网站以进行有机搜索 仍然代表了可访问 AI 视频生成技术的重大进步。OpenAI 此后增加了其带宽并缩短了处理时间。然而,该工具仍然是当前 AI 技术如何在性能、实际计算资源和成本考量之间取得平衡的典型案例。
Luma Ray2
虽然 Luma 大约九个月前就发布了一款名为 Dream Machine 的视频产品,Wolfe 评价其“还行”且“不 博目录 错”,但他们最近发布的Luma Ray2代表了一项重大进步。Wolfe 认为 Ray2 的功能不如 Veo2,但比 Sora 要好。
Ray2 的一个主要优势是其可访问性——与 Veo2 不同,它目前是开放的,任何人都可以使用。
该平台的有效性源于其独特的训练方法。其视频生成功能的大部分源于真实世界的视频以及 Luma 在过去五六年中积累的大量 3D 扫描数据。当用户使用 Luma 的扫描技术时,他们就授权其扫描数据用于训练,从而为庞大的数据库贡献力量,为视频生成过程提供信息。
人工智能生成视频的现状
Wolfe 强调,虽然这些工具擅长制作 B 卷素材和 5-10 秒的短片,但我们距离 AI 生成完整、高质量的长视频还有很长的路要走。主要的限制仍然是计算能力和相关成本。然而,目前的能力对于内容创作者来说,已经证明了其在典型的 B 卷素材需求方面的价值,因为专业内容的 B 卷素材长度很少超过 3-5 秒。