OpenAI 新人工智能视频:美大选前限制访问 Sora 的考量
OpenAI 今年早些时候推出了其 Sora 模型。通过让该人工智能工具遵循文本提示,它可以用于生成大多逼真的视频。虽然用 Sora 创建的内容仍存在一些较为明显的问题,但生成视频的许多方面看起来令人信服。为了展示其技术的进步,OpenAI 在 YouTube 上分享了两段名为“ Sora 展示”的视频。
这两段视频均由专业创作者制作,旨在展示 Sora 的潜力。一段视频由新加坡艺术家 Niceaunties 创作,而另一段来自英籍韩裔艺术家 David Sheldrick。
艺术是主观的,所以我觉得没必要对视频的内容进行分析。我又不是艺术家,所以我探讨内容背后的深层含义没啥价值。相反,我将谈论视频的真实感。Niceaunties 的视频中的许多静态图像令人印象深刻,尤其是乍一看。非人类的物体,如鸡蛋、时钟和炊具,在几个镜头中看起来栩栩如生。
通常来说,人类和动作的生成更具挑战性。视频中一些不真实的人物形象可能是一种风格选择,但我认为并非所有别扭的片段都能归因于创意决策。
谢尔德里克的视频也遵循了类似的趋势,即静止图像或几乎没有动作的片段看起来比长时间的人物动作视频要真实得多。在视频中的好几个地方,手臂和手看起来尤其不真实。同样,我怀疑并非所有的缺陷、瑕疵之处都是创意决策。
索拉还相对较新,所以期望其达到完美是不公平的。
生成式人工智能虽然令人印象深刻,但也让许多人感到担忧。随着技术的进步,它可能会取代工作岗位。由于人工智能使用了大量的水和电,这也引发了环境方面的担忧。但即使在一个假设的世界中,所有这些担忧都得到了满意的解决,人工智能仍然引发了伦理问题。
这些片段有如此多的动作这一事实表明创作者愿意挑战人工智能的极限。随着对人工智能模型进行更多的训练,以及创作者为完善提示所做的更多努力,我认为在不久的将来,像这样的视频很有可能会变得栩栩如生。
仅想到的有以下几个:
即便在理想的情况下运行,当前这种形式的人工智能也容易产生幻觉,并且分享不准确的回答。谷歌的人工智能宣称谷歌已死,还建议吃石头,并且在抑郁时提倡自杀。那是在五月份,当时这项技术还相当新,不过它仍被普通消费者所掌握。我的主要观点是,人工智能的输出得结合上下文,而且为了人工智能能长期良好发展,某些限制是必不可少的。
随着美国大选登上头条新闻,我很庆幸像 Sora 这样的模型仅被某些用户掌握,而且距离任何人只需点击几下鼠标就能制作出令人信服的假视频还有好几年的时间。我确实认为那一天即将到来,但我认为还没有完全到来。
政治往往会暴露出人们最糟糕的一面。错误信息已经在社交媒体上大肆传播,甚至包括那些看起来明显不准确的虚假声明。当政治的激烈情绪与社交媒体的传播力以及瞬间就能制作出令人信服的假视频的能力相结合,可能会造就一场噩梦般的场景。
我们已经看到 人工智能被用于传播错误信息 。如果坏分子获得更多工具且无人监管,他们将能够造成更严重的破坏。微软计划在美国大选期间保护人们免受人工智能的侵害,但我认为法律和保护措施往往滞后于犯罪分子和不良行为者。
OpenAI 限制对 Sora 的访问是明智之举。在任何人能够使用人工智能模型创建视频内容之前,需要有更多的防护措施。我知道还有其他可用的模型,但 OpenAI 的决定值得称赞。