OpenAI 今天宣布,开始测试一款全新的 AI 模型 Sora,可以让用户利用文字指令,创造出动态视频,而且效果看起相当不错。
Sora 模型:用 AI 做视频效果很好
OpenAI 在 Sora 的介绍网页中展示了好几段视频,都是通过 Sora 所创造的,你可以看到后面文字的部分是乱码,这就是 AI 生成的其中一个证明。

而且生成的效果真的很好,除了文字的处理还不行以外,就连皮肤的细纹就可以很清楚的呈现。

过去这种扬起的烟尘、粒子都需要在后期通过3D软件进行模拟、运算,然后再通过2D做合成才会真实,现在直接一键搞定,还相当的真实。

甚至可以做出不同的风格,除了写实的风格以外,以后也可以直接用 AI 做卡通,搞不好以后皮克斯、尼士尼的电影会有一部分是搭配 AI 完成,甚至到更后面直接整片都用 AI 做完也不让人惊讶了。

注意看这个视频下面的 Promopt 只有短短的两行(或是你要说只有一行我都觉得没错),就可以做出这样 15 秒的微距视频效果,这看起来就已经是一部广告片的质感和长度了。

OpenAI 更释出了一段视频,里面有好几个片段,这些片段全部都是利用 Sora 所生成的,OpenAI 还在每个片段下面附上了生成视频所使用的 Prompt 指令。
目前最长1分钟,开放少数人测试
OpenAI 也说到,目前 Sora 的能力还太弱(但我觉得真的很不错了),有些视频生成的结果还是会出现不合理或不自然的地方地方,而且视觉上常常会有不连贯的时候,所以还是要持续调整。
目前也只开放极少部分的创作者可以使用,每次生成的视频最长 1 分钟,可以支持生成 1920×1080 或 1080×1920 的格式。
OpenAI 的网站上有一个页面专门在介绍他们是如何利用 AI 生成 AI 视频,说明得蛮详细,文字搭配图片、视频很容易理解,大家如果有兴趣了解的话可以看看。

是说前几天才分享了 Apple 的研究人员才发布他们新的开源 AI 模型 MGIE,并且可以通过 MGIE 将文字转成动态图像,结果今天 OpenAI 就宣布 Sora 这个 AI 模型,而且老实说效果看起来比 Apple 研究人员发布的还要更好。
