
什么样的新技术,能在ChatGPT的包围圈里脱颖而出火爆全场?
一部iPhone,两分钟,真人马上变成数字人! 而且不管是表情动态、眼神细节都是一比一的还原。

没错,动作捕捉影像,发表会现场iPhone录制,后期处理全过程也都是在现场完成。


在此之前,这位《地狱之刃》女主演的动作捕捉都是这样制作的:

复杂的设备不可少,而且要在脸上贴满定位点,后期制作花费的时间也还得长达几周甚至数月。
现在,Epic刚把Unreal Engine 5(虚幻引擎5)这一新能力公布出来,网友们都兴奋了起来,相关视频播放量迅速突破百万。
网友直呼太疯狂: 「(实现脸部建模)从几个月到几分钟,未来几年游戏的发展必定是疯狂的。」 还有网友表示,「以后再也不能说什么眼见为真了。」
三格的视频就能产生3D模型
具体来看看,这一名为「MetaHuman Animator」的技术,是如何做到两分钟搞定脸部动作捕捉的。
以现场展示为例。 首先,演员要录制一段视频,期间可以做出任何表情。 可以是夸张的愤怒:

也可以是细小的眼神变化:

并且录制全程只需一部iPhone。
接下来,技术人员将录制好的视频上传到软件,整个处理过程都是在现场进行。
总结下来,处理过程分为两步:
- 最新版本的Live Link Face应用程序会尽可能用最佳的分辨率捕捉所有脸部动态;
- MetaHuman Animator使用视频和Dev数据将其转换成高分辨率的动画。
在这个过程中,先是用Live Link Face对演员的视频进行脸部动作捕捉。

完成脸部捕捉之后,只需要三帧视频(正面、左侧面、右侧面)就能产生演员的「元人类DNA」。

其中用到的算法是定制版脸部特征算法,产生的过程只要几秒钟。

这样一来,所有的脸部资料都会被标定,还原出刚刚视频录制中的脸部表情也就更加容易了。

更重要的是,在这个过程中,可以将真人视频与产生的建模视频进行逐格对比。

然后等几分钟不到,完整的动画视频就成功完成了,最终工作人员要做的就只有微调和导入音频。
在新应用程序的加持下,做到以下的的效果,对于工作人员来说也是信手拈来。
算法细节上,Epic是采用自家「脸部求解器」和「标志检测器」来确定视频中人物脸部的关键操作点。
利用这些关键点,基于语义空间解决方案,AI会将每一格视频映射到「多维度人类空间」数据库中的最近点上。
这个所谓「多维度人类空间」,是Epic在多年来收集到的详细脸部捕捉资料的基础上,挑选训练过的庞大数据库,包含头部各个部位的各种运动姿态。

网友:3D动画和游戏都要变天了
Epic这个技术宣布后,算是为给最近被AI大浪冲击得人,又加入了一点刺激。
有metahuman领域的网友就说「3D动画和游戏都要变天了」:「几个月前用iPhone还只能捕捉到大致的脸部肌肉控制。」 不过,更多人乐见其成。 有网友表示,「有了这项技术之后,开发人员直接效率加倍,能够节省太多时间,要做的就只有后制作润色。」 还有网友已经在期待电影制作人使用这项技术了。
Epic自己则说,新的MetaHuman Animator有利于「复杂角色技术的民主化」。 并表示这项新技术有望在今年夏天更广泛地推出。
