iPhoneX及其原深感摄像头和面部识别软件面世尚不足一年时间,而自这台手机上市以来,第三方应用开发商和创作者就开始在探索原深感摄像头的可能性。 如果你好奇iPhoneX能否用于动捕,你可以体验一下由洛杉矶VR工作室KLightning联合创始人科里斯特拉斯堡(CoryStrassburger)首创的一种技术。利用iPhoneX和Xsens惯性动捕技术,科里证明了你可以实现全身动捕,包括面部表情,其中最终动画角色可通过IKINEMALiveAction进行直播。这一切都能在实时进行,正如视频所示。 这种方法依赖于DIY动捕头盔,以一台iPhoneX对准用户的面部,通过XsensMVN系统和IKINEMALiveAction来直播,并在Unreal中重新校准动作。通过这种设置,用户可以随时随地地开演。另外,科里将在今年的Siggraph大会演示这项技术。 如果你对面部捕捉感兴趣,你可以尝试一下LiveFace。由Realallusion于6月发行的免费应用直接将面部追踪数据实时馈送给Mac或PC,将你的iPhoneX作为热点,连接到计算机并通过WiFi追踪脸上的数据点。 需要注意的是,终端数据是由Reallusion的CrazyTalkAnimator3套件接收和处理。目前LiveFace仅兼容这款软件,意味着你需要首先在AppStore上花费89。99美元的价格来购买CrazyTalkAnimator3套件。 另一个面部捕捉的选择是Maxon的CVAR。这款免费应用同样在6月发行,软件捕获你的面部动画并将其发送到C4D,包括纹理和声音,而数据则存储在本地应用程序。 CVAR 这款应用程序旨在令面部动画的捕获和传输尽可能无缝和轻松。你只需扫描二维码即可进行传输,没有热点或USB选项。 一个更低调的版本是来自独立开发者NielsJansson的FaceCap。这非常有趣,因为它的输出不仅可以用于C4D,还可以用于Lightwave3D,AutodeskMaya,Houdini和Blender。 借助FaceCap,你可以录制50种不同的面部表情,录制持续时间最长为10分钟。它将通用网格,混合形状和动画导出为Asciifbx,并提供本机IOS共享界面,这样你就可以通过电子邮件发送内容。 来源:yivian