创建MetaHuman动画最简单的方法

我的名字是所罗门W. Jagwe,Sowl工作室(的共同创始人www.sowlstudios.com Nkoza和Nankya(冒险)和创作者和导演www.nkozaandnankya.com)。我喜欢写故事和创作 3D 动画短片和电影。

我一直在寻求使用虚幻引擎和 iClone 来创建我的动画内容。
当 Epic Games 发布MetaHuman Creator作为 Early Access Online 版本时,像许多其他艺术家一样,我对预装配和预纹理模型的质量印象深刻并激动不已。
漂亮的模特为我和我的独立电影制片人提供了一条更简单的途径,让我们的故事栩栩如生。每个艺术家都可以使用这个免费的在线角色创建器,它可以节省无数小时的建模、纹理和绑定。我们可以创建一整套可在虚幻引擎中使用的可渲染角色。

动画变形人的挑战
最早为 MetaHuman 角色设置动画的方法之一是通过 Epic 的Live Link Face iOS 应用程序和 iPhone X。该工作流程可以产生良好的面部动画,但缺乏添加细微差别、微调和编辑面部动画的能力为自定义 MetaHumans 添加更多个性。我在使用 iPhone X 和Live Link Face应用程序为 MetaHuman 角色制作动画的早期测试中发现,嘴巴动作不是很准确。在面部动画表演期间,我必须不断手动完善蓝图才能使嘴巴正确闭合。我还迫切需要添加与面部动画同步的全身动画。
Realllusion 很快推出了 iClone 7.9、 Character Creator 3.4 的更新和Motion Live 插件的更新 以及 支持 ArKit 混合形状的 LIVE FACE iPhone 配置文件。这一更新改变了游戏规则,因为用户现在可以使用 iPhone X 并将其与 iClone 中强大的面部动画编辑工具结合起来,制作出令人信服的面部动画。
随着MetaHuman Kit的推出 ,Reallusion 提供了另一个工作流程,可以利用iClone为 MetaHuman 角色制作动画 ,利用 Arkit 支持以及 Face Puppet、Face Key 和 ExPlus 等动画工具
我的脑海里充满了各种各样的想法,我想使用 MetaHuman 角色将它们变为现实。因此,我联系了 Reallusion 团队,寻求一种更简化的方法来实现我的目标。以下是我在 Reallusion 的帮助下采取的一些关键步骤,我希望它们也能帮助您开始 使用 iClone 和虚幻引擎为您的自定义 MetaHuman角色设置动画。


我采取的第一步是使用MetaHuman Creator早期访问版本创建我的角色。我必须提前计划,因为MetaHuman Creator 的每个用户每次会话只有一小时。因此,我确保创建了一个快速脚本和一些粗略的草图,这样我就可以最大限度地利用MetaHuman Creator 的时间。我的想法包括三个角色:一个父亲角色和两个十几岁的孩子。我想让父亲角色说出马丁路德金博士在“我有一个梦想”演讲中的一些台词。
能够在两个小时内创造出这三个角色是令人难以置信的回报和解放,如果没有MetaHuman Creator,这项任务将需要数周才能完成。
角色准备好后,我将它们导出到Quixel Bridge。桥接软件使您可以将自定义的 Metahuman 角色直接发送到虚幻引擎中。
下一个主要步骤是准备角色,以便我可以使用iClone在虚幻引擎中为它们设置动画。MetaHuman Kit 的绝妙之处在于,它可以为您自定义的 MetaHuman 的身体和他们的脸制作动画,因此在开始动画过程之前下载它非常重要。
为了使整个过程正常工作,您需要在Unreal Engine 中创建一个示例 MetaHuman 项目,并且需要安装iClone to Unreal Live Link插件。

面部动画
我录制了这段深入的视频,向您展示了我是如何从头到尾让角色栩栩如生的。该视频将逐步引导您完成从使用 MetaHuman Creator创建自定义 MetaHuman到 在虚幻引擎中制作最终 面部动画的过程 。我很高兴看到最终结果,因为我终于找到了一种有效的方法来为我的自定义 MetaHuman 角色创建令人信服的面部动画。

1.准确和唇形同步动画
我利用Acculips的超棒声音进行口型同步更新 ,这使我可以 准确地为“我有一个梦想”演讲创建口型同步 ,而无需花费数小时手动键入每个单词的音素。
Acculips 功能强大且易于使用。在加载我在Adobe Audition 中录制的音频文件后,我能够在短短几分钟内获得如此出色的结果,这让我感到惊讶。此外,Acculips 会自动排列演讲的单词以匹配音频文件的节奏。

  1. 多层面部动作捕捉
    使用 Acculips 进行口型同步后,我能够通过使用 Motion LIVE 和 iPhone 配置文件对动画的情感部分进行分层,从而在不移动嘴的情况下表演语音。Motion LIVE 使您能够隔离面部的不同部分,并提供选项以在口型同步动画之上创建新的镜头,或在实时录制时进行混合。我非常喜欢能够迭代不同的性能,直到我获得非常好的性能。
  1. LiveLink Facial Performance s
    iClone 动画中美丽而令人兴奋的部分是通过iClone Unreal Live 链接看到数据流到虚幻引擎和我的自定义 MetaHumans 上!我很高兴能够在iClone 中编辑面部动画并在Unreal Engine 中看到它实时更新。这种实时迭代的能力非常节省时间,它帮助我创造了一个令人信服的性能,否则我无法实现。
  1. 肌肉级面部细化
    为了实现自定义 MetaHumans 的细微面部动画,我严重依赖iClone动画工具,如Face Puppet、Face Key和ExPlus。iClone 的这些新增功能极大地改善了我们现在能够通过iClone 的面部时间线以一种直观且可管理的方式制作动画和优化角色面部动画的方式。
    总而言之,我认为上述工作流程将使许多像我这样的独立电影制作人更快、更轻松地通过使用iClone为使用MetaHuman Creator创建的自定义 MetaHuman 角色的演员阵容制作动画,使他们的故事栩栩如生。
    将iClone动画工具与 iPhone X相结合,将帮助您制作非常令人信服的面部动画,您还可以添加准确的身体动作捕捉,让您自定义的 MetaHuman 角色栩栩如生——我强烈推荐它!

身体动画
除了为自定义 MetaHuman 角色的面部设置动画外,我还希望能够为角色的身体设置动画。我录制了第二个视频,向您展示了如何设置自定义 MetaHuman 的蓝图,以便您可以使用iClone在虚幻引擎中驱动身体动画。

蓝图编辑
在我成功地设置了我的 MetaHuman 角色的蓝图并且可以看到他们在虚幻引擎中活着跳舞之后,我知道一个充满机遇的世界已经打开了。

身体动作捕捉和动作库
我突然意识到,我可以带入iClone 的每一个动画现在都可以用来驱动 MetaHuman 角色。这包括的真棒收集ActorCore mocapped运动从甲尚的在线动作捕捉目录。
对于青少年儿童的想法,我希望青春期 MetaHuman 角色在虚幻引擎中设置的客厅内进行嘻哈表演,而事实证明ActorCore是完美的来源。我使用了嘻哈包,里面有很棒的舞蹈套路和介绍。我能够使用我使用iClone时间线混合在一起的几个剪辑,然后使用iClone Live Link插件流式传输到虚幻引擎中的角色。


为了使我的 Metahumans 具有特定的动作动画,以同样的方式,我现在可以使用我的 Perception Neuron 动作捕捉套装为我的自定义 MetaHumans 创建自定义动作捕捉。我能够通过 iClone Motion LIVE 插件中的 Perception Neuron 配置文件使用我的 Perception Neuron Studio 套装。您可以在此视频中看到它的实际效果:

以下是我 使用 iClone LiveLink 制作 MetaHumans 动画的原因的摘要

• AccuLips 提供极其准确的语音 唇形同步动画

• 多层 iPhone 面部捕捉 ,可让我为每次拍摄隔离面部部位

• 使用 iClone Face Puppet 和 Face Key Editor 轻松优化 面部动画

• 用于高质量动画的ActorCore动作捕捉运动库的 良好集合

• 通过iClone 动作编辑器快速混合和编辑动作。

请尝试一下,让那些在您的创意大脑中飞舞的想法变为现实。敢梦想真的很大!

返回首页

作者 lll

发表评论