作者:来源:访问:57时间:2022-10-26
作为加速虚拟数字人制作的有力工具,Omniverse™ Audio2Face 整体的运作方式如何呢?具体如下图所示:
Audio2Face 预先载入名为“Digital Mark”的3D角色模型。此模型可按照音轨进行动画处理,用户只需要选取音频并上传至应用程序即可。该应用会将音频输入馈送到经过预训练的深度神经网络,然后根据神经网络输出的内容,调整角色网格的3D顶点,以实时创建面部动画。同时,重庆3D动画公司的使用者还可以选择编辑各种后制参数来优化角色的呈现效果。此外,使用者也可以逐步引导虚拟数字人的情绪,像快乐、惊奇、愤怒和悲伤等关键情绪都可轻松混合。
上面也体现了 Omniverse™ Audio2Face 的两个特点:全流程和低代码。开发者甚至不需要掌握专业的知识,就可以完成一个虚拟数字人的制作。此外,Omniverse™ Audio2Face 还有以下几个亮点功能:
1、音频输入:使用录音或实时制作动画
输入的音频,既可以是录制好的语音音轨,也可以是通过麦克风实时输出的音轨。Omniverse™ Audio2Face 都能够按照这些音轨实时制作动画。
Audio2Face 还能够轻松处理任何语言。此外,它还将不断更新该应用,使其能够处理越来越多的语言。
2、角色转移:瞬间换脸
由于Audio2Face 预先载有“Digital Mark”的3D角色模型,所以它可以生成任何风格的人物角色或拟人角色的脸部动画。除了虚拟数字人外,风格化虚拟角色,甚至是动物、外星人都适用。
3、扩展输出:多音轨生成多个动画
Omniverse™ Audio2Face 还可以同时执行多个动画生成,如重庆3D动画制作在对话的二人组、清唱的三人组和协调一致的四人组等,为虚拟数字人的歌唱注入生命与声音。使用者也可以对每个面部表情的细腻程度进行调整,并从多个音频源批量输出多个动画文件。
4、数据转换:连接和转换
Omniverse™ Audio2Face 不仅支持 BlendShape 转换,还支持 Blendweight 导出选项。此外,Audio2Face 也支持通过 Epic Games UE 4 执行导出与导入工作流程,使用 Omniverse UE 4连接器生成超人类角色的动作。
5、情感控制:选择不同的情绪生成
除了说话外,Omniverse™ Audio2Face 还可以打造各种情绪的角色动画。神经网络会自动操纵脸部、眼睛、嘴部、舌头和头部运动,以匹配使用者选择的情绪范围和定制的情绪强度水平,或自动直接从音频剪辑中推断情绪。
6、Audio2Emotion:通过音频文件生成逼真的面部表情
这是近期推出的一项新功能,让能够从音频片段中推断情感的AI自动为面部动画设置关键帧,从而控制重庆3D动画制作公司在虚拟形象的情感表达。
7、全脸动画:全脸器官的动画生成
Omniverse™ Audio2Face 除了能够让使用者管理虚拟数字人的皮肤以外,还可以对其眼睛、牙齿和舌头的运动进行管理,以便制作更完整的面部动画。
8、角色设置:更精细的角色换脸
角色转换重定向工具现可支持全脸动画,并提供易于使用的工具,用于定义构成眼睛、牙齿和舌头的网格。
Copyright @ 2007-2018 重庆博得文化传媒有限公司 版权所有 渝ICP备2022010067号-3