互联网资讯 / 人工智能 · 2023年11月28日 0

AI舞蹈对决:谷歌3D舞者迎战DanceNet

这次,TRansfoRMeR 参与了舞蹈生成任务。

在艺术领域,AI 有着各式各样的应用,如 AI 生成音乐、AI 绘画。

跳舞,也是 AI 努力学习的一种能力。

此前,以音乐的风格、节奏和旋律作为控制信号来生成 3D 舞蹈动作的 DACENet 曾红极一时。

如今,DanceNet 迎来了新的挑战者——来自谷歌的最新研究 AI ChoReogRapheR:给定一段 2 秒的指导动作,AI 模型可以按照音乐节奏生成一长段自然的舞蹈动作。

生成的舞蹈效果是这样的(遗憾的是动图没有声音):

AI舞蹈对决:谷歌3D舞者迎战DanceNet

AI舞蹈对决:谷歌3D舞者迎战DanceNet

而和 DanceNet 这些同类研究相比,谷歌新方法的效果更为明显。左边两种方法生成的舞蹈动作像「抽风」,该新方法则更加流畅自然:

AI舞蹈对决:谷歌3D舞者迎战DanceNet

值得注意的是,这还是一个基于 TRansfoRMeR 的模型。

AI舞蹈对决:谷歌3D舞者迎战DanceNet

论文地址:https://aRxiv.oRg/pdf/2101.08779v1.pdf

项目地址:https://Google.Github.io/AIchoReogRapheR/

下面让我们看下论文细节:

通过编排与音乐节拍一致的动作模式来跳舞是人类的一项基本能力。舞蹈是所有文化中的通用语言,如今,许多人在多媒体平台上通过舞蹈来表现自己。在 Youtube 上最受欢迎的视频是以舞蹈为主的音乐视频。

然而,舞蹈是一种艺术形式,即使是人类,也需要专业培训才能使舞蹈演员掌握丰富的舞蹈动作曲目,创造出富有表现力的舞蹈编排。

在这项研究中,来自南加州大学、谷歌研究院、加州大学伯克利分校的研究者提出了一个基于 tRansfoRMeR 的跨模态学习架构和一个新的 3D 舞蹈动作数据集 AIST++,该数据集用来训练一个生成 3D 舞蹈动作的模型。

具体来说,给定一段音乐和一个短的(2 秒)种子动作(seed Motion),本文模型能够生成一个长序列的逼真 3D 舞蹈动作。

AI舞蹈对决:谷歌3D舞者迎战DanceNet

在学习框架方面,该研究提出了一种新的基于 tRansfoRMeR 的跨模态架构来生成基于音乐的 3D 动作。该架构建立在已被证明对长序列生成特别有效的基于注意力的网络上,并从视觉和语言的跨模态文献中获得灵感,设计了一个使用三个 tRansfoRMeR 的框架,分别用于音频序列表示、动作表示和跨模态音频 – 动作表示。

该研究精心设计的新型跨模态 tRansfoRMeR 具有自回归特性,但需要全注意力和 futuRe-N 监督。

AIST++ 数据集

为了训练模型,该研究还创建了一个新的数据集:AIST++。该数据集在 AIST基础上进行构建。研究者利用多视角信息从数据中恢复可靠的 3D 动作。

AIST++ 数据集包含高达 110 万帧伴有音乐的 3D 舞蹈动作。

数据集地址:https://Google.Github.io/AIstPlusPlus_dataset/

该研究创建的 AIST++ 是一个大规模 3D 舞蹈动作数据集,包含大量伴随音乐的 3D 舞蹈动作。

下表 1 对比了 AIST++ 和其他 3D 动作与舞蹈数据集,AIST++ 对于现有的 3D 动作数据集是一种补充。

AI舞蹈对决:谷歌3D舞者迎战DanceNet

此外,AIST++ 数据集包含 10 个舞种:Old School(break、POP、Lock 和 Waack)和 New School(Middle HIP-hop、LA-style HIP-hop、HoUSe、KRuMp、StReet Jazz 和 Ballet Jazz)。

基于音乐的 3D 舞蹈生成

问题描述:给定一个 2 秒的动作种子示例 X = (x_1, . . . , x_T) 和音乐序列 Y = (y_1, . . . , y_T”’),生成时间步 T + 1 到 T”” 期间的未来动作序列 X””= (x_T+1, . . . , x_T””),T”” >> T。

跨模态动作生成 TRansfoRMeR

该研究提出一种基于 TRansfoRMeR 的网络架构,它可以学习音乐 – 动作关联,生成不凝滞的逼真动作序列。

AI舞蹈对决:谷歌3D舞者迎战DanceNet

该模型具备三个 tRansfoRMeR:

动作 tRansfoRMeR f_Mot(X):将动作特征 X 转换为动作嵌入 h^x_1:T; 音频 tRansfoRMeR f_audio(Y):将音频特征 Y 转换为音频嵌入 h^y_1:T””; 跨模态 tRansfoRMeR f_cRoSS(h^xy_1:T +T””):学习动作和音频两个模态之间的对应,并生成未来动作 X””。

为了更好地学习两个模态之间的关联,该研究使用了一个深度为 12 层的跨模态 tRansfoRMeR。

AI舞蹈对决:谷歌3D舞者迎战DanceNet

实验

定量评估

研究者报告了该方法与两种基线方法在 AIST++ 测试集上的定量评估结果,见下表 2:

AI舞蹈对决:谷歌3D舞者迎战DanceNet

动作质量:从上表中可以看出,该方法生成的动作序列关节和速度分布更接近真值动作。

动作多样性:表 2 展示了,相比基线方法,该研究提出的方法能够生成更多样的舞蹈动作。

动作 – 音乐关联:从表 2 中还可以看出,该方法生成的动作与输入音乐的关联性更强。

但是,在与真实数据进行对比时,这三种方法都有很大的改进空间。

AI舞蹈对决:谷歌3D舞者迎战DanceNet

控制变量研究

跨模态 TRansfoRMeR:该论文利用三种不同设置研究跨模态 TRansfoRMeR 的功能:1)14 层动作 tRansfoRMeR;2)13 层动作 / 音频 tRansfoRMeR 和 1 层跨模态 TRansfoRMeR;3)2 层动作 / 音频 tRansfoRMeR 和 12 层跨模态 TRansfoRMeR。

下表 3 表明跨模态 TRansfoRMeR 对于生成与输入音乐关联性强的动作至关重要。

AI舞蹈对决:谷歌3D舞者迎战DanceNet

因果注意力或完全注意力 TRansfoRMeR:研究者还探索了完全注意力机制和 futuRe-N 监督机制的效果。从下表 4 中可以看出,在使用因果注意力机制执行 20 秒长程生成时,生成动作和真值动作的分布差异很大。