资源 | DanceNet:帮你生成会跳舞的小姐姐

2018 年 8 月 13 日 机器之心

选自GitHub

机器之心整理

参与:思源、张倩


最近有开发者尝试构建能自动生成舞蹈动作的深度网络,他们结合了变分自编码器、LSTM 与混合密度网络,并将这一深度网络命名为 DanceNet。该网络的主要思想即使用 VAE 生成单张舞蹈图片,并根据 LSTM 将这些舞蹈图片组合成一系列完整的动作,最后联合训练就能生成非常逼真的舞蹈动作。机器之心也尝试使用了该项目,并能生成还不错的舞蹈视频,感兴趣的读者也可以使用并完善该项目。


项目地址:https://github.com/jsn5/dancenet


主要模块


DanceNet 中最主要的三个模块是变分自编码器、LSTM 与 MDN。其中变分自编码器(VAE)是最常见的生成模型之一,它能以无监督的方式学习复杂的分布,因此常被用来生成图像数据。VAE 非常优秀的属性是可以使用深度神经网络和随机梯度下降进行训练,并且中间的隐藏编码还表示了图像的某些属性。


如下变分自编码器中的编码器使用三个卷积层和一个全连接层,以生成隐藏编码 z 分布的均值与方差。因为 z 服从于高斯分布,因此确定方差与均值后 z 的分布就完全确定了,随后解码器从 z 分布中采样隐藏编码就能解码为与输出图像相近的输出。


input_img = Input(shape=(120,208,1))
x = Conv2D(filters=128,kernel_size=3, activation='relu', padding='same')(input_img)
x = MaxPooling2D(pool_size=2)(x)
x = Conv2D(filters=64,kernel_size=3, activation='relu', padding='same')(x)
x = MaxPooling2D(pool_size=2)(x)
x = Conv2D(filters=32,kernel_size=3, activation='relu', padding='same')(x)
x = MaxPooling2D(pool_size=2)(x)
shape = K.int_shape(x)
x = Flatten()(x)
x = Dense(128,kernel_initializer='glorot_uniform')(x)

z_mean = Dense(latent_dim)(x)
z_log_var = Dense(latent_dim)(x)
z = Lambda(sampling, output_shape=(latent_dim,), name="z")([z_mean,z_log_var])

encoder = Model(input_img, [z_mean, z_log_var,z], name="encoder")


z_mean 和 z_log_var 为编码器编码的均值与方差,z 为从它们确定的分布中所采样的隐藏编码,编码器最后输出这三个变量。以下展示了 Jaison 所采用解码器的架构,其首通过全连接层对隐藏编码 z 执行仿射变换,再交叉通过 4 个卷积层与 3 个上采样层以将隐藏编码恢复为原始输入图像大小。


latent_inputs = Input(shape=(latent_dim,), name='z_sampling')
x = Dense(shape[1] * shape[2] * shape[3], kernel_initializer='glorot_uniform',activation='relu')(latent_inputs)
x = Reshape((shape[1],shape[2],shape[3]))(x)
x = Dense(128,kernel_initializer='glorot_uniform')(x)
x = Conv2D(filters=32, kernel_size=3, activation='relu', padding='same')(x)
x = UpSampling2D(size=(2,2))(x)
x = Conv2D(filters=64,kernel_size=3, activation='relu', padding='same')(x)
x = UpSampling2D(size=(2,2))(x)
x = Conv2D(filters=128,kernel_size=3, activation='relu', padding='same')(x)
x = UpSampling2D(size=(2,2))(x)
x = Conv2D(filters=1,kernel_size=3, activation='sigmoid', padding='same')(x)

decoder = Model(latent_inputs,x,name='decoder')


在训练 VAE 后,我们从高斯分布中采样一个隐藏编码 z,并将其馈送到解码器,那么模型就能生成新的图像。因此我们可以设想给定不同的隐藏编码 z,解码器最终能生成不同的舞姿图像。


最后,我们还需要长短期记忆网络(LSTM)和混合密度层以将这些舞姿图像连接在一起,并生成真正的舞蹈动作。如下 Jaison 堆叠了三个 LSTM 层,且每一个 LSTM 层后面都采用 Dropout 操作以实现更好的鲁棒性。将循环层的输出接入全连接层与混合密度网络层,最后输出一套舞蹈动作每一个时间步的图像应该是怎样的。


inputs = Input(shape=(128,))
x = Reshape((1,128))(inputs)
x = LSTM(512, return_sequences=True,input_shape=(1,128))(x)
x = Dropout(0.40)(x)
x = LSTM(512, return_sequences=True)(x)
x = Dropout(0.40)(x)
x = LSTM(512)(x)
x = Dropout(0.40)(x)
x = Dense(1000,activation='relu')(x)
outputs = mdn.MDN(outputDim, numComponents)(x)
model = Model(inputs=inputs,outputs=outputs)


以下是实践该项目的环境与过程,机器之心也尝试使用了预训练模型,并生成了效果还不错的视频。此外,根据试验结果,VAE 中的编码器参数数量约 172 万,解码器约为 174 万,但 LSTM+MDN 却有 1219 万参数。最后我们生成了一个 16 秒的舞蹈视频:




要求:


  • Python = 3.5.2


工具包:


  • keras==2.2.0

  • sklearn==0.19.1

  • numpy==1.14.3

  • opencv-python==3.4.1


如下展示了用于训练的数据集视频:




本地实现已训练模型:


  • 下载预训练权重

  • 提取到 dancenet 目录

  • 运行 dancegen.ipynb


  • 预训练权重下载地址:https://drive.google.com/file/d/1LWtERyPAzYeZjL816gBoLyQdC2MDK961/view?usp=sharing


如何在浏览器上运行:


  • 打开 FloydHub 工作区

  • 训练的权重数据集将自动与环境相连

  • 运行 dancegen.ipynb


  • FloydHu 工作区:bhttps://floydhub.com/run

  • 预训练权重:https://www.floydhub.com/whatrocks/datasets/dancenet-weights


从头开始训练:


  • 在 imgs/ 文件夹下补充标签为 1.jpg, 2.jpg ... 的舞蹈序列图像

  • 运行 model.py

  • 运行 gen_lv.py 以编码图像

  • 运行 video_from_lv.py 以测试解码视频

  • 运行 jupyter notebook 中的 dancegen.ipynb 以训练 dancenet 并生成新视频


参考资料:


  • Cary Huang:https://www.youtube.com/watch?v=Sc7RiNgHHaE&t=9s

  • Francois Chollet:https://blog.keras.io/building-autoencoders-in-keras.html

  • 通过 Python 和 Keras 使用 LSTM 循环神经网络构建时序预测模型:https://machinelearningmastery.com/time-series-prediction-lstm-recurrent-neural-networks-python-keras/

  • 使用深度学习的生成编舞:https://arxiv.org/abs/1605.06921

  • David Ha:http://blog.otoro.net/2015/06/14/mixture-density-networks/

  • Charles Martin:https://github.com/cpmpercussion/keras-mdn-layer



本文为机器之心整理,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

登录查看更多
0

相关内容

 【SIGGRAPH 2020】人像阴影处理,Portrait Shadow Manipulation
专知会员服务
28+阅读 · 2020年5月19日
自回归模型:PixelCNN
专知会员服务
26+阅读 · 2020年3月21日
【ICIP2019教程-NVIDIA】图像到图像转换,附7份PPT下载
专知会员服务
53+阅读 · 2019年11月20日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
只需单击三次,让中文GPT-2为你生成定制故事
机器之心
8+阅读 · 2019年11月12日
已删除
将门创投
7+阅读 · 2019年10月10日
已删除
将门创投
8+阅读 · 2019年7月10日
能生成逼真图像的不只有 GAN
机器学习算法与Python学习
8+阅读 · 2019年6月6日
【干货】基于Keras的注意力机制实战
专知
58+阅读 · 2018年5月4日
【干货】深入理解变分自编码器
专知
21+阅读 · 2018年3月22日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
3+阅读 · 2018年3月21日
Arxiv
7+阅读 · 2018年3月17日
VIP会员
相关资讯
只需单击三次,让中文GPT-2为你生成定制故事
机器之心
8+阅读 · 2019年11月12日
已删除
将门创投
7+阅读 · 2019年10月10日
已删除
将门创投
8+阅读 · 2019年7月10日
能生成逼真图像的不只有 GAN
机器学习算法与Python学习
8+阅读 · 2019年6月6日
【干货】基于Keras的注意力机制实战
专知
58+阅读 · 2018年5月4日
【干货】深入理解变分自编码器
专知
21+阅读 · 2018年3月22日
相关论文
Arxiv
14+阅读 · 2019年11月26日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
3+阅读 · 2018年3月21日
Arxiv
7+阅读 · 2018年3月17日
Top
微信扫码咨询专知VIP会员