机器之心报道
用视频到视频的合成技术生成会跳舞的小哥哥(小姐姐) 或自己本人已经不是什么无法解决的问题,但这些方法通常需要大量目标人物的数据,而且学到的模型泛化能力相对不足。为了解决这个问题,来自英伟达的研究者提出了一种新的 few-shot 合成框架,仅借助少量目标示例图像就能合成之前未见过的目标或场景的视频,在跳舞、头部特写、街景等场景中都能得到逼真的结果。该论文已被 NeurIPS 2019 接收。
论文:https://nvlabs.github.io/few-shot-vid2vid/main.pdf
项目代码:https://nvlabs.github.io/few-shot-vid2vid/
基于注意力的聚合(K > 1)
实验结果