AAAI 2019 Oral : 让TA说你想听的 — 基于音 / 视频特征解离的讲述者人脸生成
据悉,香港中文大学 MMLab 提出「通过解离的听觉和视觉信息进行说话人脸视频的生成」,使得生成高分辨率且逼真的说话视频成为可能,而系统的输入可以仅仅是一张照片和一段任何人说话的语音,无需先对人脸形状建模。论文《Talking Face Generation by Adversarially Disentangled Audio-Visual Representation》已经被 AAAI 2019 收录为 Oral Presentation。