这些嫔妃也太好看了吧!AI复原《延禧攻略》真实历史人物,原来“硬核少女” 魏璎珞长这样......
而另一波吃瓜群众却陷入了沉思,历史上清朝后宫中各位嫔妃真的是如此美貌吗?留存下来的画像或许能告诉我们,她们究竟有多美。
心动不如行动,近日 B 站 UP 主 Jack-Cui 就利用 AI 技术还原了乾隆及其五位嫔妃的样貌,并对比了《延禧攻略》的剧照作参考。很多人期待的 “白月光” 富察容音、“硬核少女” 璎珞姑娘都在其中。原图画像来自清代宫廷画师郎世宁的《心写治平》。
接下来,就带大家看看画像上的乾隆和嫔妃们 “动” 起来是什么样的。
动起来的乾隆和他的嫔妃们
StyleGAN 算法由 NVIDIA 开发,可以生成逼真的、但不存在与这个世界的人物肖像,也就是利用 AI 产生虚假视觉效果的能力。
此前,一名 Uber 工程师利用这个算法开发了一个人物肖像随机生成网站(奉上网址:https://thispersondoesnotexist.com/),每次刷新这个网站,就会从头开始生成新的人脸图像。你可以在这个网站中找到各种各样、现实不存在的脸,比如网红脸、黄种人脸、混血人脸等。
在默认情况下,SyleGAN 训练一张 1024×1024 分辨率的图片,需要使用 8 块 GPU 训练接近一个星期的时间,研究人员在说明文档中告知所有使用者:使用较少 GPU 可能无法达到最佳效果。他们还列出了使用 NVIDIA Tesla V100 GPU 对不同分辨率的图像进行训练所需的时间以供参考。
StyleGAN 2 在原版的基础上进行了升级,重点修复 artifacts 问题,并进一步提高了生成图像的质量。
另一个算法 DAIN(Depth-Aware video frame Interpolation,插帧算法)则由上海交大的团队开发,比之前 NVIDIA 的算法效果更清晰、帧率更高,可以把 30fps 进一步插帧到 480fps,这已经超过了很多手机的慢动作录像帧率。
通过这个算法完成的视频,即使将视频慢放 8 倍也不会觉得卡顿,大大提高了视频的流畅度。
而 First Order Motion 模型来自 NeurIPS 2019 论文 “First Order Motion Model for Image Animation”,最初的目的是让 “静态图片” 动起来。经过一段时间的发展,它甚至可以让照片里的人物复活,为你演唱一首歌曲。
根据作者介绍,这个模型可以轻易地让 “权游” 中的人物模仿特朗普进行讲话,还可以让静态的马跑起来,另外还可以完成模特的 “一键换装”。
当然,感兴趣的小伙伴可以自己尝试一下,解锁你想要看的历史人物。
本文中的动图来自 B 站 UP 主 Jack-Cui 授权,在此表示感谢,老规矩指路:
https://github.com/Jack-Cherish/PythonPark
https://blog.csdn.net/qq_38284961/article/details/97562956
https://gitee.com/mirrors/DAINutm_source=alading&utm_campaign=repo
https://zhuanlan.zhihu.com/p/136606648