1080Ti 就搞定最新 SOTA 模型?一个普通研究生勇敢发毕业论文引起热议
转自 | 新智元
来源 | Reddit
编辑 | 好困
除了在顶会或者期刊上发表过的,一般人基本都会把自己的毕业论文「雪藏」起来。然而,有这么一位研究生不仅把自己的论文发了出来,还表示自己用1080Ti训练的比SOTA模型更厉害。
大厂用成千上万张显卡训练的SOTA模型已经看腻了?这次我们来看看「小作坊」训练的模型如何。
慕尼黑大学的研究生做了一个Deep Fake模型,只用了300万个参数和一个1080Ti,搞定!堪比SOTA!
虽然作者是这么说的,但是从他发布的成果上来看,有些一言难尽。
左边是原本的视频,右边是提供声音的素材,中间是生成的Deep Fake视频
由于样本只提供音频素材,所以声音还是样本的声音,听起来违和感简直要溢出屏幕了。好在不会出现像其他一些视频那样把整张脸贴上去那么搞笑。
网友用FakeAPP生成的视频
作者表示,和一些SOTA模型相比,论文的方法除了具有较低的嘴唇同步误差,同时在图像质量方面要优于所有方法。
从左到右依次是:原视频,文章的方法, Neural Voice Puppetry,Wav2Lip和Wav2Lip GAN
论文地址:
https://www.dropbox.com/s/o0hk73j1dmelcny/ThesisTUM.pdf?dl=0
参考资料:
https://zielon.github.io/face-neural-rendering/
赞 (0)