AI换脸到底有没有安全风险?三条理由告诉你这种担心不值得
这两天一款视频换脸的APP在网上爆红,应该说是多重爆红了。先是因为好玩,后又被人发现许可协议里有霸王条款,而最让人担心的,其实是这种AI换脸技术可能会带来很大的安全风险。前面两点先放下不说,AI换脸真能带来安全风险吗?其实这种担心多余了,不妨从技术角度简单讲讲三个理由。
说无需担心的第一个理由,就是AI换脸不管多真实多立体,它呈现出来之后还是平面的。这一点不难理解,因为显示给我们看这些视频的媒介,不管是电脑还是手机,它的屏幕就是平面的。就好比人美歌甜的女主播阿冷,很多早就在体验AI换脸的网友都用她“捏脸”玩,让她早早就有了几十款各种各样的“明星脸”,但都仅限于呈现在屏幕上的她,有可能出现一种技术把她本人的真实面容变成其他明星的样子吗?如果能做到那还要整容医院干啥。
那么这样换脸之后能骗过电脑或者手机的安全系统吗?答案是否定的。人眼睛看到的是样貌,人脸识别看到的则是人脸的3D数据,容貌只起到辅助作用。下图是现在最普及的3D视觉方案,其中包括TOF、双目方案和3D结构光方案三种,只有双目方案是和人眼有些许相似之处的,而这些方案有一个共性,那就是专门对付各种换脸。
3D视觉的原理并不复杂,比如TOF和雷达相似,是计算通过光线发射到返回的时间。因为人脸是立体的,所以返回光线也会出现时间差,这样一个3D化的人脸就被电脑利用时间差绘制出来了;双目方案则是通过两个摄像头的视角差来测量;3D结构光与TOF相似,只不过这些光会连结成多边形,这些多边形又会因为面部的凹凸不平而发生变形,计算机拍下它们的具体形状当作这个人的特征。
不管哪种,都能轻易检测出人脸是平面还是立体的。甚至高级一些的诸如苹果手机,还用类似的技术检测机主刷脸时是睁眼还是闭眼,避免手机里的存款在睡梦中被盗刷。
那如果安全系统被黑客攻破,有没有可能让安全系统误以为拍摄到的是机主,这样是否可行呢?这可能是有些人担心的第二个理由。在电影中我们经常能看见这样的“大场面”,明明监控已经拍到人,显示屏上却没显示,就是因为真实数据被中途拦截和替换了。电影并非虚构,这种理论上确实可行。
但这种做法的可行性也只是限于在理论上。就像前面所说,安全系统获取的并不是人脸的样貌,而是人脸的3D数据,但对应的AI换脸技术却是基于用户的样貌。两者根本就不是一种数据,好比你知道了一座山的样子,能顺利把它转换成海拔高度吗?这几乎是不可能的。
即便这关过去了,还有下一个麻烦。电子设备的安全监测是在称之为TrustZone的独立区域进行的,它在一个独立的芯片里,这个芯片现在大都藏在CPU或者SoC内部。这部分区域一般都有EAL2到EAL4+级别的安全认证,属于金融级。如果有能力破解它,那很多金融机构的账户也成了自家后院,完全不需要折腾AI换脸了。所以这一点也无需担心。
至于第三个理由,那就是大数据了。一款应用一夜间可能已经获得了上百万张各种各样的人脸数据,请问在这芸芸众“脸”当中的你是如何脱颖而出的呢?是因为长得太像某位世界首富吗?在这样庞大的数据量里,一个特定的人被犯罪分子选中的概率极低,甚至远低于一座同等人口规模城市里的犯罪率。
当然,AI换脸可能会导致一些特别的犯罪,比如获得某个犯罪现场监控拍到的图像视频之后,可以通过换脸技术实现栽赃嫁祸,这就是另一回事了。总之,相对于担忧个人安全风险来说,该应用的霸王条款才更应该被重视,它可能意味着我们不经意间主动放弃了某些权益,而这种违法才是最常见并且最容易侵害我们权益的。