人类能控制AI狙击手的准星吗?
自从人工智能被赋予新的生命力量,其在短短几年之内迅速蔓延到社会的各个层面。这其中自然免不了一些比较敏感的领域,比如武器开发。
冷兵器时代的武器的作用简单明了,就是杀人。但当战争进入枪炮时代,尤其是现代各种高科技武器频现,武器又并不仅仅是为了消灭对方更多的有生力量以取得胜利,而是形成震慑力以不战而屈人之兵。比如核武器。
由于核武器的巨大威力,其很早就被禁止研发。但除此之外,还有一些武器由于其非人道性,比如激光武器、化学武器等,也处于被限制发展甚至禁止发展的境地。这很好理解,对一个人而言,一枪毙命倒也了结得快;但被激光弄瞎了眼而不死、被毒气慢慢蔓延整个身体然后扭曲而死,实在是有点违背人性。
所以,当人工智能将触角伸进武器的领域的时候,其引发了社会的强烈不满。谷歌为五角大楼研发人工智能无人机的时候甚至引起了全公司员工的联名反对。而就在不久前,马斯克和Deepmind的三大联合创始人以及其他的一众公司大佬们也宣布,将永远不会研发人工智能武器。
导致这种情况出现的原因,就是他们认为:人类的生死不应该由机器来决定。那么,是不是所有的人工智能武器都要被禁止呢?
比如人工智能狙击手。
来无踪去无影:
AI狙击手为什么更令人恐惧?
去年,在日内瓦举办的联合国特定常规武器公约会议上,人工智能研究者斯图尔特·拉塞尔公布了一段搭载了面部识别、广角摄像头和各种传感器的无人机击杀目标任务和学生人群的视频。视频中,这些无人机飞快地穿过各种区域,然后通过精准的面部识别,对目标进行狙杀。直中眉心,一击致命。
视频主要是为了传达这样一个信息:在未来,人工智能武器的研发很可能把人类置于一个危险的境地。抛去这些比较远的话题不谈,视频中呈现的无人机武器一旦成真的话,倒是很可能砸了一群人的饭碗:狙击手。
我们知道,在现代战争当中,狙击手的作用非常重要。不同于密集枪炮发射换来一点点战果,优秀的狙击手几乎是百发百中,因此其又被称为“神枪手”。又因其常常具有极佳的隐匿效果,加上消音器的作用,其往往会给人带来心理上的恐惧。这又令其威胁倍增。
一名优秀的狙击手要具备的基本素质有很多,挑选最佳射击位置、巧妙的伪装、对距离的测算、对风力的估计、极佳的耐力……一般人还真做不来。然而,人工智能狙击手的到来,很可能让这一切成为不必要条件。
比如上文提到的无人机武器。通过伪装,其完全可以变成一只苍蝇或者小鸟,在目标缺乏注意的情况下出其不意。毫无疑问,它能最大限度地接近目标,毋需考虑位置、射程、风速等任何问题,毕竟目标近在咫尺,风力什么的完全可以忽略不计。
可以确定的是,这一方面会令狙击手失业,另一方面,其造成的恐惧也将是空前的。
想象一下,士兵们在以前遇到狙击手的时候卧倒隐藏,然后寻找一下或许还能将来个反杀;但这种新型的武器你根本不知道它在哪儿,但它又无处不在,冷不丁你就一命呜呼。这种情况下士兵们全都用来害怕了,哪里还有心思去打仗?并且,暗杀、刺杀等活动也很可能变得日益猖獗。
因此,它给人造成的心理恐慌恐怕会导致其被贴上“非人道”的标签,被列入禁止武器的行列也就不足为奇。当然这一切还是在人工控制的前提下;如果是自行识别目标然后径直攻击,就更难以走到现实中来了。
但对狙击本身而言,其使用的区域难道仅仅只局限于战场或者暗杀吗?
狙击的特点就是精准,因此其也就会被用来“解难题”。比如在影视剧当中,一旦出现绑架事件,我们往往会看到刑警、特警一同出动,有负责喊话的,有负责攻坚的,而在不远的高处则会埋伏着一名或数名狙击手。在关键时刻对关键嫌犯实施精准打击,将在很大可能上实现对复杂局面的快速解围。
那么,人工智能狙击手将会更出色地完成这一任务,在嫌犯神不知鬼不觉的情况下对其进行打击。
并且,在其他的一些需要进行正面火力交锋的时候,比如追捕毒贩,其也可以派上用场。警察只需要将嫌犯困在一定的范围内,然后放出这些智能武器进行追捕即可。
也就是说,在处理防恐、防暴、防毒等治安犯罪事件的时候,利用机器来避免对人造成生命伤害,也可以成为发展人工智能狙击手的理由。
如果不能握在手心,
就把它永远禁闭
而狙击也仅仅是人工智能武器能有助于人类保证自身安全和处理紧急情况的一种选择而已。战争中的对手可能只是暂时的,他们互为敌人,但不一定是坏人。但暴恐等分子却永远是作为人类社会的对立面而存在的。也就是说,在战争中适应于对手的,也同样适用于犯罪分子。
从这个角度上来说,我们确实需要人工智能武器来帮助应对这个群体。那么同时问题就来了,我们还能说真的不需要人工智能武器吗?
看来要说不需要,好像有点不合适。但其有一个大前提:务必是以积极维护社会的目的出现。而除此之外,面对在使用人工智能武器的过程中可能出现的问题,我们还需要有更多的考虑。
第一,人工智能不能拥有开火决定权。阿西莫夫早在1940年之前就提出了著名的“机器人三原则”,其中第一条和第二条分别为:“机器人不得伤害人类,或看到人类受到伤害而袖手旁观”“机器人必须服从人类命令,除非这条命令与第一条相矛盾”。拯救人质自然算是看到人类受到伤害而不袖手旁观了。但即便是要击毙犯罪嫌疑人,其也要等待人类的授权,就像狙击手的开火需要得到授权一样。毕竟人工智能虽然拥有人脸识别的能力,但涉及到生命伤害,确定射杀对象的时候仍然要由人类做出最后判断。
第二,严格人工智能武器的管理和使用程序。对警方而言,人工智能武器是一把破敌利器;一旦因为保管工作的失误而导致武器遭窃或者丢失,甚至被恐怖分子利用,其带来的社会安全隐患也将是巨大的。那么,为了应对这种情况,两方面的问题应该值得注意。
一是要制定比常规武器更严格的保管、使用、收回等程序,确保其出库和入库都能做到万无一失。毕竟这不是简单的一个追究责任的问题,最好的方法就是不丢失。二是要在武器的开发上做充分的考虑,比如在发现武器丢失的第一时间可以暂时锁定其功能,找回后再进行解锁;如果确定武器丢失,可以开启武器的自我毁灭(当然不一定是爆炸)。此外,设置启动保护程序等也是非常必要的。
总之,利用一切手段保证人工智能武器不被坏人利用,是对人类社会负责的基本表现。
第三,人工智能武器的反制技术开发。说到底,人们对人工智能武器的担忧来自于目前尚无特别好的反制方法。毕竟当有一个物种打破生态平衡的时候,一定要有相应的物种出现来维持平衡。为什么美国扔了个原子弹日本就投降了?
因为日本拿它没办法呀。
所以,这才是人工智能的可怕之处。毕竟在人类的对立面,也存在着一批利用技术作恶的危险分子。随着人工智能技术的成熟和研发成本的降低,很难确保恐怖分子等不会因此而研发出人工智能武器来威胁民众的生命安全。这就给各国提出了一个明确而急迫的要求:在人工智能武器的技术被坏人掌握之前,我们必须要有所作为,保证在恶魔来临之前,我们有强大的法力将其制服。
而在以上的这些东西实现之前,对人工智能武器持非常慎重的态度自然是无可厚非。它不应该作为单纯的危险物种而存在,但又不能对其有益之处也全盘否定。我们未来可能需要人工智能武器,但一定不能是以无辜的伤害为目的。当然,如果我们不能确定它只能为确保人类的安全而工作,人工智能武器的潘多拉魔盒还是紧闭为好。