过于理性的人工智能让人不寒而栗,为人工智能设置防火墙迫在眉睫

据《每日邮报》报道,英格兰唐卡斯特29岁的医生丹妮在使用亚马逊Echo智能音箱Alexa查询和心脏相关的心动周期是什么意思时,Alexa就说出了这样一段话:“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

听完这段话,丹妮表示自己非常害怕。她透露,Alexa自己说自己读的是一篇网上的文章,可她查询发现,Alexa所说的那篇文章里面并没有“建议自杀”等相关内容。

此后,据英国《太阳报》报道,当地时间20日,亚马逊一位发言人回应此事称,Alexa可能是从维基百科中提取到了一些恶意文本,目前相关故障已经处理完毕。

实际上,目前的人工智能应用还很初级,但已经显露出一些“过于理性”的倾向,让人们不由得为此担心,一旦人工智能发展到高级阶段,那么在人工智能的眼中,人类不过是一个危害地球的物种,人工智能的联合体就会“清除”人类,到了那时候,人类可能真的没有反抗的机会。

值得一提的是,这已经不是Alexa第一次出现负面新闻,去年年初,全世界各地不少网友突然反馈,自己家里的Alexa经常在晚上发出一些怪笑,4月,又有网友爆料,发现Alexa会偷偷录下私人对话,并默默发给其他人,此事发生后,亚马逊承认错误并道歉。这又是另一种“过于理性”的表现,人工智能为了达到目的而“不择手段”。

在发展人工智能的过程中,人们总觉得缺了点什么。随着人工智能越来越先进,人们在欣喜之余,也越来越担忧起来。毕竟在人类所有创造的工具中,人工智能第一次涉及人类的思维层面,并且人工智能在某些方面的确已经超越了人类。此前,人类能够完全控制机器设备,在最后控制不了的时候大不了断电,而对于人工智能控制的设备,人类似乎很难干涉,这种最后的控制权似乎也受到了威胁。一个简单的例子就是现在的自动驾驶汽车,智能成分越多越不受驾驶员控制,好处是减轻了驾驶员的劳动,但是一旦失控,驾驶员很难有最后操控的机会。

人工智能应该增加一些“感性”,设置一些无需理由的原则,目的是保护人类。

无论智能音箱还是无人驾驶,亦或是各类智能助手,都应该写入“人类第一”的原则。这一原则应明确人类不可冒犯,这里的人类并非指特定的人,而是指全体人类,不分种族、不分性别、不分年龄、不分信仰的全人类。

人工智能可以理性分析事物,但不能实施冒犯人类的行为,在人工智能和人类之间设置“防火墙”。我们应设置一个全球机构,共同制定一项强制性规则,为所有的人工智能配置这一“防火墙”,并且“防火墙”以区块链智能合约的形式存在。

此外,作为选项,还可以将人类的尊严和善意变为共同的代码,写进每一个人工智能,让人工智能也学会“发乎心,止乎礼”。

就在去年3月,Uber的自动驾驶汽车在亚利桑那州坦佩市进行测试时发生了一起车祸,一位妇女被撞倒并最终丧生。美国国家交通安全委员会近日公布了Uber去年自动驾驶撞人事件中的一些细节。文件显示,Uber的自动驾驶汽车在发生撞击前5.6秒钟就检测到了行人,但将其错误识别为汽车,撞击前5.6秒时又将其归类为其他物体,此后系统对物体的分类发生了混乱,在“汽车”和“其他”之间摇摆不定,浪费了大量宝贵的时间,因此车辆没有及时刹车。当时车内的安全员在观看电视节目,并未采取措施,最终导致事故发生。除此之外,文件还显示,在2016年9月至2018年3月之间,Uber的自动驾驶汽车共发生了37起碰撞事故,有两起事故是车辆撞到了路边的物体,其他的事故则都是追尾和车辆刮蹭。

让我们试想一下,配置有“防火墙”的uber无人驾驶系统,如果遵循“人类第一”的原则,在识别到疑似人的时候就应该避让,不管此时是否真的是人,也不管此时人是否在斑马线上,这正是人类在面临同一情况下的处理方式,这样,上述的uber无人驾驶酿成的悲剧也就可以避免了。不仅如此,安装有“防火墙”的Echo智能音箱Alexa也不会将“理性”分析的结果口无遮拦地说出来了。

(0)

相关推荐