加强人工智能责任约束的呼声越来越高
我们没有必要惧怕什么,我们需要理性审视人工智能及机器人科学,并探索继续前进的道路。
2014年,伊隆·马斯克(Elon Musk)充满忧虑地将人工智能形容为“我们所面对的事关人类存亡的最大威胁”。比尔盖茨(Bill Gates)也有着同样的担忧,他表示自己不能理解“有些人竟对人工智毫无顾虑”。对于人工智能的未来,史蒂芬·霍金(Stephen Hawking)大胆预言道:创造人类智力级别的人工智能将是“人类历史上最重大的事件,而不幸的是,这也将是最后一件,除非我们学会如何避免危险”。
一些怀疑论者却对将人工智能视作人类灭亡之路的观点提出了质疑,协作式机器人制造商——再思考机器人公司(Rethink Robotics)的创始人罗德尼·布鲁克斯(Rodney Brooks)就是其中之一。“人们大大高估了当下以及未来几十年机器产品所具备的实际性能,”布鲁克斯在2015年为Edge.org网站撰写的一篇博客中写道,“人们担心失控的人工智能系统会征服或架空人类,这种恐惧是毫无根据可言的”。
再思考机器人公司的创始人罗德尼·布鲁克斯与自己的产品“击掌”
尽管机器崛起并反戈人类这一情形距离我们还十分遥远,甚至根本就不会实现,“但这并不代表我们就可以高枕无忧地对待科学技术的发展。”佐治亚理工学院移动机器人实验室的带头人罗纳德·阿尔金( Ronald Arkin)这样说道。鉴于人工智能越来越精细复杂,在社会生活中的应用也愈加广泛,研发者、科技领袖以及政府部门已经开始着手人工智能责任机制设计和应用的基础工作。
阿尔金找到了可以解决这种人工智能伦理困境的几个方法,他说:“有人认为,设计者必须具备道德素养才能制造出符合伦理道德的自主代理。”阿尔金的研究关注的正是如何保证人工智能系统和人类的道德伦理保持一致,并且遵守人类社会的法律法规。
罗纳德·阿尔金,佐治亚理工学院
目前,OpenAI的领军人物是首席技术官(CTO)格雷格·布罗克曼(Greg Brockman)和研究指导伊利亚·苏特斯科娃(Ilya Sutskever)。布罗克曼曾经是在线支付服务商Stripe的CTO,而苏特斯科娃则是一位来自谷歌大脑项目团队的深度学习专家。OpenAI称,他们将会分享可能获得的所有专利,并且鼓励研究者们发表自己的研究成果。
具有伦理道德约束机制的系统,必然需要具备伦理道德素养的研发者来掌舵,因此,斯派洛呼吁人工智能科研界有所作为,对这项技术和其能力开展一次令人信任且现实的评估。研发者会诚实的在评估中公布他们在发展和促进人工智能的过程中所获得的经济收入,“评估的危险在于,我们会发现,当某项研究成果终于得到人们认可的时候,其研发者的财政状况却已经十分糟糕。”斯派洛说道。
蒂姆·奥斯丁,图片来源:NSPE.org
美国国家职业工程师协会主席蒂姆·奥斯丁(Tim Austin)认为,在人工智能和机器人科学的研发过程中,推动设计者做出决定的应当是他的伦理道德责任。研究员和工程师“必须知道盲点在哪里,去发现和理解他们所不知道的,预想人们预想不到的结果。”奥斯丁说道。与此同时,他建议研发者扪心自问,回答这样一个本质问题:仅仅因为我们能做就去做,有没有想过应不应该做呢?
选自丨Engineering360
编译丨全球技术地图
投稿丨gjjsjjyjs@126.com
合作咨询丨iite_er(微信号)