加强人工智能责任约束的呼声越来越高

全球技术地图
创新丨前沿丨科普丨资讯

我们没有必要惧怕什么,我们需要理性审视人工智能及机器人科学,并探索继续前进的道路。

2014年,伊隆·马斯克(Elon Musk)充满忧虑地将人工智能形容为“我们所面对的事关人类存亡的最大威胁”。比尔盖茨(Bill Gates)也有着同样的担忧,他表示自己不能理解“有些人竟对人工智毫无顾虑”。对于人工智能的未来,史蒂芬·霍金(Stephen Hawking)大胆预言道:创造人类智力级别的人工智能将是“人类历史上最重大的事件,而不幸的是,这也将是最后一件,除非我们学会如何避免危险”。

的确,各种迹象都表明人们正在经历一场人工智能革命。像福特、丰田、戴姆勒、大众、宝马以及马斯克手下的特斯拉等汽车制造商都已经加入到了研发全自动化驾驶汽车的竞赛当中。与此同时,谷歌也表示将会在2020年发布自动驾驶汽车。此外,病人与老年人的护理机器人研究也即将告成,美国军方正在研发可以将负伤士兵从战场上转移到医院的“救护车”式无人机。

一些怀疑论者却对将人工智能视作人类灭亡之路的观点提出了质疑,协作式机器人制造商——再思考机器人公司(Rethink Robotics)的创始人罗德尼·布鲁克斯(Rodney Brooks)就是其中之一。“人们大大高估了当下以及未来几十年机器产品所具备的实际性能,”布鲁克斯在2015年为Edge.org网站撰写的一篇博客中写道,“人们担心失控的人工智能系统会征服或架空人类,这种恐惧是毫无根据可言的”。

再思考机器人公司的创始人罗德尼·布鲁克斯与自己的产品“击掌”

尽管机器崛起并反戈人类这一情形距离我们还十分遥远,甚至根本就不会实现,“但这并不代表我们就可以高枕无忧地对待科学技术的发展。”佐治亚理工学院移动机器人实验室的带头人罗纳德·阿尔金( Ronald Arkin)这样说道。鉴于人工智能越来越精细复杂,在社会生活中的应用也愈加广泛,研发者、科技领袖以及政府部门已经开始着手人工智能责任机制设计和应用的基础工作。

机器人与制造者的伦理关系
人工智能在迅速发展的同时也带来了有关伦理责任的问题,这涉及到人工智能的设计者,也关系到这项技术本身。比如,当一辆无人驾驶汽车为了避开突发交通事故而转弯撞死路人时,该如何追究责任?人工智能武器在执行任务时如何判定对方是敌对人员还是正当防卫的平民百姓?如果要研发一款在家中照料老年女性的半自动机器人,如何设计才能做到在尊重老人个人隐私的同时又不会给她带来危险?

阿尔金找到了可以解决这种人工智能伦理困境的几个方法,他说:“有人认为,设计者必须具备道德素养才能制造出符合伦理道德的自主代理。”阿尔金的研究关注的正是如何保证人工智能系统和人类的道德伦理保持一致,并且遵守人类社会的法律法规。

罗纳德·阿尔金,佐治亚理工学院

此外还有另一方阵营则正在探索让机器物种自身发展出伦理道德的方法,“那种工作还显得太超前,但重要的是我们必须要在问题出现之前着手这一研究。”阿尔金说。
研究者们获得了许多非盈利组织的支持,这些组织致力于探究人工智能为人类带来的机遇以及伴随而来的风险,未来生活研究所(FLI)便是其中之一。Skype先驱级工程师杨·塔里安(Jaan Tallinn)和麻省理工学院物理学教授马克斯·泰格玛特(Max Tegmark)都是该所的创始人。FLI的关注点在于如何创造出“耐用且有益”的同时又能避免潜在隐患的人工智能系统。
在伊隆·马斯克一千万美金的资助下,FLI在2015年向37个科学研究小组授予了奖励金,还发起了多个研究课题项目,比如超级智能系统与人类利益的结合、智能致命性武器的人类控制、智能系统道德元推理与人类价值的匹配,以及通过类人化概念学习过程来向人工智能系统传授人类价值观等。
马斯克同时也向另一家名叫OpenAI的非营利性研究机构给予了充分的资金支持。OpenAI的宗旨,用他们官方网站上一封公开信的话来说,就是“以最可能造福于全人类的方式促进数字智能系统发展,不受经济回报需求所限制。” 马斯克和其他几个硅谷投资人——包括他旗下PayPal(全球最大在线支付平台)公司的联合创始人雷德·霍夫曼(Reid Hoffman)和彼得·奈尔(Peter Thiel)——已经共同承诺将长期为该组织提供资金,总额将达到10亿美元。

目前,OpenAI的领军人物是首席技术官(CTO)格雷格·布罗克曼(Greg Brockman)和研究指导伊利亚·苏特斯科娃(Ilya Sutskever)。布罗克曼曾经是在线支付服务商Stripe的CTO,而苏特斯科娃则是一位来自谷歌大脑项目团队的深度学习专家。OpenAI称,他们将会分享可能获得的所有专利,并且鼓励研究者们发表自己的研究成果。

责任设计的意义
看到服务型机器人飞速发展,诺埃尔·夏基(Noel Sharkey)和艾梅·范·韦恩伯格( Aimee van Wynberghe)共同创立了责任机器人基金会。作为谢菲尔德大学人工智能与机器人技术教授,夏基表示:“这种存在潜在破坏性的技术对人类的社会生活与价值观到底会带来怎样的影响呢?我们不希望自己在没有谨慎思考这一问题的情况下就冒然投身到机器人技术革命这一潮流中。”
夏基和范·韦恩伯格建立基金会的主要目的,就是为尚停留在“推理和哲思”阶段的机器人伦理道德讨论与具体行动措施之间搭建连接的桥梁。除了协助制定国家和国际科技政策、法律和规章外,他们还致力于将责任约束和问责制的法律法规引入到研究、设计和生产的过程之中。
受责任约束机器人的研究需要多学科协作完成,除了机器人学的研究者和设计者,法律家、社会科学家、哲学家、政策法律制定者,以及社会公众都要参与其中。夏基认为,“若想在努力发展落实机器人科学中责任约束与问责制的同时避免扼杀创新、违背研究程序和损坏商业利益”,多学科协同合作将是关键之所在。
来自澳大利亚墨尔本莫纳什大学的哲学教授和伦理学家罗伯特·斯派洛(Robert Sparrow)认为,在有关人工智能伦理的讨论中,社会大众拥有最大发言权。在探索最有可能被人们接受的技术使用方式时,工程师们常会出错,因为他们的专长无关社会科学,“从根本上讲,这些决策关乎着我们共同的未来,因而理应以集体参与和民主决议的方式产生。”斯派洛说到。
夏基则表示,确定人类的优先权是至关重要的,因为只有取得社会的信任才能保证人工智能和机器人科学的持续进步和创新。他讲到:“公众需要确认新的科学技术是在对社会负责、充分考虑公民个人权利和自由的前提下发展的。”

具有伦理道德约束机制的系统,必然需要具备伦理道德素养的研发者来掌舵,因此,斯派洛呼吁人工智能科研界有所作为,对这项技术和其能力开展一次令人信任且现实的评估。研发者会诚实的在评估中公布他们在发展和促进人工智能的过程中所获得的经济收入,“评估的危险在于,我们会发现,当某项研究成果终于得到人们认可的时候,其研发者的财政状况却已经十分糟糕。”斯派洛说道。

蒂姆·奥斯丁,图片来源:NSPE.org

美国国家职业工程师协会主席蒂姆·奥斯丁(Tim Austin)认为,在人工智能和机器人科学的研发过程中,推动设计者做出决定的应当是他的伦理道德责任。研究员和工程师“必须知道盲点在哪里,去发现和理解他们所不知道的,预想人们预想不到的结果。”奥斯丁说道。与此同时,他建议研发者扪心自问,回答这样一个本质问题:仅仅因为我们能做就去做,有没有想过应不应该做呢?

结论
虽然目前我们很难确定缺乏严谨伦理道德约束所带来的具体后果是什么,但近期出现的很多智能应用技术都应引起人们的注意。夏基引用了儿童陪护、病人和老年人护理的例子来解读如何确保服务型机器人不会侵犯人的权利和践踏人的尊严。
在斯派洛的研究项目中,有一项是评估老年人护理机器人的使用要求,“孤独是人们年老之后所面临的最严重危机之一,”斯派洛说,“用机器人代替人工护理将是一种很不理想的选择,因为这种情况下人际交流的机会就更少了。”
民用和军用无人机带来的问题也是越来越多。“我们现在已经能够看到,警察会使用装载着胡椒喷雾剂和电击枪等所谓非致命性武器的无人机来驱散抗议游行队伍了。”夏基描述道。
美国海军陆战队最近搁置了一款外号为“骡子”,用来减轻士兵负重的军用四腿机器人,此外,无人机坠毁率在不断上升。但即便如此,社会中对于推动立法禁止使用自动化机器人武器的呼声依然强烈。
随着人工智能对人类社会的潜在影响逐渐明晰,受责任约束人工智能的研发和讨论以怎样的面貌继续下去就取决于背后的研发者和设计者们了。“我们没有必要惧怕什么,我们需要理性审视人工智能及机器人科学,并探索继续前进的道路。”佐治亚理工学院的阿尔金说,“这是底线,真的。”

选自丨Engineering360

编译丨全球技术地图

投稿丨gjjsjjyjs@126.com

合作咨询丨iite_er(微信号)

(0)

相关推荐