谷歌试图以技术手段解决人工智能威胁
谷歌正在开发阻止机器人对人类发动末日攻击的“切断开关”
近日,谷歌DeepMind研究科学家奥赛尔和牛津大学机器智能研究院(MIRI)副教授阿姆斯特朗博士一同发表了一篇新论文——《可安全干预的智能代理》,希望建立一个新的框架,以允许人类重复并且安全地干预人工智能,同时保证人工智能不会知道怎样防止并减少来自人类的干预。
论文提出了给机器人安装“切断开关(kill switch)”的想法,目的是阻止AI学会如何阻止人类对某项活动(比方说发射核武器)的干预,即“安全可中断性”。论文中写道:“安全可中断性”可用于控制机器人不正确甚至可能导致不可逆后果的行为,如通过中断机器人将其从微妙处境中脱身出来,或者在机器人执行某些尚未掌握的或是可能带来不良后果的任务时予以中断。
多方关注人工智能技术的安全性问题
DeepMind研究者奥赛尔和牛津大学阿姆斯特朗博士论文代表了人工智能技术研发人员对可能存在的威胁的担忧,持有同样观点的还包括科学家霍金、特斯拉和Space X公司CEO马斯克等。在另一层面,也有组织试图通过发布人工智能研究指导方针的方式,防患于未然。
6月6日,日本人工智能学会的伦理委员会发布了一份研究人员应遵守的指针草案。草案规定,无论直接还是间接,均不得基于加害意图使用人工智能,在发现恶意使用人工智能时采取防止措施。
关于人工智能的快速发展是否会得人类造成威胁的问题已经引起了各界的讨论。在各国、各主要科技企业纷纷发力人工智能研究的情况下,否定人工智能威胁论的观点占据主流。这类观点普遍认为,在十年乃至数十年内,人工智能技术的发展不足以使机器人在智力上超越人类。我国人工智能领域主要研究者普遍持此观点。
虽然关于人工智能威胁的讨论仍在持续之中,但是谷歌DeepMind公司和日本人工智能学会的做法,却已经跳出了单纯的讨论,开始从技术和政策导向两个方面进行布局,此提前布局的前瞻性做法值得关注与学习。
微信号:drc_iite