如果AI是孙悟空,谁来念“紧箍咒”?
30秒快读
1 |
健康码、人脸识别通行,是疫情期间迅速铺开的大数据、人工智能应用。 |
2 |
在今年的世界人工智能大会上,来自全球的科学家、学者都在探讨数据和隐私该如何治理,之后,对于人工智能的监管是否会落地? |
在疫情期间,我们出入小区、写字楼,坐飞机、逛景区等场景下都需要出示健康码,甚至去理发店洗头都需要登记身份证号和手机号,我们需要大数据用于防疫,但这些信息是否能被社区大妈、理发店小哥妥善保护,这些信息是否有退出机制?
当我们需要刷脸进入公共厕所时,当我们可以在几秒内把自己的脸换到明星身上时,我们不禁发问,谁来保护我的脸?谁来管管AI?
“先发展、再治理”是很多新科技发展的必经之路,对人工智能来说,其既推动了社会进步,但也引发了人们对于隐私保护、就业替代、社会公平等各方面的担忧。正因此,人工智能无法“先发展,再治理”,必须“边发展,边治理”,否则承担不起滥用人工智能技术造成的损失。
全球各个国家都在探索AI治理的路径和方法,而目前,正处于全球人工智能治理体系成型的关键时期。
01
无可解释的“黑箱”
技术是把双刃剑,谁来为AI确定“底线”?
“人工智能的‘底线’就是以人为本,这个方向不取得共识,未来工作没法做。”中国科学院院士何积丰曾这样表示。
但是目前的情况是,AI所带来的安全风险也让人类措手不及。
在何积丰看来,目前,AI所带来的安全问题包括数据安全、算法安全。“数据安全中包含数据隐私问题、数据质量问题、数据保护问题,算法安全则包括算法可解释性、算法可靠性等。”在2020世界人工智能大会上,何积丰说,比如数据质量问题中还可以细分为训练数据质量、现场数据质量等,一旦一个点出现问题,就有可能带来AI系统被攻击者劫持、AI用于大规模高效率的网络攻击等问题。
“AI技术是‘黑箱’,具有不确定性。”上海科学学所科技与社会研究室主任王迎春告诉《IT时报》记者,由于AI算法内部的运作往往是不透明的,AI的黑箱问题和可解释性越来越受到关注。
对此,何积丰也表示,“黑箱算法”缺乏透明性和可解释性,难以分析和验证。比如“算法黑箱”就有可能助长企业为用户提供同质不同价的产品和服务。
人类不能将明天交付给无可解释的“黑箱”。
02
取信于人 要有人的特质
近年来,“可信”被引入AI领域,许多国家或组织都强调了“可信”的重要性。例如,欧盟于去年4月推出的伦理准则就指出,“可信人工智能”有两个必要的组成部分,一是尊重人类的基本权利、核心原则及价值观,二是在技术上安全可靠。
“可信”,也是何积丰一直在研究的,在他看来,可信人工智能应具备与人类智能类似的特质。比如鲁棒性,在人工智能的训练过程中部分场景可能没有出现过,因此对未知的情况应当具备一定的应对能力;还可以自我反省,对自身性能或错误能够有所感知。
图源/Pixabay
面对AI带来的风险,何积丰在此次世界人工智能大会上给出了包括隐私保护、公平建模、主动防御、伦理法律等方面的对策。“系统伦理的开发也是人工智能安全对策之一,因为AI系统试图对人的行为进行智能调控,不仅会放大原有的伦理问题,还会产生新伦理问题,如何降低伦理问题也是AI系统的关键挑战之一。”何积丰表示,开发也要遵循几个原则,比如透明性、可控性、安全性、保密性,从人性的角度解析数据,调节AI系统的应用,避免极端差异与不平等的情况。
因此,要打造负责任的AI,确保其决策透明,尤其需要开发可翻译、可解释的人工智能模型,以了解人工智能是如何做出这些决策的。
03
数据和算法为当前重点治理对象
现在,在AI领域进行战略性布局的国家日益增多,各国的治理原则逐步转向可落实的框架。
中国是AI发展的高地,2019年6月,国家新一代人工智能治理专业委员会正式发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了中国在人工智能治理的框架和行动指南。
图源/中华人民共和国科学技术部
而在此次世界人工智能大会上,新成立了上海国家新一代人工智能创新发展实验区专家咨询委员会治理工作组,同时发布了“协同落实人工智能治理原则的行动建议”,发展“负责任的人工智能”,提出“一平台、四工作、四体系”的系统落实人工智能治理原则的行动方案建议,其中“四体系”是指评估体系、监管体系、人才体系、保障体系,包括研发AI合规的指标体系和测试平台、建立公开透明的人工智能监管体系、在AI专业开设治理相关课程等。
在王迎春看来,这些建议和规范既要保护相关企业创新的火力,也要促进AI更加健康地发展。“过去,AI以效率有限,现在开始进入健康和高质量的发展阶段。”
但是,中国在人工治理方面也面临着不小的挑战。清华大学苏世民书院院长、国家新一代人工智能治理专业委员会主任薛澜在世界人工智能大会上表示,数据治理、算法正义、权责划界是主要挑战。“现有的治理体系中缺乏对数据权属和使用的清晰规定,数据和隐私保护问题突出;算法监督能力薄弱,引发算法歧视的原因通常难以跟踪;互联网平台中个性精准化的服务实际上将市场分割成了一个个独立的个体,隔断了消费者的搜寻行为,而平台是唯一的‘知情者’。”薛澜说。
对此,薛澜建议,未来,中国要加强基础研究降低技术风险、建立多元共治的人工智能伦理治理体系、明确把数据和算法作为当前重点治理对象、结合具体应用场景规范人工智能伦理、利用技术和规范并行推动提高治理能力。
04
技术必须放到场景里
实际上,不仅是政府相关部门,和AI相关的企业也在不断加强人工智能治理方面的研究,科大讯飞董事长刘庆峰表示人工智能既要人机合作,更要法律、伦理协同进步;今年1月,旷视宣布成立AI治理研究院,并发布《全球十大AI治理事件》。
图源/网络
最近,海内外对人脸识别技术有诸多讨论,包括被应用到什么场景、对于数据隐私安全的保护等。
《IT时报》记者从旷视了解到,对于算法的公正性、公平性和人脸识别的技术在什么场合下使用是符合伦理应用准则的,旷视计划在未来一年中能够做一到两个深度研究。“我们要对重点议题进行深度研究,数据安全和隐私保护是重中之重。旷视已经联合北京智源人工智能研究院开展研究,预期将形成一套面向数据全生命周期保护,针对采集、传输、存储和使用四个环节的AI基础平台,建立一套相关的AI数据安全与隐私保护机制。
同时,旷视承建图像感知国家新一代人工智能开放创新平台,希望通过平台把AI治理的研究成果和企业应用实践经验与产业界分享。”旷视联合创始人、董事长兼首席执行官印奇透露。
“技术的讨论不能就技术而技术,而必须放在场景里来讨论。这些考量点会使得技术无论在被研发的时候,还是将来产品化的时候必须有一些考量因素要前置。”旷视首席运营官、AI治理研究院院长徐云程近日在接受媒体采访时这样表示。
2020年将成为人工智能治理元年,所有AI治理相关的研究、建议、监管规定,都需要AI企业的落地参与,才能得到切实的推进。
“人工智能治理的发展是帮助企业规避法律和负面风险,从一定意义上说,还可以为企业提供新的创新空间。”王迎春告诉《IT时报》记者,比如此前假视频、换脸曾引起过轩然大波,企业可以研究如何杜绝假视频、换脸的技术。
作者/IT时报记者 潘少颖
编辑/挨踢妹
排版/冯诚杰
图片/冯诚杰 Pixabay 网络
来源/《IT时报》公众号vittimes
相关推荐
「AI治理」你怎么看?