当AI是一名种族主义者

全文共 2639 字,阅读大约需要 5 分钟
人们一般会认为,基于数据和程序运行的人工智能算法,能做到不受情感因素影响,达到客观中立,可是有研究者发现,事实并非如此。
一部揭示该问题的纪录片《编码偏见》(Coded Bias)近日在美国流媒体平台上映,纪录片讲述当下广泛应用于广告、金融,甚至公共事务领域的人工智能技术,如何延续了社会固有的对于种族、阶层以及性别的歧视。《好莱坞报道者》(The Hollywood Reporter)在对该影片的介绍中写道:“现代社会正面临着两个问题:当人工智能支配着我们的自由时,这意味着什么?人工智能对我们的影响是什么?这部具有开拓性的影片能让公众理解,算法如何影响我们。”
《编码偏见》的海报。图片来源:IMDB
美国麻省理工大学人工智能究员布兰薇妮(Joy Buolamwini)是该纪录片的主角之一,她是一名黑人女性,在研究过程中,她无意间发现,自己脸部无法被识别出来——直到她戴上一个纯白色的面具。这种情形在人工智能技术中并非孤例,它是一种“算法偏见”,因为人工智能学习的数据,主要来源自浅肤色人种和男性,换句话来说,人工智能“先天地”忽视了黑人和女性。
“你以为人工智能是很前沿的技术,但人工智能建基于数据,而数据反映的是我们的历史。”布兰薇妮说。
布兰薇妮的另一个身份,是算法正义联盟(Algorithmic Justice League)的创始人,该联盟是一个推动技术平等的倡议团体,他们鼓励公众提高对人工智能的警觉,并帮助受影响社群发声,同时鼓励技术人员和政策制定者降低人工智能的偏见。“现今世界,人工智能掌控着机会、自由和信息获取权,而它可能正在固化种族和性别等方面的歧视,并且威胁到我们的医疗和经济系统,甚至影响司法公正。”算法正义联盟的网站写道。
布兰薇妮摘下白色面具后,她的脸无法被人工智能系统识别。图片截图自算法正义联盟影片
近年来,随着算法应用的普及,也有多起歧视性事件被曝光。据路透社2018年的报道,亚马逊公司的人工智能招聘系统被指歧视女性,简历出现的“女性”字眼会降低该名应聘者的“得分”,知情者更向路透社透露,有两所女子大学在排序上被降级,尽管他们并没有设定学校名单。
这一算法结果的解释是,人工智能学会了歧视女性应聘者,因为它的学习材料来自该公司10年来的简历数据,这10年以来,被录用的候选者大部分是男性,性别差距在软件开发等技术岗位上尤为明显。亚马逊公司回应表示,从未仅以人工智能系统来筛选应聘者,但路透社在报道中指出,招聘人员能获得人工智能系统给出的建议。此外,全球线上求职平台凯业必达(CareerBuilder)在2017年的调查中发现,约55%的美国人力资源经理表示,在未来五年内,人工智能技术将在日常招聘工作中普遍应用。
人脸识别技术的算法偏见问题是《编码偏见》中的重点部分,这一议题也已经得到相关研究的关注。在2019年12月,美国联邦机构国家标准暨技术研究院(NIST)发表报告指出,与白种人相比,黑人和黄种人的人脸识别错误率是其10倍至100倍不等,而在执法机关的人脸图片库中,识别错误率最高的是美国原住民。与此同时,女性和老人的脸部也更难以识别。这一研究的数据来源是美国签证申请和过境数据库中的1800万张人脸照片,并测试了189种人脸识别算法,研究结果能代表绝大部分商业应用算法的结果。
《编码偏见》宣传片截图
人脸识别技术对黑人脸部识别水平较差,并不意味着黑人可以“躲过”人脸识别,恰恰相反的是,他们可能因为错误的识别技术而受到不公对待。在今年“黑命攸关”运动(BlackLivesMatter)的背景下,人工智能技术在警务上的应用以及其算法偏见的后果,目前最受人们关注。
今年1月,美国底特律的黑人男子威廉斯(Robert Williams)因被人脸识别技术错误识别,被关在看守所长达30小时。当地警察局通过人脸识别技术,认定他是两年前一家高级时装店失窃案的嫌疑犯,可是他上一次到该商店,已是2014年的事情了。
根据《纽约时报》报道,警察逮捕威廉斯的时候,拿出一张人脸特写照片给他辨认,他立即否认相中人是自己,并反问道:“你认为所有黑人男人都长得一样吗?”
在底特律所在的密歇根州,犯罪现场监控取得的人脸信息,会上传至该州的人脸数据库中,并以算法搜索出相似的人脸。他们所使用的算法也纳入到前述的国家标准暨技术研究院研究中,并被证明存在算法偏见——黑人人脸的识别错误率远高于白人。
底特律市警察局的数据中心。图片来源:纽约时报
五个月后,当地检察官就威廉斯被人脸识别错认为罪犯,并遭到逮捕的遭遇而道歉。威廉斯的案件已经撤诉,他也成了公众所知的,第一个因人脸识别错误而被捕的人。不过美国乔治敦大学隐私与技术中心,长期关注政府人脸技术使用问题的律师加维(Clare Garvie)表示,她怀疑这并非第一起人脸识别错误的案件,只不过其他案件并没有被人们知晓,同时她认为算法技术有很多种,政府部门应该只采用有效的算法技术。
早在2016年,布兰薇妮就在一场演讲中提出了担忧:“当我们看到Facebook的照片标注名字出错时,我们会一笑而过,可是如果有人被错误地标注成犯罪嫌疑人,那我们就笑不出来了,这是不容忽视的公民权利问题。”
《编码偏见》宣传片截图
人脸识别的算法偏见问题,在“黑命攸关”运动中也被提及。质疑声浪下,科技公司在为执法机构提供技术时也变得更为谨慎。今年6月,亚马逊和微软两家公司相继公开表示,将停止向执法机构出售人脸识别软件,前者的停售期为一年,后者表示,在没有相应的立法之前,都不会再给美国警方出售人脸识别软件。
而最早表态停售人脸识别技术的科技公司IBM,则在致美国国会的信中写道:“现在是时候开启一场全国对话,一起讨论国内执法机构是否使用,以及如何使用人脸识别技术的问题。”同时,IBM公司向科技媒体The Verge表示,不会再研发人脸识别技术。
与此同时,科技公司也在试图修复算法中的歧视问题。例如位于伦敦的科技公司Synthesized日前出品了一款免费工具,可以用于修复算法偏见,在其介绍中,这款应用可修复算法中的种族、性别、年龄、性取向等方面的歧视问题。
《编码偏见》的导演坎塔亚(Shalini Kantayya)在接受科技媒体OneZero采访表示,科技公司的举动证明了,他们把一些针对算法涉及歧视的问题听进去了。她认为,面对算法偏见以及监控常态化的问题,普通公民也能靠行动来促成改变,例如可以推动技术使用规范化的立法,保障公民权利免受技术侵入的损害。
参考资料:
https://www.nytimes.com/2020/11/11/movies/coded-bias-review.html
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html
https://www.youtube.com/watch?v=UG_X_7g63rY
https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software
(0)

相关推荐

  • 当AI有了“自由意志”

    在人工智能呈现一番欣欣向荣的景象之时,这项技术的问题和潜在威胁也正在显现.是时候认真探讨一下AI技术的"价值观"问题了. 很多人最近一定注意到,有关AI的负面新闻频频上头条,而且还 ...

  • 抗击算法偏见

    本文选自<物理>2021年第6期 (上海交通大学 卢宏涛 编译自Julianna Photopoulos. Physics World,2021,(5):42) 2011年,在佐治亚理工学 ...

  • 我们应该如何理解李飞飞价值十亿美金的“人文AI”计划?

    AI自从以应用角度走进大众视野,就一直逃不出"人文主义"的苛责.作为一种依靠于海量数据运转的技术,AI之所以能够作为提升效率的工具,主要还是因为对人类经验的高度集中. 而" ...

  • 如何对抗算法偏见?| Physics World 专栏

    pixabay.com 近年来,物理学家们越来越多地开发人工智能(AI)和机器学习(ML)技术,以增进我们对物理世界的理解.不过,人们也越来越担心这些系统中的偏见及其对整个社会的广泛影响. Physi ...

  • AI的“色差”与“纠偏”

    在美国学术界声援BLM(Black Lives Matter)之后,事情的走向有点难以预料. 学术界的反种族歧视反省似乎没有了下文,但是如火如荼的BLM运动早已蔓延开来,这次将矛头指向了AI界. 事情 ...

  • 陈根:纠偏AI歧视,从打破行业偏见开始

    文/陈根 科技是人类现有文化的延伸.科技在延展了人类智慧的同时,也继承了人们的偏见和歧视. 当前,人工智能作为第四次工业革命中的代表性技术,正在迅速改变我们所认知的世界.然而与此同时,现实世界中,由人 ...

  • 当年轻人开始谈论AI伦理

    当人工智能技术从象牙塔走进现实生活,与AI伦理有关的议题逐渐成为学术界争论的焦点,甚也有一些年轻人也开始思考算法的伦理和风险. 撰文 /   Alter 编辑 /    胖爷 赛博朋克的电影里,常常可 ...

  • 谷歌让普通人读懂 AI

    作者 王焕超  腾讯研究院研究员   算法黑箱:从奥巴马"变"成白人说起 打码容易去码难,这条互联网定理似乎将成为历史. 2020年,美国杜克大学的研究者提出一种新型算法,名为PU ...

  • 为什么人脸识别系统总是认错黑人?

    为什么人脸识别系统总是认错黑人? 文 | 木子Yanni 技术不懂什么是种族偏见,人脸识别却一再翻车. 从良民到罪犯,有时候就是这么简单. (一)荒唐树上荒唐果,荒唐树下黑小伙 没有驾照,就不能开车抢 ...

  • 谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?

    AI给我们带来绚丽而又方便生活的背后,是对社会造成潜在伤害的阴影. 作者 | 来自镁客星球的毛毛 近期,谷歌AI伦理团队(Ethical AI group)的"连续剧"又有了新料: ...

  • 禁止算法识别性别,能消解歧视吗?

    海外科技圈的政治正确风潮,早已不算新闻了,并且已经遍布科技领域的各个角度. Facebook将默认"男性在前"的新增好友logo,改为"女性在前",并且大小相当 ...

  • 商汤科技:人工智能领域全球最大的IPO

    2014年6月,香港中文大学汤晓鸥教授团队公开自主研发的DeepID 系列人脸识别算法,其准确率超过 Facebook 同期发表的 DeepFace 算法,是全球首次超过人眼识别准确率的计算机视觉算法 ...

  • 卫报|人脸识别能分辨出用户的真实情绪吗?

    随着人脸识别技术的不断发展,人们对它的关注也更加密切.剑桥大学的科学家们开发了一个网站,用户可以通过做鬼脸等方式观察系统是否能正确分辨用户的真实情绪.利用机器识别人类情感的技术在很多领域具有广泛的应用 ...