在自动驾驶设计中考虑伦理道德
每十年都会带来新技术,这些技术对人类生活的影响是如此深远,以至于新一代无法轻易理解在此技术之前的生活方式。关于90年代之前没有手机的世界的想法带来了很多的惊奇,甚至对生活在那个时代的今天的成年人来说也是如此。有时,技术创造了一种我们不知道自己需要的新需求——手机就是这样。
快进30年,我们正处于一个70年代和80年代大多数科幻小说已经成真的时代,其中一些在未来十年中正处于大规模采用的风口浪尖。自主生物(机器人,无人驾驶飞机和汽车)已经到来,并且正处于大规模实施的转折点。如果我们足够幸运,今天活着的大多数人有一天会惊叹于人类曾经真的开车!手机和自动驾驶汽车(AVs)诞生的唯一不同之处在于,自动驾驶汽车已经达到了一种迟来的必要性,而手机一开始就没有这种必要性。这个区别就是人的生命安全。汽车行业在技术上也处于有利地位,能够通过自动驾驶汽车解决这一长期的安全要求。
自动驾驶汽车预计将在当前10年内上路,并在未来几十年成为主流。实施级别(SAE级别)将根据地理位置、市场、基础设施和消费者的准备情况,错开并错开时间。电动汽车技术、电池、半导体、传感器、连通性、绘图、远程信息技术、基础设施管理等方面的不断进步,让我们看到了一个有利的局面,即大规模实现自动驾驶汽车不再是10年的愿景。我们在oem上有真正的汽车发展计划,这些计划正在执行中,每个季度都会发布预告片。我们现在还没有到讨论自动驾驶汽车的重要性和必要性的阶段。对于大多数原始设备制造商来说,这是一种既定的选择,唯一的好处就是挽救生命,值得在自动驾驶汽车的研发上投入每一分钱。到2030年,全自动驾驶汽车销量将占到总销量的15%。
对AV的低估将使我们想到,AV的实施涉及其运行的核心,即动态决策。只要有决策,就意味着有指导方针。只要有决策指南,就会涉及到与技术,法律和不太明显的道德背景有关的方面。
AV的架构功能可以这样考虑:感知-> 决策-> 行动
感知:从激光雷达,雷达,摄像机接收传感器输入
决策:处理数据,决定下一步行动
行动:执行制动,加速或转向方面的计划输出,并确保乘客和行人安全
下面是一个自主/智能战场场景的示例。
PDATT框架-为战场设计机器人:国家的艺术-布鲁斯·A·斯威特等
技术,道德和法律框架的工作决定了决策阶段,从而导致了“可接受的” 行动 阶段。
快速的底层检查会让我们知道,有大量数据正在为AV运作(决策和采取行动)。数据包括地图、实时传感器输入、特定于车辆的位置信息等。从本质上讲,车辆的每次旅行信息不再是车主专有的。做出的决定基本上控制了车辆在道路上的行为。一旦意识到这一点,就很明显,AV需要服从任何其他人工智能系统的法律和道德严格要求,并且出于零错误空间的安全考虑,可能甚至还要受制于更高的安全性。
任何框架都会随着时间和推动因素(技术、社会或其他方面)的成熟而发展;并且需要在应用方面领先于时代。一个强大的框架具有远见。框架的缺点是,它们需要转换成法律约束力才能有效地实现。工程师和科学家通常对与技术相关的最佳实践、规范充满热情,并且善于通过过去发表的研究论文来改善当前的技术状态。企业专注于推出伟大的产品,并确保满足需求。消费者关注的是物有所值。
因此,在技术实现中满足道德需求被视为被动目标。随着基于任务的AI产品(例如AV)的实施越来越多,迫切需要为产品带来更强的道德定义。机器越“人性化”,就越需要将道德框架集成到产品中。对于依赖AI的产品、信任、了解机器意图及其功能是急需的产品功能。我们想在AV设备中看到美德吗?我们是否想看到AV中的亲社会行为?我们是否希望AV能够即时处理新情况?我们是否希望将文化差异延伸到AV行为中(是否按喇叭)?
科技伦理哲学
在这种情况下经常引起注意的示例是通过考虑以下示例场景:
如果AV撞上了私有财产,您应该责怪谁?(没有人开车!)
如果AV处于不得不撞向儿童或老年人的强迫情况下,它必须拯救谁(为什么?)–人类会做些什么?
伦理学基础深入研究伦理学理论并分析其基本前提。道德客观主义和主观主义成为考虑的重点。根据详细的评估和论据,对好,坏,对或错的道德判断。我们需要分析事情的当前状态,从中可以得出一个理想的状态。我们需要分析事情的当前状态,从中可以得出一个理想的状态。
伦理研究涉及诸如分享、关怀、合作和承诺等人类价值观。它们还涉及人类的美德,如诚实,勇气,耐心,谦逊,服从。伦理与思考无关,而是与行动的结果直接相关。
法律、规则、规章、指示、指导方针、该做和不该做的事情:所有这些都是建立在道德纪律之上的。伦理就是告诉人们什么行为是好的,什么行为是不好的。理想的状态是对善与恶的定义具有普遍的吸引力。伦理价值是复杂的。将它们纳入技术对于改善人类使用这些技术的经验是必要的。将健全和稳健的道德框架整合到技术中被视为迫切需要,因为当它们被部署到大规模生产的自动驾驶汽车中时,将产生乘数效应。
在人类如此大的消费中,这有可能是我们第一次通过非人类代理人来委托道德价值观。该尺度涉及历史上任何时候都没有使用过的对人类生活的影响。乌托邦式的目标是要达到这样一种状态,即对一组人类来说,好的事物也对“所有人”都意味着良好的事物。技术的道德基础需要健全,并在所有场景和所有使用情况下都经过测试。控制此问题的唯一方法是通过部署具有凝聚力和并行性的道德框架,该框架将指导技术实施的工作规则。在AI的世界中,AV是一个直接的例子,其中5V(体积,速度,多样性,准确性和价值)已经超越了Ethics框架,与过去的技术革命不同,在5V时代,5V很好地处于了当时的道德框架之内。“移交”和规模是空前的,因此紧迫。
这可能是人类有史以来第一次,在如此大规模的消费中,我们将伦理价值的服务委托给一个非人类代理人。该尺度涉及到历史上任何时候都没有使用过的尺度对人类生活的影响。乌托邦的目标是达到这样一种状态,即对一群人来说是好的,并对“所有人”来说也是好的。技术的伦理基础必须是健全的,并在所有场景和所有消费情况下进行测试。控制这一点的唯一方式是部署一个具有凝聚力和并行性的伦理框架,该框架将指导技术实施的工作规则。在AI的世界中,AV是一个直接的例子,其中5V(体积,速度,多样性,准确性和价值)已经超越了伦理框架,与过去的技术革命不同,在5V时代,5V很好地处于了当时的道德框架之内。这一“移交”及其规模是前所未有的——因此,它具有紧迫性。
“到2035年,人类的思想没有理由也没有办法跟上人工智能机器的步伐。”
-Gray Scott
在撰写本文时,AI中的伦理是一个被广泛讨论和发展的领域。此外,人工智能被应用于医药和自动驾驶汽车等具有大规模影响的领域,需要更高的紧迫感。在那之前,我们将继续依赖于当前的法律框架,而不去探究最近出现的大规模人工智能应用的细微差别。现在的当务之急是为伦理AI建立一个被广泛接受的、全面的框架。
“真正的问题是,我们何时才能起草人工智能权利法案?这将包括什么?谁来决定呢?”
-Gray Scott
一个良好的起点将是与基本伦理一起工作,而不必重新设计它们。我们需要看看在现实世界中,自动驾驶汽车的新交易表现,需要什么样的道德规范。这项任务并不容易。这几乎就像跳上一列行驶的火车,能够跟上创新和实施的步伐。
人们所期望的状态是,自动驾驶汽车在所有的感觉、过程和最终行动上都成为有道德的人。这就像人类被期望的功能一样。决策结果总是机器学习/深度学习算法的结果,这些算法执行传感器融合,为车辆的行为和行为提供决策。在我们的神经网络中,奖励的优先级是什么——只是金钱利润还是道德利润?
问题的症结是什么?
这是关于能够预先适应道德框架,紧接着是导致技术规范的法律和监管框架,并且几乎必须将其硬编码到产品中,这样在执行时就不会有太多的歧义。在过去,我们的法律和道德框架大多像操作系统一样工作——给了很多解释的空间。在不遵守规定的情况下伸张正义,主要是一种事后的做法,基于未能遵守规定的情况下提出的事实的价值。从本质上讲,我们试图减少失败的机会,从而在AI实施的情况下进行事后处理。我们可能要面对的是人的生命。
可能的解决方案之旅?
OEM和生态系统成员在其产品开发过程中采用的正确方法是什么?
对工程师和技术人员进行道德方面的教育(想想过去二十年来的六西格玛,设计思维或敏捷教育驱动力,涉及各个领域的大多数大型公司–甚至带来了思想领导力和文化契合的新水平)
花足够的时间去理解道德框架及其实施——不要急着去了解产品环境
将哲学专业的学生带入技术开发的主流–不要将他们视为孤立的团队中的“好人”成员–这些成员是技术追求与人类福祉之间的联系–让他们为每个重要步骤提供支持-尤其是在人工智能世界
我们没有意识到,在过去的一些实现中,什么被认为是“重要的一步”——这是一个很好的提醒,从字面上讲,技术没有自己的想法
将伦理学家与法律团队相提并论,法律团队已经很好地融入了大多数产品团队
在此背景下,从汽车领域(互联网,网站,社交网络?)交叉传授最佳实践
只要我们努力只满足法律或技术规范,我们就会继续在人工智能领域冒道德事故的风险。我们需要用道德考虑作为产品开发周期中各个里程碑上的检查点来思考产品定义及其实现方法。
AI的大多数定义可以组织为四个视图:
像人类一样思考的系统
像人类一样运作的系统
理性思考的系统
行为合理的系统
这是通过机器模拟人类的艰巨任务。需要从当前的车辆开发流程中分离出自动驾驶开发框架。这些在很大程度上是由20世纪发展起来的法律和技术规范所驱动。原始设备制造商努力满足他们作为最低限度的必要条件,以便能够出售车辆以获取最低利润。符合法律要求,隐含暗示符合道德要求。随着AI出现在自动驾驶领域,必须进一步研究可能会或可能不会在当今的法律和法规框架中具有约束力的产品的道德含义。我们需要让道德框架从头开始发挥领导作用——这是我们构建产品时最大的远见。
对于自动驾驶设备和任何严重依赖数据和人工智能的产品,必须重新审视ELSI(道德,法律,社会问题)。ELSI需要在基于人口统计学的环境中进行理解,并且OEM商需要在自动驾驶领域的每个销售区域(也称为运营设计领域(ODD))中考虑这一点。
消除程序员的无意识偏见,确保测试用例的均等性,个人信息的安全性(连接和共享的车辆部署)是人们可以想到的一些非常基本的考虑因素。我们需要道德框架来解决数据、算法、实践和实施相关方面。
我想留给读者一个简单的隐藏在显而易见地方的视角转换。自动驾驶汽车与车辆无关,而是关于(自动)驾驶员的。AV所做的任何事情都将受到与人类驾驶员相同的审查水平以及法律和道德检查。当我们将崩溃、数据泄露或其他不道德和不受欢迎的行为归咎于自动驾驶汽车时,我们该责怪谁呢?这是理解正确的框架进入主流产品开发优先级的迫切需要的最简单的方法。我们需要政府、监管机构、OEM、哲学家、法律团队、零部件供应商,甚至是消费者走到一起,制定出一个剧本。没有这个,我们就不会有自主伦理(车辆)存在!就自动驾驶汽车而言,它对人类生活、社会和谐和未来城市的利害关系更为直接。
“人工智能是我们正在经历的划时代变革的核心。如果机器人与公共利益结合起来,它可以使一个更美好的世界成为可能。事实上,如果技术进步加剧了不平等,那就不是真正的进步。未来的进展应面向尊重个人和创造的尊严。让我们祈祷机器人和人工智能的进步能够永远为人类服务……我们可以说,愿它“是人”。
弗朗西斯
我们是否要回到古代,伦理学推动科学探索的时代?这一次,它将更加丰富和有益!
作者:维杰·戈帕拉克里希南(Vijai Gopalakrishnan)