人工智能教育伦理问题及其规约

人类诞生后,生物学意义上的进化就基本上停止了,自此,以人为界,好奇心推动科学,控制欲推动技术,启动了人类文明的演变图景。科学和技术的发展是由向外和向内两个向度展开的,向外由太阳系、银河系到宇宙;向内指向人类自身,由生命运动到意识运动,催生了人工智能。人工智能的类人属性,第一次动摇了以世界为舞台、人类为主角的社会活动剧幕,由此引发了人工智能伦理问题,当然也包括人工智能教育伦理问题。

人工智能教育伦理问题是人类教育群体中植入类人,由于“演员”群体的转变而引发的问题,其主要议题包括类人的伦理问题、新的人与人行为准则的调整问题以及“演员”活动的舞台——人工智能教育场问题。人工智能教育伦理问题的规约应该以追求人类的福祉为宗旨,聚焦实践,主要从习俗迁移、规范构建、法律约束等方面着手。

  一、引 言

教育是常进常新的事业,不仅具有稳定性,而且具有发展性。教育伦理亦然,不仅具有永恒性,而且具有时代性。进入21世纪以来,随着人工智能技术的不断创新及其在教育中的推广和应用,人们在拥抱人工智能的同时,也产生了一些担忧,特别是对人工智能对学习者可能产生伤害的忧虑,由此,人工智能教育伦理问题成了教育领域的学者关切的热点。

已有相关研究主要集中在:(1)对人工智能教育伦理风险的表现描述,如削弱教师地位、侵犯学生自由、加大教育不平等、对教育正向价值的压制、对教育育人价值的僭越[1];(2)对人工智能教育伦理风险成因的探索,如教育机器人的身份与权力边界模糊、教育数据泄露以及技术滥用[2];(3)对人工智能教育可能产生的伦理风险进行规避的原则探讨,如提出采用“以人为本”“以德为先”“以法为界”的原则以防范和消除这些伦理风险[3]

这些研究为我们进一步研究人工智能教育伦理问题奠定了基础,但是,依然存在着些许问题,主要表现在:第一,在人工智能教育伦理问题的界定上,较多的研究从现象级上列举和描述了若干人工智能教育伦理问题,而缺乏在理论层面上对其本质的厘定;第二,在人工智能教育伦理的讨论上,总体上缺乏对人工智能教育伦理问题进行分层、分类讨论的对象域,并且在具体问题的探讨上较多地关注人工智能教育应用层面上所涉及的伦理问题,而对于教育人工智能伦理底层理论的探讨较少;第三,在人工智能教育伦理问题的解决上,主要集中在对西方发达国家已有原则的介绍和解读,而缺乏在更为深刻层面上对人工智能教育伦理问题规约理路的慎思。

针对现有人工智能教育伦理研究的不足,有必要明确探讨以下三个基础性问题:(1)究竟什么是人工智能教育伦理问题?(2)人工智能教育伦理问题有哪些,为什么是这些问题?(3)人工智能教育伦理问题规约的基本思想应该是什么,应该包括哪些方面?通过回答以上问题,以期抛砖引玉,为人工智能教育事业的健康发展作出理论贡献。

  二、人工智能教育伦理问题界定

伦理是人伦道德之理,是指“人与人相处的各种道德行为准则”[4]。教育伦理是教育活动中人与人交往的各种行为规范和准则。教育伦理是一个历史范畴,其合理性必须在特定历史时段的教育生态中谈论。因此,讨论人工智能教育伦理问题首先必须讨论人工智能教育生态环境。人工智能技术教育应用实际上改变的是教育生态,是人工智能教育生态的建构,是对传统教育生态的解构和重构。在教育生态重构的过程中,由于人工智能扮演了人的部分角色,从而改变了人与人之间的关系,引发了人们对新的人与人、人与类人、类人与类人相处的行为规范问题的探讨,这就是人工智能教育的伦理问题。

教育生态是发展的、分阶段的。依据技术的发展及其融入教育的历程,可以将教育生态划分为传统教育、信息化教育以及人工智能教育。实际上,人工智能教育生态可以看作是信息化教育生态的高级阶段。依据人工智能教育生态的成熟与否,大致可以将人工智能教育伦理问题划分为两类:一类是教育信息化从1.0向2.0的过渡阶段,人工智能技术在教育中初步应用引发的伦理问题,我们将之称为弱人工智能教育伦理问题;另一类则是人工智能技术相对成熟,已经形成稳定的智能教育生态后出现的伦理问题,我们称之为强人工智能教育伦理问题。

本文所讨论的人工智能伦理问题属于第一类,关涉弱人工智能教育伦理问题。显然,弱人工智能教育伦理问题不仅是历史的、具体的、相对稳定的,而且是动态的、发展的;弱人工智能教育伦理问题与强人工智能教育伦理问题的表现和成因不尽相同,不能混为一谈,同时二者又是有联系的——弱人工智能教育伦理问题是强人工智能教育伦理问题的基础和前提,强人工智能教育伦理扬弃了弱人工智能教育伦理;更为重要的是,无论是弱人工智能教育伦理还是强人工智能教育伦理,都是对传统教育伦理和信息化教育伦理的扬弃,因此,人工智能教育伦理依然是群体的、相对共善的。正如毕达哥拉斯所言,“凡是现存的事物都要在某种循环里再生,没有什么东西是绝对新的”[5]。弱人工智能伦理问题实际是以机器深度学习为基础,以期用机器模拟人的智能,在帮助人类解决各种教育问题或提供教育服务时引发的伦理问题。因此,弱人工智能教育伦理不仅包括教育人工智能创建者和使用者等利益相关者的职业道德及伦理,而且包括类人内隐的程序代码所涉及的道德问题,以及由人工智能与教育相融合过程中导致的人类教育行为准则的整体调整问题。需要补充说明的是,我们不仅要认识到弱人工智能教育伦理与教育伦理的交集,而且要知晓尽管机器伦理与人工智能伦理是不同的,但是就智能程度而言,弱人工智能伦理依然是机器伦理的子集,主要关注智能机器对其他机器和人类行为的影响[6]

  三、人工智能教育伦理问题透视

伦理问题从来都是产生于人类群体中的,离开人类群体无所谓伦理。传统的教育群体网络体系由于类人的人工智能植入,改变了原有的群体网络构成和结构,形成了新的教育群体网络。从表面上来看,在这一进程中,似乎对类人的人工智能行为规范是人工智能教育伦理议题的主要问题,实际上,一方面,类人的教育行为会受到原有教育群体网络中人的伦理准则的规约(这里的类人既指个体,也指群体,因此,类人与类人之间的行为关系整体而言从属于人与人之间的行为关系,受到人与人之间行为关系的约束);另一方面,由于新的类人的嵌入,也会引发原有教育群体中人与人行为关系网络的调整,两种力量交织角力形成新的教育群体行为准则。因此,从本质上来看,人工智能教育伦理问题是人与人行为关系的调整问题,主要关涉两大议题:一是人与人工智能的行为关系,即植入人类教育生态中的类人所涉及的数据和算法方面的伦理议题;二是人与人的行为关系问题,即新的人与人之间的教育伦理议题。两大议题都是人及类人的行为关系问题,由于所有的教育行为都是在一定的空间(教育场)中展开的,因此,人工智能教育场的演变及其伦理挑战也就成为两大议题的基础性问题,如图1所示。

图1 人工智能教育伦理问题关涉议题

(一)人工智能教育场的演变及其伦理挑战

教育场可以理解为教育伦理发生的环境与情景,是教与学活动的“舞台”。传统的教育场都是真实的教与学活动场景,所有的教育伦理都是真实教与学活动场景中教师、学习者、管理者等主体行为的准则。行为与角色密切相关,而角色又与场景密切相关,因此,行为与场景也密切相关。人永远是具体社会场域中的人,扮演好“角色”演员,是对每个“本色”演员的基本伦理要求,人工智能也不例外,它也需要扮演好自己的角色。网络技术、人工智能技术和虚拟现实技术等在教与学活动中的应用使得传统的教育场发生了革命性的变革,即从真实的教育场转变为真实教育场、虚拟教育场和混合教育场并存的教育场。信息是教育场中流通的关键要素。依据美国技术哲学家伯格曼(Albert Borgmann)的观点,教育场中的信息形态可以划分为三类,即“关于现实的信息(自然信息)、为了现实的信息(文化信息)和作为现实的信息(技术信息)”[7]。伯格曼对信息的分类为我们透视人工智能教育场的伦理提供了有益的理论视角,因为“每一种类型的信息都根据其自身的方式来塑造人与现实的关联性”[8],从而形成不同的教育场,如图2所示。

图2 不同类型的信息与教育场

与自然信息相对应的是传统社会教育和家庭教育场,与文化信息相对应的是传统学校教育场,而与技术信息相对应的是人工智能教育场。传统的教育场是现实的真实场景,而人工智能教育场是超现实的虚拟教育和混合教育场。有意义的美好教育需要三类教育场的有机融合,尤其是现实的教育与超现实的教育场之间的融合,保持教育教学符号与事物、教育信息与现实之间的平衡。

人工智能与教育的融合在促发教育伦理场演变进化的同时,也带来了一系列新的伦理挑战。首先,我们必须警惕为了超现实而超现实,即将超现实教育场的构建本身作为目的而凸显,忽视将其作为美好教育生活的实现路径而加以选择,谨防强化人工智能教育应用的减负性、感官性和消费性,而弱化其人文关怀性和道德性。其次,智能教育研究者和实践者还必须清醒地认识到,超现实的虚拟教育场与真实的教育场在教与学的体验以及教学规律方面可能存在较大差异。超现实的虚拟教育场趋向于替代真实教育现实,甚至淹没真实教育现实,它的趣味化、仿真化和透明化等使得真实教育现实显得乏味、粗糙和繁重,对此种“趣悦化学习”的过分强调,掩盖了认知投入对学习的重要性[9]。因此,我们必须警惕将超现实教育信息的消费、体验和认知“误认为”是对真实教育现实的参与、体验和认知。最后,超现实的教育场需要同真实的教育场有机融合、互为补充。教育主体若长期沉浸于虚拟的超现实场域之中,其认识对象、工具和方式以及思维方式都会打上虚拟思维和行为的烙印,人们可能有意无意地依赖、迷恋虚拟教育场,使传统真实教育场沦为虚拟教育场的背景,而不再为主体参与真实的现实教育活动提供更多的可能和契机[10]

(二)类人教育伦理问题

如果说网络技术和虚拟现实技术教育应用主要改变的是教育活动场域以及教育活动的客体,那么人工智能技术则主要改变的是教育活动的主体。人工智能充当人的教育角色必然被赋予了人的教育权利,同时必须承担相应的教育责任,权利与责任是教育人工智能这个硬币的两面,因此,其教育行为必须受到人与人之间的教育行为伦理的规约。

从表面上来看,类人的教育伦理问题主要包括数据伦理问题与算法伦理问题,然而由于类人无法独立于教育场而存在,类人的数据伦理与算法伦理都会深深地打上教育伦理的印记,因此,类人的教育伦理问题将同时涉及数据伦理、算法伦理和教育伦理等两个方面。

1. 教育人工智能数据伦理问题

人工智能教育生态的稳定运行需要大数据作为基本保障,教学活动和教育管理过程中产生的行为、状态、成绩、情感与交互等方面的数据将被人工智能系统收集、存储和使用,由此产生的数据伦理问题必须受到重视。首先,在数据的收集上,应该强调任何数据主体有权利知晓数据采集类型和方法以及数据安全保护措施,而现今对于收集数据的类型和方法始终边界不清;其次,在数据的存储上,会不会产生数据意外泄露,机器代理应该在多大程度上拥有数据的控制权[11],在人工智能系统的整个生命周期中如何保证师生的数据隐私权等权益不受到侵犯,谁该拥有所收集到的数据,会不会涉及侵权等诸多问题需要一一回答;最后,在数据的使用上,人工智能的数据挖掘分析能力已经在很大程度上超过了以往技术,而数据所解释出的种种不平等情况甚至会对个别学生的合法权利产生负面影响,进而引发新的教育不平等问题,因此,必须对相关数据及分析结果的使用权提出明确的界限和更高的安全验证。

2. 教育人工智能算法伦理问题

教育人工智能算法伦理问题实际上是由于智能机器本体性智慧不足引发的教育伦理问题。首先,历史性与发展性背离。人工智能通过采集过去记录的教育数据,分析、挖掘学习者特征并以此为基础作出决策和预测学习者未来的发展趋势。虽然机器学习和深度学习算法能够根据历史性数据预测未来,这在概率统计学意义上具有合理性,但是由于教育生态中学生未来发展的不确定性,算法不可避免地存在对学生成长的历史或文化的偏差与偏见,这与教育教学现实的复杂性、创造性和发展性相背离[12]。其次,平均化与精准化的背离。人工智能根据学习者过去的教育数据为其制订学习推荐方案,是算法对教育数据中的历史案例进行平均化处理的结果。目前,应用到教学中的弱人工智能仍处于决策标准化和平均化的水平,在满足学习者个体学习和发展的多样性和灵活性需求上存在局限性[11],这背离了人工智能促进个性化学习、精准化学习诊断和服务的初衷。

(三)新的人与人之间的教育伦理问题

如果说类人的教育伦理问题是人类教育伦理对类人行为的透视问题,那么人的教育伦理问题则是由于类人在教育场域中的植入而催生的新的人的行为以及人与人行为关系的再调整问题,主要涉及教育人工智能创建者与监测者的问责问题、施教者的角色调整问题和学习者的角色转换问题。

1. 教育人工智能创建者与监测者的问责问题

人工智能的设计开发人员(创建者)包括智能系统设计工程师、智能软件架构工程师、程序设计和开发工程师等。他们在进行教育类人的设计和开发过程中,一方面,需要保证教育人工智能系统的稳健性和安全性、智能决策结果的可解释性、智能算法的非歧视性和公平性,并且支持对教育类人不良行为后果的问责追因;另一方面,教育人工智能创建者所设计开发的类人教师或学习伙伴需要支持学生的主观能动性的激发,重视学生核心素养的培育。对此,教育类人的创建者肩负不同的伦理责任:智能系统设计工程师需要考虑不同使用对象在能力、需求及文化背景等方面的差异性,以向善的目的设计产品,谨防对使用者造成伤害与歧视;智能软件架构工程师需要遵照安全性、可靠性和透明性三大原则进行系统架构,保护用户个人数据的安全,保障智能系统运行的稳定,支持对教育人工智能不当表现的追踪问责;程序设计和开发工程师最重要的职责是秉承公平和公正的原则,设计无偏见的算法。

教育人工智能的监测者是负责对系统的一致性、安全性和公平性进行测试和审查的专业人员,主要包括制定教育人工智能标准的组织或人员、数据分析和维护专员等。通常在教育人工智能系统部署之初就开展安全性测试,而审查则是在系统启用之后,主要针对教育人工智能系统应用过程中的决策,通过对历史性数据的分析,从准确性、合理性和合法性三个方面对教育人工智能决策进行审查[11],并提出相应的整改措施。为了便于监测者审查,教育人工智能的创建者需要建立对系统作出的判断、决策、教学支持进行存储的机制和解释方案,从而在一定程度上监督和保证教育人工智能的设计、开发和使用符合特定的教育教学伦理要求。监测者在对教育人工智能系统的伦理规范进行审查之后,应该向系统的创建者反馈教育人工智能系统存在的伦理问题,并对其提出相关改进策略或建议。此外,考虑到监测员在履职过程中可能出现行为失范,因而有必要制定教育人工智能监测者的职业修养和道德标准,在此基础上建立监测员问责制。类人创建者与监测者的问责问题如图3所示。

图3 类人创建者与监测者的问责问题

2. 施教者的角色调整问题

人工智能教育场中施教者的角色调整主要包括施教者角色定位调整和角色内容调整两方面的问题。施教者角色定位调整主要指教师在新的人工智能教育场中重新定义自身角色地位及其与智能导师之间的关系;角色内容调整则指教师为了适应人工智能教育场中新的角色地位而在其工作内容上作出恰当改变,同时包括为了满足新的工作内容需求而对自身教育教学理念、知识结构和技能、职业道德修养等职业胜任力的更新和提升。人工智能教育场中的教学工作由人机协同开展,人工智能能够实现抽象知识可视化、智能出题批改、基于大数据的学习分析和资源推荐,人机协同担任施教者角色可以减少人类教师的重复性劳动,使其有更多的时间专注于育人的本体性活动。但是,施教者对人工智能技术的使用不能突破其角色定位和角色内容所规定的合乎价值和理性的限度,否则可能造成一系列新的伦理困境[13]。根据成因,这些伦理困境可归纳为两大类:一类是由于在教学实践中过分依赖人工智能使得教师身体缺位,掩盖教师在教育教学活动中的重要性,削弱教师的主体性地位而引发的伦理困境;另一类则主要是由于教师职业素养更新滞后于新的人工智能教育实践需求而引发的教师角色行为失德失范问题。例如:教师在利用人工智能采集和分析学生的学习行为数据的过程中,对学生隐私和个人信息安全的威胁,以及由于教师缺乏对人工智能决策机制的正确认识而导致的教育实践中所作出的可能有悖教育伦理准则的决策,等等。

3. 学习者的角色转换问题

长期沉浸在“超现实”的虚拟教育场,会使学习者的角色地位发生一些微妙的转换,由此将带来学习者群体的诸多伦理问题。其中,学习者“本我”与“非我”的主体性异位问题最为突出[14]。人工智能技术为学习者提供了一个客观地审视“我”的途径,人工智能提供的学习者画像让其逐渐接受“量化自我”的学习方式,但或许还不能形成正确“量化自我”的思维意识。学习者在人工智能分析自我、延展自我、增强自我功能的支持下,获得了放大自身个性的学习体验,形成与现实中的自我相差甚远的“虚拟人格”,这种“虚拟人格”不仅仅是“非我”,更是人工智能支持下的一种“超我”的存在,虽然“超我”与现实中的“本我”受同一个精神主体控制,但是人工智能可能使现实世界的主体将“超我”作为另一客体看待,由此可能导致学习者自我的现实性与虚拟性之间的张力和平衡被撕裂[15]

学习者“本我”与“非我”主体性异位不利于人工智能教育的正常开展,亦会阻碍学习者的认知发展,并将派生出一系列新的伦理问题:其一是过分趣悦化问题。人工智能创设的趣悦化教与学情境似乎在一定程度上可以降低认知负荷,但是有效学习必须承载一定的认知负荷,并且越是复杂知识的学习就越需要较高的内在负荷,过分趣悦化将会降低学生的学习质量。其二是知识产权问题。人工智能自动化生成的学习产出能否属于学习者本人的成果,如何界定该成果的产权归属,是否涉及诚信,对于上述问题,当前并没有形成统一的伦理规范[16]。其三是身体伤害和教育社会化体验降低问题。学习者长期与类人交互将从根本上改变传统以人—人交互为中心的教学生态,这是否会伤害学习者的身体健康,是否会减少与其他真实的学习者和施教者交互的机会,弱化学习者在真实生活情境中的学习体验,进而对他们的身心健康造成不良影响[17]

  四、人工智能教育伦理问题规约

从理论上来说,人工智能教育伦理问题规约的基本思想是以人类福祉追求为宗旨,采用自上而下、自下而上以及两者相结合综合运用的理路来解决问题。自上而下的智能教育伦理规约实际上是伦理问题解决的演绎路径,指的是以教育伦理的基本准则为依据,诊断、分析和解决人工智能教育伦理问题;自下而上的人工智能教育伦理规约实际上是伦理问题解决的归纳路径,指的是通过在人工智能教育伦理场景中,针对具体教育情境中的伦理问题,构建新的准则;当然也可以综合运用以上两种路径规约人工智能教育伦理问题。具体而言,人工智能教育伦理问题的规约可以从习俗迁移、规范构建、法律约束以及聚焦实践等方面开展综合治理。

(一)习俗迁移

教育是亘古的事业。人工智能教育既是对传统教育的发展,也是对传统教育的继承,同样,人工智能教育伦理也是兼具发展性与稳定性的伦理。教育的稳定性根源在于教育本质的恒定,无论在什么样的教育形态中,教育的育人本质不会变。从根本上来看,无论人工智能技术将来如何发展,学生和教师永远不会完全被机器取代,即教育永远是人教人的事业!那些认为教师抑或学生完全被机器人取代的论调,既不符合逻辑,也不符合常识。若教师和学生完全被取代,教育就没有存在的必要,“学生”只要被制造就可以了,需要教吗?若如此,人工智能教育伦理还有谈论的必要吗?

因此,不论教育如何改革,不论何种新型技术问世,我们必须坚守的就是立足教育本质,将传统的与教育本质密切相关的教育习俗迁移于新的人工智能教育形态之中,只有将教育本质习俗根植于每个人的内心,以此为根基规约类人行为,发展传统教育伦理体系,构建新的与人工智能教育相适应的伦理规范,才是我们的基本立场。

(二)规范构建

从本质上来看,人工智能教育伦理问题是随着人工智能技术的发展及其教育应用带来的新问题,或许我们可以从技术的角度考虑在一定程度上解决问题。

第一,植入伦理规则。我们可以借助新技术将伦理规则植入智能系统,作为类人必须执行的指令,并使得其在教育教学活动中习得人类伦理,不断完善自身伦理规则。需要特别注意的是,植入的伦理规则不能仅仅围绕人这个中心而忽视了机器人的特殊性,需要以人机伦理的适应性为前提,实现人与人工智能技术理性价值标准的相一致,因此,伦理规则的植入需要伦理学家、教育学家与人工智能设计人员共同参与、合力完成[18]

第二,人工干预。在伦理规则嵌入之后,仍然需要对其进行人工干预。由于人工智能具有复杂性、难预测性,所以,在伦理规则嵌入之后,还要对其进行不断的评估和调试,以便最后真的能建构成一套完备的伦理体系。需要特别注意的是,为了防止类人作出违反伦理规则的行为,在植入伦理规则的同时,还应该预留“切断开关”,以便遇到危机时能及时切断整个系统,从而保障安全。

(三)法律约束

针对人类与人工智能愈加模糊的人机界限,政府需要出台相关法律规定人工智能的角色地位,明确其权利与责任,并确定六类利益相关人员(智能系统创建者、智能系统使用者、智能系统监测员、智能决策主体和决策执行者、数据主体)[19]的权利与责任,以保证人工智能系统的稳定性、透明性和可解释性。考虑到人工智能教育伦理问题的复杂性,其治理涉及社会不同层面,治理范围大并且技术专业性极强,仅靠立法难免顾此失彼,因此,在法律约束的基础上,仍然需要政府、非政府组织与个人之间开展合作,紧密配合、协同治理。

(四)聚焦实践

教育存在中不可或缺的活动以及与这些活动密切联系在一起的情感,是伦理生活的“宇宙根源”。当法律、伦理准则以及习俗都不能保证人与类人的行为具有规范性时,具体情境中的以解决教育痛点问题、关键问题为导向的向善的人工智能教育实践活动就体现出了它们的力量。实际上,这也是应对智能教育伦理挑战的根本出路。可以这样认为,包括人工智能教育伦理问题在内的所有人工智能伦理问题的根源就在于人工智能的智慧不足。若类人的人工智能智慧与人类相当或接近,那么问题反倒简单了,我们依据人的教育伦理规约即可。问题是与我们相处的是一些类人,或者更准确地说是一些有特殊才能的类人,而且类人是多样的、复杂的,更为重要的是,它们还是不断“进化”的,由此,习俗迁移、规范建立、法律约束都可能滞后于火热的人工智能教育实践。因此,聚焦人工智能教育实践,聚焦现实的、真实的问题解决,在技术上精进发展,使人工智能更具智慧,使类人更像人,在教育上人类与类人统力合作,为人类的美好未来努力奋斗,才是应对弱人工智能教育伦理挑战的根本出路。

  五、结 语

当前学界关于弱人工智能教育伦理问题的考量并没有脱离“人类中心主义”的思维范式。在这种思维范式中,尽管我们考虑到了主体人的发展性,考虑到了类人对人的影响性,但是,总体而言,我们依然是以人为界的。以人为界讨论弱人工智能教育伦理是没有问题的,毕竟我们都是历史的、具体的人,到目前为止,我们所认识的世界依然是以人类为中心的世界。问题是当我们仰望浩瀚的星空,将人工智能教育伦理问题置于波澜壮阔的物质运动历史之中,不难发现“人为上帝”之界终将被突破。这并不是说人工智能最终一定会完全替代人类,而是说旧人类一定会被新人类取代。新人类或许就是碳基生命与硅基生命融合生成的“奇点人”[20]。若如此,强人工智能抑或超人工智能教育伦理问题又会是一个怎样的情形?这自然已经超越了我们的想象。然而,未来已来,对处于从弱人工智能到强人工智能窗口期的人类,审慎乐观、密切关注、积极应对类人的发展,尤其是要聚精会神于人与类人的融合发展,或许是我们的唯一选择。

【参考文献】

[1] 吴河江,涂艳国,谭轹纱.人工智能时代的教育风险及其规避[J].现代教育技术,2020,30(4):18-24.

[2] 杜静,黄荣怀,李政璇,周伟,田阳.智能教育时代下人工智能伦理的内涵与建构原则[J].电化教育研究,2019(7):21-29.

[3] 冯锐,孙佳晶,孙发勤.人工智能在教育应用中的伦理风险与理性抉择[J].远程教育杂志,2020(3):47-54.

[4] 中国社会科学院语言研究所词典编辑室.现代汉语词典[M].3版.北京:商务印书馆,1996:852.

[5] 罗素.西方哲学史[M].何兆武,李约瑟,译.北京:商务印书馆,1982:178.

[6] ANDERSON M, ANDERSON S, ARMEN C. Towards machine ethics:implementing two action-based ethical theories[C]// ANDERSON M, ANDERSON S, ARMEN C. Machine ethics:papers from the AAAI Fall Symposium, Technical Report FS-05-06. Menlo Park:AAAI Press, 2005:1-7.

[7] 李波,李伦.技术信息超现实问题的伦理反思——基于伯格曼的技术哲学和信息哲学[J].自然辩证法研究,2017(2):32-34.

[8] VERBEEK P P. Devices of engagement:on Borgmann's philosophy of information and technology[J]. Techné:research in philosophy and technology, 2002, 6( 1):48-63.

[9] 刘晓琳,张立国.技术增强型学习环境中的“离心效应”:现象、成因及破解[J].电化教育研究,2019(12):44-50.

[10] BOURGMANN A. Holding onto reality:the nature of information at the turn of the millennium[M]. Chicago:University of Chicago Press, 1999:83.

[11] 邓国民,李梅.教育人工智能伦理问题与伦理原则探讨[J].电化教育研究,2020(6):39-45.

[12] TUOMI I. The impact of artificial intelligence on learning, teaching, and education:policies for the future[M]. Luxembourg:Publications Office of the European Union, 2018:73.

[13] 刘磊,刘瑞.人工智能时代的教师角色转变:困境与突围——基于海德格尔技术哲学视角[J].开放教育研究,2020(3):44-50.

[14] 范国睿.智能时代的教师角色[J].教育发展研究,2018(10):69-74.

[15] 孙田琳子.虚拟现实教育应用的伦理反思——基于伯格曼技术哲学视角[J].电化教育研究,2020(9):48-54.

[16] DAVIES C R. An evolutionary step in intellectual property rights-artificial intelligence and intellectual property[J]. Computer law & security review,2011,27(6):601-619.

[17] 刘霞.人工智能时代师生关系的伦理审视[J].教师教育研究,2020(2):7-12.

[18] 张峥嵘,楚国锋.互联网背景下人工智能发展中的伦理研究[J].网络安全技术与应用,2020(12):140-141.

[19] TOMSETT R, BRAINES D, HARBORNE D, et al. Interpretable to whom? A role-based model for analyzing interpretable machine learning systems[C]//Proceedings of the 2018 ICML Workshop on Human Interpretability in Machine Learning. Stockholm:CoRR, 2018:8-14.

[20] 吕乃基.大历史观视野下的人工智能[J].系统科学学报,2016(4):1-10.

(本文作者张立国、刘晓琳、 常家硕,单位系陕西师范大学教育学部)

来源:电化教育研究

(0)

相关推荐