教育场景中情感计算的应用风险及其法律规制

【www.zhangdahai.com--其他范文】

龚善要

(东南大学法学院,江苏 南京 211189)

研究表明,情感计算在教育场景中的应用具有支持学习干预、辅助教育决策、提升学习效果与满意度等积极功能。因而,早在2016 年,情感计算就被新媒体联盟(New Media Consortium,NMC)发布的《地平线报告》评为长期(4-5年)广泛应用的技术。近年来,随着情感计算技术在教育领域的深度融合,情感计算被认为是促进教育个性化、智能化发展的重要技术支撑,成为人工智能和教育领域的交叉研究热点[1]。然而,相较于人脸识别、语音识别、图像识别等人工智能技术,教育场景中的情感计算不仅存在更强的技术漏洞、具有更为显著的侵权风险,甚至还偏离了教育求真的终极目的,在底层技术、权利保护以及教育伦理领域诱发多重风险,产生显著的“反噬效应”。因此,亟须构建一套面向情感计算的,统筹技术、权利、伦理多重风险的制度化规制方案

(一)教育场景中情感计算的技术依赖性

教育场景中情感计算的实践应用需要依靠基本情感理论、多源数据融合以及深度学习算法的支撑,因而呈现出显著的技术依赖特征。首先,教育场景中的情感计算具有对基本情感理论的依赖性。情感计算的产生与应用是基于心理学家保罗·埃克曼(Paul Ekman)在1970 年提出的基本情感理论而展开的。根据这一理论,情感与面部表情之间具有普遍性的联系,通过对面部表情的变化予以标记可以识别出人们内在情绪的变化[2]。在此基础上,教育场景中的情感计算虽然予以了一定程度的领域性改造,但在底层的技术逻辑上仍然是基于基本情感理论而展开的。例如,控制-价值理论、认知情感理论、OCC 模型和情感动力模型等教育情感计算模型本质上均是基于情感与表情特征的普遍联系而进行的领域化拓展。其次,教育场景中情感计算的应用依赖于对行为数据、表情数据、心理数据等多源数据的融合。有研究指出,与单模态相比,多模态下的情感计算在准确率与效率上具有显著优势[3]。因此,多源多模态的学习情感分析逐渐代替单一数据源的分析,数据融合成为当前学习情感计算的有效方法[4]。事实上,随着最近几年可穿戴设备的快速发展,心率、血压等生理特征的数据获取也成为可能[5]。因而,借助摄像、录音、眼动仪、可穿戴设备等智能化工具实现对行为数据、生理数据、表情数据等多通道信息的融合计算已经成为情感数据采集的主流手段。最后,随着大数据与人工智能的技术进步,情感计算开始与卷积神经网络、贝叶斯网络算法等智能化算法深度绑定,呈现出对算法的高度依赖性。例如,面对大规模数据集,有研究采用深度学习与机器学习算法对6.6 万条课程评论进行情感分析[6],在智能学习系统设计中选择OCC 模型的事件结果评价标准,就需要借助贝叶斯网络算法对学习情感进行推理及预测[7],在多源数据融合上也需要借助卷积神经网络提升情感计算的结果准确性。总之,在技术层面,教育场景中的情感计算呈现出显著的技术依赖性特征。

(二)教育场景中情感计算的权利侵入性

教育场景中情感计算的应用本质上是对受教育者情绪的识别,并在此基础上施加干预与影响以实现对教育效果的提升。因此,不同于人脸识别、语音识别、图像识别等技术在教育场景中的应用,情感计算具有更强的尊严侵犯性与自由干预性。具体而言,从道德哲学的视角观察,以休莫为代表的情感论者认为,道德和道德判断的根据在于情感[8]。甚至还有观点认为,情感不过就是思想和认知,生气事实上就是判断一些人错误地对待了你,并且导致人的尊严受到侵犯[9]。这也就表明,情感在一定程度上决定着道德的判断与行为的选择。换言之,情感与体现人格尊严的自由意志密切相关,对情感的识别、干预与影响具有强烈的侵入性。事实上,这一点从哲学思想史上也可以得到证明。如皮科在关于人的尊严的论述中就曾阐述到,人在本性上的自由就在于可以自由地支配自我、塑造自身。在康德那里,只有道德以及与道德相适应的人性,才是具有尊严的东西[10],体现自由意志的理性构成了尊严的基础。黑格尔在关于尊严的论述上认为,尊严的基础就在于它涉及一个为我而在的不可触动的领域[11],也即,“尊严是自由和道德的自为存在及其不可触动的前提,人享有尊严,才成为自由人”[12]。也正因如此,2021 年 4 月 21 日欧盟委员会向欧洲议会和欧洲理事会提交的《关于人工智能(人工智能法案)的协调规则和修改某些联盟立法法案的条例的提案》就将“情绪识别系统”视为“高风险”应用,需要接受“从摇篮到坟墓”全生命周期的严格监管。总之,教育场景中情感计算的应用会对受教育者的人格尊严与自由进行干预,具有显著的侵入性特征。

(三)教育场景中情感计算的地位关键性

2019 年中共中央、国务院印发的《中国教育现代化2035》明确指出,利用现代技术加快推动人才培养模式改革,实现规模化教育与个性化培养的有机结合。因此,情感计算得以在教育场景内广泛应用并呈现出地位的关键性特征。具体而言,这种关键性主要表现在如下两个方面:一方面,以情感计算为代表的智能化技术是提升教育供给的关键力量。随着信息技术的迅速发展以及对教育领域的不断渗透,技术在革新传统教育模式的同时,也营造了全新的学习环境[13],尤其是步入教育信息化2.0时代之后,大数据、区块链、情感计算等人工智能技术的深入应用不仅使得教育供给的效率得到有效提升,也提升了教育供给的精准化水平。例如,新东方推出的“AI双师课堂”就可以通过“慧眼系统”模型实现对学生高兴、悲哀、惊讶、正常、愤怒等情绪的识别,进而实现教学质量的提升[14]。面向K12教育研发的EduBrain教学分析系统模型可以通过面部表情识别及语音情绪识别等情感计算技术,感知学习者上课时的情感变化,判断学习者对当前学习内容的理解掌握情况以及对教师授课风格的喜好程度,进而实现个性化教学目的[15]。另一方面,情感计算是大数据智能时代增强教育情感互动的关键技术。后疫情时代,在线教育已经成为规模化教育教学的有效补充形式,然而如何解决在线课程师生及生生间的“温度”问题成为当前所必须予以解决的时代问题[16]。事实上,情感计算技术的利用有助于促进在线学习者和虚拟化身之间的情感交互。例如,在情感计算教育应用的早期阶段,情感计算很大程度上是为远程教育服务,“情感模型”的构建旨在促使远程课堂的内容与学习者的学习形式更加丰富而富有成效,促使师生情感交互的方式更加自然和谐[17]。一言以蔽之,现阶段情感计算在教育领域的应用不再局限于单一的工具辅助功能,在促进教育供给、情感交互等领域,情感计算都具有无可替代的作用,呈现出地位的关键性特征。

(一)教育场景中情感计算的技术风险

鉴于教育领域情感计算对技术的依赖性特征,在现有的实践中,教育场景中的情感计算至少在技术层面存在如下三种风险:

其一,作为情感计算底层逻辑的“基本情感理论”尚未达成共识,在此基础上建构的技术应用也因而存有疑问。详言之,“基本情感理论”所构建的情绪关联关系并未得到广泛的共识,面部表情、肢体行为以及生理特征与情绪之间并非绝对的一一对应的关系。例如,有研究就揭示出愤怒、恐惧的情绪与面部表情之间就不存在显著的对应关系[18],并非像理论假设的那样具有普遍性。还有研究指出,受制于生理数据的复杂性,数据与情绪之间的关联关系难以被有效证明[19],用户自身甚至都无法借用语言表达出自己所拥有的情绪,在此背景下,情感评估本身就极具挑战性[20],在无法准确评估情感的前提下也不能实现精准的情感识别。

其二,教育领域内对情感数据的获取并非理想状态下的精准无误。事实上,受数据收集设备与个人生理差异的影响,情感计算的数据收集仍然面临诸如信道噪声、语音数据等因素的挑战[21]。例如,智能穿戴设备对生理信息的收集主要是通过LED 闪光灯、摄像头来实现对心率变化的数据采集,相较于临床医学的心电图检测而言,穿戴设备的数据采集并不能实现理想状态下的准确性。整体而言,现阶段数据收集的准确性尚未达到理想状态,情感数据的收集面临偏差风险。

其三,鉴于现有算法下的情感计算技术应用难以实现对情感的精准识别,情感计算的结果存在一定的偏差风险。例如有研究就指出,受场景照明、摄像机视角、图像分辨率、背景、用户头部姿势、性别和种族等环境因素的影响,目前阶段的面部表情自动识别系统(FER)所标识出的情绪都呈现出显著的差异性[22]。美国部分学校、监狱、银行安装的由Sound intelligence公司提供的情感计算软件在实践的过程中就可能将诸如咳嗽这样的粗糙、高音调的声音误判为具有攻击性的情绪[23]。除此之外,还有研究指出,基于情感计算研发的Face++和Face API 两款软件会给特定的人群分配出更多的消极情绪得分[24]。总之,不论在理论基础、数据采集还是算法预测的最终结果上,情感计算都不是完美无瑕的,技术本身存在显著的风险。

(二)教育场景中情感计算的侵权风险

鉴于情感计算对人格尊严与自由的侵入性特征,情感计算的技术应用也将引起对隐私权、个人信息权及受教育权的不当侵入,进而诱发显著的侵权风险。

首先,情感计算在教育场景中的应用涉嫌对学生隐私权的侵犯。从权利的客体来看,包括精神状况、家庭状况、身体状况等,凡是个人不愿意公开披露且不涉及公共利益的部分都可以成为个人隐私[25]。“教学空间虽不是私人空间,但也有隐私诉求。”[26]因此,出于对个性价值、教育价值以及自我价值的促进与实现,有必要突破“家长主义”的桎梏,尊重并保护学生隐私权[27]。然而,从技术运行的逻辑上看,情感计算的实践应用是对学生情绪的自动化、批量化的实时抓取与分析,这种对学生精神空间的公开“窥探”事实上就是对隐私权的侵犯。

其次,情感计算在教育场景中的应用具有对个人信息权的侵犯风险。个人信息权既有属于隐私的内容,也包括未必能称作隐私的内容,个人信息权基于隐私权而发展出个人信息自我控制的独立渊源[28]。正因如此,《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)、《中华人民共和国民法典》(以下简称《民法典》)、《中华人民共和国数据安全法》(以下简称《数据安全法》)等一系列法律也都对个人信息予以了法定化保护,尤其是《个人信息保护法》更是对未成年人的个人信息予以了特别规定。在此基础上,尽管喜、怒、恐慌、惊讶等情绪并不具有识别个人身份的功能,但情感计算中智能穿戴设备所收集的心率、血压等敏感信息数据,或者某些情感数据结合其他信息与个人身份关联,则仍然符合我国现行法律规范中的“个人信息”规定[29]。因此,教育场景中基于情绪识别、收集和处理的情感计算技术应用也就具有了对个人信息权的侵犯风险。

最后,情感计算在教育场景中的应用可能会对公民的受教育权造成一定的侵犯风险。受教育权是宪法所规定的一项基本权利,具有社会属性与自由属性兼具的综合属性。其中,受教育权的自由属性表明,公民为实现人格的充分发展,对个体的发展目标和方向、学习内容和形式等方面必须具有一定的自主决定和选择权[30]。在尚未赋予学生、家长等监护人选择权的前提下,情感计算的常态化应用就有可能与教育自由的基本理念相违背,不当剥夺受教育者学习方式的自主选择权,进而引发对公民受教育权的侵犯。

(三)教育场景中情感计算的伦理风险

情感计算在教育场景中所处的关键性地位不仅弱化了教育过程中“人”的主体性,也极有可能偏离教育求真的终极目标,进而诱发伦理风险。

一方面,教育场景中情感计算应用的关键性可能会弱化教育场景中“人”的主体地位。现代教育主张教育者和受教育者是一种主体间的交往实践关系,二者之间广泛存在着相互联系与交互影响[31]。由此,教育的过程事实上也就是以语言为中介,围绕教育内容的一个交流对话的过程[32]。在这一过程中,一切的教育活动始终以教育者和受教育者为中心而展开,“人”是教育的主体,并掌控、操作整个教育活动。但是,随着情感计算在教育场景中的应用,传统教育中的情感表达便由“人—人”模式演变为“人—技术—人”这种新型模式,在此模式下,技术既负责对受教育者的情感收集与传递,又负责对教育者进行情感的分析与反馈,教育场景中的教育者与受教育者不再是教育情感传递与反馈的直接主体,而是成为技术“中介”的服务对象。这种角色的转变不仅让“人(教育者和受教育者)”的主体性地位随之弱化,开始依赖于技术,使得技术逐渐演变为新型主体,甚至还使得技术在“中立”“客观”“理性”的外衣下开始实现对“人”的奴役。

另一方面,教育场景中情感计算的关键性地位可能会偏离教育求真的终极目的,不利于学生的自我呈现与全面发展。人对社会与自然的认知与改造并不是随心所欲的,而是基于社会与自然运行的规律而进行的。对社会与自然进行认知与改造的前提就是准确把握社会与自然的运行规律,“而这一前提的前提,是人必须具备的求真条件”。因此,教育最为基本的职能之一便是教人求真[33]。教育是人的灵魂的教育,不是理智知识与认知的堆积[34],教育的本质在于提高生命质量和提高生命的价值,旨在通过教育提高个人的生存能力、思想品德和才能[32],促进人的全面发展。从功能上看,情感计算在教育场景中的应用旨在通过对情感变化的捕捉与分析促进教育方案的个性化与教学管理的科学化。但是,基于情感变化的教育方案极有可能诱发受教育者进行情绪整饰[35],呈现出积极情绪的“整饰性”情感,进而迷惑或者迎合教育者/教育管理者的心态,阻碍学生自我的呈现[16]。毫无疑问,“整饰性”的情感显然与“求真”的教育目的不相符合。此外,现阶段情感计算在教育场景中的应用更多局限于对“理性知识与认知”的助力,其目的仅限于帮助受教育者更好地掌握知识技能。在此背景下,情感计算在教育场景中的应用难以实现对“人的灵魂的教育”,因而也无法促进人的全面发展。总之,情感计算在教育场景中的关键性地位不仅会引发技术与权利层面的风险,还会导致教育的伦理风险。

不论是从底层技术层面、权利保护层面还是教育伦理层面而言,教育场景中情感计算的应用风险都已是一种客观存在。面对教育个性化、智能化发展的时代趋势,如何实现情感计算的理性应用就成为一个亟待解决的时代课题。鉴于法律通常以教义学的规则和方式为现实而紧迫的实践问题提供有效的、统一的答案[36],对教育场景中情感计算的风险规制可以基于法律的视角展开。

(一)基于法律规则的技术风险规制

依据凯尔森纯粹法理论的观点,法律是一种“法律规则的体系”,而法律规则具有防范风险的天然功能。因此,可以通过对法律最小单元的规则加以完善,实现对技术风险的法律规制。

通说认为,在逻辑结构上,法律规则由假定、行为模式、法律后果三个部分构成。其中,(1)假定分别指向法律规则的适用条件和行为主体的行为条件这两个维度;
(2)行为模式分别对应可为模式、应为模式、勿为模式三种类型;
(3)法律后果则分别指明肯定性法律后果与否定性法律后果两个方面[37]。不难发现,法律规则中“假定”与“行为模式”天然地将风险事件、行为进行了规范性预设,并通过“结果模式”对触发的风险进行评价,进而实现对风险的规制。这也就表明,可以通过法律规则的完善实现对技术应用风险的积极回应,并在此基础上予以规制。事实上,面对风险社会的到来,各个国家都开始从技术鼓励、政策应对逐步走向制度规制[38],国际社会进入到一个前所未有的立法时代[39]。例如,我国为应对大数据信息时代对个人信息的冲击,相继在《民法典》《个人信息保护法》《数据安全法》等一系列法律中对个人信息予以了全面化规定。在教育领域,仅在2021年我国就相继制定了《中华人民共和国家庭教育促进法》(以下简称《家庭教育促进法》)、修订了《中华人民共和国教育法》,这两部法律都与教育密切相关。其中,《家庭教育促进法》被认为是适应信息社会、促进教育与时俱进、对未来教育发展具有重要意义的一部重要法律[40]。因此,可以通过对法律规则的完善积极回应教育场景中情感计算的技术风险。

具体而言,对于教育场景中情感计算应用风险相关法律规则的完善可以分别从立法论与解释论两个维度展开。在立法论上,积极、适时启动相关法律法规的修订程序,通过对相关法律法规的完善回应教育场景中情感计算所存在的应用风险。例如,2020年11月美国联邦政府就对1984 年颁布的《学生权益保护法》进行了修订,以增强对受教育者的数据隐私安全的保护。在此基础上,我国也可以适时展开对《教育法》《义务教育法》等相关法律的修订工作,回应技术应用的现实风险。在解释论上,通过对现有法律的教义学解释,尽可能地将情感计算的技术风险纳入法律法规的规范范围。事实上,法律适用的推演过程必然与法律解释相伴随[41]。“法学的历史就是法解释的历史,自然法学派、概念法学派、自由法学派、分析法学派等各种学派之间的区别,无非是在解释理念与解释方法上的区别。”[42]对现行法律的解释不仅可以增强法律的时代适应性,也可以为风险的防范提供及时的规制方案。

总之,面对教育场景中情感计算应用的技术风险,可以通过对法律规则的完善予以积极回应,并在此基础上实现对风险的规制。

(二)基于法律关系的侵权风险规制

现代意义上的法律关系通常是指法律调整社会所形成的权利义务关系、权力责任关系[43]。理论上,通过法律实现的权利和义务为个体提供了一种确定性的指引,这种指引在极大程度上有助于化解危机、消弭风险[44]。通过对一般法律关系的构建可以实现对不同主体、不同类型的权力与权利之间的制约,有助于从根本上实现对社会主要矛盾的化解[45]。表面上看,教育场景中情感计算的侵权风险是对隐私权、个人信息权以及受教育权的保护不力所致,但事实上,不同权利侵犯的背后则是对权利-义务(例如学生隐私权利-国家提供个性化教育义务)、权力-责任(学校教学管理权力-侵权责任承担)的调配失衡。因此,对教育场景中情感计算侵权风险的规制可以基于权利-义务、权力-责任的法律关系而展开。

具体而言,基于法律关系的侵权风险规制可以作出如下安排:首先,建立以事前同意为前提的权利保护制度。前文已经提及,情感计算在教育领域的应用可能会对学生的隐私权、个人信息权、受教育权等权利构成侵犯。从法律属性出发,上述权利一定程度上均是对人格尊严的保护,强调对自决权的保障。以个人信息权为例,个人信息权在本质上属于人格权的范畴,是对人格尊严的保护。这也就意味着,作为主体的人有权决定其个人信息是否被公开、如何公开以及公开至何种程度。因此,教育场景中情感计算的应用也需要建立以事前同意为中心的保护制度。在这里需要注意的是,并非所有的人都在同等程度上——尤其不是在所有年龄和所有情况下——均被赋予自我决定能力[46],因而,除了受教育者外,教育场景中的情感计算也可以在家长或者其监护人同意的前提下启动。其次,构建以权力规制为中心的事中监管制度。权力规制是指通过对学校教育管理权力的监管实现对侵入风险的防范。例如,公民依法享有要求国家积极提供均等的受教育条件和机会的权利[47]。一旦将情感计算作为教育准入资格的参考标准,事实上也就是将情感计算的结论作为“剥夺”个人基本权利的直接依据,使得特定群体在整个社会交往环境中处于特别被动的地位[29]。因此,通过对教育教学权力的监管严禁将情感计算应用于教育准入资格领域,防范情感计算的技术应用所导致的对受教育权的侵犯。最后,明确侵权责任的承担。情感计算的技术应用在未能如实遵守法定程序的前提下也可能导致侵权,进而引起对应的赔偿义务。在此背景下,需要根据情感计算的事前同意、权力监管的不同主体来区分责任的承担方式,实现对责任的精准追究。总之,基于法律关系内容的设定可以实现对教育场景中情感计算侵权风险的规制。

(三)基于法律原则的伦理风险规制

从伦理角度看,法律原则通常是维系社会存在的最低限度或极具共识的道德要求[48],与规则相比,法律原则是以内容为取向的,它所提供的是一种实质性理由,往往都会直接或间接地表达某种政治道德价值[49]。因此,法律原则在为社会伦理原则进入法律规范体系开启通道的同时,也可以将不当的法外因素阻挡于法律体系之外[50],进而实现对伦理风险的规制作用。在此背景下,对于教育场景中情感计算的伦理风险,可以通过法律原则的设定实现应有的规制。例如,面对教育求真的终极目标,可以通过合目的性原则为技术的应用设定必要的边界,不得将其应用于对学生的日常管理工作。详言之,学校教育除了日常的课堂教学外,还包括对学生的管理工作。2017 年12 月4 日由教育部印发并实施的《义务教育学校管理标准》第18 条规定,教育遵循教育规律和学生身心发展规律,帮助学生掌握科学的学习方法,养成良好的学习习惯。然而,情感计算在日常管理层面的大范围应用就可能导致学生故意表现出积极的情绪特征,养成“整饰性”情感,从而不利于其身心健康的发展。因此,尽管情感计算有助于实现教育的个性化,但出于教育求真的目的,也不应将情感计算应用在教学管理场景中。

一直以来,教育始终是技术最为常态化的应用场景,技术在促进教育公平、提高教育质量方面更是具有不可替代的功能。然而,情感计算在应用的对象与内容上都是以“人”为中心的,突出对人内在情绪的感知、识别与干预,与人格尊严具有最为密切的联系。在技术发展尚未完全成熟的前提下,教育领域对情感计算的大范围、常态化的应用不仅会进一步“放大”技术风险,而且会对人格尊严造成不可逆的损害。更为重要的是,在技术风险与法律风险的双重叠加、融合下,情感计算在教育领域的应用还可能对教育本身造成“反噬”效应。因此,借助具有强制力的法律途径以实现对情感计算教育应用的规制就显得极为必要。事实上,在大数据、人工智能与教育领域深度融合的当下,技术应用的积极作用与消极风险已然成为一种伴生关系,对情感计算的法律规制一定程度上也是对当前教育领域技术应用的法律层面的反思。当然,本文主要是基于风险规制的一种法律思考,其目的在于提倡情感计算在教育领域的谨慎应用,防止对技术应用的盲目乐观。事实上,如何在既有法律框架下,从教育的视角出发,实现技术与教育之间的双向良性发展也尤为重要,对此亟待开展进一步的细化研究。

猜你喜欢 规制个人信息法律 如何保护劳动者的个人信息?工会博览(2022年16期)2022-07-16个人信息保护进入“法时代”今日农业(2022年1期)2022-06-01主动退市规制的德国经验与启示南大法学(2021年4期)2021-03-23法律解释与自然法法律方法(2021年3期)2021-03-16警惕个人信息泄露绿色中国(2019年14期)2019-11-26共享经济下网约车规制问题的思考消费导刊(2018年8期)2018-05-25浅谈虚假广告的法律规制消费导刊(2017年20期)2018-01-03让人死亡的法律山东青年(2016年1期)2016-02-28“互助献血”质疑声背后的法律困惑中国卫生(2015年1期)2015-11-16让法律做主浙江人大(2014年5期)2014-03-20

推荐访问:规制 风险 计算

本文来源:http://www.zhangdahai.com/shiyongfanwen/qitafanwen/2023/0807/636545.html

  • 相关内容
  • 热门专题
  • 网站地图- 手机版
  • Copyright @ www.zhangdahai.com 大海范文网 All Rights Reserved 黔ICP备2021006551号
  • 免责声明:大海范文网部分信息来自互联网,并不带表本站观点!若侵害了您的利益,请联系我们,我们将在48小时内删除!