-
日期: 2026-02-08 | 来源: 新京报书评周刊 | 有0人参与评论 | 字体: 小 中 大
自近代早期以来,在自然科学的影响下,通过精密技术增加法律的确定性,以自动化的法律机器排除法律适用中人类因素的影响,一直就是许多思想家的梦想。其形态诚如二十世纪初马克思·韦伯所述:“现代法官就像一台自动售货机,人们把文件和费用从上面扔进去,法官就会从下面吐出判决书和多少具有说服力的理由。”我们在日常语言中经常见到“情理法”三者并用,或是“法不容情”这样的表述。法官的恣意、大众的情绪在法律适用中往往都是被作为负面因素看待的,所以必须通过法律和程序加以约束。
而在计算法律学的视野下,为了便于人工智能技术在法律领域更普遍的应用,未来的立法应该具有充分的技术意识,尽可能采用计算机能够识别和理解的方式加以表述。然而到目前为止,在全世界范围内,完全自动化的情形只在少数行政领域得到了明确的允许,这些领域的行政决定往往数量众多、规则清晰且是反复出现的同类案件。鉴于法律本身是一种带有价值导向的体系,法律的语言中存在模糊之处,因此当规范通过数据或者计算机程序进行转译时,有可能存在价值上的损失,甚至以数据驱动的自我学习的人工智能系统,可能会引入数据中存在的偏见。所以当涉及到模糊的语言、开放的文本和价值权衡的时候,应该禁止由人工智能系统完全自动作出决定,当决定关系到宪法上所保护的重要权利时尤其应该如此。最典型的如德国《行政程序法》第35a条和欧盟《人工智能法》第5条关于禁止使用人工智能的情形。
即便前述问题可以经过技术迭代得到解决,人工智能的自动化决定取代人工决定,还意味着“同理心”无法在法律适用中发挥作用。同理心并非一种情感,而是一种能够承认、回应和理解他人处境的能力,当涉及到少数弱势群体时更是如此。所以影片中一个颇为令人回味的情节是,人工智能法庭的建设者和执行者雷文警官,最终自己坐到了被告席上,让其与其他十八起案件的被告“感同身受”。同理心是目前尚未发展出(或许永远也无法发展出)人类情感的人工智能所不具备的。当然,如同所有人类的情绪一样,同理心更容易在具有相同身份的人之间产生,即“像我”,同理心也意味着其可能产生偏袒。但是真正的问题不是应否发挥同理心的作用,而是如何防止同理心被滥用。
电影《极限审判》剧照。
从人机对抗
到人机合作
人类和人工智能的相处方式并非只有彼此替代一种模式,影片还给我们展示了从人机对话到人机合作的模式,善加利用人工智能当然可以增强人类自身的能力。雷文警官利用自己身为专业执法人员的直觉和理性冷峻的人工智能法官,从最初的法律论证,即雷文警官是否有罪,发展到协作寻找案件真相,最后则是合作阻止犯罪的发生。
直觉是一种让人瞬间感知和快速反应的能力,雷文警官的直觉告诉他哪里不对劲,但直觉往往是跳跃的,缺少细节和证据的支撑;人工智能法官马多克斯则运用理性分析的过程,逐个排除相关因素,预测引爆装置失效的概率。人工智能所缺少的关键功能正是像人类一样的意识和情感,人工智能也无法应对系统中没有预先设定程序的突发事件。即便是目前拟人化人工智能所提供的情感共鸣,也只是基于数据的模拟。因此人工智能技术的努力方向之一就是模拟人类的情感和直觉。当雷文谈到自己对妻子的爱时,马多克斯甚至以嘲弄的口气说那不过是一种因为多巴胺分泌所带来的生理现象,而作为一种生理现象就是可观察和感知的。
但在影片的最后,人工智能法官马多克斯似乎呈现出惊讶、慌乱甚至被雷文的恳求所打动,当载有雷文女儿的卡车冲向Mercy法庭时,人类的应对方式是毫无情感的理性计算,决定摧毁卡车以保全人工智能法庭,而马多克斯似乎利用自己的能力让爆炸装置失灵了。尘埃落定之际,雷文反问了一句:我们全都是按照规定的流程行事的?或许对于人工智能来说是如此,然而人生不可能是被预先设定或可被随意改写的程序代码,也不完全是行走在预定的轨道上,人生是五颜六色的,每个人都需要有情感来填补内心深处的空隙。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见