让 AI 取代真人执法可行吗?将判断全交给 AI 可能隐藏什麽危险?——专访中研院欧美研究所陈弘儒助研究员

—–广告,请继续往下阅读—–

本文转载自中央研究院「研之有物」,为「中研院广告」

  • 采访撰文|刘韦佐
  • 责任编辑|田偲妤
  • 美术设计|蔡宛洁

人工智慧将改变以人为主的法治领域?

交通尖峰时段,後方出现一台救护车,你愿意闯红灯让道吗?
图|iStock

想像有一天你正在尖峰时段开车,车子停在十字路口等红灯时,後方出现一辆急驶而来的救护车,你为了让道必须开过停止线。这时你是否愿意冒着违规被开罚的风险?还是承担风险以换取他人尽速就医?

在上述情境中,针对「要不要闯红灯」我们经历了一段价值判断过程。如果刚好十字路口有真人警察,他的判断可能是:这是情急之下不得不的行为,并非蓄意违规。

然而,如果负责执法的是「法律人工智慧系统」(Artificially legal intelligent,简称 ALI)情况可能截然不同。

—–广告,请继续往下阅读—–

ALI 这个词源自Mireille Hildebrandt 的研究,在概念上可区分为两类:采取传统程式码的 IFTTT(if this then that)、运用机器学习的资料驱动。前者是注重法律推理或论证的计算机模型,将法律规范转为程式码,藉由程式编写来执行法律任务。後者则透过大量资料的学习,来预测行为范式,用於再犯率、判决结果预测上有较好的成果。

一般情况下,应用在交通管制的 ALI 会辨识车辆是否超速、闯红灯等违规行为,不过交通情境千变万化,ALI 能否做出包含「道德价值的判断」将是一大挑战!

中研院欧美研究所陈弘儒助研究员察觉,人工智慧(AI)正在左右人们对守法的价值判断及背後的因果结构,进而反思当我们将原本由人来判断的事项,全权交由 AI 来执行时,可能产生哪些潜移默化的影响?

让我们与陈弘儒展开一场从法哲学出发的对话,探索 AI 与法治价值之间的紧张关系。

—–广告,请继续往下阅读—– 中研院欧美研究所陈弘儒助研究员,从法哲学出发,探索 AI 与法治价值之间的紧张关系。
图|研之有物

怎麽会对「人工智慧」(AI)与「法律人工智慧系统」(ALI)产生研究兴趣?

会对 AI 感兴趣是因为我很早就对电脑有兴趣,我原本大学想念资讯工程,因为高中有些科目没办法念,於是去念文组,大学进入法律系就读,研究所考入「基础法学组」研读法哲学。

後来我到美国读书,当时AlphaGo的新闻造成很大的轰动,启发我思考 AI 的应用应该有些法律课题值得探讨,於是开始爬梳 AI 与法律的发展脉络。

AI 这个词大概在 1950 年代被提出,而 AI 与法律相关的讨论则在 1970、80 年代就有学者开始思考:我们能否将法律推理过程电脑程式化,让电脑做出跟法律人一样的判断?

这让我好奇:如果未来广泛应用 AI 执法,法律或受法律规范的民众会怎麽转变?

—–广告,请继续往下阅读—–

至於真正开始研究「法律人工智慧系统」(ALI)是受到我父亲的启发。有一阵子我经常开车南北往返,有一天我跟父亲聊到用区间测速执法的议题。交通部曾在万里隧道使用区间测速,计算你在隧道里的平均速率,如果超速就开罚。

父亲就问我:「政府有什麽理由用区间测速罚我?如果要开罚就必须解释是哪一个时间点超速。」依照一般的数学逻辑,你一定有在某个时间点超速,所以平均起来的速率才会超过速限,可是法律判断涉及规范性,我们必须思考背後的正当性课题,不能只用逻辑解释,这启发我逐渐把问题勾勒出来,试图分析执法背後的规范性意涵。

如果将执行法律任务的权限赋予 AI,可能暗藏什麽风险?

我们先来谈人类和 AI 在做判断时的差别。人类无时无刻都在做判断,判断的过程通常会先做「区分」,例如在你面前有 A 和 B 两个选项,在做判断前必须先把 A 和 B 区分开来,让选项有「可区别性」。

在资料庞大的情况下,AI 的优势在於能协助人类快速做好区分,可是做判断还需经历一段 AI 难以触及的复杂过程。人类在成长过程中会发展出一套顾及社会与文化认知的世界观,做判断时通常会将要区分的选项放进这个世界观中,最终做出符合社会或自身考量的抉择。

—–广告,请继续往下阅读—–

当我们将判断程序交由 AI 执行,就会涉及「判断权限移转」的问题,这经常在日常生活中发生,你只要发现原本自己可以执行的事情,有另外一个对象做的比你好或差不多好,你就会渐渐把判断的工作交给它,久而久之,你大概会觉得这是很好的做法,因为可以节省大量时间。

自驾车导航系统就是判断权限移转的例子,由於导航通常可以找出最佳行车路线,驾驶人几乎会跟着走,但仍有可能误入路况不佳或无法通行的地方。
图|Vladimir Srajber, Pexels

我担心这种判断权限移转会快速且广泛的发生,因为 AI 的工作效率极高,可以大幅节省人力成本,但是哪一些权限可以放给 AI?哪一些权限人类一定要守住?我们经常没有充足的讨论,等到发生问题再亡羊补牢可能为时已晚。

以让道给救护车而闯红灯的情境为例,如果让 AI 来做交管,可以节省警察人力,又可以快速精准地开罚,却迫使民众需额外花时间,证明闯红灯有正当理由。如果是真人警察来判断,警察通常会认为你的行为有正当理由而不开罚。这对於受法律规范的民众来说,会产生两种全然不同的规范作用。

AI 产生的规范作用会让民众担心事後销单的麻烦程序,如果无法顺利解决,可能会诉诸民意代表或上爆料公社,并渐渐改变民众对守法的态度。而真人警察产生的规范作用,将使民众自主展现对法律的高度重视,虽然当下的行为抵触法律,却是行为人经过多方权衡後做的判断,相信法律会支持自己出於同理心的行为。

—–广告,请继续往下阅读—–

使用 AI 执法除了看上它的高效率,也是因为和真人相比 AI 不会受私情影响,比较可以做出公正的判断。如果从法治观念来看,为何决策权不能全权交由 AI 执行?

我认为法治的核心价值在台湾并没有很好的发展,我们常想的是怎麽用处罚促成民众守法,长久下来可能会得到反效果。当人们养成凡事规避处罚的习惯,一旦哪天不再受法律约束,可能会失去守法的动机。

事实上,法治最根深柢固的价值为:

给理由非常重要,可以让民众不断透过理由来跟自己和法律体系沟通。如此也可以形成一种互惠关系,使民众相信,国家公权力能用适当的理由来制定法律,而制定出的法律是以尊重公民自主性为主。当民众理解法律对我所处的社会有利,会比较愿意自动产生守法的动机。

AI 执法看似比人类「公正无私」,但它的执法方式以处罚为主、缺乏理由陈述,也没有对具体情境的「敏感性」。人跟人之间的互动经常需要敏感性,这样才能理解他人到底在想什麽。这种敏感性是要锻链的,真人警察可在执法过程中,透过拿捏不同情境的处理方式来累积经验。

—–广告,请继续往下阅读—–

例如在交通尖峰时段应该以维持交通顺畅为原则,这时警察是否具备判断的敏感性就很重要,例如看到轻微的违规不一定要大动作开罚,可以吹个警笛给驾驶警示一下就好。

我越来越觉得人类这种互动上的敏感性很重要,我们会在跟他人相处的过程中思考:跟我沟通的对象是什麽样的人?我在他心中是什麽模样?然後慢慢微调表现方式,这是人类和 AI 最根本的不同。

行动者受各种法律变项影响的因果图。上图是由真人警察执法,对於处罚之可能性有影响力,可依不同情境判断是否开罚。下图是由全自动法律人工智慧执法,由 AI 直接将处罚之可能性加诸在行动者身上,缺乏真人警察二次确认,很可能影响行动者对守法与否的衡量。
图|研之有物(资料来源|陈弘儒)

相较於法律人工智慧,ChatGPT 等生成式 AI 强大的语言功能似乎更接近理想中的 AI,其发展可能对我们产生哪些影响?

我认为会有更复杂的影响。ChatGPT 是基於大型语言模型的聊天机器人,使用大量自然语言文本进行深度学习,在文本生成、问答对话等任务上都有很好的表现。因此,在与 ChatGPT 互动的过程中,我们容易产生一种错觉,觉得萤幕後好像有一名很有耐心的真人在跟你对话。

仔细回想一下整个互动过程,每当外在环境(人类)给 ChatGPT 下指令,系统才会开始运作并生成内容,如果我们不满意,可以再调整指令,系统又会生成更多成果,这跟平常的人际互动方式不太一样。

—–广告,请继续往下阅读—– ChatGPT 能让使用者分辨不出讯息来自 AI 或真人,但事实上 AI 只是接受外在环境(人类)刺激,依指令生成最佳内容,并以获得正向回馈、提升准确率为目标。
图|iStock

资工人员可能会用这个理由说明,生成式 AI 只是一种工具,透过学习大量资料的模式和结构,从而生成与原始资料有相似特徵的新资料。

上述想法可能会降低人们对「资料」(Data)的敏感性。由於在做 AI 训练、测试与调整的过程中,都必须喂给 AI 大量资料,如果不知道资料的生产过程和内部结构,後续可能会产生争议。

另一个关於资料的疑虑是,生成式 AI 的研发与使用涉及很多权力不对等问题。例如现在主流的人工智慧系统都是由私人公司推出,并往商业或使用者付费的方向发展,代表许多资料都掌握在这些私人公司手中。

资料有一种特性,它可以萃取出「资讯」(Information),谁有管道可以从一大群资料中分析出有价值的资讯,谁就有权力影响资源分配。换句话说,多数人透过输入资料换取生成式 AI 的服务,可是从资料萃取出的资讯可能在我们不知情的状况下对我们造成影响。

面对势不可挡的生成式 AI 浪潮,人文社会学者可以做些什麽?

国外对於 AI 的运用开始提出很多法律规范,虽然国外关於价值课题的讨论比台湾多,但并不代表那些讨论都很细致深入,因为目前人类跟 AI 的相遇还没有很久,大家还在探索哪些议题应该被提出,或赋予这些议题重新认识的架构。

这当中有一个重要课题值得思考:

我认为训练 AI 理解人类的价值判断很可能是未来趋势,因为 AI 的发展会朝人机互动模式迈进,唯有让 AI 逐渐理解人类的价值为何,以及人类价值在 AI 运作中的局限,我们才有办法呈现 AI 所涉及的价值课题。

当前的讨论多数还停留在把 AI 当成一项技术,我认为这种观点将来会出问题,强大的技术如果没有明确的价值目标,是一件非常危险的事情。实际上,AI 的发展必定有很多价值课题涉入其中,或者在设计上有一些价值导向会隐而不显,这将影响 AI 的运作与输出成果。

思考怎麽让 AI 理解人类价值判断的同时,也等於在问我们人类:对我们来说哪一些价值是重要的?而这些重要价值的基本内容与歧异为何?

我目前的研究有几个方向,一个是研究法律推理的计算机模型(Computational models of legal reasoning);另一个是从规范性的层面去探讨,怎麽把价值理论、政治道德(Political morality)、政治哲学等想法跟科技界交流。未来也会透过新的视野省视公民不服从议题。

这将有助科技界得知,有很多价值课题需要事先想清楚,影响将扩及工程师怎麽设计人工智慧系统?设计过程面临哪些局限?哪些局限不应该碰,或怎麽把某些局限展现出来?我觉得这些认识都非常重要!

铁面无私的 ALI ?人类与人工智慧执法最大的分野是什麽?

陈弘儒的研究室有许多公仔,包括多尊金斯伯格(Ginsburg)公仔,她是美国首位犹太裔女性大法官,毕生为女权进步与性别平权奋斗。
图|研之有物

陈弘儒是台湾少数以法哲学理论研究法律人工智慧系统(ALI)的学者,他结合各种现实情境,与我们谈论 ALI、生成式 AI 与当代法治价值的紧张关系。

由於 ALI 擅长的资料分类与演算,与人类判断过程中涉及的世界观与敏感性思辨,有着根本上的差异;以处罚为主、缺乏理由陈述的判断方式,也容易影响民众对公权力的信任。因此陈弘儒认为,目前 ALI 应该以「辅助人类执法」为发展目标,让人类保有最终的判断权限。

至於现正快速发展的生成式 AI ,根据陈弘儒的观察,目前仍有待各方专家探索其中的价值课题,包括资料提供与使用的权力不对等、哪些人类价值在训练 AI 的过程中值得关注等。

在过去多是由人文社会学者提出警告,现在连 AI 领域的权威专家也签署公开信并呼吁:AI 具有与人类竞争的智慧,这可能给社会和人类带来巨大风险,应该以相应的关注和资源进行规划和管理。

在访谈过程中,有一件令人印象深刻的小插曲,陈弘儒希望我们不要称呼他「老师」,因为他从小就畏惧老师、警察等有权威身分的人,希望以更平等的方式进行对话。

假如今天以 AI 进行采访,整个谈话过程或许能不受伦理辈分影响,但这也让我们意识到,在 AI 的世界里,许多人际互动特有的敏感性、同理反思都可能不复存在。

陈弘儒的研究让我们体会,AI 在法治领域的应用不仅是法律问题,背後更包含深刻的哲学、道德与权力课题,也让我们更了解法治的核心价值:

nordvpn安不安全