网站首页 公文大全 个人文档 实用范文 讲话致辞 实用工具 心得体会 哲学范文 总结范文 范文大全 报告 合同 文书 信函 实用
  • 汇报体会
  • 节日庆典
  • 礼仪
  • 毕业论文
  • 评语寄语
  • 导游词
  • 口号大全
  • 其他范文
  • 百花范文网 > 实用范文 > 其他范文 > 人工智能的司法应用及其挑战

    人工智能的司法应用及其挑战

    时间:2023-01-14 20:15:06来源:百花范文网本文已影响

    刘 妍

    (中国政法大学 刑事司法学院,北京 100088)

    众所周知,人工智能(Artificial Intelligence,简称AI)的发展已是当代显学,世界各国的政府、企业、学校等无不争相投入人力、物力和财力,希望在未来人工智能应用领域占得先机。

    机器是否有智慧,与人类之间应当如何展开互动的情境,已从科幻小说变为现实。

    在法律领域,人工智能与司法之交互关系,同样成为眼下的热门话题。

    早在2013 年,牛津大学的研究人员就发布了《未来职场:哪些工作将可能被电脑取代?》的调查报告。

    该研究以702 种职业为对象,认为在未来不确定的时间里,有47%的职业将因人工智能的发展而面临被电脑化(computerisation)的风险。

    其中,涉及法律职业的研究结果显示:律师有30%—50%的被替代风险,或者可以理解为有30%—50%的工作可以交由人工智能来处理,而不需要人力亲为;法官有40%的被替代风险;法官助理、书记员等司法辅助人员有41%的被替代风险;仲裁员、听证程序员等岗位则有64%的被替代风险[1]。

    与这一发展趋势相对应,“人工智能+司法”的尝试在目前我国法院系统深入推进,江苏、上海、河北、贵州等地法院已经开始应用一批智能化辅助办案系统。

    从具体类型来看,这些人工智能辅助系统不仅可以将诉讼信息转化为电子数据,实现纸质卷宗电子化,同时,也可以从海量裁判数据中提取类似的情节与要素,进行关联案件的定罪和量刑预判。

    整体而言,对于提高司法效率、提升审判质量、规范办案流程起到了积极的促进作用。

    但从研究的角度来讲,与新技术迅疾发展、实务界对技术适用热情高昂相比,法学理论的研究则显得后知后觉。

    虽然已有不少论者围绕着人工智能司法适用的问题、界限、未来发展等进行了较为丰富的论证,但整体上仍趋于宏观。

    特别是在人工智能司法应用的现状和局限问题上,没有进行较为完整的系统化梳理,相关对策研究也未抓住问题之要害。

    基于此,本文认为,我们在坚持人工智能司法辅助地位的同时,必须要将其应用和局限进行体系化考察,并在此基础上提出我国未来人工智能司法应用的完善路径。

    目前,人工智能配合类神经网络、自然语言处理、大数据等技术,通过大量资料的积累,可以对输入的数据、信息进行快速和科学化分析,找出特定模式进而输出预测的结果。

    可以说,人工智能技术最大的优势就在于效率,其能够在快速分析的同时,保证一定程度的准确性,因此受到司法实务部门的偏爱(1)例如:2019 年6 月底,北京市高级人民法院推出了“睿法官”智能研判系统,为法官提供办案规范和量刑分析;上海市高级人民法院研发了“刑事案件智能辅助办案系统”(206 系统),该审判辅助系统包含了单一证据校验、逮捕条件审查、全案证据审查判断、社会危险性评估、量刑辅助等内容,为案件的审理提供全面支持。。

    总体而言,其主要应用领域有三。

    (一)数据检索与风险评估

    当下,人工智能系统司法应用的一个主要领域便是辅助办案人员检索法律、办案规范、关联案例以及其他相关资料。

    其中,最常用的是法律检索系统(legal research system)。

    该类系统主要以法律、法规和案例为主要储存对象,并在此基础上进行整理与编码。

    早在20 世纪60 年代,美国匹兹堡大学便研发了阿斯潘系统(Aspen System),通过计算法律文献中字词出现的频率来对法律资料进行分类,使用者在搜索栏输入关键字后,会立即出现包含该关键字的法律法规[2]。

    在此基础上,人工智能技术进一步设计了关联因素检索系统。

    这类系统不再以字或词的机械重合为分类标准,而是以字词间的相似度或相关性为基础,匹配具有关联性的法规或判决。

    如此,大大提高了搜索的匹配概率。

    与一般意义上的法律检索相比,司法中人工智能技术被频频提及的是其风险评估效用。

    风险评估算法(risk assessment algorithms)是一种方程式,被用来收集一个行为人过去刑事犯罪的大量信息,以及其他的生平和心理信息,基于这些信息计算出一个得分,用以表明行为人处于何种不同的风险等级状况。

    按照使用主体的不同,这一系统被用来作出假释决定、恢复性司法项目安置(例如戒毒康复计划),以及判决被告人的量刑幅度[3]。

    2016 年,美国便因法院将风险评估系统用于被告人量刑而引发了著名的States v.Loomis 一案。

    该案中,原审法官在确定被告人Loomis 的最终刑罚时借助了COMPAS 量刑系统。

    COMPAS(Correctional Offender Management Profiling for Alternative Sanctions,中文直译:替代制裁的罪犯矫正管理分析),是一家叫作Northpointe 的私营企业产品,用于预测人们未来犯罪的可能性并给出具体的监禁年限建议。

    这份测试中一共有137 道题,分别有现行指控、犯罪记录、家庭背景、教育水平、工作等15 个板块。

    完成测试后,COMPAS 会基于一定的算法和数据库,给出0—10 分的危险系数,其中10 分为高危,表示再次犯罪可能性极大。

    对此,被告人Loomis 以法院使用这一风险评估系统违反了其正当程序权利为由提起上诉。

    最后,美国威斯康星州最高法院认定风险评估算法,即COMPAS 系统可以被用于量刑,并且阐述了几项提示性规定,意在防止法官量刑时过分依赖该系统的结论[4]。

    这一点,笔者会在后文中提及。

    目前,美国包括纽约州、弗吉尼亚州、犹他州等很多州都建立了自己的“危险评估系统”,COMPAS 只是众多畅销全美的AI 工具中的一个而已。

    相较而言,美国刑事司法中的风险评估系统主要以社会危险与再犯可能性的“危险评估”为重点,而我国人工智能主要以“智能办案系统”的办案综合体的角色存在。

    虽然监狱系统也在用类似COMPAS 的评估系统来评价在押罪犯的改造情况,但其功能定位主要是辅助性的,检测结果仅作为参考。

    而法院系统的风险评估则是一种程序层面的审判监督管理,通过审判风险防控系统,将包括审限在内的案件流程细化为80 至125 个风险点不等,实现风险点一键监管,严格控制超限超期案件数量。

    (二)预测性执法与矫治

    “9·11”事件后,包括美国在内的世界上大部分国家开始投入相当多的资源用于反恐事业,与此同时,犯罪预防也一并纳入其中。

    各国司法执法部门开始与人工智能技术企业合作,开发资料收集、分析、定位与共享系统。

    通过对这些数据的整合,来达到预测及防止犯罪发生的效果。

    例如:通过分析最有可能发生犯罪的主体、犯罪区域、犯罪事件,有针对性地部署有限的司法资源。

    美国联邦层面提出了“智慧警察”(Intelligence-led policing)概念,整合各执法部门和情报部门的资源,以有效部署警力。

    倘若这些分散在各个部门的数据和资料由人工来进行整合,不仅会面临效率低下的困扰,还会因信息不全面而导致犯罪预测失误。

    但人工智能技术则不同,它可以结合社会学、心理学以及行为模式对收集到的包括恐怖活动在内的犯罪信息进行预测、分析,甄别情报的可能度,以此来提高预测的准确性和效率。

    地方层面,美国圣地亚哥地区早在2000 年便推出了“地区自动化司法信息系统”(Automated Regional Justice Information System)。

    这是一个由检警机关共享的系统资料库,系统每24 小时更新犯罪活动定位、通缉犯名单以及犯罪信息,还囊括了警察执法、法院司法矫治信息[5]。

    以时下热议的人脸识别技术为例,美国已经有近30 个州的立法允许执法部门建立自己的搜索系统,随时查阅州内公民的驾照和身份证照片。

    联邦调查局也可以通过这些系统直接获取18 个州的公民照片信息。

    通过这种实时人脸识别技术,警方可以从已有数据库中(包括静态照片和动态视听资料)提取有犯罪嫌疑或犯罪记录者的面部信息,然后将此放入目标资料中进行匹配。

    这种数以万计的匹配工作,对于智能面部识别工具而言,只需要非常短的时间就可以完成,让警方能够在犯罪或恐怖事件发生之前,及时采取应对措施。

    在这种预测性执法(predictive policing)机制中,人工智能技术扮演着司法预警的角色,它可以预测出人类行为的走向,进而知道目标对象下一步会做什么。

    正因为如此,侦查机关才能通过动态摄影追踪系统,在多人的动态场合也能够锁定可能犯罪之人。

    目前,这类技术被警方广泛运用于球赛、大型会议、运动会等活动的安全防控与监管领域。

    顺应世界趋势,我国公安系统将人脸识别和深度算法系统广泛地应用到日常治安管理和犯罪调查中。

    特别是在新冠肺炎疫情的影响下,智能识别技术扮演了不可或缺的角色。

    与此对应,法院采取的则是预测性司法,现有量刑偏离分析系统和智能模拟判决系统,不仅能让法官将预设判决与系统生成的同类案件判决进行比对,得出判决的偏离度,为法官同案同判提供参考,也可以根据涉案情节的分类和表述,自动匹配案由模型,并随之生成一个模拟的判决结果,让当事人对案件的走向和结果有一定的预期。

    不仅如此,法院现有的大数据智能分析系统还可以自动提取现有案件数据的潜在价值,为将来的司法裁判提供参考。

    (三)数字证据提取与判定

    证据开示制度是美国民事、刑事诉讼程序中双方自主交换证据资料的司法程序。

    与以往纸质交换不同的是,随着数字科技的发展,信息化渗透到民众生活的每个面向,有关的资料和证据多以电子形式存储。

    控辩双方如何对这些资料进行开示,法院以何种方式对这类证据进行认定和评判,都成为诉讼中非常现实的问题。

    特别是在涉及公司企业的金融犯罪类型案件中,当警方进行查证或扣押后,往往会获得数量庞大的数据信息和材料。

    侦查机关所要面临的问题是如何在最短时间、耗费最少人力的情况下,迅速提取出与本案相关的证据,从而尽快制定下一步的侦查方向,或是进行对嫌疑人的羁押必要性判断。

    对此,2006 年美国修正了联邦民事诉讼规则,为电子证据的开示提供了明确且完整的规范。美国司法实务中也开发了技术辅助查阅(technology-assisted review)系统,其目标就是在合理的时间内,在海量信息中尽可能搜寻所有可用的相关证据[6]。

    那么,通过这类辅助系统所获取的数字资料,是否可以作为证据来使用? 对此,2012 年,纽约州联邦法院在一个女性员工起诉雇主劳动歧视的案件中,首次赋予了通过电脑辅助提取的数字证据以法律效力。

    法官Andrew Peck 在判决意见书中指出:电脑辅助查阅和提取证据应当被允许使用在这类案件中,从而确保数字证据开示程序的公正、迅速和不昂贵[7]。

    类似的情况也发生在英国。

    2016 年,英国法院通过Pyrrho Investments Ltd v. MWB Property Ltd[8]. 和David Brown v. BCA Trading Limited and Others[9]两个案件,陆续在判决中认可了借助人工智能技术进行证据开示的法律效力。

    前一个案件中,涉及的电子文件多达300 万份,而后一个案件中牵涉的电子证据也有50 万份。

    在第二个案件中,原告提出了一个很直观的经济分析:如果采用传统人工关键字搜索的方式筛选证据,成本大概在25 万到34万英镑之间,而使用智能关联系统进行匹配与选择的话,成本会缩减到13 万英镑左右。

    同样,在刑事案件中,当侦查人员搜集到大量的电脑硬盘或芯片,其中存储着大量的电子邮件往来、通信、聊天记录、账户资料甚至是视听证据,司法人员便需要在尽可能短的时间内,从这些海量信息中找到与案件相关的证据资料。

    特别是在案情混沌不明之际,通过这些技术辅助手段来寻找潜在的证据,是非常可行的方式。

    此外,这类技术还大量应用在法院对于专利、商标进行审查的案件中[10]。

    在我国,人工智能技术正在逐渐改善司法权运行的外在环境,通过“智能语音”“电子卷宗”“案件管理”方式等在司法实践中发挥重要作用。

    电子卷宗随案生成系统,可以将纸质材料同步转换为可复制读取的电子资源;庭审语音智能转写系统通过语音采集、实时转写的方式进行电子质证,革新传统举证、质证方式。

    以庭审语音识别系统为例,目前已经有法院借用自然语言处理技术(NPL),提取诉讼各方之陈述,并将其自动转换为文字(2)我国法院人工智能应用的分析样本主要来源于:一是《法治蓝皮书·中国法院信息化发展报告NO.1(2018)》中关于地方法院信息化实践的调研报告;二是通过搜索引擎获取的东中西部地区法院各种智能应用实例。。

    如苏州法院利用该系统,实现了普通话庭审笔录完整度接近100%,带有口音的普通话语音识别正确率高达90%。

    目前,对人工智能技术应用到司法领域尤其是司法裁判领域会存在哪些风险,已为不少论者所关注。

    例如,有学者明确指出,人工智能技术会冲击公正之价值、影响当事人诉讼权利、与法官独立审判原则发生冲突[11]。

    可以看到,这是一种在基本原则层面的概括性分析,还需要进一步落到实处。

    对此,笔者欲结合具体的司法实务,对人工智能技术的负面效应进行微观层面的展现。

    (一)司法歧视

    歧视问题是人工智能技术应用到司法领域所面临的最大的质疑。

    正如上文中所提到的风险评估算法COMPAS 一样,其带来效率的同时,也带来了量刑阶段威胁正当程序保护的风险,即为了“显摆”技术的先进性,将大量的个性化信息总归于一个过于简化的分数。

    这类算法由风险量化和需求量化两部分构成[12],用于预测哪些行为人会再犯,而哪些不会[13]。

    算法输出的结果最后会转化为十分位分数,从最低分1 分到最高分10 分。

    按照COMPAS 设计者北点公司的解释,十分位分数与相应的规范组相对应,其中,1 分意味着行为人的量化分数处在规范组最低的10%以内,而2 分则意味着行为人处于规范组高于10%而低于20%的水平,以此类推。

    正如《COMPAS 从业指南》所解释的那样,通常,1—4分为低危险系数,5—7 分为中危险系数,而8—10 分为高危险系数。

    然而,算法将这些分数与监狱、假释机构以及缓刑机构的评估方案联系起来。

    目前,存在着八个标准分组:男性监狱/假释、男性拘留所、男性缓刑、男性复合措施、女性关押/假释、女性拘留所、女性缓刑以及女性复合措施。

    北点公司是基于“从2004 年1 月至2005 年11 月之间,在美国监狱、假释、看守所和缓刑点进行的超过3 万份COMPAS分数评估”[14]得出这些结论模型的。

    当某一特定的机构要使用COMPAS 技术时,北点公司也会相应地调整规范系数,以反映该机构所在区域人口的具体情况。

    对此,一个名为ProPublica 的媒体(3)ProPublica 是一家关注公共事务的非营利性调查媒体。

    他们是一家十分严格的无党派机构,标榜着“不游说”以及“不会与任何政客或者宣传团体结盟”。

    他们围绕着诸如过量吸毒、负债以及检察官不当行为以及其他关涉公共利益的问题,创设了许多调查项目,并将研究和文章汇编在一起,在官网上公布。进行了深入调查,结果显示,该算法会偏见性地将黑人被告人列为高风险人群,而白人被告人则为低风险。

    这项研究收集了7000 余名行为人的数据,这些人在2013年和2014 年被捕后接受了风险评估,检查他们在之后的两年里是否会被重新起诉。

    研究结果表明,暴力再犯比例实际上只占到20%,而之前的系统数据却认定具有再犯风险的行为人比例高达61%。ProPublica 指出,这种结果仅仅“稍微比掷硬币准确些”。

    然而,普遍缺乏准确性这一点仅仅只是ProPublica 在研究COMPAS 算法时,发现问题的开端。

    该调查着重指出的问题在于,算法在分配白人被告人和黑人被告人分数时的不对等。

    尽管黑人被告人在整体上再犯率会高一些,但是当调整一下这些差异和其他因素后,他们居然比白人被告人的再犯率要高出45%。

    至于暴力再犯系数,黑人被告人获得一个高危险分数的概率要比白人被告人高77.3%。

    在评估有多少被告人被标记为高风险,但之后两年却没有再犯罪时,ProPublica 发现,白人被告人被错误标记的比例为23.5%,而黑人被告人被错误标记的比例则为44.9%。

    相较之下,白人被告人更倾向于获得低风险评价。

    准确来讲,有47.4%被标记为低风险的白人被告人继续进行犯罪,而同参照的黑人行为人只有28%再犯[15]。

    特别是在智能技术高效率运行的情况下,这种潜在的歧视会被无限的重复,进而被不当强化。

    实践中还出现了数名议员被面部识别技术不当识别为犯罪嫌疑人的荒唐现象。

    此处需要指出的一点是,歧视问题不仅会在审判中出现,前述预测性执法过程中也会存在。

    例如:警力资源会被不当调配至少数族裔社区,进而忽视白人社会本身会发生的毒品或暴力问题[16]。

    (二)技术黑箱

    从技术角度来讲,人工智能算法本身就是一个“黑箱”(black box),这本来无可厚非,因为技术创新本身也是一种商业秘密,属于知识产权保护的范围。

    但是,“黑箱”一旦应用到司法中后,这种优势本身也会令人诟病。

    因为,不论是将人工智能技术用于判决检索和犯罪预防,还是证据评判与量刑基准,人们都无法对其进行监督。

    以量刑为例,被告方对于人工智能量刑的结果无法进行有效质疑,因为外行人无法了解技术本身存在的算法规律,即便可以申请专家鉴定,该技术也很可能基于商业秘密的考量而无法提供源代码。

    或者,即便是基于公权力的监督和公共利益的考量,技术创新的商业利益必须退让,技术算法得以揭露,当事人的监督也有可能会落空。

    监督的前提是能够有效厘清技术运作的程式码,明确输入资料和输出结果之间的关联性,以此来判定通过技术产生的结果是否恰当,是否存在偏差或者是否有歧视。

    然而,人工智能算法的运作不一定具有严格的逻辑关系,对于输入的样本,很可能只是因为大量资料都指向某种可以获得最佳利益的选择,其背后不必然存在一定的逻辑性或因果关系。因而,有论者犀利地指出,“黑箱”里的人们,就像是奴隶一样被算法操控着[17]。

    算法越复杂、越不透明,将会直接导致人们的社会活动,小到社交活动,大到工作求职,甚至是司法裁判所涉及的一连串自动化决策中,无可避免地存在秘密决策和歧视。

    正是这种不透明性,给司法公开与司法监督带来了严峻挑战。

    司法公开是一项由来已久的诉讼原则,只有公开,才能将权力之运作充分暴露于阳光之下,充分保障当事人和民众的知情权与监督权。

    但是算法的不透明就意味着监督无法实现。

    不仅如此,当事人的诉讼权利也会因此受到侵害。

    民事案件原、被告双方的权利义务关系,以及刑事案件当中被告人的人身自由权利,皆由司法裁判所决定。

    试想,在案件的证据开示、证据认定甚至是量刑都借助了人工智能算法的情况下,当事人如果不服,其所享有的包括上诉在内的程序救济权利,也会因为“黑箱”问题难以得到实质性的行使。

    这无疑会让诉讼流于形式,与司法公正和权利保障相去甚远。

    (三)机械裁判

    人工智能技术应用到司法实务中还要面临的一个挑战是,技术的判断结果总是机械、僵硬的,无法适应灵活的司法裁判要求。

    这也是如今研究者们坚信法律职业不会被人工智能技术完全取代的一个最重要的原因。

    第一,法律并非一种极致意义上的形式理性,适用法律绝非一种简单的文本输入至结果输出过程。实践中的司法人员,尤其是法官,在判决案件的过程中往往面临着逻辑思考、事实认定、常识判断、人性尊严、个案平衡、价值抉择以及国家政策等问题。

    判定过程可谓极为复杂,而这些过程是否能为人工智能所模仿或借鉴? 答案显然是否定的。

    目前的人工智能虽然已经取得技术上的突破,但算法的深度学习水平还远未达到“强人工智能”的程度。

    也就是说,人工智能在处理常识、意图、观点等自然语言交流与理解方面,仍然遭遇着巨大瓶颈。

    最直观的例子便是,当我们与所谓智能机器人进行语音对话时,其只能应付简单的信息检索和最基本的日常交流,对于稍显复杂的问题,其回答往往令人啼笑皆非。

    究其原因,目前人工智能技术的资料库中无法完全覆盖人类所有语言、生活信息,同时,技术对语言往往只能基于早就设定好的模式进行程式化分析,无法全面、系统地消化所有证据和当事人提出的诉求。

    第二,人工智能技术的应用无法实现个案正义。

    从技术运作的基本方式来看,人工智能程式追求的是网格化、类别化,即标准化。

    换言之,其追求标准化的输入以及标准化的输出。

    在此情况下,个案中出现的特殊情形、特殊因素会因为对标准化分析毫无意义而被系统忽视,导致最后无法输出个别化的结果。

    系统判断往往体现出一种机械化、公式化特征。

    但是,司法所追求的是一种衡平正义(equitable justice)而非绝对的法律正义,因此赋予了裁判者相当大的自由裁量权,允许其在一定范围内根据案件的具体、特殊情况作出符合个案正义之裁判。

    退一步来讲,即便将来技术会发展到具有一定思维能力的水平,但由于人的情感、成长、自由、尊严等本身就无法量化,因而能否被设计为一种算法程式,还有待考量。

    第三,人工智能技术无法处理新型案件。

    在人工智能技术的原始资料库中,信息的存储是有限的,不仅如此,有限的信息还存在着一个致命性的缺陷,那就是无法处理新信息。

    这就导致技术在面对司法中的新行为、新证据或者新事实时,无法做出判断甚至做出错误的判断[18]。

    从司法效果角度来看,人工智能算法结果的得出是基于对以往裁判分析的经验,如果某一项事实、某个情节甚至某一个参数发生变动时,系统本身顶多将其视为一个运行障碍。

    例如:对于刑事司法而言,可能某一段时期,程序会追求诉讼效率,而另一段时期,政策又会倾向于在大多数案件中查明案件事实真相,这无可避免会耗费更多司法资源。

    此类政策性变动对于已经有固定的参考模式以及参考参数的智能技术而言,是无法掌握与分析的。

    除非从技术源头重新储存新资料,修改运行程式。

    可以看到,在司法实践中,人工智能技术能够耗费较少的时间与资源,为司法人员提供较为准确、稳定的裁量标准和参考结果。

    如此,弥补现行司法中诉讼“大爆炸”的困境,让国家能够投入更多的资源去解决那些案情复杂、具有重大社会影响的争议性案件。

    但同时,人工智能技术在司法中的适用有其局限,带来了挑战与质疑。

    因而,司法人员不能形成过度的技术依赖。

    这在目前的学术研究领域已经形成共识。

    基于此,不少论者主张和提倡一种对人工智能技术“审慎而乐观”的立场,将智慧司法下的人工智能定位为“司法辅助人”,以“工具主义”作为其功能定位[19]。

    笔者十分赞同这一论点。

    但针对司法应当如何化解人工智能应用挑战的问题,本文意在提供以下新的思路。

    (一)技术偏见与技术中立的抉择

    通过上文的论述,不难看出人工智能技术遭受质疑的种种局限与挑战主要有两个来源:一是技术本身所带来的缺陷,二是技术在人为使用过程中所暴露的弊端。

    因此,完善人工智能的司法适用也需要从以下两个层面着手。

    第一,从技术本身的缺陷来说,首当其冲的便是对技术本身的改造。

    当然,囿于知识储备,笔者无法从技术角度提出人工智能算法的优化方案,只想就技术与司法的交互角度,阐明技术中立的立场。不可否认的一点是,技术原本是中立的,但是这种中立性在具体应用过程中总是会出现这样或那样的偏差。

    不论对于技术程式的设定者,还是司法人员而言,在创设或使用技术的过程中,都或多或少、有意无意地带入了自身的偏见。

    毕竟,人总是社会中的人,有着固定的生活圈,每天也会通过网络接收到各种社会新闻与信息。

    当某种特定的偏好或倾向性立场一旦带入技术中,便会从“少数意见”摇身一变成为“多数观点”,进而通过技术的反复适用不断得到强化。

    第二,从技术在人为使用过程中暴露出来的弊端来看,实际上,类似的问题早在人工智能司法适用尚未被人们关注时就已经出现过。

    早在20 世纪80 年代,美国立法者发现,刑事司法中的量刑夹杂着明显的歧视,即同等条件下,少数族裔的刑期普遍较重。

    一开始,立法者认为产生这一问题的原因在于法官们缺乏一个普遍适用的量刑标准作为参考[20]。

    因而,美国国会在1984 年成立了美国量刑委员会,以追求消除歧视,达到较为一致的量刑结果。

    不仅如此,委员会还发布长达600 页的一系列量刑指导标准,试图将量刑进行公式化。

    该标准虽然没有强制性的法律拘束力,但对于裁判者而言,多以此作为参考。

    但即便是如此精细的量刑标准公布之后,以往存在的量刑歧视问题依然存在,没有办法完全消除[21]。

    对此,有论者认为,公式化量刑导致法官丧失了原本可以依据个案作出裁判的空间,使得个案的特殊情况无法准确被估量,随即进一步加深了原本的歧视循环而已[22]。

    由此观之,在矫正人工智能技术歧视的问题上,这种“等者等之”的形式平等立场不可取。

    对此,笔者认为,可以从实质平等的角度出发,用中性的程式设计去检视技术中是否存在对特定人群、特定地域或特定性别的歧视因素,进而通过个性化而非标准化的参数设定来对其进行矫正。

    例如,Airbnb 在2015 年时发现,其平台程式在统计上有种族歧视的倾向,系统可能会拒绝将房屋出租给特定族裔或特定群体的房客。

    该公司随即成立专门小组,研究在何种情况下系统会触发歧视因素。

    后查明,消除歧视的方法在于,知晓歧视隐患的存在,在此基础上重复、定期地检查数据分析之结果[23]。

    以此类推,该方法完全可以借鉴到司法实务对人工智能技术的应用领域中来。

    如此,可最大限度地保证技术本身的中立性。

    我国不存在种族歧视的问题,这种实质平等框架下的技术中立主要体现在如何防范人工智能的失误。

    总体来说,人工智能的失误大致可分为两种类型:一是案件实体判断的错误,例如风险预警不准确、量刑预测出现偏差等;二是不涉及案件实质的判断失误,如电子卷宗的生成错误、电子数据的转换错误、实时语音识别的瑕疵。

    对此,我们应当从源头出发,提高算法本身的准确程度。

    一是司法机关将智能辅助系统进行外包时,应当与技术公司进行充分且明确的沟通,在尊重技术创新和商业秘密的基础上,要求技术提供方对于算法决策过程、数据模型和采集等承担必要的说明和公开义务,以接受公众监督。

    在重视解决纠纷的同时,也要以风险防范为导向,注意调整算法的运行规则,消除因算法歧视造成的潜在风险。

    二是要联合技术专家、法律专家和社会公共团体等主体,成立常设或非常设的算法监督机构,对算法的设计、应用和结果进行全方位的监督。

    监督的方式可以是随机检查,也可以是定期抽查,以弥补技术应用过程中的算法漏洞。

    同时,也要畅通公众的反馈渠道,及时纠正已经出现的算法错误。

    (二)实体利益与程序利益的平衡

    对于技术在人为使用过程中所暴露的弊端,是“技术使用者”而非“技术”层面的问题。

    对此,如何进行应对,应当抓住要害。

    诚然,有学者曾明确指出,“司法人工智能不可本末倒置”[24]。

    不能在“向信息化要人力、要物力”的潮流中,将人工智能系统全面用于案件审理,甚至是替代法官的裁判。

    进而主张人工智能规制的要点在于限制其适用范围、保证裁判者的独立权威地位、保障诉讼当事人的合法权利。

    这些应对之策皆属有理,但并未看到现象后面问题的本质——将人工智能应用在司法中,实际上是一种实体利益和程序利益之间的平衡与抉择。

    人工智能技术本身代表的就是一种对高效率的价值追求,而司法则是在追求公正、保障权利的同时“顺带”兼顾诉讼效率。

    因此,不管提出任何的应对方案和解决措施,不管主张要在司法中将人工智能技术应用到何种程度,都不能突破的一个底线就是:司法在任何时候都不能将“效率”置于“公正”之上。

    人工智能技术是一种形式上、程序上的平等,因为作为其判断标准的程式是预先设定好的。

    对于所有的资料输入,都是通过同一个程式来进行分析,进而得出结果。

    可以说,呈现出一种整齐划一的“流水线”特征。

    也正是因为如此,技术的应用能大幅提高司法程序的运作效率。

    但与技术所能处理的静态信息相比,司法实务完全是动态多变的,涉及复杂的案情评判和利益权衡。

    如何在现行法律框架下,结合个案的具体情况,正确适用法律,甚至在法无明文规定的案件中,寻找定分止争的正确方法,指向的是一种正确划分权利、义务关系的实体利益的方式,具言之,就是需要实现实体利益与程序利益的平衡。

    第一,公正和效率的平衡实际上也是人之理性与技术理性在司法领域的平衡。

    对于技术理性而言,其追求的是功能性、有效性,讲求效率和效益。

    而司法裁判更多的是一种人为理性,注重的是价值理性和人文精神。

    人工智能应用到司法领域,实际上是通过模仿和模拟司法裁判者的逻辑思维来提高审判效率。

    但是这种简单的模仿只会僵硬地适用法律条文,不仅忽略法律适用和个别正义间的考量,将预设的裁判结果格式化,同时也会剪断公民通过参与案件同司法人员之间形成的良性互动纽带,因为当事人是无法与一个冷冰冰的系统进行对话的。

    因此,在目前的弱人工智能应用阶段,要坚持法官的审判主体地位,让整个案件的审理过程的最终决定权掌握在法官手里,使人工智能的运行过程处于法官的监督之下。

    如此,一方面可以避免技术的偏差带来的机械适用,畅通能动司法渠道;另一方面,也可以体现权责统一,避免因智能技术的使用导致“责任推诿”,防止法官将司法责任推卸为技术责任。

    第二,虽然存在差别,但实际上,正如公正和效率两者可以并行不悖一样,程序利益与实体利益之间并不是截然两分的关系。

    那么,人工智能的司法应用,如何兼顾公正与效率? 从形式层面讲,人工智能的司法应用应当对诉讼相关人,特别是刑事案件的被告人进行程序上的告知。

    此种告知目的有三:第一,利害相关人可以借此了解人工智能系统应用于司法的具体过程;第二,利害关系人可以针对有关的结果提出自己的异议,以便技术使用者(司法人员)查证系统是否存在错误分析的情况;第三,利害相关人可以在知情权的基础上对技术的应用行使程序救济的权利。

    从实质层面出发,在司法的所有环节,即便是有技术作为加持,也必须要有最低限度的人类参与。

    同时,在与人民生命、自由、财产息息相关,或者涉及司法的本质与公正的案件中,审判者或者执法者应当承担起作出司法决定主宰者的角色。此时,通过智能技术所获得的结果只具备参考价值,裁判不能受制于技术。

    (三)法律规范与道德控制的互补

    首先,从法律层面出台规制人工智能技术的法律规范。

    应当看到,不论是在本文,还是在其他研究者的探讨中,人工智能技术的种种风险都具有以下三个典型特征。

    一是潜在性。

    即所列之风险由于技术水平的差异化发展,并非在任何国家或任何司法环境中都存在着这些应用问题,风险处于一种正在发生或者尚未完全发生的状态。

    二是模糊性。

    即技术侵害的对象不具有指涉性,不针对具体个人。

    三是难以量化。

    当技术造成损害时,这种损害的因果关系难以确定,即便可以确定,损害结果也难以量化。

    应当看到,当前所有国家的现有刑事、民事和行政法律规范责任体系都无法有效覆盖对智能技术的规制,法律规范完全呈现出“留白”状态。

    因而,我们需要在法律层面出台回应人工智能技术的法律依据,或者更确切地说,是规制人工智能技术的法律规范。

    有了法律依据,才能从“强硬”层面上有效防止技术应用会造成的司法属性被消解、法官权力被僭越、当事人诉讼权利被架空等风险。

    这也是眼下许多论者提出应对方案时会考虑到的层面。

    其次,制定人工智能伦理准则。

    人工智能在司法领域取得了突出成效,也暴露出来不少伦理问题。在司法场域,人工智能引起的伦理风险具有独特性。

    第一,与司法活动参与者尤其是当事人的人身自由、财产权利密不可分。

    第二,算法歧视原因往往难以捕捉,想实现完全程度上的“算法公开与透明”,实现算法歧视的“全无”也无可能。

    第三,司法人工智能系统的设计是多方利益的博弈过程,而“资本家的逐利性”又容易放任智能技术对司法公正的侵袭,比如“风险评估算法COMPAS”在带来司法效率的同时,也引起量刑阶段威胁正当程序的风险。

    第四,基于新兴科技基础上产生,具有技术伦理与司法伦理之综合特征,且有一定程度的公共利益价值。

    具体来说,对待人工智能技术的发展保持积极态度,考虑人工智能在司法场域的伦理特性,加强对人工智能技术的伦理审查,以确保人工智能技术在正确的伦理轨道上运行。

    参照人工智能伦理的相关原则,如2019 年欧盟委员会发布的人工智能伦理准则,确保人工智能真正具有安全性、可靠性,完善人工智能司法适用的伦理规范,既重视算法的相关管理机制,也在法律方面明确相关司法问责、隐私、安全等要素,建立统一、规范、公认的“指导性原则与伦理”,针对法律规范的“留白现象”,以软法的方式先行弥补法律规范的缺位与不足。

    最后,实现法律规范与道德规范的结合。

    然而,作为一种“时髦”的技术形态,眼下人工智能技术和司法大数据正处于创新发展的重要阶段。

    如果只是一味强调要进行法律规制,用严格的法律规范来扼住技术咽喉的话,无异于因噎废食。

    因此,人工智能的司法适用需要道德的“软”控制。

    具体来说,道德虽然只是一种对风险的评价能力,其自身不具备当然的法律效力,但是道德往往可以为人们提供一种技术发展和技术适用的参考准则。

    也就是说,无论是负责技术发展的程序员、网络公司、数据处理者,还是负责技术适用的司法人员,其都会有共同的行为和评判标准。

    这也是为何近几年有关人工智能技术伦理规制话题的讨论急剧增加的原因,截至目前,至少有83 个有关人工智能技术的伦理规则面世(4)Thiel,V.(2019,June 20).“Ethical AI guidelines”:Binding commitment or simply window dressing? Algorithm Watch. Retrieved from https:∥algorithmwatch.org/en/ethical-ai-guidelines-binding-commitment-or-simply-window-dressing/,2021-05-03。。其中较为有名的当属会聚计算机科学及工程人才的电气与电子工程师协会和欧盟执行委员会下设的人工智能高级专家组所发布的伦理准则。

    从内容来看,这些准则无疑都包含了以下共同的道德追求:尊重权利、造福人类、技术的设计和使用者应当可追责、技术操作的透明性、技术使用的最小化风险、建立追责的法律框架、使用技术应当承担何种道德义务等。

    应该说,这是目前针对人工智能技术使用的普遍性道德要求,其对于司法领域同样适用。

    因此,法律规范与道德控制互为补充、不可偏废。

    显而易见,道德控制与“僵硬”的法律规范相比更具有灵活性,在规制人工智能司法应用的问题上会有更大的弹性。

    法律和道德的双向规制不仅可以有效地作用于技术使用者,而且能够对技术本身产生积极影响,也即在技术程式本身的设计上,不仅需要考虑到法律规范的禁止、强制性规定,而且还要参考道德伦理准则中的建议性要求。

    如此,道德因素的注入能在很大程度上以其本身的灵活与公正化解智能技术应用中的机械和歧视问题。

    此外,笔者想要强调的是,对于人工智能技术而言,其积累资料需要大量时间,运算程式也要因时因势不断调整。

    在司法这一独特领域中,如何科学适用人工智能技术还有待完善,可以预见的是,阵痛与过渡不可避免,改革与反思仍须前行。

    猜你喜欢 司法算法人工智能 少捕慎诉慎押刑事司法政策下侦羁关系的反思社会科学战线(2022年8期)2022-10-25服务大局司法为民忠实履职上海人大月刊(2022年4期)2022-04-14哪种算法简便小学生学习指导(低年级)(2021年12期)2021-12-31Travellng thg World Full—time for Rree阅读与作文(英语初中版)(2019年8期)2019-08-272019:人工智能商界(2019年12期)2019-01-03人工智能与就业IT经理世界(2018年20期)2018-10-24人大代表活跃在“司法大舞台”上人大建设(2018年1期)2018-04-18奏好人大内务司法监督“三步曲”人大建设(2018年1期)2018-04-18数读人工智能小康(2017年16期)2017-06-07算法框图的补全中学生数理化·高一版(2017年1期)2017-04-25

    相关热词搜索:人工智能 司法 挑战

    • 范文大全
    • 说说大全
    • 学习资料
    • 语录
    • 生肖
    • 解梦
    • 十二星座