当前位置: 首页 >> 中文版 >> 业务研究 >> 专业论文
以司法鉴定解决算法“黑箱” 诉讼难题的路径研究
作者:浙江金奥律师事务所 朱文杰   日期:2022-06-08    阅读:3,159次

      目   录

      一、算法“黑箱”的成因 PAGEREF _Toc74320353 \h2

      二、司法实践中涉及算法“黑箱”存在的法律问题 PAGEREF _Toc74320354 \h4

    (一)算法的可解释性问题 PAGEREF _Toc74320355 \h4

    (二)算法的公开透明问题 PAGEREF _Toc74320356 \h4

    (三)算法的司法审查维度问题 PAGEREF _Toc74320357 \h5

      三、诉讼中解决算法“黑箱”的难点 PAGEREF _Toc74320358 \h6

    (一)公开后有泄露商业秘密的可能性,使开发者丧失竞争力 PAGEREF _Toc74320359 \h6

    (二)公开后法官和律师未必能完全理解,仍需开发者解释 PAGEREF _Toc74320360 \h7

    (三)算法的更新迭代导致难以有效存证 PAGEREF _Toc74320361 \h8

    (四)算法因技术中立规则而免责 PAGEREF _Toc74320362 \h9

    四、司法鉴定程序解决算法“黑箱”诉讼难题的路径探讨 PAGEREF _Toc74320363 \h10

  (一)制定和出台算法“黑箱”技术鉴定统一标准 PAGEREF _Toc74320364 \h11

  (二)在全国范围内筛选一批具有算法鉴定评估技术实力的中介机构和鉴定人员 PAGEREF _Toc74320365 \h12

  (三)完善各类算法开发者风险评估制度 PAGEREF _Toc74320366 \h13

  (四)以新型互联网存证技术解决算法“黑箱”存证难题 PAGEREF _Toc74320367 \h14

  (五)以算法规制算法 PAGEREF _Toc74320368 \h16

 

      【摘  要】人工智能的发展为生活带来了便利,因为人工智能所依赖的算法存在“黑箱”,这便也带来给人们了恐慌。该文通过研究算法“黑箱”的特点和成因,分析诉讼中因算法“黑箱”专业性而无法准确认定及目前相关司法判例无可奈何的窘境,存在算法的可解释性问题、公开透明问题、司法审查维度问题,研究司法审查过程中存在的四类主要算法“黑箱”诉讼难题,最后提出通过司法鉴定来解决算法“黑箱”诉讼难题的五点举措,即制定和出台算法“黑箱”技术鉴定统一标准、在全国范围内筛选一批具有算法鉴定评估技术实力的中介机构和鉴定人员、完善各类算法开发者风险评估制度、以新型互联网存证技术解决算法“黑箱”存证难题、以算法规制算法。

      【关键词】人工智能;算法;算法黑箱;司法鉴定;算法评估

      人工智能产业在我国十四五规划期间产业布局占有至为重要的位置,但因人工智能产生的问题却屡屡踏进法律的空白区域。近年来,在“大数据杀熟”、算法压榨外卖骑手、个性化营销推荐等方面,人工智能发挥着“亦正亦邪”的角色。一方面,人工智能利用其核心算法,为大众提供辅助决策;另一方面,人工智能也会成为实施犯罪或者侵权行为的人的工具。前者能造福于人,后者却往往披着技术的外衣而无法规制。

      算法是人工智能的“大脑”,研究人工智能必须要从研究算法入手。与人脑不同的是,人工智能这个“大脑”如何运行完全是由人通过一串串代码设置而成的,这些代码对于普通人来说无异于“天书”。另外,算法往往是不公开的,她有时被讨论成了言论(自由)、有时被界定为商业秘密、有时也被认为是正当程序。学术界对其进行了较多讨论,但普遍意见认为,算法的这一特性会产生价格歧视等不正当竞争行为,也会导致消费者知情权、隐私权和公平交易权等公民基本权利受到侵犯。基于此,有人提出了算法“黑箱”的问题,并进一步提出了算法歧视、算法共谋、算法操控等三类具体风险。由此如何规制算法便成为了法律和技术需要一起解决的事情。在以往算法“黑箱”规制研究领域,大多从事前规制角度进行研究,要求算法公开、透明,从而保障公民的算法解释权。《个人信息保护法(草案)》(二审稿)中也首次引入了算法风险评估制度及过错推定的归责原则,《数据安全法》也倡导算法需符合公序良俗以及设置了重要数据的风险评估制度,但这两部法律却也并未能解决算法最终的责任如何承担问题以及在诉讼中算法该通过何种方式对算法“黑箱”进行评论的问题。因此,笔者拟通过对该问题进行初步研究,以期对人工智能的司法规制贡献点滴之力。

      一、算法“黑箱”的成因

      算法勾连人工智能应用全过程,上承数据,即依赖于现有数据结构进行算法建模、设计; 中连程序,即以程序设计语言编码算法; 下接应用,即算法自动化决策。人工智能算法不公开、不透明,被称为算法“黑箱”。这是人工智能给人类社会带来的重大新型问题之一。顾名思义,算法因为不公开、不透明,从而会导致公众对于某一人工智能所应用的算法如何进行决策、决策的依据为何以及内在逻辑等问题提出质疑。一名算法工程师说:算法“黑箱”我们叫可解释性。比如,数十个亿的数据,输入到箱子里面,这个箱子里的规则是不可见的。你不知道这十个亿的数据到算法内部会如何运转以及能生成什么样的规则,所以才觉得他是个黑箱。

      就如北大博士“卧底”外卖员事件中一样,如果深究网络平台中所使用的算法,会发现其运行机制将充满歧视:互联网平台利用算法设置骑手的配送时间,送餐时间被压缩得越来越短,对外卖骑手的生命健康造成严重威胁。而且,这个算法系统采用自动化的机器决策,骑手很难理解和提出抗议。 

      那么,如何对算法“黑箱”从法律层面进行剖析?有学者指出,算法“黑箱”将会引发个人信息数据侵权危机、结果偏见危机、司法救济危机。 但不可否认的是,在历史上,人类社会随着复杂性的增加,不可避免地产生以组织和技术形态出现的各类“黑箱”,他们的决定虽然影响着社会公众的利益,但仍然保持着某种程度的秘密性。 “黑箱”不可避免,无法完全禁止,只能与其共存,趋利避害。

      目前对于算法的法治化治理和建议主要集中在通过算法的透明度和可解释性来解决算法深度学习和实时数据带来的复杂性问题,如《个人信息保护法(草案)》(二审稿)第二十五条第二款设置了这一算法解释权,但其忽略了一个重要法治建设目标,即对算法如何进行问责,其最终目标就是算法的开发者如何对算法负责。正如凯特·克劳福德呼吁那样,应超越“作为迷信对象的算法”,而将制度设计的目光投向“一个系统,其中不仅仅是代码和数据,而是人类和非人类行为的集合体”。避免将算法评估制度作为另一种信息披露制度,而应确立算法评估与后续追究平台责任相关的机制。

      二、司法实践中涉及算法“黑箱”存在的法律问题

    (一)算法的可解释性问题

      如果算法必须在诉讼中予以解决,就必须要对算法如何运行进行解释和说明,这就涉及算法“黑箱”的可解释性问题。如上述的外卖员如要起诉外卖平台,认为其设置的平台规则显失公平,严重违反其与外卖平台签订的外卖员合作协议。那么,外卖员该如何举证?外卖平台该如何自证清白?这由此也引发我们进一步思考:外卖员是否仅需证明他一个人送餐时间被压缩即可?外卖平台是否仅需解释其算法的合法性和合理性便可不再举证,最终便能胜诉?那么,本案中核心问题便是外卖平台设置的这一算法是否是一种算法歧视,是否有违公平原则。如何来认定算法的歧视问题,一般法院会采纳互联网平台关于算法合法性和合理性的解释,较多司法判例中往往对此也避而不谈,从其他角度进行阐述。

    (二)算法的公开透明问题

      在北京市互联网法院受理的凌某某诉北京微播视界科技有限公司(抖音运营公司)侵犯隐私权、个人信息权益网络侵权责任纠纷一案中,原告凌某某提出诉讼请求,要求被告微播公司公开其算法的运行步骤,被告微播公司以涉及商业秘密为由拒绝公开,这一主张得到法院支持。反观域外案例,美国康斯威星州在2013年利用美国一技术公司研发的COMPAS算法,根据其各项个人数据和调查,计算出被犯罪嫌疑人Eric再次犯罪的可能性,由此法院在量刑阶段根据COMPAS的量刑前期调查报告,判决Eric 6年监禁、5年监外管制。Eric不服,认为这项算法技术无法确保计算出的数据是否绝对准确。研发COMPAS的这一技术公司同样以该项技术为商业秘密而未予公开,这一行为也被美国最高法院认可,并未强制其作出解释。

      (三)算法的司法审查维度问题

      根据以上分析,是否就因算法具有商业秘密而不再对其公开进行司法审查呢?笔者认为,在诉讼中,解决算法“黑箱”问题同样应采用采取如下原则,即“算法的不公开是原则,公开是例外”。 既要保护算法的商业秘密,同样也要兼顾受害者的利益和市场竞争的公平环境,在必要时进行有条件的公开。算法是一项技术,其开发者必须对使用这项技术而产生的后果负有法律责任。对于具有垄断地位的算法或国家财政资金提供支持的、目的是提供普遍公共服务的算法,公民应有权要求其公开;对于歧视某一类人、侵犯公民平等权的算法,尽管它未必向社会公开,但公民也有权提起诉讼,让其接受法官的审查。这是因为,从理论上说,私人的商业秘密作为个人利益,在涉嫌侵犯个人的权利时,是不能对抗法官的审查权的。如果均以法律保护的商业秘密为由,对算法“黑箱”均不予审查,则势必造成算法“黑箱”内成为了法外之地。

      三、诉讼中解决算法“黑箱”的难点

      解决算法“黑箱”问题如成为诉讼案件的审理焦点,则势必要对算法进行公开,但公开的程度、算法的解释以及法官、律师等非专业人士的理解等问题都是摆在解决算法“黑箱”问题的难点。

      (一)公开后有泄露商业秘密的可能性,使开发者丧失竞争力

      正如前文所述,算法对于开发者来说,具有商业价值,在诉讼中一般不做公开。对于算法“黑箱”的规制,各国往往采取事前审查的途径进行规制从而防范风险,对于公开算法“黑箱”以便事后追究责任的态度也比较暧昧。

      如2018年5月生效的《欧盟通用数据保护条例》第35条设置了一项“数据处理活动评估”制度,又称影响性评估或算法评估制度,其要求数据使用者对所使用的数据负责,属算法事前审查。该评估制度对事后追责的问题也进行了一般性的规范,要求数据处理者保存处理数据过程中的方式方法记录,如数据主体对处理数据的方法提出质疑或不满,数据处理者有义务解释说明。而这一解释也仅仅停留在大众普遍所能接受的简单易懂的逻辑分析,而不是对算法本身如何编写进行详细说明。

      2021年4月29日送审的《个人信息保护法(草案)》(二审稿)在借鉴域外经验的同时也规定了,个人信息处理者应当对某些个人信息处理活动在事前进行风险评估,并对处理情况进行记录,并要求风险评估报告和处理情况记录应当至少保存三年,但该草案也未明确在事后追责过程中,是否要对风险评估报告和处理情况如何使用,能否直接可作为案件审理的依据作出明确;另外,虽然该草案规定了利用个人信息进行自动化决策需保证决策的透明度和结果公平合理,但却没有细化采取何种途径实现决策的透明度和结果公平合理。这些都亟待修改或者出台相应配套实施细则予以明确。同样对算法事前进行规制的有2021年6月10日通过的《数据安全法》,该法同样要求数据处理活动要有利于促进经济社会发展,增进人民福祉,符合社会公德和伦理,同时对重要数据的处理要进行风险评估。这一法律也同样没有对算法的事后规制进行详细规定。

      由此而言,对于算法“黑箱”的问责机制,现有法律框架并不能使具体诉讼实务中操作便利。这也导致在诉讼中无法将涉及商业秘密这一抗辩理由排除在外,法官无所适从,不敢轻易判断是否要进行算法“黑箱”法律审查。这导致的后果便是,法官普遍保留意见,不敢迈出临门一脚,算法“黑箱”问题却无法在争端解决程序中解决。

    (二)公开后法官和律师未必能完全理解,仍需开发者解释

      算法的内核对于法官和律师而言,无异于“天书”。一方面,受害人在权利遭受侵害时,往往求助律师,而律师在代为诉讼后,却寄希望于法官能审查清楚,而法官却也是一知半解,甚至于在要求算法开发者对受害人提出的质疑进行解释时,因为算法的专业性,其也是不能完全理解,也无法准确判断算法开发者是否已经将该问题解释清楚,最终即无法从法律层面清楚判断该算法是否具有可解释性。大多数案例中,司法人员在未完全理解的情况下,仍旧依赖算法开发者的自行解释。对于算法中是否有黑箱操作、是否有算法歧视等如此裁判,无法做到客观公正。而诉讼法中,对于一般的专业问题设置的规则是要求助于司法鉴定或者专家辅助人,因而,在面临该专业性问题时,较好的解决方式是通过司法鉴定来解决算法的“黑箱”问题。

    (三)算法的更新迭代导致难以有效存证

     互联网技术是以天,有时甚至以小时、分秒来更新迭代,算法亦如此。导致案件发生的算法并不一定就是起诉后法庭调查时的算法。有些算法会不断地自我学习,不断更新算法规则。那么如何对这一动态的算法划定责任?除了《个人信息保护法(草案)》(二审稿)中规定的,个人信息处理者要对自己处理个人信息活动进行事前风险评估以及设置个人信息权益侵权的过错推定责任外,其他涉及纠纷处理制度上的设计却是较为缺乏的。

      事前风险评估是个人信息处理者自己对自己的评估,容易产生道德风险;设定个人信息权益侵权的过错推定责任是一大进步,减轻处于弱势一方的消费者以及社会公众的举证责任,但如个人信息处理者将其制作的事前风险评估报告提交给法庭用以证明其算法的合法性,法庭是否就应当予以无条件采纳;如非无条件采纳,是否会产生法庭需要对事前风险评估报告进行审查?这又重新回到了前面所述的算法“黑箱”法律审查问题,还是无法根本解决算法更新迭代的有效存证的问题。

    (四)算法因技术中立规则而免责

      技术中立规则,亦即“实质性非侵权用途”标准,来源于美国最高法院于1983年审理的索尼案(Universal v. Sony),认为能够用于侵权的设备的销售者,如果该设备“广泛应用于合法的、不被反对的目的”,对于此后的侵权行为不承担责任。我国司法也明显受此规则影响,不但在《民法典》、《电子商务法》、《信息网络传播权保护条例》等重要法律中明确规定了基于技术中立精神创设的避风港原则,也在司法实践中常常以技术中立的精神知道侵权行为的认定,技术中立规则成为审理网络知识产权侵权案件中的常用法理。如有的法官所说,“根据技术中立的观点,如果仅提供软件供人使用,即使软件涉及到侵权作品,提供软件者也不应承担侵权责任。”

      在算法涉及诉讼时,算法开发者以此理由抗辩,这也是惯常做法。那么,我们如何对算法进行法律问责?其实回到技术中立的内涵来看,对算法技术中立抗辩的审查也同样可采取“实质性非侵权用途”的标准,即将算法置于较大规模的市场上来考量,如果算法全部或大部分输出的结果均未侵权或不正当竞争的,则该算法本身合法性无争议,算法开发者可以算法的技术中立来抗辩免责;如果算法对大部分输出的结果都能产生不公平的对待,那么这个算法本身存在歧视的问题,而这个算法歧视由人为干预设置的可能性较大,则算法将根据具体情况构成侵权或不正当竞争等违法情形。譬如,以“今日头条”为例,当其宣称自身算法中立时,其实不过是采取了另一种价值立场:以商业价值与经济利益作为新闻媒体的最大价值,利用“算法实现最大推送量,获得最高点击率”,“追求利益的最大化。其实该种算法也注入了人类的上述价值观,也是一种算法歧视,其输出的结果不能说是一种公允普世的结果,虽不构成违法,但足以显见算法本身就大概率地带有人类的价值歧视,纯粹的技术中立并不多见。

      因此,为了排除技术中立的算法,检测非技术中立算法中的违规之处,较好的检测办法就是以待鉴定的算法模拟较大规模市场上的真实交易情况,但在司法实践中不可能对每一个用户进行逐一检测。此种矛盾下,司法鉴定可引入具有算法服务能力的中介机构的专业和技术予以解决,“以算法规制算法”。

      四、司法鉴定程序解决算法“黑箱”诉讼难题的路径探讨

      目前,司法实践中没有一例案件正视解决算法“黑箱”问题,也没有一个司法判例可以将算法“黑箱”解释说理透彻。然而,人工智能大势已浩荡,算法技术已运用到社会生活的方方面面,智能化社会的结果就是社会被一个个算法“黑箱”所包围。在未来的司法诉讼中,因为算法“黑箱”问题导致的纠纷也将会呈现数量级增长。  

      司法鉴定是解决算法“黑箱”解释性问题的一种可行方式,笔者受欧盟个人数据处理活动评估制度(DPIA)的启发,将该评估方法有选择地应用于司法鉴定中可同样解决诉讼中算法“黑箱”的诸多问题。但在现有司法实践框架下,算法司法鉴定要落地本土仍需要多方面的变革和创新。

      (一)制定和出台算法“黑箱”技术鉴定统一标准

      如要解决算法“黑箱”的问题,必须要对算法“黑箱”进行透明化和公开化处理。在司法鉴定程序中,这一算法“黑箱”也必须向司法鉴定机构公开。那么如何保证算法“黑箱”的商业秘密权益?这就要对算法“黑箱”的司法鉴定程序以及技术鉴定标准进行统一,而非将算法的所有源代码、指令以及收集的数据等均向司法鉴定机构公开。

      司法鉴定其实也是一种法律认可的“黑箱”,这个黑箱的输入就是拟鉴定对象,输出就是鉴定对象的真伪、价值等,其中依据的便是统一的一套标准和规范,这个就是司法鉴定“黑箱”的具体运作。司法鉴定报告中对司法鉴定的程序、规范、所依据的鉴定材料和标准进行说明,意图将司法鉴定结果作出全面、易懂的解释。这与算法“黑箱”解释的目标如出一辙。

      笔者认为,仅需要将涉案的整套算法系统以及收集的数据以加密形式向司法鉴定机构进行公开,而司法鉴定机构仅需将测试数据导入到算法系统中,对输出的结果进行观测、记录和分析。正如马克思在《评普鲁士最近的书报检查令》中说:“对于法律来说,除了我的行为以外,我是根本不存在的,我根本不是法律的对象。我的行为就是法律在处置我时所应依据的唯一的东西,因为我的行为就是我为之要求生存权利、要求现实权利的唯一东西,而且因此我才受到现行法的支配。”法律不惩罚人的思想,对于算法亦是如此。算法是人工智能的“大脑”,我们仅对于其产生法律后果的行为进行约束。

      这便是算法司法鉴定统一标准过程中最为重要的一环,而在这个过程中还存在算法输入、输出过程中所使用的方法以及检测规范、分析规范和衡量结果是否具有合法等问题需要进一步统一,才能在司法实践中统一裁判尺度。正如美国纽约州《算法问责法案》中规定的那样,对于可鉴定的算法管辖范围、算法风险大小标准以及算法鉴定的内容等方面要进行明确规定,从而统一鉴定和评估的标准。

由此观之,设定一个算法司法鉴定的统一标准极有必要。

     (二)在全国范围内筛选一批具有算法鉴定评估技术实力的中介机构和鉴定人员

      在《个人信息保护法》正式实施后,该法所创建的算法自我评估制度将会使各家算法开发者设立算法评估机构,该评估机构或是算法开发者自身创立,作为开发者的部门,或是由社会中的第三方中介服务机构提供算法评估服务,而笔者认为后者也将成为主流形式,社会中将涌现一大批第三方算法中介服务机构。从商业竞争逻辑的视角来看,主动把自己的科技核心拱手让人,这显然不符合商业价值的规律,但是依然可以依法通过建立专门的算法偏见审计机构进行审查审计。

      在德国,目前已出现由技术专家和资深媒体人挑头成立的名为“监控算法”的非营利组织,宗旨是评估并监控影响公共生活的算法决策过程。美国纽约州颁布的《算法问责法案》要去将公民组织代表纳入监督自动化决策算法的工作组,以确保算法公开与透明。根据《个人信息保护法》制度的安排,这些第三方算法中介服务机构将主要从事某一算法应用之前的风险评估、资格认证等服务,从而在算法应用之前把控风险、改进方案、完成备案、服从监管。这些第三方算法中介服务机构具备技术及人员,并在服务算法开发者的过程中积累了经验,在经过筛选后可以作为司法程序中的算法鉴定机构。

      另外,在司法程序中对算法“黑箱”进行合法性审查并追责后,算法开发者的违法成本将增加,这也能让算法开发者投入资金到算法的保护个体隐私、数据安全与社会公共利益、维护市场竞争秩序的设计部署中,算法开发者将更加注重算法开发过程中的合规投入。这从另一个角度又能提高社会中第三方算法中介机构服务能力和生存条件,避免因为算法评估制度越来越“软化”,其评估服务流于形式的窘境。

      (三)完善各类算法开发者风险评估制度

      现阶段,算法评估制度仅停留在算法开发者自我评估,其评估效力和风险防控能力较弱,自我评估报告不具有公信力,对于普通公民的认知和理解来说也并不友好。因此,算法开发者的风险评估报告必须增加公信力。

      一方面,风险评估机构方面可以选择前述第三方算法中介服务机构,对该类中介机构进行发放牌照、定期审核资质、培训业务能力等以界定其市场准入门槛。聘请独立的第三方算法审计机构对算法进行定期检测,也是维护自动化决策系统正常运作不可或缺的一环。

      另一方面,将风险评估报告定期交由政府工信部门备案,政府工信部门定期对算法开发者的算法委托第三方算法中介服务机构进行监测和评估,并将监测和评估结果登记备查。如2018年3月由中国人民银行等四个部门联合发布的《关于规范金融机构资产管理业务的指导意见》明确规定,运用人工智能技术开展投资顾问业务应取得投资顾问资质,金融机构运用人工智能技术开展资产管理业务除了要遵守投资者适当性、信息披露、风险隔离等一般性规定外,金融机构还应当向金融监管部门报备人工智能模型的主要参数以及资产配置的主要逻辑。

      在司法程序中,将第三方算法中介服务机构已经出具的风险评估报告以及政府监测评估报告这类较有公信力的风险评估报告进行审查,并将验证过的可信任的过程信息交给司法鉴定机构进行算法合法性鉴定,从而解决司法程序中算法的可解释性问题。(四)以新型互联网存证技术解决算法“黑箱”存证难题

      对于算法存证,是否可以采用时下较热的区块链技术、可信时间戳、哈希值校验等方式进行证据固定?在算法系统中,如果要对算法进行审查,必须要对其在运行过程中产生和搜集的数据进行跟踪和记录,而且这个数据必须是不可篡改的,即一些学者提出的审计跟踪记录(audit trails)。可追溯性让人类监管机构不仅能够理解智能机器的决策过程并在以后作出必要的修正,而且能够在特定的调查和法律行动中发挥其应有的作用。IEEE《人工智能设计的伦理准则》多处要求自动化决策系统提供审计跟踪记录。澳大利亚等国已经通过行政规章规定自动化(辅助)决策系统应当提供审计跟踪记录。

    《最高人民法院关于互联网法院审理案件若干问题的规定》出台后,最高法院首次以司法解释的形式肯定了区块链技术、可信时间戳、哈希值校验等互联网技术在司法存证过程中的作用和效力。另外,2021年5月27日工业和信息化部和中央网络安全和信息化委员会办公室联合下发《关于加快推动区块链技术应用和产业发展的指导意见》,也明确肯定了区块链技术在互联网存证方面的重要作用,强调区块链技术在数据透明、不易篡改、可追溯等特性,认为区块链技术能够解决网络空间的信任和安全问题,并推动互联网从传递信息向传递价值变革。

     区块链等新型技术可以对已公开的信息进行存证,也可以对主动添加至区块链上的数据进行有效存证,但无法对未公开的或者采取保密措施的数据进行存证,否则就是违法侵入他人的计算机信息系统,有可能构成犯罪。对于算法“黑箱”存证而言,如能通过法律规则强制要求算法开发者将算法核心数据存放在区块链上,能彻底解决上述问题,但对于算法开发者而言法律对其要求过重,不适合产业发展;如算法开发者将算法核心数据主动存放在区块链上,只要这一区块链没有被提取,仍处于保密状态,则既能使算法“黑箱”存证具有可靠性,也可以解决算法的保密性问题。

      因此,解决这个问题的方法就变成倡导算法开发者将算法核心数据存放于区块链上,以备事先审查以及事后追查,否则按照《个人信息保护法(草案)》(二审稿)所规定的,是否侵犯个人信息的举证责任应当由个人信息处理者承担,倒逼算法开发者加强算法核心数据存证以及设计算法更加合法合理。

    (五)以算法规制算法

     司法鉴定中该采取何种方式进行鉴定?可以“以算法规制算法”,即在算法设计时,同时设立另外一个算法,在代码中加入数据保护步骤,如同欧盟《通用数据保护条例》中提及的“经设计的数据保护”由政府监管机构提出该算法设计标准,算法设计开发者在设计中应当使用算法透明度提高工具(Transparency Enhancing Tools)。这种规制的算法是内嵌于算法系统本身,以算法开发者自己开发的算法约束拟应用的算法。在司法程序中,这一用以监测的算法所做的评估结果有可能因不具有中立性而不予采纳。通过设定后续的具体法律规则,让政府部门委托的第三方算法中介服务机构直接掌控这一监测算法是一个较为妥善的方式。

      在司法程序中,第三方算法中介服务机构也需使用一套用于监测和评估算法的算法系统,这套算法系统将对待鉴定算法的行为和造成的结果进行评判,如侵权,按照侵权行为和侵权结果进行认定;如构成不正当竞争或垄断行为,按照构成要件进行违法处理。接下去要做的就是引导社会中有技术实力的主体开发用以验证算法的软件和算法,这一算法提供给司法或者第三方算法中介服务机构投入使用后,就能实现算法验证算法或者以算法规制算法。例如,近些年如火如荼开展的智慧司法建设,算法成为了智慧司法过程中不可缺少的角色,“智慧法院”成为了国家发展战略。在此智慧法院建设的过程中,为了解决算法的专业性问题,也可建设专业的算法鉴定系统。为解决该套系统算法的可解释性问题,维护司法公正,不能采用前述美国康斯威星州在Eric案中对于COMPAS系统的态度,而必须将这套系统所运用的算法在产权明晰、权利允许的情况下全部予以公开,从而达到司法公开的效果,这就好比判决书中必须阐明、而非掩盖判决的理由,防止形成司法“黑箱”。

 

 陈景辉:《算法的法律性质:言论、商业秘密还是正当程序?》,《比较法研究》,2020年第2期。

 浮婷;《算法“黑箱”与算法责任机制研究》,《中国社会科学院大学(研究所院)博士学位论文》,2020年6月。

 胡小伟:《人工智能时代算法风险的法律规制论纲》,《湖北大学学报(哲学社会科学版)》,2021年3月第2期。

 邢会强:《人工智能时代的金融监管变革》,《探索与争鸣》2018年第10期。

 康福柱、田孟龙:《数据公开:让算法守法》,《新闻传播》2021年第3期。

 赖祐萱:《外卖骑手,坤在系统里》,《人物2020年第8期。

 吴椒军、郭婉儿:《人工智能时代算法黑箱的法治化治理》,《科技与法律(中英文)》2021年第1期。

 胡凌:《人工智能的法律想象》,《文化纵横》2017年第2期。

 张凌寒:《算法评估制度如何在平台问责中发挥作用》,《上海政法学院学报(法治论丛)》,2021年第3期。

 参见前引7,吴椒军、郭婉儿文。

 徐凤:《人工智能算法黑箱的法律规制——以智能投顾为例展开》,《东方法学》2019年第6期。

 参见前引11,徐凤文。

 孔祥俊:《网络著作权保护法律理念与裁判方法》,中国法制出版社,2015年4月第1版第266页。

 曹丽萍(北京市海淀区人民法院知识产权庭):《审理视频网站侵权案认定被告主观明知、应知的情况》,《网络著作权审判实务研讨会发言材料》,北京市高级人民法院编,2009年11月17-18日。

 宣言:《不能让算法决定内容》,《人民日报》2017105日

 汪庆华:《算法透明的多重维度和算法问责》,《比较法研究》,2020年第6期。

 参见前引5,康福柱、田孟龙文。

 张淑玲:《破解黑箱:智媒时代的算法权力规制与透明实现机制》,《中国出版》2018年第7期。

 谭久生、范晓韵:《算法“黑箱”的成因、风险及其治理》,《湖南科技大学学报(社会科学版)》、2020年11月第6期。

 参见前引9,张凌寒文。

 Joshua A. Kroll et al., supra note 43, at 641.

 刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,《比较法研究》,2020年第5期。

 Australian Administrative Review Council, Automated Assistance in Administrative Decision Making, IssuesPaper 31 (2003).

 王志成:《智慧司法中算法公开的尝试》,《法理——法哲学、法学方法论与人工智能》,2020年第2期。

 



来源:省律协专业委员会工作部
责任编辑:雷雨