前沿动态
司法文明协同创新中心的建设目标是按照“国家急需、世界一流、制度先进、贡献重大”的要求,依据科学研究、学科建设、资政育人“三位一体”的方针,打造中国乃至世界司法研究的重镇、中国司法学科建设的平台、卓越司法人才培养的基地、司法文明和法治中国建设的核心智库。
周 鑫 朱志超 :人工智能侵权到底应是谁的“锅” ——人工智能侵权归责问题探赜
    【学科类别】人工智能
    【出处】本网首发
    【写作时间】2022年
    【中文关键字】人工智能;侵权归责
    【全文】


      从智能制造到智慧家居,从精准推送到自动驾驶……近年来,人工智能技术飞速发展,在人类生产生活各领域得到广泛运用。但是,时有发生的人工智能侵权行为给各国政府出了一道难题:智能机器人一旦危害了国家安全和利益,或者侵犯了著作权、隐私权等公民权利,究竟该如何归责?厘清这个问题,对于建构新的人工智能侵权解决机制,维护国家安全与公民权利意义重大。
      复杂的责任链条
      一直以来,人工智能是否能够承担法律责任的问题备受争议。在法学领域,大部分学者秉承客体说,认为只有真正的“人”才能成为法律主体,智能机器人作为权利的客体,并不必或不能承担法律责任;而部分学者持主体说,有的将智能机器人视作其“所有人”的代理人,有的表示要为智能机器人确立法律意义上的“电子人格”,主张对其进行追责。
      与目前大多数国家和地区一样,我国主要将人工智能认定为客体,认为纵然智能机器人的许多行为是自发的,其侵权责任实际上仍归与相关的自然人、法人或其他组织承担。但即使明确了这一观点,依照现有法律法规,要进行相关责任归咎仍然十分复杂,需要完成多重判断:
      首先,需判断智能机器人是否属于产品,因为只有属于产品,才可以适用产品责任,即由于产品有缺陷,造成了产品消费者、使用者或其他第三者的人身伤害或财产损失,依法应由生产者或销售者分别或共同负责赔偿的一种法律责任。毫无疑问,智能机器人在弱人工智能和强人工智能两个发展阶段,均是经过人类加工、制作而成的智能设备,但若仅供自用而不以销售为目的,就并不属于产品质量法规定的“产品”,亦无法以产品责任予以追究。
      其次,即使智能机器人构成了产品质量法规定的“产品”,还需判断产品责任是否成立。作为一种特殊的侵权制度,产品责任的成立必须满足产品存有缺陷这一要件,即存在危及他人人身、财产安全的不合理危险状态或缺乏应有的安全状态。这些缺陷可能存在于产品的设计、制造、指示和发展等各方面,但由于技术的复杂性,它们在人工智能领域较难界定。
      最后,如果智能机器人并非产品质量法规定的“产品”,还要判断是否适用替代责任。在替代责任的情形中,智能机器人本无瑕疵,并符合技术中立原则要求,但智能机器人的所有人或使用人,如果没有尽到管理人的义务,甚至放任机器人的侵权行为,便不能以技术中立原则免除责任,可以进行责任追究。
      而在确定了“能判”后,还要考量“判多重”。在人工智能侵权案件所涉各类主体中,生产者直接参与设计制造,决定了智能机器人的算法、性能、智能水平等,相比之下,销售者、使用者仍停留在产品的交易与应用层面,他们大多不了解智能机器人的基本运作原理,更谈不上控制它。因此,生产者、销售者、使用者之间的责任必然存在区别。
      其中,生产者担当智能机器人的“启蒙”,理应适用严格责任,即以智能机器人侵权的既定结果判定生产者负有绝对责任,这是日本、美国及欧盟等国家和组织的一致做法。这是因为不少人工智能系统的实际运行没有人类操控,因而深究人在主观上的故意或过失并无太大意义,如仍坚持过错责任,将过度排除生产者承担责任的可能性,导致受害方权益得不到充足保障,有失公允。不过,严格责任“打击面”之大,也很容易影响生产者研发技术、拓展经营的积极性。鉴于此,欧盟已经建议实施相关的强制责任保险、赔偿责任基金,以便转移生产者的赔偿负担,减轻行业发展压力。
      在大多数情况下,销售者、使用者没有必要对智能机器人本身的缺陷承担责任,仅需在各自的义务范围内承担有限的过错责任。具体而言,销售者的过错责任主要表现为进货检查与验收不当、验明合格证明或标识不当以及保持产品质量不当等方面;使用者的过错责任则主要表现为对人工智能系统的管理、改装、使用或其他不当行为。
      漫长的“维权”之路
      不难看出,要追究人工智能侵权的具体责任,掌握侵害事实进而充分举证是关键。围绕这一部分工作,各国广泛开展立法探索,比如德国道路交通法就规定,生产者要在自动驾驶汽车或船舶及其他人工智能产品上安装黑匣子或类似的数据记录装置,并设定数据保留的最低年限。但这样固然能够较好地还原算法情况,却也增加了生产者保存、使用信息的压力和风险,给信息滥用甚至网络灰黑产留下了可乘之机。
      因此,有关部门应制定专门的数据信息管理利用规则,既赋予数据信息所有人或合法取得者对于电子数据的获取、修改、删除及其他处理权利,又对上述权利行使予以必要规定,例如要求必须将数据保留一定期限等,以确保事后调阅数据和举证的完整度。其次,完善相关信息安全保护规则,针对人工智能系统的设计、生产与使用提出一系列必须满足的市场准入条件、技术安全标准,明确违规后果,并建立数据记录硬件载体的定期回收、销毁与降解制度,避免信息遭到窃取、修改、删除或滥用。在此基础上,应配套加强对智能机器人监管技术的研究,不断提高相关安全防护能力和调查取证能力,以更好地应对算法发展实际。
      此外,我国可参考国外经验,在有关部门主导下,构建人工智能赔偿责任基金。通过人工智能损害风险分摊机制,在满足一定条件的情况下,动用基金对受害人予以赔偿。并可根据受益人共摊风险的原则,在包括人工智能投资者、开发者、生产者、使用者等多方受益人中构建人工智能保赔协会,当出现登记在保赔协会名下的人工智能侵权时,受害者可以要求保赔协会承担相应的责任。这不仅将更好地保护受害人权益,维护正常的社会秩序,而且能够为人工智能提供更多的试错机会,有利于相关技术深入服务人类生产生活,呵护相关产业发展、直至成熟。


    【作者简介】
    周鑫,浙江大学光华法学院博士后,研究方向为人工智能法。


上一条:国企央企参股NFT,有何特殊法律风险? 下一条:程 啸 :网络平台垄断行为的损害赔偿责任

关闭