前沿动态
司法文明协同创新中心的建设目标是按照“国家急需、世界一流、制度先进、贡献重大”的要求,依据科学研究、学科建设、资政育人“三位一体”的方针,打造中国乃至世界司法研究的重镇、中国司法学科建设的平台、卓越司法人才培养的基地、司法文明和法治中国建设的核心智库。
吴沈括 许林逸:欧洲委员会《人工智能公约》要旨及其启示
【法宝引证码】CLI.A.4125427
    【学科类别】人工智能
    【出处】微信公众号: 数字治理全球洞察
    【写作时间】2023年
    【中文摘要】欧洲委员会关于人工智能系统规制的《人工智能公约》正在推进过程中,该公约意图完善人工智能法律监管,重点关注人工智能引发的人权、民主和法治风险,对人工智能监管的内容和程序均进行了规定。我国在发展人工智能系统的过程中,可以在该公约的驱动下,加强人工智能立法对个人基本权利的保护,推动法律监管的国际合作,并寻求技术发展与人权保障之间的平衡点,借鉴域外经验,保障我国人工智能的法治化运行。
    【中文关键字】人工智能;法律监管;法治建设;个人基本权利保护
    【全文】


      随着人工智能对社会、环境和人类生活产生深远影响,人工智能引发的人权、民主和法治侵犯问题以及法律监管需求也逐渐进入公众视野。近些年,欧洲在人工智能的法律监管方面一直展现出积极的态度。2020年欧盟委员会发布了《人工智能白皮书》,意图防范人工智能引发的风险,2021年欧盟《人工智能法》提案的出台,以求进一步提升人工智能的合法性。2022年8月,欧洲委员会推进《人工智能公约》(简称“《公约》”)的制定,该《公约》将立足于协调人工智能发展与人权、民主和法治之间的关系,努力建立一个潜在的法律框架,以确保人工智能的设计、部署和使用将符合欧洲委员会关于人权、民主和法治的标准。此外,《公约》即将是第一份具有法律约束力的人工智能国际文书,其谈判过程将进一步对其内容进行完善,加强对人工智能的跨国性法律监管。在人工智能委员会(Committee on Artificial Intelligence,CAI)于2023年1月5日召开的会议上,人类尊严、平等和治理理事会主任Claudia LUCIANI女士表示CAI希望在职权范围内于今年11月至1月通过欧洲委员会《公约》(框架)。在1月11日至13日期间,会议将增加议程项目,并介绍起草《公约》和审查修订后的工作方法。《公约》的推进对于人工智能的监管具有里程碑的意义,其中的智慧和经验也值得国际社会借鉴。
      一、《公约》的制定背景和重点关切
      人工智能的发展在改变人们生活方式和增加社会福祉的同时,也带来了侵犯人权、违反法治等风险。根据《世界人权宣言》的序言,“承认人类家庭所有成员所固有的尊严和平等和不可剥夺的权利是世界自由、正义与和平的基础”。人工智能可以用来培养人类的尊严和赋予个人权利,但同时可以挑战人的尊严与权利。但原则上,人工智能系统的开发和使用应当确保和促进人类的身体和心理的完整性。而人工智能系统的积极或消极的后果和发展趋势,取决于人类在发展和部署它们时的价值观和行为,因此对人工智能发展的规制应当以规范开发者和部署者为起点,对人工智能违背法治和人权的行为进行规制,归根结底仍是对人类的归责。值得注意的是,人工智能在对人权、民主和法治的积极和消极影响方面区别于其他技术,因此针对人工智能的规制需要更具有针对性的规范,以适应人工智能的特点与规制需要。欧洲委员会作为促进欧洲人权、法治、文化的国际组织,已经充分意识到人工智能法律规制的迫切要求,以及人工智能法律监管的国际化需求,通过《公约》的起草和完善,意图为人工智能的监管和合作提供法律保障,确保有利于社会的人工智能创新能够蓬勃发展,同时应对人工智能系统的设计、开发和应用所带来的具体风险。在内容范围方面,《公约》将尽可能涵盖人工智能的个人、集体和社会风险,其内容规定将具有一定超前性和灵活性,以考虑到与人工智能有关的未来技术、市场、社会和环境的发展,确保充分识别人工智能系统的开发和使用人工智能系统所带来的挑战的多样性。《公约》的制定表示欧洲委员会正在努力为人工智能提供一个欧洲模式,并产生良好的国际性影响。
      在《公约》内容具体规定方面,《公约》旨在为人工智能提供了一个有效的监管框架,以确保人工智能健康稳健地发展。一方面人工智能的发展不应侵犯基本人权,并依照国际社会共同价值观发展。人工智能在私人和公共生活领域给人权、民主和法治带来了重大挑战,甚至涉嫌对《欧洲人权公约》的违背,因此保证人工智能的发展契合人权保障和民主法治是《公约》首要目标。其一,《公约》对人工智能所涉基本权利、原则和义务等基本问题将作出更细致和准确的规定,将明确对人工智能系统侵犯人权、民主和法治的现象“画红线”,在此规范下,违反规定的人工智能系统或使用将被暂停、禁止或受限制。人类应当对人工智能系统做出知情的自主决策,保留人类在决策过程中的干预作用,以及人类决策者不依赖于使用人工智能的自由。其二,成员国应要求人工智能开发人员和部署人员建立人类监督机制,以保障人类的自主权,以适应在开发和使用人工智能系统的环境中所产生的具体风险。监督机制应包含基于考虑到人工智能对人权、民主和法治影响的环境风险评估,使人类充分参与人工智能系统的运作。监督的范围和频率应根据特定的人工智能应用背景进行调整,并应保留这种人工干预的自主性。成员国应确保所有人权影响评估相关高风险算法系统提交独立专家审查和检查。为进行独立监督,应由各国进行或为各国进行的人权影响评估应向公众公开,有充分的专家意见,并得到有效的后续行动,从而保证监督的有效性。除此之外,还应进行透明和持续的人权影响评估,以确定对人权、民主和法治的任何不利影响,并采取措施预防或减轻这些风险。各国应确保它们以及与它们合作或代表其合作的任何私人行为者在公共采购之前、发展期间、定期里程碑以及在整个具体环境部署期间定期和咨询地进行人权影响评估,以减少甚至消除对权利不利的风险结果。在人权影响评估确定了无法减轻的重大人权风险的情况下,任何公共当局都不应实施或以其他方式使用该人工智能系统。如果确定了与已经部署的人工智能系统相关的风险,则至少在采取适当的风险缓解措施之前,应停止实施。对于已查明的人工智能侵犯人权行为应立即得到处理和补救,并采取措施防止进一步的侵犯人权行为。其三,应当保证人工智能系统应在使用之前以及整个生命周期中持续进行进行适当的测试和验证,包括通过定期审查,以将此类风险降至最低。应确保在人工智能系统的操作中有足够程度的人力参与,考虑到该系统对人权、民主和法治的影响的背景风险评估。人工智能的开发者和部署者应具有足够的能力或资格,以确保进行适当的监督,以保护人权、民主和法治。他们应利用自身的知识储备和工具技术,保证人工智能系统以令人满意的方式运行。另一方面《公约》承认人工智能对公共利益的潜在价值,尽可能减少对人工智能发展的限制,促进人工智能成为全球经济社会发展的驱动力。具体而言,其一,《公约》的推进将增加法律的确定性,减少人工智能开发者和部署者对法律责任的担忧,减少技术发展过程中不必要的过度干涉。其二,《公约》将继续激励技术创新,允许采取支持创新的措施,包括对人工智能系统进行测试,建立和运行监管措施,以在主管当局监督下的受控环境中促进人工智能发展。其三,《公约》考虑到中小企业在技术方面的特殊发展需要,不会对其竞争力造成过度的影响,并要求缔约方采取具体措施支持它们。在《公约》程序规定方面,《公约》规定了执行的保障机制,并载明有关于争端的解决、签署、批准、接受、加入、生效、修正、中止、退出和保存等程序性规定,并在适当的情况下仿效欧洲理事会其他有关公约的规定,避免条约之间的冲突。
      二、《公约》的国际影响与社会评价
      在世界范围内,人工智能开发、部署和使用的过程具有跨国界的性质,关乎全人类的福祉,因此《公约》的制度构建也充分考虑了跨国合作的问题,具有一定的国际影响。《公约》将不仅允许给欧洲理事会的46个成员国参加,而且也将开放给非该组织成员国,加强了欧盟与其他可能缔约的欧洲和非欧洲国家之间的国际合作,对于的推进人工智能的跨国法律监管具有重要作用。在国际合作便利方面,《公约》的内容设计包含了国际合作措施,符合欧洲委员会的法律标准和实践,也为未来签约国共同履行公约内容和实施监督措施提供了基础。在专业性方面,《公约》的适用与其他相关国际或区域公约相比更具有人工智能领域的针对性,能够顺应技术发展变化,特别是考虑到在数据保护等问题上的人工智能规制问题。在与其他国际规范相衔接方面,《公约》与其他国际或区级公约和国际人权标准相适应,符合欧盟的国际贸易承诺和欧盟缔约的其他国际协定内容,减少了不必要或不合理的贸易限制,避免对其他协定的有效实施产生任何不利影响,也避免影响其他国家加入《公约》后产生法律规定方面的冲突。在推进国际社会关于人工智能发展的作用方面,《公约》的制定将有助于国际层面继续建立共同规范,确保对人工智能产品和服务的跨界信任,从而确保人工智能系统所产生的积极影响可以跨越国界传播。《公约》将包含降低人工智能引发风险的可操作性机制,促进国际社会合作过程的可行性。
      2022年8月18日,欧盟委员会发布了一份关于理事会决定的建议,授权代表欧盟就欧洲理事会关于《公约》展开谈判。欧洲数据保护监管机构(European Data Protection  Supervisor,EDPS)认为《公约》提供了一个重要的机会,通过加强对所有受人工智能系统影响的基本人权保护,来补充拟议更多的人工智能法律规范。在规制理念方面,《公约》与CAI的工作目标十分契合。人工智能系统不应该被用来威胁或欺骗人类,而是用来补充和增强人类的能力,为人类带来更多的便利。因此人工智能的开发、设计和应用既需要制定适当的法律框架,引导其正确地发展,同时又要促进技术的创新,避免“因噎废食”。在法治保障方面,《公约》能够为受人工智能影响的人提供明确和强有力的保障。其发展填补了目前没有专门针对人工智能国际法律文书的空白,也为不同国家人工智能保护差异化的现状提供了完善思路。在国际社会对人工智能规制的发展方面,《公约》中对人工智能相关原则、权利和义务的设想和尝试,可能成为未来国际社会设计、开发和应用人工智能的法律框架的主要要素。人工智能特设委员会(Ad hoc Committee on Artificial Intelligence,CAHAI)曾认为,通过在国际一级建立共同规范,可以确保对人工智能产品和服务的跨界信任,从而实现人工智能系统所产生的益处跨越国界传播。
      三、《公约》的制度价值及其启示
      人工智能发展面临的人权、民主与法治的威胁是全世界共同的话题,因此我国在发展人工智能的过程中,也应当对其中面临的消极影响进行识别和防范,确保人工智能的发展符合我国伦理与法治的基本要求。在通过法治规制人工智能发展的过程中,我国可以借鉴域外先进经验,结合我国人工智能的发展实际进行吸收。《公约》的研究和制定过程中包含的立法考量和规范技术等存在可取之处,因此我国在未来人工智能法治发展的过程中,可以结合《公约》中的原则理念与规制方式,确保通过法治手段保障有利于社会的人工智能创新能够蓬勃发展,同时充分应对人工智能系统的设计、开发和应用所带来的具体风险。
      首先,我国需要保持对人工智能所涉人权侵犯等问题的敏感,及时通过立法减少人工智能对个人基本权利的侵犯。《公约》充分尊重个人数据保护领域的现有规范,禁止人工智能发展过程中以任何方式破坏基本权利和自由,对用于推断自然人情绪、生物特征等人工智能进行严格限制。《公约》与现有数据保护的法律框架将相互作用,在人工智能不可避免影响个人生活的情况下,保证个人数据的合理使用。《公约》的起草与谈判是在《人工智能法》提案的基础上进行的,在防范人工智能引发个人权利风险等方面已经具备一定立法基础,因此《公约》可以进一步扩大适用范围,实现区域化、国际化人工智能法律监管的合作。目前我国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》(简称“《条例》”)已经公布,提出创新产品准入制度,但这一立法的位阶较低,且针对性较强,主要针对人工智能相关产业问题,无法适用于对个人基本权利的保障。《上海市促进人工智能产业发展条例(草案)》征求意见稿作为人工智能领域首部省级地方法规,是一个综合性产业条例,虽然展示出人工智能的优先发展战略,但仍未对个人数据权利保护等基本问题进行规定。因此我国应加快实现人工智能专门立法,对人工智能所涉个人基本权利进行保障,确保人工智能依照法律和伦理稳健发展。
      其次,我国可以借鉴《公约》对国际共同发展的促进方式,推动人工智能法律监管的国际合作。人工智能已经上升到国家战略层面,一个国家对人工智能的监管无法适应技术的跨国性,人工智能行业的发展也将面临着国际化的监管。目前已有多个国家针对人工智能监管进行立法,相应的规则秩序已经在国际社会逐渐形成,我国也应当顺应这一国际趋势,将法律监管的视角扩大到世界范围内,打破国家间监管的壁垒,积极签订相关国际性或区际性规范。同时我国应当加强国内立法进程,推动世界人工智能法律监管体系的健全。不同国家虽然立法动态不同,但国际社会对人工智能可追溯性、可解释性、可审计性等基本追求相一致,应当对人工智能发展趋势的基本问题进行规定,形成国际共识。
      最后,我国在人工智能的具体规制方面,可以参考《公约》的制度内容与立法技巧,寻求基本权利保障与技术发展需求的平衡点。人工智能的蓬勃发展具有双重性,一方面需要对技术发展进行支撑和帮助,发挥其创新潜力,避免对人工智能核心技术的过度监管;另一方面也应对人工智能可能产生的风险进行防控,迎接人工智能引发的社会治理挑战。因此应当通过立法实现基本权利与技术发展的平衡,可以借鉴《公约》中的内容规定,肯定人工智能的社会价值,给予产业自由生长的空间,坚持《条例》中的市场化导向与政策鼓励立法方式,同时对人工智能的发展方向进行把控,对存在风险的人工智能技术进行审慎监管,禁止涉嫌构成严重风险的人工智能系统产生和运行。


    【作者简介】
    吴沈括,北京师范大学法学院博士生导师,中国互联网协会研究中心副主任。许林逸,北京师范大学法学院研究助理。

稿件来源:北大法律信息网法学在线

原发布时间:2023/7/25 8:48:42

上一条:软件代码:涉嫌侵犯商业秘密罪?谈谈GPL等开源许可证 下一条:公安机关出具的价格情况说明能作为证据使用吗?

关闭