前沿动态
司法文明协同创新中心的建设目标是按照“国家急需、世界一流、制度先进、贡献重大”的要求,依据科学研究、学科建设、资政育人“三位一体”的方针,打造中国乃至世界司法研究的重镇、中国司法学科建设的平台、卓越司法人才培养的基地、司法文明和法治中国建设的核心智库。
马 光 王丽雯: 国际软法视角下人工智能全球治理的现状与建议
    【学科类别】国际法学
    【出处】《海关与经贸研究》2024年第3期
    【写作时间】2024年
    【中文摘要】人工智能技术的快速发展带来了一系列伦理、法律和政策挑战,使国际法面临着前所未有的考验。鉴于人工智能领域的复杂性和多变性,目前尚难以用一套统一的强制规则将其予以规制。在国际硬法缺位的背景下,软法在全球人工智能治理中扮演着重要角色。本文旨在分析当前人工智能"软法之治"的现状和所面临的挑战,重点关注伦理原则、数据监管和国际合作三大方面,提出应对这些挑战的对策,以帮助适应快速变化的人工智能时代。在此基础上,进一步提出要在联合国的主导下制定《人工智能框架公约》,将一些成熟的软法规则逐步转变成硬法,从而对人工智能国际法的进一步发展做出贡献。
    【中文关键字】人工智能;国际法;软法;伦理原则;数据监管;国际合作
    【全文】  
     


      人工智能(AI)作为一种通用技术,已经深刻地改变了我们的生活和社会。其影响扩展到医疗、教育、科研、通信、交通、安全等专业领域,不仅有潜力提高创新和生产力,还能够帮助应对关键的全球挑战。然而,人工智能的广泛应用也引发了诸多伦理挑战和社会风险,例如:错误和虚假信息泛滥,隐私等个人数据泄露频发,算法导致歧视与不平等加重,劳动市场秩序被扰乱,发展中国家和发达国家之间数字鸿沟加深,等等。斯蒂芬·威廉·霍金(Stephen William Hawking)等科学家甚至表达了对人工智能可能给人类带来生存威胁的担忧。[1]
      为了有效引导人工智能领域的发展,充分发挥其改善人类福祉的潜力,建立统一的人工智能国际规范和标准至关重要。由于人工智能的复杂性和不断发展的性质,人们难以在短期内建立一个单一的全球法律制度去规制它。在国际硬法缺位的背景下,各个国际组织和市民社会纷纷就人工智能对不同领域的影响制定了宣言、建议书、指导方针等软法。对于软法的含义,弗朗西斯·斯奈德(Frncis Snydee)将其定义为“原则上没有法律约束力但却可能具有实际效力的行为规则”。[2]尽管软法缺乏法律约束力,但它们在影响国家行为和在国际社会建立共识等方面具有重要影响。软法不要求各国承担具有法律约束力的义务,而是寻求促进合作,推广良好做法,并为各国和其他利益攸关方共同应对复杂和不断演变的问题提供一个框架。在人工智能领域,国际软法是解决新问题和适应快速变化的技术格局的灵活手段。除了软法之外,部分数字经济伙伴关系协定或数字经济协定中也开始出现人工智能治理的专门条款,部分地区也开始尝试起草人工智能相关国际条约草案。而有些国家通过制定人工智能战略和国内法丰富了国家实践,这些国家实践的积累也将有助于人工智能国际治理规则的形成。
      在此背景下,本文拟对人工智能国际治理的现状进行梳理和分析,并找出人工智能国际治理规则发展的应有路径,再结合我国的国内战略之树立,国内法制定及对人工智能国际治理的贡献等方面,提出我国在人工智能国际治理规则的形成中所应采取的策略。
      一、人工智能国际治理的现状
      在探讨人工智能国际治理现状之前,我们首先需要明确人工智能的概念。人工智能一词的使用可以追溯到20世纪50年代。1950年,艾伦· 图灵(Alan Turing)在《计算机与智能》这篇论文中首次提出了机器可能智能的问题,并讨论了如何构建智能机器以及如何测试它们的智能。[3]1956年,约翰·麦卡锡(John McCarthy)在一次会议上将“人工智能”定义为“制造智能机器的科学和工程”。[4]随着计算能力的提高,这个术语被应用于具有深度学习能力的机器。[5]
      虽然数量和规定的范围及深度还很有限,但人工智能国际治理还是有部分国际条约的支撑。除此之外,人工智能国际治理主要还是依赖于国际软法。国际软法在全球人工智能治理中的价值可以从两个方面加以理解:首先,软法可被看作是制定或形成硬法的先导,充当通向硬法的“中转站”,发挥过渡性、补充性的作用;其次,凭借其自身的特点和优势,软法能够发挥其独立价值,使其在全球人工智能治理中长期稳定存在和发展,并与硬法相辅相成,甚至并驾齐驱。[6]
      尽管目前尚不存在针对人工智能的统一国际软法框架,但一些国际组织、非政府组织和国家等主体讨论和制定的关于人工智能伦理和开发的宣言、指导方针和建议书等都具有较大的参考意义。
      (一)国际条约
      目前,具有人工智能相关条款的国际条约并不多,主要有《数字经济伙伴关系协定》(DEPA)、[7]《新加坡-澳大利亚数字经济协定》(SADE A)、[8]《英国-新加坡数字经济协定》(UKSDEA)、[9]《韩国-新加坡数字伙伴关系协定》(KSDPA),[10]这些协定均有一个条款是专门规定人工智能的, 即 DEPA 第8.2条、SADEA 第31条、UKSDEA 第8.61条、KSDPA 第14.28条。这些条款既有共性,也有部分特性。总体而言,KSDEA 与其余三个条约的人工智能条款差异较大,其规定有更为详细的规则。
      这些条款的共同点是:都认识到人工智能技术在数字经济发展中的重要性,因而重视制定可信、安全、负责任使用的人工智能治理框架。在此基础上,A DEA要求各缔约方应根据各自的相关政策,开展合作。KSDPA要求各缔约方应努力通过促进有关使用和采用人工智能技术的法规、政策和倡议的对话和经验分享,开展合作UKSDEA 则将人工智能和新兴技术放在同一条款进行阐述,称人工智能和新兴技术,包括分布式账本技术、数字双胞胎、沉浸式技术和物联网。且除了道德、可信、安全和负责任外,经济和社会效益也被列为重要考虑因素。在SADE A和KSDPA 的合作范围外, UKSDEA 还包含部分具体合作约定。[11]尽管部分内容已经较之前有了进一步具体化,但整体上,由于这些条款是以相当软化的语言表达的,它并不能被视为对开发人工智能治理框架的约束性承诺,而是更接近一种宣示工具。[12]
      欧洲理事会侧重研究人工智能对人权的影响和应对之策。欧洲理事会各部门之间对人工智能的研究采取“横向”的方法,其设立专门的人工智能委员会(CAI),负责制定一项关于人工智能开发、设计和应用的公约,然后通过与本组织其他政府间委员会、实体的协调维持这一公约的运行。2023年1月,CAI将修订后的公约草案(Revised Zero Draft)[13]公之于众。2023年7月,在对修订稿进行审议之后,CAI主席在秘书处的协助下编写了一份《综合工作草案》(Consolidated Working Draft),[14]作为进一步谈判《公约》的基础。在《《综合工作草案》》中, CAI还关注到儿童权利和人工智能的关系。其在草案中列入了一条明确讨论儿童权利的条款,[15]这是对开发和部署公平、合乎道德的人工智能系统法律框架的重要补充。2023年12月18日, CAI公布了《人工智能、人权、民主与法治框架公约草案》(Draft Framework Convention)。[16]该草案在内容上为人工智能提供了一个有效的监管框架,一方面保证了人工智能的发展契合人权保障和民主法治是其首要目标,另一方面尽可能减少了对人工智能发展的限制以促进其能成为全球经济社会发展的驱动力。[17]
      (二)国际软法
      人工智能国际治理的国际软法主要来自国际组织(包括国家间国际会议)、非政府组织及各国实践。
      1.国际组织和国家间国际会议
      (1)联合国及其专门机构
      国际组织对于人工智能的探讨由来已久。早期的讨论关注人工智能的军事应用。2013年5月,联合国人权事务高级专员办事处法外处决、即决处决或任意处决问题特别报告员发布了一份关于致命自主机器人技术的报告,并宣布“机器人不应该拥有对人类的生死决定力量”[18]。该报告引起了联合国人权理事会(UNHRC)的关注,然后引起了《禁止或限制使用特定可被认为具有过分伤害力或滥杀滥伤作用的常规武器公约》(CCW)框架[19]的关注。在同一年的CCW缔约国大会上,与会国经过讨论,决定于 2014年在 CCW设立专门讨论“致命自主武器系统”(LAWS)的非正式专家会议。经过多年的讨论,各方于 2019年达成了 11项指导原则,并对如下几点达成了共识:(1)CCW是讨论 LAWS问题的适当平台;(2)现有国际人道法依旧适用于 LAWS的战场;(3)发展、生产和部署 LAWS的责任在于行动国家;(I)LAWS监管措施不能阻碍民用人工智能的合理开发;(5)在无人干预情况下使用完全致命性自主武器系统是不可接受的。[20]而对于 LAWS的定义和特点,是否予以禁止,是否制定新的相关国际规则等方面则存在较大分歧。[21]2021年12月13日,中国特命全权裁军事务大使李松率团出席在日内瓦召开的 CCW第六次审议大会,并向大会提交了《中国关于规范人工智能军事应用的立场文件》,就战略安全、军事政策、法律伦理、技术安全、研发操作、风险管控、规则制定和国际合作这八个方面,就如何在军事领域负责任地开发和利用人工智能技术提出解决思路。中方认为,在世界和平与发展面临多元挑战的背景下,各国应秉持共同、综合、合作、可持续的全球安全观,通过对话与合作,就如何规范人工智能军事应用寻求共识,构建有效治理机制,避免其军事应用给人类带来重大损害甚至灾难。[22]
      2016年,联合国教科文组织(UNESCO)和世界科学知识与技术伦理委员会(COMEST)联合发布了《机器人伦理报告初步草案》(Preliminary Draft Report of COMEST on Robotics Eth-ics),讨论了机器人的定义以及应用可能带来的伦理问题。[23]2019年,两组织将研究范围从“机器人”扩大到66“人工智能”,撰写了《人工智能伦理的初步研究》(Preliminary Study on theEthics of Artificial Intelligence)。[24]2021年, UNESCO和成员国还通过了一项自愿性人工智能伦理框架,即《人工智能伦理问题建议书》(Recommendation on the Ethics of Artificial Intelligence)。该建议书将伦理视为对人工智能技术进行规范性评估和指导的动态基础,以人的尊严、福祉和防止损害为导向,试图为管制人工智能在教育、科学、文化、传播与信息五大领域的伦理问题提供一份国际准则文书。[25]
      2021年6月28日,世界卫生组织(WHO)发布名为《卫生领域人工智能的伦理与治理》(Ethics and Governance of Artificial Intelligence for Health)的指导文件,涉及卫生部门的人工智能治理软法。该报告希望通过核准的伦理原则[26]作为各国政府、技术开发者、企业、民间社会和政府间组织适当使用卫生领域人工智能的基础。[27]
      2023年7月18日,联合国安理会举行了一场主题为“人工智能给国际和平与安全带来的机遇与风险”的高级别公开会议,这是安理会首次就人工智能议题召开正式会议。中国常驻联合国代表张军在会议上提出了伦理先行、安全可控、公平普惠、开放包容以及和平利用五条人工智能治理原则。[28]
      2023年10月,为促进人工智能治理的全球性对话,联合国秘书长组建了一个人工智能高级别咨询机构(High-Level Advisory Body on AI)。该机构汇集了全球39名来自政府、私营部门、研究机构、公民社会和学术界的专家,拟对人工智能的治理进行一个多利益攸关方共同参与、多学科共治的全球性对话。[29]2023年12月21日,该机构就《以人为本的人工智能治理》(Governing AI for Humanity)征求公众意见。该报告指出了解决全球治理赤字需要明确的原则以及适应当前形势的新职能和制度安排,并提出了人工智能治理指导原则:强调采用包容、共管、符合公共利益的方式进行管理,以《联合国宪章》等国际承诺为基础,采用普遍、网络化、多方协作、与数字治理协同的方式进行治理。[30]
      (2)经济合作与发展组织(OECD)
      关于人工智能原则的第一份国际指南来自 OECD,其数字经济政策委员会(CDEP)从2016年开始讨论人工智能技术的前景和制定指导方针的必要性。2018年,秘书处发布了一份《社会中的人工智能》文件草案,随后成立人工智能专家组(IGO),以认真研究人工智能原则的制定。AIGO全面研究了人工智能技术前景、经济和社会影响、政策考虑以及人工智能定义和生命周期,并编写了人工智能原则草案[31]。2019年5月2日日,OECD成员国同意采用该非约束性原则,即巾《人工智能委员会的建议》(Recommendation of the Council on Artificial Intelli-gence)[32],列出人工智能发展应具备的价值观和建议,包括如何管理和监管人工智能,强调国际合作在应对人工智能带来的跨国挑战中的重要性,等等。后该建议书于 2023年11月8日被修订,更新了“人工智能系统”的定义,以适应生成式人工智能等相关的技术发展。[33]
      (3)欧盟
      欧盟(EU)秉持人工智能必须在充分的监督和控制之下发展的态度,制定了一系列的规则和制度,着力发展“可信赖的人工智能”。201年4月,欧盟 25个成员国签署了《人工智能合作宣言》(Declaration of Cooperation on Artificial Intelligence), 同意共同面对人工智能在社会、经济、伦理及法律等方面的机遇和挑战。[34]2018年6月,欧盟委员会(European Commission)建立人工智能高级专家小组(AI HLEG),为其实施人工智能战略提供建议[35]。2019年4月, AIHLEG提交了了《可信赖人工智能伦理指南》(Ethics Guidelines for Trustworthy AI),指出人工智能的发展方向应为“可信赖AI”,并据此确立了人工智能发展的三项基本要素,即人工智能技术须符合法律规定,满足伦理道德原则及价值,以在技术和社会层面具有可靠性。[36]
      为确保人工智能的发展尊重人权并且安全值得信赖,2021年,欧盟发布了《人工智能法案》(Artificial Intelligence Act)草案,对人工智能的制造和使用设定了一系列严格的规定。[37]该法案草案注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。草案将人工智能风险分为不可接受的风险、高风险、有限的风险和极小的风险四级,并分别对应不同的监管要求。对不可接受的风险的应用采取完全禁止的态度,对高风险应用采取严格监管措施以保护公众利益和安全,同时对有限风险和极小的风险的应用采取相对宽松的监管政策以促进创新发展。需要注意的是,尽管对有限风险的应用监管力度较小,但其需受到透明度义务和用户同意的约束,即要求人工智能生成的任何合成内容都必须以机器可以识别为人工创建或更改的方式明确标记,需确保所有人类用户都充分了解他们正在与人工智能系统进行交互并防止出现错误信息。[38]这种差异化的监管体系不仅提高了监管效率和透明度,还增强了公众对人工智能技术的信任。2023年12月8日,经过多轮磋商,欧洲议会、欧盟成员国和欧盟委员会三方就全球首个监管包括生成式人工智能在内的全面法规《人工智能法案》达成初步协议。[39]该法案在性质上属于欧盟内部统一法律框架,是全球范围内首部系统化规制人工智能的法律,标志着人工智能治理从原则性约束的“软法”向更具实质性监管的“硬法”加速推进。欧盟做法的可取之处在于其围绕人工智能治理的规则体系深刻体现了规则本身的价值,即为市场中的投资者与潜在投资者提供制度的确定性以保障和促进产业发展。[40]欧盟的硬监管是为了规范外国技术,保护本土人工智能的发展。[41]
      (4)七国集团
      2020年6月16日,在七国集团主导下,加拿大、法国、德国、澳大利亚、美国、日本、韩国等15个国家正式成立全球首个“人工智能全球合作伙伴组织”(GPAI)。2023年10月30日,七国集团领导人和欧盟就《广岛进程开发先进人工智能系统组织的国际指导原则》(Hiro-shima Process International Guiding Principles for Organizations Developing Advanced AI System, 以下简称《指导原则》)和《广岛进程开发先进人工智能系统组织的国际行为准则》(Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems, 以下简称《行为准则》)达成一致[42]。这些指导原则和自愿行为准则,将在国际层面上补充欧盟共同立法者目前正在根据欧盟《人工智能法案》最终确定的具有法律约束力的规则。《指导原则》提出了 11条原则,包括降低风险、识别漏洞和减少滥用,鼓励负责任的信息共享、事件报告和网络安全投资的承诺,保护个人数据和知识产权,以及使用户能够识别人工智能生成的内容等。[43]《行为准则》则针对《指导原则》中的 11条具体原则分别给出了行动建议,包括人工智能的开发和部署中的测试措施、应当排除的风险、提升透明度的报告中应当包含哪些内容等。
      2023年12月14日,GPAI新德里峰会讨论了负责任的人工智能、数据治理、未来工作趋势、创新等关键话题。峰会的主要成果是《2023年GPAI部长级宣言》,宣言重申致力于培育符合民主价值观、人权和创新的可靠人工智能,承认人工智能有利于推动经济增长,但也存在引发错误信息、失业和侵权等风险。[44]
      (5)G20
      在 2019年6月8日 G20财长福冈会议上,各国财长提出了首个相关人工智能原则。在追求以人为本的人工智能方面,20 成员认识到有必要继续促进与可适用的框架相符合的隐私和个人数据保护。同时,考虑到人工智能发展带来的双面性,G20集团将继续努力推动国际合作,最大限度地分享人工智能的利益和最小化风险及担忧。[45]
      (6)国家间国际会议
      2023年11月1日,首届全球人工智能安全峰会在英国布莱切利庄园召开。峰会上,包括英国、美国、欧盟、澳大利亚和中国等在内的 28个国家和地区共同签署了《布莱切利宣言》(Bletchley Declaration)。此宣言是应对快速新兴技术的首份国际声明,签署国一致认为人工智能对人类构成潜在的灾难性风险,故愿携手共建人工智能监管体系。为推进这一议程,签署国决心支持建立一个具有国际包容性的人工智能前沿安全科学研究网络。[46]
      《关于负责任地军事使用人工智能和自主性的政治宣言》(PoliticalDeclaration on Responsible Military Use of Artificial Intelligence and Autonomy)为在军事领域使用人工智能技术提供了一个规范性框架。该宣言是美国于 2023年2月在海牙举行的军事领域负责任的人工智能峰会(REAIM 2023)上发布,截至2023年11月21日得到49个国家的赞同。[47]该宣言提出了十项具体措施,通过加强法律审查、确保有效监督、保持适当谨慎、减少意外偏差、明确界定用途、实施适当保障措施等途径以负责任地开发和使用人工智能和自主性的军事应用。[48]
      2.非政府组织
      目前,除了政府主导的行业规范设计,国际行业协会和跨国数字巨头公司也是行业规范生成的参与者甚至主导者,诸多主体已经推出了人工智能伦理倡议。[49]
      行业组织技术标准、从业人员行为规范等也是人工智能软法治理的重要工具。2016年,美国电气和电子工程师学会(IEEE)开始致力于人工智能在技术和伦理方面的标准制定工作,并于同年发布了第一版《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》(Ethically Aligned Design, A Vision for Prioritizing Human Well-being with Artificial Intelligence and Autonomous Systems)。[50]2017年, IEEE发布第2版,对人工智能伦理事项进行了扩充,旨在鼓励科技人员在人工智能研发过程中优先考虑伦理问题,并就人工智能及自主系统涉及的伦理问题进行专题性阐述。[51]
      国际标准化组织(ISO)和国际电工委员会(IEC)的联合标准化机构ISO/IEC JTC1 于2017年成立了 SC42,对人工智能技术进行标准化,自 2018年起通过一年两次的会议(37个参与国和 22个观察员)开展人工智能国际标准的制定工作。最初启动时只有一个工作组(基础标准)和三个研究组(人工智能系统、人工智能可靠性和案例应用),目前已扩展为九个工作组[52]和三个研究组。JTC1国际标准分六个阶段发布,截至2023年8月,已发布20项ISO标准,此外有 30项 ISO标准正在制定中。加拿大、美国、爱尔兰、日本和中国分别在主导研究人工智能术语、大数据、人工智能可靠性、人工智能案例应用和知识工程相关国际标准。[53]
      同时,一些知名科学家、企业家发起国际性的治理倡议,试图在观念和规范层面凝聚全球共识。2017年8月11日,由未来生命研究所(Future Life Institute)发起,霍金、马斯克领衔推动全球联署的66“阿西洛马人工智能23条原则”(Asilomar AI Principles)[54]已经有多达1273名人工智能/机器人研究人员和2541 名其他领域专家签署支持。[55]该原则从科研目标、科研经费和文化、科学和政策的互动、系统安全可控和透明性,到负责任、隐私、自主性、利益共享、符合人类价值观和不颠覆人类社会秩序等方面,呼吁全世界严格遵守,共同保障人类未来的利益和安全,在业界引起了较大的反响。
      2017年11月3日,一项旨在推动人工智能治理全球合作,促进人工智能可持续发展的《负责任地发展人工智能蒙特利尔宣言》(Montreal Declaration for a Responsible Development ofArtificial Intelligence)发布。[56]作为一个跨学科的工作成果,其主要通过规范参与负责任开发人工智能的任何个人、组织和公司,以及政治代表,来规避人工智能可能带来的严重风险。
      2023年11月日日,世界互联网大会人工智能工作组发布《发展负责任的生成式人工智能研究报告及共识文件》》。[57]该文件总结了全球生成式人工智能技术发展态势,指出当前生成式人工智能发展带来的机遇和挑战的双面性,进而提出发展负责任的生成式人工智能的共识。[58]
      这些国际性的、跨领域的努力为全球人工智能治理合作提供了重要帮助。且这些行业自治规则和政府规制相比具备更强的时效性和灵活性,可为强制性行业规范的确立起到先导作用,其次,此类“超级软法”对于人工智能国际法规则形成的意义还在于其能为后者提供可援引的规则。[59]我国阿里巴巴、科大讯飞等科技公司的部分人工智能技术已经处于世界前列,应当抓住这种领先优势,主动制定或牵头制定相关超级软法,从而掌握人工智能技术标准的话语权。[60]
      3.国家
      此外,各国也开始反思他们对人工智能开发和应用的态度,并积极采取行动,制定人工智能相关的战略、计划、报告、白皮书、政策文件及法律。这些实践有力地推动了人工智能国际治理的国家实践,也促成了国际软法甚至部分国际条约的出台。从长远的角度来看,其也将有效推动人工智能相关习惯国际法的形成。
      (1)美国
      不同于欧盟的重视监管,美国人工智能政策侧重保持发展的主动性与预见性,对重要的人工智能领域,比如芯片、操作系统等计算机领域以及金融业、军事和能源领域,率先占据全球领先地位[61]美国自 2013年开始发布多项人工智能计划,最早提及人工智能在智慧城市、城市大脑、自动驾驶、教育等领域的应用和愿景。[62]2016年,美国相继发布了《为人工智能的未来做准备》(Preparing For The Future of Artificial Intelligence)、[63]《美国国家人工智能研究和发展战略计划》(The National Artificial Intelligence Research and Development Strategic Plan)[64]和《人工智能,自动化与经济》(Artificial Intelligence, Automation, and the Economy)[65]三份报三份报告,较为系统地阐述了美国人工智能发展战略、伦理规范和治理机制,指出要在维护公民自由、隐私和美国价值观的前提下促进美国人工智能的发展,并反对主管机关的过度干预。
      2022年10月,美国白宫科技政策办公室(OSTP)发布《人工智能权利法案蓝图》(Blue-print for an AI Bill of Right),概述了美国在人工智能时代应满足的五项原则,旨在指导自动化系统的设计、使用和部署,从而在人工智能时代保护美国公众[66]虽然该法案不具备强制性,但却从科技、经济以及军事等方面为美国人工智能发展提供指引。
      除此之外,美国两党立法者小组于 2023年6月20日提出了一项《国家人工智能委员会法案》(National AI Commission Act),旨在成立一个专注于人工智能监管的委员会。[67]在生成式人工智能技术出现突破的情况下,尽管立法者敦促加强监管,但美国政府对人工智能的态度整体倾向于鼓励发展和创新,同时尽量减少对人工智能创新的监管影响。[68]
      2023年10月,美国政府发布《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial In-telligence)。[69]该行政命令指示通过共享重要信息,制定测试、筛选、检验标准以及先进的网络安全计划等措施,[70]以保护美国公民免受人工智能潜在风险的威胁。
      (2)英国
      2015年,英国正式成立人工智能研究中心(Alan Turing Institute),该研究中心致力于推动人工智能的前沿研究。[71]2017年6月,英国上议院成立了人工智能专责委员会,负责研究人工智能发展所带来的经济、伦理和社会影响。[72]该委员会于次年发布了《英国人工智能:准备、意愿与能力》(AI in the UK: Ready, Willing and Able)的报告。[73]2018 年4月,英国政府发布了了《产业战略:人工智能部门协议》(Industrial Strategy: Artificial Intelligence Sector Deal), 这是英国政府和产业界做出的首份发展人工智能的承诺,将采取实际行动切实推进人工智能的发展,以提升英国在人工智能技术领域的领导地位。[74]
      2021年9月,英国数字化、文化、媒体和体育部(DCMS)正式发布《国家人工智能战略》(National AI Strategy)。这是英国首次发布与人工智能相关的国家战略,该战略阐述了英国在人工智能领域的愿景,旨在使英国成为人工智能领域的超级大国。[75]2023年3月29日,英国科学、创新和技术部(DSIT)发布了一份题为《创新型人工智能监管》(A Pro-innovation Ap-proach to AI Regulation)自的白皮书,旨在建立公众对前沿技术的信任,并促进企业的创新和成长7。76该战略兼顾监管与创新,为识别和应对人工智能风险提供了框架。
      (3)中国
      2017年7月8日,国务院印发并实施《新一代人工智能发展规划》。2018年1月19日,国家标准化管理委员会正式成立国家人工智能标准化总体组、专家咨询组,负责开展人工智能国际国内标准化工作。
      2021年9月25日,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等[76]项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的 18项具体伦理要求。2022年11月17日,外交部发布《关于加强人工智能伦理治理的立场文件》。
      在立法方面,我国在 2022年和 2023年先后发布《互联网信息服务算法推荐管理规定》、[77]《互联网信息服务深度合成管理规定》》[78]和《生成式人工智能服务管理暂行办法》。[79]
      2023年10月18日,中央网信办发布《全球人工智能治理倡议》,推动建立风险等级测试评估体系,保障人工智能研发和应用中的个人隐私与数据安全,坚持公平性和非歧视性原则,建立并完善人工智能伦理准则、规范及问责机制。[80]
      二、人工智能国际治理现有规则体系存在的问题
      通过对人工智能国际软法的相关梳理,笔者总结出当下软法治理中存在的三大主要问题。
      (一)人工智能伦理原则过于抽象
      伦理是管理一个人行为或活动的道德原则。人类基于成长环境会形成属于自己的伦理判断,可以帮助分辨是非。而人工智能缺乏这样的能力,其目前唯一的伦理标准来自于它的开发者,如果开发人员的道德程度很低,他甚至可能会恶意开发和使用人工智能。因此,建立恰当的伦理原则对指引人工智能的开发和应用至关重要。
      而当下人工智能的伦理之治中存在一种突出的“人权范式”,即明确引用主要的欧洲和国际人权文书作为人工智能技术的规范标准,在《世界人权宣言》《公民权利和政治权利国际公约》《经济、社会、文化权利国际公约》、联合国《企业与人权指导原则》和《欧洲人权公约》等人权法框架下开展人工智能国际治理。[81]一方面,尊重人权是普遍接受的伦理原则,但同时也会存在着范围过于狭窄、过于抽象等缺陷,且由于东西方文化差异,不同国家对人权的理解也存在着较大的差别。[82]
      因此,联合国应成为讨论和制定人工智能国际治理规则的核心平台。欧洲理事会起草的《人工智能、人权、民主和法治框架公约草案》具有明显的区域特性,其可以成为国际讨论的参考文本之一,但非主导或唯一的文本。目前《网络犯罪公约》所遇到的双轨制立法问题就是我们所要特别警惕的,我们应尽早推动在联合国就人工智能国际治理规则展开讨论,并最终制定有约束力的国际条约。
      (二)人工智能监管存在缺位或越位的情形
      人工智能监管在当今社会面临着一系列挑战,其中之一是存在监管的缺位或越位的情形。一方面,人工智能的快速演进使得监管机构难以迎头赶上。技术的不断更新迭代,涉及到的应用场景和领域不断扩展,这对监管法规的制定提出了更高的要求。监管者面临着在新兴领域和复杂技术中确保规范性的挑战,导致监管法规的制定相对滞后于技术创新的步伐。
      另一方面,过早或过度的监管可能引发产业发展的担忧。由于人工智能的发展速度较快,立法者在推动监管措施时,可能因为过度担忧潜在风险而制定过早或过于严苛的法规。这种越位的监管可能导致企业承担过高的成本,影响人工智能产业的健康发展。
      (三)人工智能技术“规制竞赛”阻碍其全球性发展
      目前,各国和地区的监管机构都将人工智能技术的发展和规制纳入其重要发展战略。各个监管机构纷纷制定其独特的治理框架,形成了诸多不同领域的规则和建议书,从而引发了一场关于人工智能治理的“全球竞赛”。尽管这种规制竞赛显示了各国在制定人工智能政策方面的积极性,但也存在一些潜在挑战。
      首先,人工智能的全球性规制竞赛可能增加企业和科研机构守法的成本和违法的风险。不同国家间存在的多样化法规和标准意味着企业和科研机构需要投入更多成本来理解、遵守和执行不同的治理框架。例如,欧盟相对更注重保护隐私,采取严格的数据处理法规,而像美国之类的国家可能更注重技术创新,采取较为灵活的监管措施。这种标准的不一致性可能导致企业在全球市场上面临着遵守多种规定的困扰,增加了其开发和推广人工智能技术的成本和风险。
      其次,这种全球性规制竞争还可能对人工智能技术的国际合作与全球部署造成挑战。共同的技术标准通常是国际合作和创新的基础,不同国家和国际组织制定的独特治理方法可能导致技术标准的碎片化,使得跨国合作和技术交流变得更加困难。此外,针对保护数据隐私和安全的不同法规,可能对跨国合作中的数据共享造成阻碍,降低国际合作的效率,限制全球性人工智能项目的推进。
      因此在制定人工智能国际治理规则时既要增加可操作性,也要在能够达成共识的领域尽早制定具有约束力的具体规则。
      三、加强人工智能国际治理的应对之策
      为更好地规范人工智能的发展,应对其带来的伦理和法律挑战,笔者提出以下四点建议。16
      (一)构建具体的伦理原则
      人工智能的制造和使用都是为人类而服务,其伦理原则的构建应当以人类为中心。类似于Asilomar AI Principles 的伦理原则强调人工智能的发展应当以人类的最大利益为导向,确保人工智能的技术符合伦理要求。[83]同时,在制定人工智能伦理原则时,应当加强全球共同价值的提取与确认,以更具体的价值代替抽象的“人权”。
      哈佛大学伯克曼克莱恩互联网及社会研究中心(Berkman Klein Center)作为人工智能伦理与治理倡议的联合领导者,与麻省理工学院媒体实验室(MIT Media Lab)合作推进了人工智能的伦理研究。其分析了来自拉丁美洲、东亚、南亚、中东、北美和欧洲,由政府、政府间组织、公司、专业协会、倡导团体和多方利益相关者等主体发行的 36份涉及人工智能伦理原则的文件,通过文本研究后总结了全球的八项伦理共识,包括隐私、问责制、安全和保障、透明度和可解释性、公平和非歧视、技术的人为控制、职业责任,以及促进人类价值观。虽然每一套原则都服务于相同的基本目的,即呈现人工智能治理的愿景,它们的目标受众、构成、范围和深度各不相同,研究员也指出人工智能的伦理原则深受文化、语言、地缘和组织背景的影响,全球治理应在充分尊重差异的基础上形成共识。[84]
      (二)实施分类和差异化监管
      对于当前人工智能监管存在过于严格或过于宽松的问题,我们不应采取“一刀切”的方法,而需根据具体情况施行分类和差异化监管。在制定人工智能监管政策时,需要充分考虑人工智能应用的多样性和不同领域的特殊性。
      首先,各领域的人工智能应用具有差异性,因此在监管时应当根据不同行业的特点制定相应的规范和标准。例如,涉及人的生命与健康的领域通常需要更为严格的监管,而其他领域则更注重创新和灵活性。
      其次,人工智能技术的发展速度较快,监管政策也应具备灵活性,能够及时调整以适应技术的变化。刚性的监管政策可能无法跟上技术创新的步伐,因此需要建立一套灵活的监管机制,能够在必要时进行调整和优化。
      此外,对于一些前沿和尚未完全了解的人工智能应用,可以采取更为谨慎的监管策略,通过逐步监测和评估来确保其安全性和合规性。这种分类监管的方式有助于在保障公共利益的同时,促进人工智能技术的创新和发展。
      例如,欧盟的《人工智能法案》就确立了基于风险辨识的监管框架。其对不同人工智能的风险程度进行分级,并采取不同的监管措施,包括:禁止不可接受的风险,重点监管高风险,贯彻透明度原则与有限风险。[85]
      (三)加强国际交流与合作
      人工智能技术的发展和应用是全球范围内高度协同合作的结果。人工智能未来的发展需要依赖各国的优势互补、互利共享,以及合作共赢的理念。为此,我们应当本着合作共赢、共同发展的理念,加强各国之间的政策沟通,促进理解、建立互信,共同致力于构建共建共享、安全高效、持续发展的人工智能治理环境。其次,积极参与全球人工智能治理交流对话,推动国际组织讨论和制定全球人工智能治理的规则。同时,鼓励国内外企业及相关机构加强人工智能国际标准化合作,不断提升在算法规则、数据使用、安全保障等方面的治理能力。第三,建设人工智能领域包容性强的国际治理交流平台,共同研究、讨论、采纳各方面的意见建议,形成国际治理规范共识。最后,通过多边合作机制,分享治理经验与实践,共同探索适应人类发展需要的人工智能治理模式,促使人工智能的开发和应用更好地服务于全球社会。[86]
      (四)尽早推进联合国主导的人工智能框架公约的制定
      目前国际软法在人工智能国际治理方面处于初步阶段,这体现为相关国际软法不仅数量少,而且总体上并没有提出新概念和新规则,也没有提出规制路线图,大部分是对伦理规则的整合重述,这方面的国际法规则明显滞后。[87[对人工智能技术规制的最优选择应是最大化地探索并发挥现有国际规则对人工智能技术的可适用性。[88]欧盟作为一个特殊主体,其人工智能规则同时包含以人工智能为专题的立法与战略政策及以数据为规制对象的配套规则,提供了一种区域国际法的典范。[89]人工智能国际法规制体系的形成过程应当纳入更多主体的考虑,以实现各方的协同共治。[90]
      而制定人工智能国际条约最为恰当的场所应是联合国,特别是人工智能高级别咨询机构。联合国已经通过联合国政府专家组(UNGGE)和联合国信息安全开放式工作组(OEWG)有效推动了网络空间国际法的制定,通过 CCW有效推动了 LAWS的国际法规制,且已经在联合国框架内开启了《联合国网络犯罪公约》的谈判。换言之,联合国在相关领域积累了丰富的经验,有能力做好这一工作,并协调好人工智能框架与网络空间、网络犯罪、LAWS等具体领域的区别立法。也就是说,联合国应先行制定《人工智能治理框架公约》,并就此尽早展开谈判。该框架公约也可以在《全球数字契约》的基础上进一步明确。人工智能伦理,特别是人类尊严和采取国内措施的义务,以及事后救济措施等均是要规定在该项公约中的重要内容。
      四、结语
      人工智能已经深刻地改变了我们的世界,为了实现人工智能技术的可持续发展,国际社会需要适应这一领域的迅速变化。只有通过充分考虑伦理原则、分类分级别监管、加强国际合作、推进联合国主导的人工智能框架公约的制定等多个方面,国际法才能更好地应对人工智能时代带来的新挑战,确保其为全人类的福祉和发展做出贡献。
      我国已就人工智能发布了诸多规划和规范性文件,并发布了《全球人工智能治理倡议》,这些努力都彰显出我国对人工智能国际治理的重视与贡献,将会极大地丰富此领域的国家实践。在此基础上,我国应尽早推动在联合国层面就人工智能国际治理进行制定条约的努力,从而将我国的相关立场准确地灌输到该框架公约的内容中。除了政府层面,我国的人工智能相关企业及科研机构也应一同努力,通过各种场合发出中国声音,提出中国方案。我们是人工智能领域的重要国家,有能力也有必要进行上述努力。


    【作者简介】  
    马光,浙江大学光华法学院副教授;王丽雯,浙江大学国际法研究所研究助理。
    【注释】  
     
    [1]斯蒂芬 · 威廉 · 霍金曾在接受 BBC 采访中指出: “它 (人工智能) 可能自行启动,以不断加快 的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越”,https ://www.bbc.com/ukchina/simp/uk_ life /2014 /12 /141202_ stephan_ hawking_ ai,访问日 期:2024 年1月5 日。
    [2]Francis Snyder,The Effectiveness of European Community Law:Institutions,Processes,Tools and Techniques,The Modern Law Review,Vol.56 (1),1993,p.32.
    [3]A.M.Turing,Computing Machinery and Intelligence,Mind,Vol.59,1950.
    [4]S.L.Andresen,John McCarthy,Father of AI,IEEE Intelligent Systems,Vol.17 (5),2002.
    [5]Council of Europe,History of Artificial Intelligence,https ://www.coe.int/en /web/artificial-intelli- gence/history-of-ai,Accessed 11 December,2023.
    [6]廖凡:《论软法在全球金融治理中的地位和作用》,《厦门大学学报 (哲学社会科学版) 》2016 年第2 期。
    [7]Singapore,Chile,New Zealand,The Digital Economy Partnership Agreement (DEPA),2020.
    [8]Singapore,Australia,The Singapore-Australia Digital Economy Agreement (SADEA),2020.
    [9]UK,Singapore,The UK-Singapore Digital Economy Agreement (UKSDEA),2022.
    [10]Korea,Singapore,The Korea-Singapore Digital Partnership Agreement (KSDPA),2022.
    [11]UKSDEA 合作约定包括: (a) 就研究和产业活动、法律、法规、政策、执法和合规问题交流信 息,分享经验和最佳做法,促进国际人工智能管理框架之间的互操作性; (b) 就与人工智能和 新兴技术有关的问题和发展开展合作; (c) 促进各缔约方政府和非政府实体在研究、学术和产 业领域的合作,涉及研究与开发机会,联合部署和试验平台机会,人工智能和新兴技术的投资 和商业化机会,以及负责任地使用和采用人工智能技术 ; 以及 (d) 就贸易与人工智能及新兴 科技的互动事宜,积极参与国际论坛。
    [12]沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,《上海财经大学学报》2022 年第5期。
    [13]Committee on Artificial Intelligence (CAI),Council of Europe,Revised Zero Draft [Framework] Convention on Artificial Intelligence,Human Rights,Democracy and the Rule of Law,2023.
    [14]Committee on Artificial Intelligence (CAI),Council of Europe,Consolidated Working Draft of the Framework Convention on Artificial Intelligence,Human Rights,Democracy and the Rule of Law,2023.
    [15]Article 18 of“Consolidated Working Draft of the Framework Convention on Artificial Intelligence,Hu- man Rights,Democracy and the Rule of Law ”provides that“Each Party shall,in accordance with its domestic law and relevant international obligations,take due account of any specific needs and vulnera- bilities in relation to respect of the rights of persons with disabilities and of children.”
    [16]Committee on Artificial Intelligence (CAI),Council of Europe,Draft Framework Convention on Arti- ficial Intelligence,Human Rights,Democracy and the Rule of Law,2023.
    [17]吴沈括、许林逸:《欧洲委员会<人工智能公约>要旨及其启示》,《中国审判》2023 年第13 期。
    [18]联合 国:《联合国人权专家呼吁有关国家冻结 “杀 人 机 器 人 ” 研 发 活 动 》,https :// news.un.org/zh/story /2013 /05 /194892,访问日期:2024 年1月5 日。
    [19]《禁止或限制使用某些可被认为具有过分杀伤作用的常规武器公约》(Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May be Deemed to be Excessively Injurious or to Have Indiscriminate Effects),是联合国成员国在 1980 年10月10 日签署,并于 1983 年12月2 日生效的一份国际公约。该公约基于国际人道法的一般规则制定,旨在通过禁 止或限制某些类型的常规武器,以保护平民免受其滥杀滥伤作用的影响,并保护战斗员免受没 有军事意义的过分伤害。随着人工智能的快速发展和军事化应用风险的日益凸显,“致命自主 武器系统” (LAWS) 军备控制逐渐被纳入到讨论议题之中。
    [20]徐能武、龙坤:《联合国 CCW 框架下致命性自主武器系统军控辩争的焦点与趋势》,《国际安全研究》2019 年第5 期。
    [21]CCW,Report of the 2019 session of the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems,2019.
    [22]外交部:《中国关于规范人工智能军事应 用 的立场文件》,http :// www.fmprc.gov.cn/web/wjb_ 673085/zzjg_ 673183 /jks_ 674633/zclc_ 674645/rgzn /202206/t20220614_ 10702838.shtml,访问日期:2024 年1月4 日。
    [23]UNESCO,COMEST,Preliminary Draft Report of COMEST on Robotics Ethics,SHS/YES/COMEST- 9EXT /16 /3 (2016) .
    [24]UNESCO,COEMST,Preliminary Study on the Ethics of Artificial Intelligence,SHS /COMEST/EXTWG- ETHICS-AI /2019 /1 (2019) .
    [25]UNESCO,Recommendation on the Ethics of Artificial Intelligence,2021.
    [26]该套伦理原则包括: (1) 保护人类的自主性,(2) 促进人类福祉、安全和公共利益,(3) 确 保透明、可以解释和可以理解,(4) 培养责任感和实行问责制,(5) 确保包容性和公平,(6) 推广反应迅速且可持续的人工智能。
    [27]WHO,Ethics and Governance of Artificial Intelligence for Health,https ://www.who.int /publica- tions /i /item /9789240029200,Accessed 11 December,2023.
    [28]UN Security Council,Artificial Intelligence:Opportunities and Risks for International Peace and Secur- ity,2023.
    [29]United Nations,High-Level Advisory Body on AI,https ://www.un.org /techenvoy /ai-advisory - body,Accessed 11 December,2023.
    [30]United Nations,Interim  Report:Governing AI  for Humanity,https ://www.un.org /sites/un2.un.org /files /ai_ advisory_ body_ interim_ report.pdf,Accessed 18 January,2024.
    [31]OECD,Recommendation of the Council on Artificial Intelligence,2019,Background Information.
    [32]OECD,Recommendation of the Council on Artificial Intelligence,2019.
    [33]Stuart Russell,Karine Perset,Marko Grobelnik,Updates to the OECD ’s Definition of an AI System Explained,https :// oecd.ai/en /wonk/ai-system-definition-update,Accessed 18 January 2024.
    [34]European Commission,EU Member States Sign up to Cooperate on Artificial Intelligence,https :// digital-strategy.ec.europa.eu/en/news/eu-member-states-sign-cooperate-artificial-intelligence,Accessed 11 December,2023.
    [35]European Commission,Call for a High-Level Expert Group on Artificial Intelligence,https :// digital -strategy.ec.europa.eu/en/news/call -high -level -expert -group -artificial -intelligence,Accessed 11 December,2023.
    [36]European Commission,Independent High-Level Expert Group on Artificial Intelligence,Ethics Guide- lines for Trustworthy AI,2019.
    [37]European Commission,Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts,2021 /0106 (COD) .
    [38]European Parliament,EU AI Act:First Regulation on Artificial Intelligence,https://www.europarl.europa.eu/ news/en/headlines/society /20230601STO93804/eu-ai-act-first-regulation-on-artificial - intelligence,Accessed 1 January,2024.
    [39]European Parliament,Artificial Intelligence Act:Deal on Comprehensive Rules for Trustworthy AI,https ://www.europarl.europa.eu/news/en/press-room /20231206IPR15699/artificial-intelligence - act-deal-on-comprehensive-rules-for-trustworthy-ai,Accessed 1 January,2024.
    [40]沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,《上海财经大学学报》2022 年第5期。
    [41]沈伟、赵尔雅:《数字经济和数字博弈双重背景下人工智能的国际法治理》,《武大国际法评论》2023 年第4 期。
    [42]European Commission,Commission welcomes G7 Leaders ’Agreement on Guiding Principles and a Code of Conduct on Artificial Intelligence,https :// ec.europa.eu/commission/presscorner/detail/en/ip_ 23_ 5379,Accessed 11 December,2023.
    [43]该十一项原则为:(1) 在开发高级人工智能系统的整个过程中,包括在部署和投放市场之前和 整个过程中,采取适当措施,以识别、评估和降低整个人工智能生命周期的风险; (2) 在部署 (包括投放市场) 后,识别和减少漏洞,并酌情识别和减少滥用事件和模式; (3) 公开报告先 进人工智能系统的能力、局限性以及适当和不适当使用的领域,以支持确保足够的透明度,从 而有助于加强问责制 ; (4) 努力实现开发先进人工智能系统的组织之间负责任的信息共享和事 件报告,包括与行业、政府、民间社会和学术界的信息共享和事件报告; (5) 以基于风险的方 法为基础,制定、实施和披露人工智能治理和风险管理政策,包括隐私政策和缓解措施,特别 是针对开发高级人工智能系统的组织 ; (6) 投资并实施强有力的安全控制,包括整个人工智能 生命周期的物理安全、网络安全和内部威胁防护; (7) 在技术可行的情况下,开发和部署可靠 的内容认证和出处机制,如水印或其他技术,使用户能够识别人工智能生成的内容; (8) 优先 开展减轻社会、安全和安保风险的研究,并优先投资于有效的缓解措施; (9) 优先发展先进的 人工智能系统,以应对世界上最大的挑战,特别是但不限于气候危机、全球卫生和教育等挑 战; (10) 推动制定并酌情采用国际技术标准; (11) 采取适当的数据输入措施,保护个人数据 和知识产权。
    [44]GPAI,2023 GPAI Ministerial  Declaration,https :// gpai.ai /2023-GPAI-Ministerial -Declaration.pdf,Accessed 11 January,2024.
    [45]G20 Japan Digital,G20 Ministerial Statement on Trade and Digital Economy,https :// g20-digit- al.go.jp/asset/pdf/ g20_ 2019_ japan_ digital_ statement.pdf,Accessed 4 January,2024.
    [46]UK,The Bletchley Declaration by Countries Attending the AI Safety Summit,2023,https :// www.gov.uk/government/publications/ai-safety -summit -2023 -the -bletchley -declaration/the - bletchley-declaration-by-countries-attending-the-ai-safety-summit -1-2-november-2023,Accessed 11 December,2023.
    [47]Government of the Netherlands,REAIM Call to Action,https ://www.government.nl/ministries/ministry -of-foreign -affairs/documents/publications /2023 /02 /16/reaim -2023 -call -to -action,Accessed 11 December,2023.
    [48]该宣言主要内容为:(1) 各国应确保其军事组织采纳和执行这些原则,以负责任的方式开发、部署和使用人工智能能力 (原文为 “AI capabilities ” ) 。(2) 各国应采取适当步骤,如法律审 查,以确保其军事人工智能能力的使用符合国际法,特别是国际人道法规定的义务。各国还应 考虑如何利用军事人工智能能力加强执行国际人道法,并在武装冲突中更好地保护平民和民用 物体。(3) 各国应确保高级官员有效和适当地监督具有高风险应用的军事人工智能能力的开发 和部署,包括但不限于此类武器系统。(4) 各国应采取积极步骤,尽量减少军事人工智能能力 中的意外偏差。(5) 各国应确保相关人员在开发、部署和使用军事人工智能能力 (包括包含此 类能力的武器系统) 时保持适当谨慎。(6) 各国应确保军事人工智能能力的开发方法、数据来 源、设计程序和文件对国防相关人员透明并可供其审计。(7) 各国应确保对使用或批准使用军 事人工智能能力的人员进行培训,使其充分了解这些系统的能力和局限性,以便根据具体情况 对这些系统的使用作出适当的判断,并减少自动化偏差的风险。(8) 各国应确保军事人工智能 能力有明确界定的用途,并确保其设计和工程能够实现这些预期功能。(9) 各国应确保军事人 工智能能力在其明确界定的用途内和整个生命周期内的安全性、安保性和有效性受到适当和严 格的测试和保证。对于自学或不断更新的军事人工智能能力,各国应通过监测等程序,确保关 键安全特性没有降低。(10) 各国应实施适当的保障措施,以减轻军事人工智能能力发生故障 的风险,例如检测和避免意外后果的能力,以及在已部署的系统出现意外行为时作出反应的能 力,例如脱离或停用已部署的系统。
    [49]沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,《上海财经大学学报》2022 年第5期。
    [50]The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems,Ethically Aligned Design:A Vision for Prioritizing Human Well-being with Artificial Intelligence and Autonomous Systems,Ver- sion 1,IEEE,2016.
    [51]The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems,Ethically Aligned Design:A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems,Version 2,IEEE,2017.
    [52]九个工作组具体包括:基础标准、大数据、可靠性、案例应用、人工智能系统、人工智能治理 影响、基于人工智能的系统测试和人工智能医疗信息。
    [53]P.Deussen,Overview & Major Standardization Achievements of the International Standardization Com- mittee ISO /IEC JTC 1 /SC 42 Artificial Intelligence,https ://www.iso.org /committee /6794475.html,Accessed 11 December,2023.
    [54]NGO:Future of Life Institute,Asilomar AI Principles,2017.
    [55]P.Deussen,Overview & Major Standardization Achievements of the International Standardization Com- mittee ISO/IEC JTC 1/SC 42 Artificial Intelligence,https ://www.iso.org /committee /6794475.html,Accessed 11 December,2023.
    [56]Montreal Declaration for a Responsible Development of Artificial Intelligence,https :// montrealdeclar- ation-responsibleai.com/the-declaration/,Accessed 5April,2024.
    [57]世界互 联 网 大 会:《发展负责任的生 成式人工智能研究报告及共识文件 》,https :// cn.wicinternet.org /2023-11 /09/content_ 36952741.htm,访问日期:2024 年1月5 日。
    [58]该共识包括: (1) 发展负责任的生成式人工智能应始终致力于增进人类福祉,坚持以人为本,推动人类经济、社会和生态可持续发展; (2) 积极倡导并稳妥推进生成式人工智能的可持续发 展; (3) 构建有益于生成式人工智能健康有序发展的良好环境; (4) 提升生成式人工智能研发 及规模应用的能力; (5) 发展安全可靠的生成式人工智能,确保全生命周期内可控地运行 ; (6) 增强生成式人工智能系统的透明度与可解释性,提升人类对其理解和信任; (7) 强化生成 式人工智能数据治理,加强数据安全,尊重和保护个人隐私; (8) 确保生成式人工智能的开放 包容和公平普惠; (9) 明确生成式人工智能的归责体系,增强系统可追溯性; (10) 推动生成 式人工智能更好地理解人类意图、遵循人类指令并符合人类的伦理道德。
    [59]沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,《上海财经大学学报》2022 年第5期。
    [60]赵骏、李婉贞:《人工智能对国际法的挑战及其应对》,《浙江大学学报 (人文社会科学版) 》2020 年第2 期。
    [61]清华大学战略与安全研究中心:《世界各国人工智能产业发展情况汇总》,《国际战略与安全研究报告》2019 年第6 期。
    [62]清华大学战略与安全研究中心:《世界各国人工智能产业发展情况汇总》,《国际战略与安全研究报告》2019 年第6 期。
    [63]Executive Office of the President National Science and Technology Council Committee on Technology,Preparing For The Future Of Artificial Intelligence,2016.
    [64]National Science and Technology Council,The National Artificial Intelligence Research and Develop- ment Strategic Plan,2016,updated in 2019 and 2023.
    [65]Executive Office of the President of the United States,Artificial Intelligence,Automation,and the E- conomy,2016.
    [66]The White House,Blueprint for an AI Bill of Right,2022,https ://www.whitehouse.gov/ostp/ai- bill-of-rights/,Accessed 1 January,2024.
    [67]H.R.4223-118th Congress (2023 -2024 ),National AI Commission Act,H.R.4223,118th Cong.,2023,https ://www.congress.gov/bill /118th-congress/house-bill /4223,Accessed 1 Janu- ary,2024.
    [68]高金智库、中伦律师事务所:《AIGC 生成式人工智能服务合规发展白皮书》,2023 年。
    [69]The White House,Executive Order on the Safe,Secure,and Trustworthy Development and Use of Ar- tificial Intelligence,https ://www.whitehouse.gov/briefing-room/presidential-actions /2023 /10 /30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelli- gence/,Accessed 1 January,2024.
    [70]措施具体包括: (1) 强力人工智能系统的开发者与美国政府共享其安全测试结果和其他重要信 息; (2) 制定标准、工具和测试机制,以帮助确保人工智能系统的安全、可靠和可信; (3) 通 过制定强有力的生物合成筛选新标准,防范利用人工智能设计危险生物材料的风险; (4) 通过 制定检测人工智能生成内容和验证官方内容的标准和最佳实践,保护美国人民免受人工智能带 来的欺诈和欺骗; (5) 建立先进的网络安全计划,开发人工智能工具,发现并修复关键软件中 的漏洞 ; (6) 制定一份国家安全备忘录,指导有关人工智能和安全的进一步行动。
    [71]The Alan Turing Institute,https ://www.turing.ac.uk/about-us,Accessed 11 December,2023.
    [72]UK  Parliament,https :// publications.parliament.uk/pa/ld201719/ldselect/ldai /100 /10001.htm,Accessed 11 December,2023.
    [73]The Authority of the House of Lords,AI in the UK:Ready,Willing and Able,Report of Session 2017-19,2017.
    [74]Department for Science,Innovation and Technology,Department for Business and Trade,Office for Artificial Intelligence,Department for Digital,Culture,Media & Sport,and Department for Business,Energy & Industrial Strategy,Industrial Strategy:Artificial Intelligence Sector Deal,ht- tps ://www.gov.uk/government/publications/artificial-intelligence-sector-deal/ai-sector-deal,Ac- cessed 11 December,2023.
    [75]UK,National AI Strategy,2021.
    [76]UK,A pro-innovation Approach to AI Regulation,2023.
    [77]国家网信办、工业和信息化部、公安部、国家市场监督管理总局:《互联网信息服务算法推荐管理规定》,2022。
    [78]国家网信办、工业和信息化部、公安部:《互联网信息服务深度合成管理规定》,2022。
    [79]国家网信办、国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局:《生成式人工智能服务管理暂行办法》,2023。
    [80]中央网信办:《全球人工智能治理倡议》,http ://www.cac.gov.cn /2023-10/18/ c_1699291032884978.htm,访问日期:2024 年1月4 日。
    [81]周慎、朱旭峰、梁正:《全球可持续发展视域下的人工智能国际治理》,《中国科技论坛》2022年第9 期。
    [82]Pak-Hang Wong,Cultural Differences as Excuses? Human Rights and Cultural Values in Global Ethics and Governance of Al,Philosophy & Technology,Vol.33,2020.
    [83]NGO:Future of Life Institute,Asilomar AI Principles,2017.
    [84]Jessica Fjeld,Nele Achten,Hannah Hilligoss,Adam Christopher Nagy,Madhulika Srikumar,Prin- cipled Artificial Intelligence:Mapping Consensus in Ethical and Rights-based Approaches to Principles for Al,Berkman Klein Center for Internet & Society at Harvard University,2020.
    [85]European Parliament,EU AI Act,2023.
    [86]中国信息通信研究院:《人工智能治理与可持续发展实践白皮书》,2022 年。
    [87]沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,《上海财经大学学报》2022 年第5期。
    [88]孙南翔:《人工智能技术对国际法的挑战及应对原则-以国际海洋法为视角》,《辽宁师范大学学报 (社会科学版) 》2020 年第4 期。
    [89]沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,《上海财经大学学报》2022 年第5期。
    [90]沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,《上海财经大学学报》2022 年第5期。


稿件来源:北大法律信息网法学在线

原发布时间:2025/2/28 8:26:45

上一条:姚培培: 新判例中的承继共犯 下一条:王 源: 中国数据治理制度2024年总结与2025年展望

关闭