【全文】
近年来,人工智能的高速发展引发社会广泛关注,人工智能对既有法律秩序可能产生的影响也成为法学界瞩目的焦点。研究者们提出,人工智能的发展正在改变人类社会的经济形态、社会交往模式和政治法律结构,现有的法律制度正面临着“破窗性挑战”和“创造性破坏”,法学理论、规范制度和司法实践都需进行升级和转型,传统法律甚至面临“死亡”的前景。这促使从各个部]法角度观察人工智能的重要性日益凸显。
从行政法视角观之,人工智能对公共行政与行政法的影响主要在两个维度上体现:其一,公共行政日趋智能化,自动化决策系统的应用更新了行政权力的运行方式,使人工智能参与到行政立法、决策和行政决定的过程中。当然,人工智能的风险和局限也随之注人,给行政的合法性、可问责性等带来新的挑战。其二,公共行政所面对的对象也日趋智能化,大量的人工智能应用将重塑人与机器相处的方式,促成“智能社会”的到来。这使得传统法律对社会的规范方式和控制能力受到挑战,法律和行政监管体系必须做出相应调整。
本文将以后一问题为关注对象,秉持风险规制的理论背景与视角,首先对人工智能应用的风险特征及其规制立场进行分析,说明为何需要国家干预人工智能应用所带来的风险;随后以自动驾驶规制为例,讨论在对此类风险展开规制时,既有的行政规制体系存在哪些不足,并在此基础上提出可能的应对方案。之所以选择自动驾驶汽车作为讨论的例证,是因为在已初步落地的人工智能应用中,自动驾驶汽车既是传统制造业智能化转型的先导,也是人工智能替代人力的突出代表,具有重大的社会经济意义,其风险表征和规制经验具有一定代表性。
人工智能规制的核心问题是风险防范问题,即如何通过预防性行为与因应性制度来应对人工智能所产生的现代性负面影响。人工智能对于人力的替代能够降低甚至消弭人为过错引发的风险,但同时也会带来其他新的风险一这 是风险规制中的先天难题,即用以控制风险的知识、制度与技术,最终反而成为造成更多不确定性风险的来源。值得警惕的是,相比传统风险,人工智能风险还呈现出与其技术特点相匹配的新特征,这将影响到社会各主体的风险立场。
首先,人工智能可能存在多种复杂风险,且相互间容易发生叠加,从而呈现强复合性。人工智能在具体场景下的应用是智能技术与传统产业的融合,这在更新业态的同时,也使得原本分属于不同领域的风险出现交错,形成高度复合化的风险。以自动驾驶汽车为例,其网联化、智能化的发展方向提供了传统汽车无法提供的自动驾控功能,但同时也带来传统汽车或不具有的风险:第一,由于算法和驾控系统不完善而导致的道路交通安全风险;第二,网络安全风险,如黑客侵人驾驶系统控制车辆等;第三,信息安全风险,如使用者个人信息的泄露风险;第四,道德伦理风险,主要是在交通事故等突发情况下的伤害选择问题,也即所谓“电车难题”的实境化。需要注意的是,上述风险之间并没有清晰的界限,而可能出现迁移和叠加,形成高度复杂的风险样态。例如,当黑客人侵驾驶系统,干扰车辆的传感器和控制系统时,网络安全风险与道路安全风险就发生了重叠。复合化的风险是人工智能应用的内在特征,因为人工智能的核心价值即在于其擦除了人与机器的界限,以机器代替了人力,但这也在根本上颠覆了传统模式下人机共处的风险分配规则。例如,普通汽车的机械安全风险由工信部门通过生产许可与车型许可防范,驾驶风险则由交通管理部门通过驾驶许可防范,但当自动驾驶系统取代人类驾驶员后,原来通过规制人的行为而预防的风险也就转移到了汽车中,风险自然产生了复合性。
其次,人工智能风险的不可预测性增强。人工智能的核心是模仿人类大脑处理问题的算法,这类算法与以满足目标函数为目的的传统算法有着本质区别。传统算法的外在表现模式是既定条件约束下的“输人一输出”式的编码和指令,运行时以可预期的输出响应相应输入。如果发现问题,程序员可以回溯整个程序并进行纠正。这类算法的线性运行过程和应用环境决定了其行为和结果可以被准确控制。与之形成对比,人工智能算法是典型的“学习型算法”,其核心是通过对大量数据的计算、挖掘而创建行为规则,形成自我学习和自主决策的系统,以应对复杂环境。对于传统算法,程序员的任务是解决“如何使机器很好地完成任务”;但对于智能算法而言,程序员的任务是解决“如何使机器能够很好地学习去完成任务”。当智能算法在复杂的真实场景下应用时,非结构化环境的复杂性可能会超出训练的样本,致使结果脱离预期。如目前已经发生的自动驾驶事故,绝大多数都是由于自动驾驶系统无法准确识别复杂的环境和条件所导致。在2018年3月美国亚利桑那州发生的Uber自动驾驶测试车事故中,受害者在夜晚推行着一辆自行车横穿马路,尽管自动驾驶系统已经在撞击前的5.6秒感知到了目标,但却未能准确判断和识别目标,也未能预测目标行动轨迹一系统起初将 目标分类为车辆,后又分类为未知物体和自行车手,从而导致了事故发生。更进一步而言,人工智能算法的学习模式决定了其本身具有自我建构的能力,这意味着算法随着数据集和学习状态的变化而不断更新,外界难以对其运行过程与结果进行准确预测。尤其是在无监督学习的状态下,即便是创建该人工智能算法模型的程序员,可能也无法准确解释算法的运行逻辑。“时至今日,人们可以编写许多电脑无法学习的程序,但更令人惊讶的是,电脑可以学习人们无法编写的程序。”
由于无法预测智能算法的运行过程及结果,人工智能应用所存在的风险同样也难以准确被评估和量化。有研究者将这种智能机械与非结构化环境互动产生的风险形态称为“开放组织风险”,即“尽管对危险源有大概认知,但对其范围难以清晰加以定义而产生的潜在额外风险”。如果用风险规制理论中“已知”和“未知”的关系模型来表述的话,在对人工智能风险的规制中,“已知的已知”较为有限,“已知的未知”将成为常态,如虽可预知自动驾驶可能引发道路交通安全风险,但损害在何种条件下触发、影响可能多大却难以预测。与此同时,“未知的未知”也将频繁出现,即随着人工智能的发展进步,其应用可能给社会带来怎样的风险可能是未知的。例如,相关从业者在音频和视频领域引人深度学习技术时,就很难预测到“深度伪造”(Deepfake)的滥用可能带来的人格损害风险、公共信任风险与国家安全风险。
当风险的复合化和不可预测性增强时,社会中原子化的个体与风险之间的关系也会随之产生变化,个体对风险的自我判断、自我抵抗能力被削弱,“风险自担”的立场逐渐瓦解。首先,人工智能大多由不同的私人企业开发研究,参与开发的人员也相对分散,一个人工智能系统的各个组件可以分别在不同的时间和地点开发设计。这使得信息不对称成为常态,消费者获得全面、真实信息的可能性较低。其次,基于人工智能应用的“黑箱化”特性,使用者并不需要知道其内在结构,只需按照给定方式操作即可实现目的,这使得使用者无法直观和准确地理解人工智能应用的内在逻辑,可能存在的负面影响被遮蔽。国外专家在观察飞机飞行记录时就曾发现,即便是飞行员,也不能完全理解自动飞行系统突然改变飞行高度等操作的逻辑。再次,即便消费者可以基于强制性的信息披露获得相对充分的信息,同时也有意愿去了解人工智能的运行机理,但由于人工智能技术的复杂性和专业性,一般公众也不具备充分认知的能力。而就风险的自治与管制立场而言,一般认为只有当个体具备足够的知识,能够对风险进行准确评估和处理时,风险才被认为适宜由社会个体自担。
与此同时,人工智能应用所引发的风险具有较强的社会性,风险影响的范围通常不局限于使用者本身,而可能扩散至整个社会。虽然从表面上看,人工智能应用主要影响直接使用者和相关利益方,但实际上人工智能应用的网联化、高效率、规模化特性使得其影响往往是社会性的。人工智能网联化的发展路径使得其时刻存在着被不法侵人、影响公共利益的可能。例如,当黑客通过网络人侵自动驾驶汽车系统,控制了车辆的传感器和控制系统时,不仅汽车乘员的生命健康安全受到威胁,公共交通乃至公共安全也有可能受到威胁一汽车可能被操控用来撞击重要建筑或设施设备。人工智能应用的高效率和规模化特性则使得风险的扩张和传递速度加强,从而有更大概率造成系统性风险,例如,美国股市2010年的“5.6闪电崩盘”与智能投资程序的高速抛售行为有着重要关联,其结果是近1万亿美元在不到30分钟的时间内蒸发,引发市场的崩溃。同时,在某些领域,人工智能所蕴含的特定价值判断可能对社会公共价值秩序产生冲击。这方面的典型例子是自动驾驶汽车的碰撞算法。从理论上说,自动驾驶技术即便高度发达,也会面对无法避免的事故:如前方道路上有其他车辆,可用的避让道路也有行人和其他财产。在此类情况下,无论作出何种决定都会出现损害结果,自动驾驶将陷入“两难困境”。在传统驾驶模式下,人类驾驶员的危机选择通常属于无意识的随机意外事件或有意识的紧急避险,不具备可责难性。但在自动驾驶模式下,碰撞时的处理方案却是由算法和程序来决定,这使得碰撞算法成为一种可能影响社会公共价值的系统性设计。尽管其在外观上是私人的、技术性的,但在行为后果上却是公共的、社会的。总之,复杂、多样、难以预测的人工智能风险具备更强的外溢性和系统性,超出了个人自治范畴,而涉及更为广泛和重大的公共利益,这要求国家秉持更加积极的风险观,对人工智能风险进行介人和干预。
个人理性的有限性和风险的社会性决定了需要由国家干预风险这一基本立场。就人工智能风险而言,行政规制具有多个方面的优势。首先,相较于刑事法律、民事侵权法等依托法院进行的事后惩戒机制,行政规制可以对潜在的风险与威胁进行监控并采取措施,预防损害的发生。其次,风险规制并非是单纯的事实问题和科学问题,而有着强烈的社会建构意义。规制政策需要具备一定弹性,广泛考虑经济社会发展情况、行业特点和社会态度,这在对新兴科技的规制中尤为重要。而法院通常受限于特定个案的事实,难以做出更广泛和全面的考量。最后,行政规制机关在应对风险时具有专业方面的特长,因为其工作人员通常具有相关专业背景,长期专注特定任务也有助于培养专业知识。当然,这种专业优势在人工智能语境下可能会受到冲击与挑战。例如美国曾经发生过一起由丰田车意外加速而引发的事故,美国国家公路交通安全管理局(NHTSA) 无力判断该事故是否由软件系统导致,而不得不求助美国宇航局(NASA) 的专业能力作出判断。这也是下文将讨论和解决的问题。
人工智能风险具有复合性且难以预测,不仅社会个体无力抵御,还会对社会公共利益构成影响,从而需要行政权的积极介人。然而,既有的行政规制体系是否具备相应能力却成为一个重要问题。通过对自动驾驶汽车规制实践的考察可以看出,立基于前智能化时代的规制体系,在组织形态、手段方法、目标策略等方面均难以适应人工智能应用所提出的挑战。
(一)组织形态上:以部门为中心的分隔式组织形式不敷应用
传统上,一级政府内部通常按照行政事务类型划分为多个部门,各部门相对独立地完成职责范围内的事务。这种典型的科层制组织模式在功能主义和法治主义层面均有其意义。在功能主义层面,其可视作韦伯理性官僚制下“专业分工、层级节制”思路的产物,旨在通过行政内部的功能分化来实现行政分工的细腻化、专业化、技术化。在法治主义层面,各部门的功能分化能够防止权力过于集中,实现行政内部的分工和制约。然而,人工智能的风险具有高度的复合性,这使得防范风险的任务可能超出单一部门的职责和能力范围,导致以部门为中心的分隔式组织体系难以为继。这在自动驾驶汽车的规制中表现得尤为明显。
为了保障汽车的安全性和可用性,我国对传统汽车采取严格的许可制。1985 年,主管部门开始实施车辆生产目录管理。2004年,“道路机动车辆生产企业及产品公告”列人国务院确需保留的行政审批项目。按照《汽车产业发展政策》的要求,机动车必须符合准人管理制度规定和技术规范的强制性要求,并通过强制性产品认证,登录《道路机动车辆生产企业及产品公告》后由国家发改委和国家质检总局公开发布。公安交管部门依据公告和强制性认证(3C) 标志为车辆办理注册登记。消费者购买机动车后,需由公安交管部门登记或发放临时通行牌证后方可上路行驶。在驾驶安全性方面,驾驶人需要符合驾驶许可条件才能获得公安交管部门颁发的驾驶证。用倘若发生交通事故,由公安交管部门按照法律法规的规定调查处理。
这一规制体系将相对复杂的事务拆分为了多阶段的简单事务。从法定任务的分配上看,处于规制流程前端的工信部门主要依照技术标准对企业及其汽车设计参数进行把关,颁发生产许可与车型许可;处于后端的公安交管部门和交通运输部门则主要负责汽车使用过程的合法性保障,通过驾驶人员许可等制度控制汽车使用环节的风险。面向汽车使用环节的公安交管、交通运输等部门无需提前介人规制体系前端,不参与生产许可与车型许可的发放。因为在该阶段,未投入流通的汽车不进人社会道路,不会发生公安交管部门法定职权范围内的道路交通安全问题。在这种“条条分割”的分段规制当中,各主管部门的职权范围相对固定和清晰,法定任务的分配符合行政部门的专业分工,也有利于明确激励和问责的边界。
然而,从自动驾驶的实践来看,传统的分段式规制体系已经无法适应自动驾驶汽车的规制需要。按照《汽车产业发展政策》的要求,行政机关要对车辆的设计、制造、认证、注册、检验等环节进行管理,但对自动驾驶汽车而言,这些环节不再是先行后续的线性关系,而呈现出前后一体、混合交融的样态。在量产之前,为了保证车辆能够在复杂的场景下正常运行,需要对自动驾驶功能进行反复的测试和调校。但与传统汽车多在封闭场地进行研发测试不同,自动驾驶汽车的决策系统需要大量数据来完善算法,这意味着虚拟仿真测试和封闭场地测试无法满足需要,而需要开放条件更为复杂的真实道路。然而,允许车辆进人社会道路,就意味着技术未定型、安全风险未知的自动驾驶汽车提前进人社会生活领域,可能带来道路交通安全风险。
对这一风险的规制显然已经超出了工信部门的职责范围。随着自动驾驶的进一步发展, 规制任务融合与行政部门分工之间的矛盾将更为突出。如前所言,自动驾驶汽车的网联化发展趋势意味着其存在一定的网络安全风险,这毫无疑问将涉及网络安全主管部门的职责;而自动驾驶对于高精度数字地图的依赖,则使得测绘等部门也牵涉其中。
面对这一问题,实践的应对方式是建立多部门共管的机制。《智能网联汽车道路测试管理规范(试行)》由工信、公安、交通三部委联合印发,并明确规定测试主管部门为工信、公安交管和交通部门。地方规范则提出成立联席工作小组或委员会推进测试工作。这一模式可通 过常态化的协作解决“各管一段”的壁垒,但内部也存在着如何协调不同部门规制目标的问题。从法定任务出发,公安交管部门自然相对更侧重道路安全,工信、商务部门等则会相对侧重产业发展。如何兼顾不同的规制目标,实现最优规制策略,还需要进一步探索 。
在对传统汽车行业的规制中,主要规制对象为汽车产品,规制目标为保障产品的安全性,主要规制工具是技术标准。这一经典的行政权运行模式主要关注三个环节:事前制定规则和标准、事中监督相关主体的合规情况、事后对违法主体实施法律制裁。设定可靠的标准通常是核心环节,在标准确定后,企业和规制机关的主要任务是保证产品符合该标准。因此这一模式通常也被总结为“技术标准规制模式”( technology-based regulation),其逻辑可概括为“政府只需决定最佳技术是什么,然后要求所有企业都服从就行了。”一般来说,与设计型号具备一致性的汽车在投放市场时性能已经固定,不会发生根本性改变。
该模式是典型的“命令—控制”式规制,其中最重要的前提是“政府需要决定何为最佳技术”,从而制定颁布标准。标准越发透明、清晰、固定,就越有助于其实现。正是由于传统标准所代表的行政规则所具有的概括性和决断性,有学者将法律规则的特点归结为“深度不学习”,并认为以“深度不学习”来化约社会复杂性是传统法律的重要运行机制。然而,自动驾驶汽车等智能产品的技术特征使其根本区别于传统规制模式下的规制对象,这使得依靠客观、统一的技术标准来进行规范将面临诸多挑战和障碍。
首先,面对不断发展更新和充满不确定性的技术,规制机关可能不具备充足的知识来寻求何为“最佳”。通常而言,制定技术标准的步骤包括:第一,确定欲控制的负面影响;第二,通过初步的成本收益分析选择切入点;第三,在信息充分的条件下,寻找经济上合理的进路,以合理的成本削减可能的风险。其中最为关键的环节是掌握完备的信息。人工智能风险复杂且难以量化,技术发展路径也尚不清晰,这掏空了制定技术标准的信息基础。另外,人工智能风险的复合性意味着制定标准所需的信息可能是复杂和跨领域的,这也将加剧信息供给不足的问题。其次,统一的标准可能影响人工智能产品的个别化特性。如前所言,自动驾驶汽车所采用的算法并非是在简单执行程序员事先编写的规则,而是在大量数据的基础上,通过自主分析和学习来形成新的决策模型,即自动驾驶汽车的决策系统可能随着汽车的使用持续更新。而技术标准通常具有与一般法规范相似的特点,即追求稳定、明确、可预见,这使得通过颁布统一标准来实现合规的思路存在障碍。即便有可能通过标准来统一算法,也会在另一个侧面制约自动驾驶算法个别化路径的形成,抹杀机器学习后生成的驾驶偏好。换句话说,机器学习形成的决策可能是超出人类预期的更优决策,事先进行控制型的约束则可能扼杀这一利好。
再次,狭义的技术标准主要关注产品技术层面的参数和性能,对道德伦理问题不具备充分的回应能力。我国《标准化法》第2条规定,标准是指农业、工业、服务业以及社会事业等领域需要统一的技术要求,在面对“电车难题”等伦理问题时,这种技术要求很难给出伦理上正当的答案和统一可行的操作规则。德国联邦交通与数字基础设施部伦理委员会2017年颁布的自动驾驶伦理准则中就明确指出“如何在两难境地中( Genuine dilemmatic decisions)进行抉择一如在不同生命间进行权衡一需要取决于实际和具体的情况,综合考虑各方难以被事先预测的行为。因此,这些决定无法被明确的标准化,也不可能被编成在伦理上不存疑的程序。”美国国家标准与技术研究院( National Institute of Standards and Technology,NIST)一份关于人工智能技术标准的计划则指出,信息技术的社会和道德考量还包括了技术性质及其可能产生的社会影响,单纯依靠技术标准并不能够解决人工智能所有的社会和道德问题。
(三)规制策略上:科技发展与风险规制的潜在张力进一步凸显
当传统的规制组织形式与规制方法局限日彰时,科技发展与风险规制之间的潜在张力也进一步凸显。从本质上说,“风险是某种不可欲情形出现的可能性。”也即风险规制中最重要的命题是,如何在多种价值之间进行权衡和取舍,从而判断哪一个结果是更“不可欲”的。就人工智能这类新兴科技而言,严格限制其研发和应用可以最大程度防范风险,但同时也会抑制科技发展与产业活力,最终影响到社会福利。相较于其他行业而言,人工智能的迭代更为迅速一尽管在开发初期需要大量的资本和智力投入,但作为核心的算法在更新时所需要的资源通常是数字的而非物理的。这意味着只要进行一次物理布局,就可以多次实现算法的更新和迭代,从而减少创新成本,缩短创新周期。在更短的创新周期下,过于严厉的规制政策可能导致新兴科技错过关键窗口期,彻底失去发展空间。然而,从另一个方面来说,倘若对科技风险的估计和应对不足,则可能致使简单风险不断复杂化,引发社会恐慌与信任危机。与此同时,对科技风险介人过慢、回应不足可能致使新技术在危害尚未充分展现前“非法兴起”,与社会发生深度结合。当社会对新技术产生路径依赖时,开展有效规制的成本将会陡升。
二者之间的矛盾在自动驾驶汽车准人制度上有着集中体现。据统计,传统驾驶模式下,高达94%的交通事故是由人为驾驶过错所引发。正因为如此,社会普遍希望自动驾驶汽车可以通过规避人为驾驶风险来提升安全性。但从概率上说,任何一种新兴技术都难以保障百分之百的安全性,允许其进人市场就意味着有一定概率会造成损害。在设定准入要求时,摆在规制机关面前的难题是:当技术的安全性达到何种程度时,可以允许其进人市场。如果要求过低,自动驾驶汽车的安全性无法保障,但若要求过高,同样可能造成负面影响。乔治梅森大学的一份研究报告显示,如果因为监管冗余而使自动驾驶汽车的部署速度减缓5%,那么未来的31年内可能多造成15500 人的死亡;如果部署速度减缓10%,未来33年可能多造成34600人死亡;减缓25%意味着40年内可能多造成1124000人死亡。面对此种张力,如何在不同风险之间进行衡量取舍将考验规制机关的智慧。
需要注意的是,对于自动驾驶等新兴技术而言,公众的风险反应常处于反应不足与反应过度的境地中。一般而言,除非有可确证的重大利好,公众对于可能涉及生命、财产等重大法益的新技术接受度相对较低。面对无法完全理解和掌控的新技术,公众通常会表现出焦虑、排斥等心理状态。当出现新技术导致的恶性事故时,公众也可能会基于“体验一情感”模式状态下的“易得性启示”和“概率忽视”而出现过度反应和抵制。然而,另一方面,由于人工智能应用可对人力形成替代,对使用者具有利好,当这种利好被媒体或其他渠道渲染和放大后,也可能使得公众低估风险,从而排斥强规制。这也即是“风险框架的社会放大”效应,即媒介用于提供信息和描述危险的方式影响着公众的风险认知,并随之产生政治社会经济影响。固同时,人工智能会产生一定的“聚身化效应”。所谓聚身化效应,是指科技产品被设计成为人体器官功能的延伸,在使用过程中与人的感官、语言、思维逐渐发生融合。聚身化效应下,使用者的知识、观念、行为习惯会持续受到影响,人与技术的结合日趋紧密,乃至产生技术依赖,导致对技术的控制难以进行。可以看出,对于复杂的新兴技术风险,公众时常处于反应不足和反应过度的状态中,其态度需要慎重对待。
风险对于行政规制的影响至少包括四个方面:风险构成了规制的对象、风险成为规制的正当化依据、风险发挥着组织和程序的作用、风险具有内部和外部的评估和问责作用。从上述四个方面出发,风险既重新构建和界定了规制的权力,也架构和塑造了规制过程。人工智能风险不仅成为了行政规制的对象,为规制行为赋予了正当性,同时也要求既有的行政规制结构进行适当革新,实现风险规制与行业发展的平衡协调。
通常来说,行政组织所要实现的任务决定了其历史发展和未来方向,行政组织与行政任务间的对应关系决定了组织法规范的内涵发挥,人工智能事务专业和复杂,风险易扩散且难预测,即便是某一具体领域的应用也可能关涉多个行政部门。这决定了无法由单一部门完成规制任务,如何从组织形式与专业能力等方面对规制组织进行革新成为学者关注的焦点之一。
部分美国学者提出在联邦层面成立“联邦机器人委员会”( Federal Robotics Commission) 一类的专门规制机构,并认为这一路径既优于各州的侵权法和刑法规制,也优于联邦政府不同部门的分别规制( 如国家公路交通安全管理局规制自动驾驶汽车,联邦航空管理局规制无人机)。围但对于该机构的具体职能和规制方式,学者们的意见有所区别。有研究者提出,专业化机构主要负责向联邦和州政府提出法律政策建议,但不承担执法功能。有研究者基于FDA的药品规制经验,主张联邦层面的人工智能规制机构需要拥有事先规制权、广泛的规则制定和执行权,同时就算法问题享有行政上的最终权威。还有研究者秉持中间路线,认为专门的人工智能规制机构应当分为政策制定和安全认证两个相对独立的部分。政策制定部门负责划定人工智能范围、明确政策环境,认证部门则负责对人工智能的安全性和可靠性进行认证。经过认证的人工智能应用在出现事故时仅承担过错责任;未认证的人工智能应用依然可以销售,但在造成事故时需要承担严格责任。在美国之外,欧洲议会曾经提出过成立专门机构对智能机器人进行规制的意见,国内相关研究成果中也不乏设立专门人工智能监管机构的主张。
从我国人工智能发展和应用的现状来看,建立单独的规制机构尚无必要。因为人工智能技术发展远未定型,应用场景无法确定,过早成立专门机构反而有可能造成规制主体和权限的重叠,造成多头管理和权限争议。这也是国外研究者主张即便成立专门机构也不应当赋予执法权的原因。现阶段依然应当坚持在部门权限划分的基础上,推进各部门之间协同机制的常态化和实体化,并保证可问责性。实践中,我国行政机构的协同往往在组织和行为两个层面展开,组织层面的协同形式主要有成立专门的领导小组或召开联席会议,行为层面的协同形式主要有联合执法和行政协助。人工智能规制中的行政协同可以在此基础上适当创新,如创建常态化的协同实体。在对自动驾驶的规制中,各地所建立的联席小组已经超出了传统“议事协调机构”的定性,而承担着一部分实体性的决策事务,直接对外作出影响当事人权利义务的行为。如2019年版《北京市自动驾驶车辆道路测试管理实施细则(试行) 》就规定,由联席工作小组作为北京市自动驾驶测试管理机构,负责组织开展自动驾驶车辆的道路测试,专家委员会的组织、封闭测试场所的认定、测试资格的确认与撤销等任务均由联席工作小组承担。
从长远来看,当人工智能应用范围逐渐增大,同类问题更加凝练和明确、风险更加突出时,也不排除人工智能专门规制机构实体化的可能。目前,按照国务院《新一代人工智能发展规划》的要求,在国家科技计划管理部际联席会议框架内,由科技部主导成立了新一代人工智 能发展规划推进办公室,并设立了新一代人工智能治理专业委员会。这一组织侧重于推进发展规划和重大项目的实施,不承担直接规制功能。当其具备了相应的规制能力和规制经验,现实发展又确有需要时,即可将其改造为独立、专业的人工智能规制机构。
观察我国行政组织的发展史,应急管理体系的变迁就遵循了从行为协同到松散的组织协同,再到实体化组织的逻辑。这可以视为我国行政组织回应行政任务和行政实践需要的一个样本,其间或可体现出行政组织法未来发展的一些趋势:第一,行政组织形态需要回应行政任务与行政实践的变化,实现行政组织与行政任务的匹配;第二,实现行政组织与行政任务匹配的主要方式是在组织法定的基本要求下,以恰当的组织模式和组织形态推进行政任务的达成,即实现“组织形式最适诫命”;第三,行政组织在回应行政任务变迁的同时,也会对行政任务的发展方向进行引导,从而形成“回应与引导”的组织法模式。
“命令—控制” 型规制的前提是行政机关掌握充分的信息。然而,随着专门化知识的增长,官方决策权威逐渐分散。对于人工智能时代难以确证的技术和社会风险,政府自身的有限理性和能力局限展露无遗。基于此,学者们指出,应当通过对决策程序的规范,促进各方主体围绕不确定的问题有效商谈,尽可能利用现有知识消除不确定性,提升决策理性水平。然而,摆在人工智能风险面前的难题是,任何主体都处于事实上的“无知”状态,即便专家面对新技术也缺乏可靠的经验和数据,这使得商谈路径很难在短期内形成确定规则。此外,还有学者提出,仅以政府主导的事中程序进路来调控行政权,存在着与行政法理论不能协调的困境且难以适应实际需要,故应当推行科学系统对风险的自我规制,实现“受规制的自我规制”。围但这一路径可能存在的问题是,行政机关的“去中心化”可能导致制度的统合能力不足,对系统性重大风险的研判和把握存在疏失,对负外部性的把控不够。
面对此种困境,规则必须与技术发展同频共振,技术的实验将与规则的实验发生结合,“没有任何一条道路可以绕过实验。法律上的规制必须一方面允许实验,但另一方面必须从中得出经验,也就是制定出个体的行为规则以及使之一般化为规范” 。在知识匮乏、认知分歧的背景下,规制者所秉持的策略将不应再是简化概括社会现实这一条路径,而是需要以更加开放、灵活的态度探索新的规制思路。“实验型治理”(Experimentalist Governance) 正是在这一背景下提出。在实验型治理的主张者看来,传统的“命令—控制”治理模式在信息匮乏和不确定性的状态下可能会陷人治理困境。其出路是诉诸于学习和实验,即在暂时性目标和规则的引导下,通过对不同实践路径的比较和学习,持续完善规制目标与规则。实验型治理的特征可概括为:系统地建立对于自身假设和实践的怀疑;将已有的解决方案视为不完美的和可修正的;基于对各种制度路径的比较和学习,持续地对目的与手段进行调试。
例如,目前已在金融监管领域有较为广泛应用的“监管沙盒”(Regulatory Sandbox) 就可以看作是实验型规制的一个代表性工具。监管沙盒是规制机构所创设的一个安全空间,市场主体可以在其中测试其新兴产品、服务、商业模式等,而不会遭受违反现有法规的监管后果。借助监管沙盒的设置,规制机构能够通过降低制度壁垒和测试成本来促进创新,同时也能够将风险控制在沙盒之中,确保消费者不会受到负面影响。典型的实验型规制工具还有实验型立法。实验型立法通常具有三方面特征,一是立法目的本身就是阶段性和临时性的,而非永久的;二是建立事后的评估或学习机制,并从规则实施的影响中进行反思学习;三是在适当的时候将实验型规则转化为永久性规则。此外,通过权力下放形成多层次的政策结构,基于政策的差异和竞争而进行反思和学习,也被认为是实验型治理的重要路径。按照德国学者的总结,德国法上应对风险的法律机制包括了弹性化与暂时性的处理,如制定暂时性规范、附变更保留的规范、赋予观察义务等,这均属于典型的不确定状态下的实验型规制思路。
在人工智能领域引入实验型规制的要点包括:第一,由规制主体综合已有信息和知识,展开风险评估,若不存在可能引发灾难性后果的风险和其他严重、不可恢复的风险,则允许开展实验性研究与应用;第二,创建监管沙盒或其他实验环境,预先设定事故与责任规则;第三,对实验进行过程性管控,确保风险不会外溢;第四,根据所获数据、技术发展情况,对相关规则进行评估调整;第五,在条件成熟时形成正式规范。从目前的实践来看,我国自动驾驶测试规则就带有鲜明的实验型规制特点,多地的测试管理办法均为“试行”立法,并在较短时间内结合技术发展情况进行持续更新。
在人工智能发展初期,规制机关需要放弃对规则确定性和终局性的要求,转而寻求更加灵活、开放的规制进路,这意味着更加概括和包容的原则性规范将发挥更大的作用。以原则作为指引,能够给予规制主体更多弹性空间,也能够防止技术过早陷人规则密林之中。事实上,实验型规制本身也更倾向于设定高度概括的框架性目标,给予实验主体更多发展空间。
哈佛大学伯克曼中心在分析梳理了全球三十余份重要的人工智能规则后提出,绝大多数的规则都关注了隐私保护、可问责性、安全性、透明度与可解释性、公平与非歧视、技术控制、专业责任、促进人的价值等八个方面的要求,并在这些主题之下分别形成不同的原则,从而组成人工智能治理的核心价值。基于共识性的原则设计具体的规制要求,既能够对技术发展的路径进行引导,同时也可以为人工智能注人道德伦理和人权要求,引导其承担公共价值。
探索基于原则的规制进路需要解决两个问题,其一是相关原则与国实定法的关系问题。在法治国家,重大道德伦理通常会作为“义务的道德”,即“使有序社会得以达致其特定目标的基本规则”而体现在法秩序中。人工智能的道德伦理原则应当与法规范要求所融合。例如,德国联邦交通部2017年颁布的《自动驾驶汽车伦理准则》坚持了两项基本要求,第一,人类中心主义:在事故不可避免时,人类生命是诸多法益平衡的重中之重。对人身的保护优先于对动物和财产的保护。第二,平等保护主义:在事故不可避免时,严格禁止任何基于年龄、性别、身体或心理条件等个人特征的区别对待。之所以设定此种要求,是因为德国《基本法》将人的尊严视为至高无上的价值,是法秩序不可动摇的基点。因为人本身即是目的而非手段,因此生命法益也就不能从数量或者质量上进行衡量。
其二是相关原则通过何种途径得以实现的问题。“原则仅仅是治理的起点,而不是终点。其影响取决于它如何嵌人更大的治理生态系统中”。对原则治理进路最直接的批评就在于,这些原则由高度抽象和概括的概念、价值观组成,且过于偏重理论,缺乏具体的行为规范,这可能导致其难以落地。为此,应当探索将原则性规范转化为人工智能系统结构的具体路径,尝试在技术设计和开发周期中嵌人特定的原则要求。从目前的实践来看,通过安全工程技术(safety en-gineering techniques)来确保安全价值的实现已经形成了较为成熟的方法和经验,类似尝试也正在扩展到其他价值如隐私、数据保护等领域中。例如“基于设计的隐私保护”(privacy by design)要求人工智能的开发和运营人员必须将隐私考量纳人人工智能系统开发和数据处理的全生命周期中。另一方面,应当探索将概括性的原则转译为可评估与监测的要求,由具备专业能力的第三方展开相对独立的评估和检测。例如就自动驾驶汽车的安全性要求而言,可以对比传统汽车的事故发生率设计相应的绩效要求,并由相对独立的第三方机构进行评估,出具评估报告。
在复杂的风险语境面前,国务院《新一代人工智能发展规划》提出:“既要加大人工智能研发和应用力度,最大程度发挥人工智能潜力;又要预判人工智能的挑战,协调产业政策、创新政策与社会政策,实现激励发展与合理规制的协调,最大限度防范风险。”当科技发展与风险规制的张力过大,又难以找到一劳永逸的解决方案时,可以通过更加精细的立法与政策手段对风险进行隔离和切分,在有效控制风险的同时创造友善的制度环境。
首先,风险规制的策略需要实现类型化和场景化。正如有研究者指出,“随着智能互联网的飞速发展,普遍性、一致性、抽象逻辑化的生活方式逐渐淡去,而根据特定情形、地域和对象的数据分析、场景定制、程序建模,则逐渐成为一种发展趋势”。这意味着即便是面对同种规制对象,由于其应用场景和领域不同,所蕴含的风险可能存在云泥之别。规制主体应当区分人工智能应用的具体场景和形式,研判实际风险并进行分类规制。例如,就自动驾驶而言,可根据车辆活动区域、速度、功能等因素,针对不同应用场景的车辆设定差异性的规范,对于风险较低的应用场景放松约束条件。譬如无人物流车尽管在开放空间活动,但由于其体积小、速度慢,本身的风险较小,可以侧重于鼓励创新而非严格管控;但对于在公开道路上行使的乘用车,其面对的是开放道路的开放风险,也关涉人身、财产安全、社会公共安全等重大法益,其安全性要求就应当更加严格。
其次,在人工智能发展初期,可以赋予地方更多的自主规制权限,国家立法仅负责设定基本要求和指引,而将确定具体规制强度与规制方式的权限适当交予地方,形成多层次的规则体系。在实验型规制的语境下,赋予地方更多的自主规制权限具有以下积极意义:第一,我国幅员辽阔,各地政治经济文化水平发展不均衡,对新兴技术的回应能力也存在差别。例如自动驾驶汽车的测试要求地方给予较好的道路基础设施配套,在条件具备的情况下推进“车路协同”。当地方经济发展和基础设施建设水平存在较大差异时,给予地方更多自主权限能够实现因地制宜。第二,面对未知风险,相对独立的规制体制能够有效阻断风险传递,防治因为规制失败而“一损俱损”。第三,基于地方政府之间相互竞争、互补和学习的关系,各地可能形成制度竞争,从而吸引企业“用脚投票”,这有利于制度创新和更大范围内科技发展环境的提升。第四,国家可在多种规制策略和路径中不断积攒经验,形成进行统一立法的基础经验知识。当然,给予地方更多权限并不意味着中央政府及其部门的完全退出:其一,地方政府及官员一方面可能基于地方发展的实际需要和“晋升锦标赛”的激励机制而营造有利于创新的制度环境,而另一方面也可能因为对于产业和GDP的追求而出现盲目追求产业发展、忽视科学理性、忽视风险的情况,这可能导致地方间的恶性竞争;其二,地方政府在新兴科技面前,可能不具备中央政府的宏观视野和专业判断能力,这可能导致规制出现偏差。因此,国家立法应当设定规制的基本框架与底线要求,在激发地方能动性的同时,保障地方之间遵循良性竞争的原则。当技术和产业发展到一定程度,分散的规制体系可能形成壁垒,影响到整体效能时也需要再从国家层面进行规则的统一和整合。
人工智能技术的应用给社会生活带来的影响是多方面的,自动驾驶、智能投顾、智能医疗等新事物正在将这种影响一一呈现。面对这些智能化的事务,既有的行政规制体系或多或少地呈现出一些功能性缺失。这种缺失的本质问题在于,以“技术标准规制模式”为代表的“命令—控制”型规制结构并未预设人工智能这样一种具有强变动性和不可预测性的规制对象,因而在面对新问题时难免显得有些茫然和僵化。通过强化规制组织的协同,引入实验型规制模式,探索共识性原则等路径来增强规制的包容性,可能是对该问题所作出的一种回应。当然这种调整并非是颠覆性的,而只是在既有的制度框架下进行一种功能主义的调试。这一路径在人工智能各个具体应用领域和场景中应当如何实现,以及其对传统法治主义可能产生的影响,也是未来值得进一步关注和思考的话题。