【中文摘要】ChatGPT类生成式人工智能改变了人工智能治理的底层逻辑,人工智能技术应用由个性化向普适化方向发展,风险的不确定性从外部延伸至内部,未来人工智能技术的迭代周期将越来越短,这使得传统治理范式适用于生成式人工智能治理时存在诸多局限。基于对象场景的分散治理难以统筹生成式人工智能治理全局,基于风险预防的事前治理难以精准预测风险并提前预防,基于法律规范的硬性治理难以提升治理实效。作为一种快速适应环境变化的动态治理范式,敏捷治理契合生成式人工智能治理需求,与我国一直推行的包容审慎监管具有理念上的一致性。基于敏捷治理的全面性、适应性与灵活性,我国生成式人工智能治理应秉持包容审慎的监管理念,依据模型产业架构,形成“基础模型-专业模型-服务应用”的全面性治理格局;划分已知与未知风险,构建事前预防与事后应对相结合的适应性治理机制;综合运用技术、法律等灵活性治理工具,实现生成式人工智能治理范式革新,促进科技向上向善发展。
【全文】
一、问题的提出
生成式人工智能是一种根据提示生成全新内容的人工智能技术。Gartner公司曾发布2022年十二大战略性技术趋势,其中生成式人工智能排在第一位。[1]如其所料,多款生成式人工智能模型在这一年竞相发布:4月,OpenAI公司发布图像生成模型——DALL-E2;同月,Stability AI发布Stable Diffusion图像生成模型;11月底,OpenAI公司推出的ChatGPT更是将生成式人工智能的类人化程度升至新的高度。随后,百度的文心一言、阿里的通义千问、谷歌的大型视觉语言模型PaLM 2以及对话式人工智能Bard等相继推出,世界范围内掀起大模型研发浪潮。
生成式人工智能普及迅速,应用范围极为广泛。自OpenAI公司推出ChatGPT后,仅在两个月内就已经达到一亿用户,成为历史上用户增长最快的消费应用程序。[2]ChatGPT类生成式人工智能在促进社会发展、推动人工智能技术进步的同时,也带来了侵犯个人信息、隐私权、知识产权等一系列问题。意大利个人数据保护局曾对其发布禁令,西班牙、法国等欧洲国家也对其展开了调查。2023年7月13日,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,专门针对由生成式人工智能产生的传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题作出立法回应。[3]
当前,如何治理生成式人工智能已经成为世界各国高度关注的问题。ChatGPT类生成式人工智能改变了人工智能治理的底层逻辑,传统治理范式难以适用于生成式人工智能治理。首先,生成式人工智能的模型通用性使其应用范围迅速扩张,基于对象场景的分散治理难以统筹治理全局;其次,生成式人工智能的强人机互动性及其无法解释的推理能力使风险的不确定性由外部向内部延伸,基于风险预防的事前治理难以提前预见风险并对其进行有效防范;最后,随着ChatGPT在自然语言处理领域取得革命性的技术突破,未来人工智能技术的迭代周期将越来越短,基于法律规范的硬性治理难以提升治理实效。由此,传统人工智能治理亟需进行范式革新以契合生成式人工智能治理需求。
为解决第四次工业革命给人类社会带来的治理难题,即传统政策制定的滞后性与技术快速迭代发展之间的矛盾,2018年世界经济论坛白皮书中提出了“敏捷治理”概念。[4]2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,将“敏捷治理”作为一项治理原则引入人工智能治理领域。敏捷治理致力于实现治理中的“敏捷性”,旨在形成一种快速、可持续地感知、适应和应对环境变化的治理能力。[5]本文尝试将敏捷治理引入生成式人工智能治理,弥补传统治理范式的治理局限,实现生成式人工智能治理路径优化,推动人工智能良善有序发展。
二、生成式人工智能引发的人工智能治理基础变化
ChatGPT类生成式人工智能出现后,人工智能技术应用由个性化向普适化方向发展,风险不确定性开始从外部向内部延伸,并且随着生成式人工智能在自然语言处理领域取得技术突破,未来人工智能技术的迭代周期将越来越短,这些变化从根本上改变了人工智能治理的底层逻辑。
(一)应用范围:从个性化向普适化的场景应用发展
以ChatGPT为代表的生成式人工智能出现后,人工智能由原先仅适用于某一特定场景,解决某一特定问题发展为可适用于多元化场景,解决各种复杂问题。人工智能应用范围的大幅扩张与其由专用人工智能发展为通用人工智能的技术走向有关。传统的人工智能基本上属于专用人工智能,这类人工智能模型设计之初通常以解决特定问题为主要目的,模型被训练出来后,仅能应用于某一特定场景或领域。例如,DeepMind公司开发的围棋人工智能程序AlphaGo就是一种典型专用人工智能模型,其仅用于解决与围棋相关的问题,无法推广适用到其他场景或领域;再如,天智航研发的第三代国产骨科手术机器人“天玑”,专门用于开展脊柱外科手术以及创伤骨科手术。与传统人工智能的专用性不同,ChatGPT类生成式人工智能具有模型通用性,其可基于一个模型解决多种问题或完成多项任务,包括但不限于新闻撰写、情感分析、代码生成、智能问答、机器翻译等。
生成式人工智能的模型通用性来自预训练大模型的研发模式,并推动了数据、算法与算力在研发层面功能性地融为一体。与传统人工智能场景化、个性化、专业化的开发范式不同,生成式人工智能模型采取“预训练+精调”的开发范式。具体而言,在自监督学习阶段,通过在海量无标注的数据上进行预训练完成“通识”教育;而后根据具体应用场景的特性,用与任务相关的少量数据进行相应微调,完成“专业”教育。[6]
对于模型研发而言,“预训练+精调”可以提高模型研发效率、降低模型研发成本与训练数据收集难度;对于模型应用而言,通过此种方式训练出的人工智能大模型具备良好的底层通用能力、泛化能力和迁移能力,能够广泛应用于各个行业领域,解决复杂场景中的各种任务和问题。以ChatGPT为例,其先在自然语言处理领域取得革命性的技术突破,实现与用户的多轮对话,而后通过这种多轮对话形式,完成机器翻译、内容创作、代码撰写等多种任务。基于这种底层通用能力,人工智能生成内容在医疗、教育、传媒、影视、电商等行业和领域被广泛应用。大模型热潮涌起后,产业上下游企业争相表示接入大模型,已然形成一种“模型即服务”的新型商业模式。
虽然现阶段的预训练大模型尚未达到通用人工智能的水平,但仍然比传统的深度学习更具通用性。[7]未来,生成式人工智能必将向通用人工智能迈进,彼时有望成为人工智能时代推动数字经济发展的新型数字基础设施。
(二)风险演变:风险不确定性由外部延伸至内部
以ChatGPT为代表的生成式人工智能出现后,风险的不确定性由外部向内部延伸。依据风险是否具有内生性,人工智能风险分为外部风险和内部风险。一般而言,新兴技术的潜在社会风险也即外部风险普遍具有高度不确定性,这种不确定性往往与技术发展规律有关,技术的发展总是需要经历一个从产生到完善再到成熟的过程,外部风险只能在这一过程中逐渐显露。生成式人工智能的风险不确定性不仅与新兴技术发展规律有关,还与自身的强人机互动性和无法解释的推理能力有关。生成式人工智能的强人机互动性使外部风险由于难以预知而具有高度不确定性,而其自身的推理能力更是将这种不确定性由外部延伸至内部。
基于生成式人工智能的强人机交互性,生成式人工智能的外部风险难以预知。此前,无论是在专业生产内容时代还是用户生产内容时代,平台对信息内容的制作、发布、传播都具有较强的控制力,信息内容安全的主体责任主要由平台承担。《网络安全法》第四十七条首先在法律层面明确了网络运营者对用户信息发布的管理责任,《网络信息内容生态治理规定》《关于进一步压实网站平台信息内容管理主体责任的意见》又进一步细化了平台的信息内容安全主体责任。
然而,在人工智能生成内容时代,生成式人工智能服务提供者不具备控制输入端的能力。区别于传统人工智能产品或服务在提供方式上的单向性,生成式人工智能产品或服务的提供是通过与用户交互完成的,具体表现为用户输入需求,模型根据用户输入的内容生成相应结果,生成何种内容在很大程度取决于用户输入的具体需求。“用户输入+机器输出”的内容生成方式意味着,即便服务提供者在前端依法履行了研发合规义务,用户依然能够在输入端打破合规性。虽然服务提供者通常会采取事前预防措施对用户的输入行为作出一定限制,但实际效果不尽如人意。例如,虽然OpenAI在使用政策中明确禁止生成恶意软件,但研究人员发现,用户依然可以通过输入提示欺骗ChatGPT为恶意软件应用程序编写代码。[8]平台难以实现对输入端的控制,意味着用户端输入何种内容,模型生成何种结果,生成结果又将产生何种影响均系未知。
基于生成式人工智能的推理能力,生成式人工智能的内部风险难以预知。从ChatGPT开始,GPT系列开始具备推理能力,即便是ChatGPT的研发团队也无法解读这种能力出现的原因[9],这在一定程度上改变了算法“黑箱”问题的本质。传统意义上的算法“黑箱”本质上为技术“黑箱”,表现为技术原理仅为部分人所知,而另一部分人不得而知。[10]这里的“另一部人”主要是指监管部门和社会公众。然而,以ChatGPT为代表的生成式人工智能在一定程度上打破了社会对算法“黑箱”的传统认知与理解。算法“黑箱”问题的本质由“人与人之间的信息不对称”转变为“人类在强人工智能面前的共同无知”[11]。
(三)迭代趋势:人工智能技术迭代周期越来越短
以ChatGPT为代表的生成式人工智能出现后,人工智能技术迭代周期将越来越短。纵观人工智能发展历程,人工智能算法历经60余年才由早期基于规则的专家系统、机器学习发展到如今的基于神经网络模型的深度学习。随着人工智能完成深度学习这一技术跃迁,人工智能技术将进入快速发展时期。
从生成式人工智能的迭代过程来看,从GPT-1到GPT-4,5年间完成了5次迭代,最新一代模型GPT-4在其前身GPT-3.5(也即ChatGPT)发布3个月后即被推出。OpenAI预计将在2023年12月发布GPT-5。生成式人工智能大模型迭代升级速度以GPT-3.5为分水岭,基于强化学习的人类反馈学习技术的应用使GPT-3.5能够持续性地生成高质量内容,在自然语言处理领域取得革命性突破,实现人工智能的技术“蝶变”。[12]甚至有学者称,“ChatGPT的出现标志着强人工智能时代的来临,人类或许将会迎来Ray Kurzweil所说的技术奇点(singularity)。”[13]
从生成式人工智能的迭代模式来看,生成式人工智能开启了一种“敏捷迭代”模式,这种模式具有快速小版本迭代特征。[14]具体而言,在新功能开发方面,生成式人工智能能够及时响应海量用户的普遍需求。以联网需求为例,此前,ChatGPT虽然能够生成准确性较高的答案,但无法实现实时数据更新。而该问题在其开始向用户开放联网和插件功能之后遂得以解决,并且ChatGPT也将因此具备比之前更强大的功能,甚至可能成为人工智能时代的超级流量入口。
在既有功能修复方面,以宕机修复为例,ChatGPT自上线以来,虽然多次因用户量激增而发生宕机现象,但基本上能在较短的时间里完成修复。2023年3月21日,ChatGPT发生全球宕机,5个小时恢复正常访问[15],而后4月23日再次发生的宕机现象,仅用13分钟便恢复正常[16]。此外,ChatGPT还曾因开源库中的一个错误,导致用户隐私泄露,部分用户可以看到其他活跃用户的姓名、电子邮件地址、支付地址、信用卡号的最后4位数字以及信用卡到期时间。该事件发生后,OpenAI第一时间将ChatGPT下线,并在短时间内修复漏洞重新上线。[17]
生成式人工智能在自然语言处理技术上取得革命性突破后,其迭代升级便可以像智能手机、应用软件一样规律化、常态化。如果说在GPT-3.5之前,模型迭代周期还以年为单位,那么在GPT-3.5之后将变成以月、周甚至天为单位,未来人工智能技术迭代周期只会越来越短。
三、传统治理范式适用于生成式人工智能的治理局限
生成式人工智能改变了人工智能治理的底层逻辑,致使传统治理范式适用于生成式人工智能治理时存在诸多局限:其一,模型通用性使得基于对象场景的分散治理难以统筹治理全局;其二,风险不确定性使得基于风险预防的事前治理难以精准预见风险;其三,快速迭代性使得基于法律规范的硬性治理难以提升治理实效。
(一)基于对象场景的分散治理:难以统筹治理全局
我国人工智能治理呈现出基于对象场景的分散治理特征,即根据不同的对象和场景,有针对性地出台与之相对应的法律规范。其中,规制对象主要包含数据、算法、信息内容,规制场景主要包含人脸识别、自动化驾驶。具体而言,在规制对象方面,针对数据安全先后出台《网络安全法》《数据安全法》《个人信息保护法》;针对算法治理,先后出台《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》;针对信息内容安全,先后出台《互联网信息服务管理办法》《网络音视频信息服务管理规定》《网络信息内容生态治理规定》。在规制场景方面,针对人脸识别、自动化驾驶等专用人工智能技术,先后出台了《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》《智能网联汽车道路测试与示范应用管理规范(试行)》。
然而,基于对象场景的分散治理难以适用于生成式人工智能治理。就治理对象而言,分散治理表现为对数据、算法以及信息内容三者分而治之,但生成式人工智能本质上是一种集数据、算法、信息内容于一身的模型。在模型训练阶段,需要收集海量数据,模型的智能化很大程度上取决于训练数据的数量与质量。在模型研发与运行阶段,算法是实现人工智能的核心要素,而深度学习算法又是实现生成式人工智能的核心要素。在内容生成阶段,生成式人工智能既是信息内容的生成工具,也是用户输入信息的收集工具。一方面,用户向模型输入指令,模型根据指令生成新的内容;另一方面,在与用户互动的过程中,模型会收集用户输入的信息用于优化训练。因而,生成式人工智能的治理实质上是一种模型治理,其以模型为治理对象,统筹数据、算法、信息内容在模型训练、研发与运行、内容生成的各个阶段出现的治理问题。
就治理场景而言,分散治理表现为对人脸识别、自动化驾驶等专用人工智能技术进行专门治理。这种治理的专门化主要是由人工智能技术的专用性引起的,然而,生成式人工智能具备较强的底层通用能力,其可以“基于一个模型,面向不同主体,完成多种任务”。未来,生成式人工智能将真正赋能千行百业,向社会治理、生产经营、日常生活的各个领域渗透。生成式人工智能推动人工智能技术由专用性向通用性迈进,应用场景由个性化向普适化方向发展,依据特定场景分而治之难以全面覆盖应用生成式人工智能的各个行业、领域。
综上,生成式人工智能集数据、算法、信息内容于一身,可以赋能千行百业,基于对象场景的分散治理难以统筹生成式人工智能治理全局。
(二)基于风险预防的事前治理:难以精准预见风险
我国传统算法治理采取基于风险预防的事前治理模式,即监管部门在潜在风险演变为现实损害之前介入进行治理,实现风险的事前预防。在我国当前的算法监管制度体系中,算法备案和算法评估制度即基于事前治理的典型制度设计。其中,算法备案旨在获取平台设计部署的具有潜在危害和风险的算法系统的相关信息,以固定问责点为今后的行政监管提供信息基础[18];算法评估旨在通过“事前”评估的方式排除算法在模型、数据、策略、人工干预等方面的安全隐患[19]。二者均建立在互联网业态既已成熟、算法安全风险已然明晰的现实基础之上。
2012年,字节跳动率先在新闻领域开始运用内容推荐算法,此后算法推荐技术开始向短视频、图书、音乐、影视、电商等多个领域迅速扩张。[20]过去10年间,算法推荐技术在国内互联网市场得到充分发展,基于算法推荐技术形成的互联网业态已然成熟,由此导致的算法歧视、大数据杀熟、信息茧房、算法操控等风险逐渐显露,风险成因由于算法的透明度变强而愈发可被追溯,而针对不同风险的治理方案也逐渐清晰,算法备案和算法评估制度因此能够产生理想的事前风险防范效果。
然而,生成式人工智能具有风险不确定性,即内外部风险不可预知。基于风险预防的事前治理以风险可预见为客观前提,但其难以预见生成式人工智能应用过程中所产生的风险。一方面,生成式人工智能的内部风险不可预知导致算法备案适用不畅。如前所述,传统意义上的算法“黑箱”意味着算法运行机理仅为专业人员知悉,监管者与公众由于缺乏专业知识而无法知晓。通过算法备案制度,监管部门可以掌握各个领域应用算法的基本情况,社会公众也可获知算法的基本原理、目的意图和主要运行机制等内容,从而有效解决对于部分人而言的算法“黑箱”问题。然而,当被监管者也无法解释模型运行原理时,算法备案制度存在客观上的适用困难。
此外,生成式人工智能的外部风险不可预知导致算法评估制度适用不畅。算法评估制度要求对算法可能造成的风险及其对社会的影响进行充分的评估[21]。从技术发展角度出发,当前国内生成式人工智能大模型研发尚处于起步阶段,未来的技术走向尚未可知;从产业发展角度出发,生成式人工智能的应用场景和领域还处于探索阶段,尚未形成清晰的产业形态;从消费应用角度出发,生成式人工智能具有强人机交互性,输入端不可控导致用户在利用大模型的过程中产生何种侵害行为不得而知。生成式人工智能的技术走向、产业形态以及应用后果均不可知,风险便难以被提前预见,算法评估制度也因此难以起到有效的事前预防作用。
(三)基于法律规范的硬性治理:难以提升治理实效
当前,我国人工智能治理属于基于法律规范的硬性治理,即在人工智能治理过程中较为依赖立法手段,希冀通过制定出台相关法律规范为监管部门提供执法依据,避免由于法律制度的缺失造成监管不力。虽然生成式人工智能的研发与利用尚处于起步阶段,但我国已经初步构建起由《网络安全法》《数据安全法》《个人信息保护法》以及《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等共同组成的生成式人工智能法律规制体系。作为全球首部针对生成式人工智能的专门立法,《生成式人工智能服务管理暂行办法》的出台更是有意将这种硬性治理范式向生成式人工智能治理领域延伸。
诚然,基于法律规范的硬性治理能够为生成式人工智能的研发与利用活动划定清晰的底线与红线,但在多元化的社会治理方式中,法律规制并不总能使社会治理实现“帕累托最优”。生成式人工智能的法律规制面临两种选择:一种是沿用现行法律规范,另一种是进行生成式人工智能的专门立法。然而,二者均存在一定的适用困境。
首先,现行法律规范难以解决生成式人工智能引发的新问题。现行法律规范出自用户生成内容时代,相应的制度设计均以“人”为中心,即针对“人”的信息内容制作、复制、发布行为,设置相关的禁止性要求,配置相应的法律责任。ChatGPT类生成式人工智能的出现推动人类社会进入人工智能生成内容时代,信息内容从完全由“人”生成变为“人机”共同生成,这必然导致围绕人的行为进行的制度设计在生成式人工智能治理中的适用不畅。例如,对于由人机合力生成的违法和不良信息所带来的损害,如何进行法律责任分配依然是一个待解决的问题。
其次,进行生成式人工智能专门立法面临时效性和成本效益问题。一部法律在正式出台以前,需要经过漫长且复杂的立法程序。按照全国人大常委会的立法程序,最快也需要3次上会审议,现有记录中最快的立法周期是2年,通常都需要3-5年才能获得通过。[22]而根据摩尔定律,科技的更新换代速度平均为1.5年,生成式人工智能的迭代速度甚至会更快。立法速度无法与技术发展速度同步,待到法律出台,又会出现此前没有遇到的新问题。欧盟《人工智能法案》的出台就面临此种窘境,按照原定立法计划该法案早已通过,但ChatGPT的出现使该法案的内容被迫重新调整。
在法经济学视角下,立法不仅是一种政治行为,同时也是一种经济行为。[23]新法在制定过程中需要耗费大量的人力、物力、时间等成本。新法颁布后,社会还需要经历很长一段的学习与适应期,这期间需要实施一系列的法律宣传、解释、教育等活动。与此同时,新法推行过程中势必会产生诸多现实问题,生成式人工智能也会在迭代发展过程中产生新的治理难题,这就需要不断地修订与完善法律。上述活动的耗费均属于立法成本范畴,依据成本效益原则,只有当立法的预期效益大于立法总成本时,立法行为才具有社会价值,但这一点往往会因立法时机不成熟、立法质量不高、法律自身的滞后性与机械性等因素而难以实现。
四、敏捷治理及其适用于生成式人工智能治理的具体路径
敏捷治理具有区别于风险治理的全面性、适应性和灵活性特征,契合生成式人工智能治理需求并且与我国在新兴技术领域推行的包容审慎监管具有异曲同工之处。生成式人工智能治理应当依据模型产业结构,构建“基础模型-专业模型-服务应用”分层治理体系;划分已知和未知风险,构建事前预防与事后应对相结合的适应性治理机制;运用灵活性治理工具,即利用技术自身解决基础模型和专业模型层带来的监管难题,重点关注服务应用层的信息内容安全治理,采取“软硬兼施”的法治手段,创新监管制度,探索建立监管沙盒制度、企业合规免责制度、避风港规则,减轻企业信息内容安全治理压力。
(一)敏捷治理:快速适应情景变化的动态治理范式
“敏捷治理”由软件开发领域的“敏捷开发”方法演变而来,2018年世界经济论坛白皮书首次将其引入社会治理领域。既有研究尝试将敏捷治理引入新兴产业[24]、现代城市[25]、智慧社区[26]、数字政府[27]、元宇宙[28]等领域,上述领域普遍属于新兴技术或者为新兴技术所渗透。自人类社会进入工业4.0时代以来,大数据、云计算、物联网、人工智能等新一代信息技术不断涌现,社会生产生活日益数字化。相较于信息化社会,数字化社会中的治理对象具有高度不确定性,传统治理范式因难以有效应对新兴技术及其应用风险的不确定性而亟需进行范式革新。与传统治理相比,敏捷治理更加注重治理的全局性、适应性与灵活性(参见表1)。
首先,传统治理范式较为关注治理对象显露已久的某一突出问题。例如,在算法治理领域,监管部门更注重治理推荐算法;在数据治理领域,更倾向于数据安全、个人信息保护。而敏捷治理更关注治理对象发展的全过程,这是因为在新技术、新产业发展的各个阶段和环节均有可能产生难以估量的新风险,只有对治理对象进行持续观测,才能够及时应对风险,掌控治理全局。其次,传统治理建立在对既往治理经验的总结之上,对情景变化的适应能力不强,而敏捷治理的关键优势就是在没有成熟经验可借鉴的情况下,能够快速适应情境变化并及时作出响应。最后,传统治理通常采取法律手段,具有一定的滞后性与机械性。敏捷治理则强调不断发掘拓展新的治理工具和治理方法,以提升治理的灵活性。例如,鼓励政府进行决策创新的决策实验室、鼓励企业测试新产品的监管沙盒、提升治理敏捷性的技术手段等。[4]
作为一种快速适应情景变化的动态治理范式,敏捷治理能够有效弥合数字社会快速变迁与政府监管相对滞后之间的矛盾。[29]在这一点上,我国政策语境中的“包容审慎监管”与敏捷治理“不谋而合”。《生成式人工智能服务管理暂行办法》第三条也明确提出,对生成式人工智能服务实行包容审慎监管。在适用范围上,二者均适用于新技术、新产业、新业态等新兴领域;在监管态度上,二者均对科技创新持包容、鼓励态度;在工具选择上,二者均倾向于选择灵活的、动态的、临时的治理工具。
综上,生成式人工智能治理应秉持包容审慎监管理念,结合敏捷治理的三个特性构建生成式人工智能治理路径。具体而言,基于敏捷治理的全面性,构建“基础模型-专业模型-服务应用”的全面性治理格局;基于敏捷治理的适应性,构建事前预防与事后应对相结合的适应性治理机制;基于敏捷治理的灵活性,构建“技术-法律”相结合的灵活性治理工具。
(二)全面性治理格局:依据模型产业架构,构建分层治理体系
生成式人工智能治理应当与生成式人工智能的分层产业架构相契合,构建“基础模型-专业模型-服务应用”的分层治理体系,为基础模型和专业模型层的研发活动营造鼓励创新发展的制度环境,重点对服务应用层的信息内容安全治理进行一系列监管制度创新。
如前所述,生成式人工智能具有模型通用性,基于一个模型可以完成不同任务,因而拥有来自各行各业的庞大用户群体。与传统的产品或服务提供对象主要为终端用户的情形不同,基于“预训练+精调”的生成式人工智能大模型的用户群体既包括海量的终端用户,还包括各个垂直细分领域的下游企业。面向企业客户,作为上游企业的生成式人工智能大模型研发者向下游企业提供预训练大模型也即“基础模型”,下游企业在此基础上进行微调,开发出适用于不同场景的专业模型。面向终端用户,基础模型与专业模型服务提供者通过与用户互动的形式向其提供文字、图像、音频、视频等内容生成服务。由此,生成式人工智能产业便呈现出“基础模型-专业模型-服务应用”三层架构。
对于基础模型层和专业模型层的模型研发活动,生成式人工智能治理应坚持以发展为导向。《生成式工智能服务管理暂行办法》第二条规定,该办法仅适用于利用生成式人工智能技术向境内公众提供服务的生成式人工智能服务提供者,未向境内公众提供服务的基础模型层和专业模型层相关研发企业则不适用该办法,该规定旨在鼓励生成式人工智能技术的研发与应用。未来,生成式人工智能大模型将有望成为数字经济时代的新型数字基础设施,而当前我国尚处于生成式人工智能技术研发初期,国内大模型在智能化水平上还与ChatGPT存在一定差距。大模型研发是一个长期的高成本、高风险的过程,需要从顶层制度设计上为生成式人工智能留足发展空间和时间,营造有利于大模型研发的制度环境。尤其是对训练数据的制度设计,生成式人工智能大模型的智能化水平很大程度上取决于训练数据的数量和质量,因而设置类似于“合理训练”的知识产权制度对于训练优质的大模型而言至关重要。
对于服务应用层的生成式人工智能治理,应重点进行监管制度创新,为新兴技术发展留下试错空间。服务应用层位于产业链终端,直接面向终端消费者提供服务。然而,当前生成式人工智能防范技术尚未成熟,服务应用层面难免因此产生虚假信息生成、传播等信息内容安全问题。并且与此前完全由用户提供内容或者由搜索引擎提供固定答案不同,生成式人工智能以“用户输入+机器输出”的形成提供服务,生成内容的性质、价值取向很大程度上取决于用户输入指令。而在输入端,输入主体和输入行为不可控导致生成式人工智能应用风险尤其是信息内容安全风险难以事前预防,更需引入灵活、弹性、适应性的敏捷治理。
(三)适应性治理机制:划分已知与未知风险,预防与应对并重
生成式人工智能的风险未知性并不意味着由其引发的任何风险均不可预知,外部风险是会在技术的普及与应用过程中逐渐显露,至少现阶段人们在频繁应用生成式人工智能的过程中,已经获知了一些应用风险。[30]DeepMind团队确定了大模型现存的21个风险,并将这些风险总结为6类风险领域,即歧视、仇恨言论和排斥、信息危害、错误信息危害、恶意使用、人机交互的危害以及环境和社会经济方面的危害。[31]但由于生成式人工智能无法解释的推理能力以及不可预知的技术走向和产业发展趋势,尚存在难以预测的未知风险。生成式人工智能治理应当依照风险的可知性,划分已知风险与未知风险,有针对性地制定治理方案,建立风险适应性治理机制。
⒈已知风险的适应性治理
对于已经观察到的或者可预知的风险,遵循原有的风险治理路径,围绕模型的训练、研发与运行、内容生成的各个阶段建立事前风险防范为主,辅之以事后应对的治理机制。
在模型训练阶段,重点防范数据安全风险。一方面,加强对训练数据来源合法性的审查。依据《生成式人工智能服务管理暂行办法》第七条,应重点审查训练数据的收集、加工、使用等处理活动是否符合知识产权、个人信息保护等相关法律要求。对于未经同意收集用户个人信息等违法违规的数据处理行为,依法责令限期整改,逾期未整改的,对其依法予以禁用处置。另一方面,督促生成式人工智能服务提供者履行安全保障义务。《生成式人工智能服务管理暂行办法》第十三条明确要求生成式人工智能服务提供者应当提供安全、稳定、持续的服务,保障用户正常使用。对于由技术自身存在安全漏洞导致的数据泄露事件,监管部门应当及时督促服务提供者修复、完善模型产品。此外,监管部门还应当定期主动开展模型安全漏洞排查工作,发现模型存在安全漏洞后及时上报并在确认后督促相关模型开发者及时修复。
在模型研发与运行阶段,重点防范算法歧视、算法黑箱等算法安全风险。《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》中首次提出的算法审查制度为算法的行政监管提供了制度支持。算法审查制度可从以下三个方面具体展开:其一,加强科技伦理审查机制,强化生成式人工智能相关企业的科技伦理审查责任;其二,健全算法备案与评估机制,细化算法备案与评估的规则、流程、内容要求;其三,探索建立算法审计制度,要求企业定期开展自我审计,必要时引入第三方外部算法审计。
在内容生成阶段,重点关注虚假有害信息的生成与传播风险。在内容生成环节,要求技术或服务提供者履行添加可识别水印或有效警示信息的义务、配备人工智能过滤审核机制;在内容传播环节,要求平台建立辟谣和举报机制,并对违法传播虚假有害信息者采取停止传输等限制措施。[32]
⒉未知风险的适应性治理
对于未知风险,建立完备的事中事后应对机制。
针对基础模型层和专业模型层发生的风险事件,应当要求技术研发者立即采取离线修复、模型停运等应急补救措施,防止损害进一步扩大,并及时履行对用户(包括企业和个人)的告知义务和对监管部门的报告义务。此外,由于基础模型不仅面向终端用户提供模型应用服务,还面向产业下游企业提供预训练大模型产品。当发生重大安全事件时,还应当要求基础模型服务提供者立即停止对下游企业的产品供应。鉴于基础模型的通用性与赋能性,基础模型停运带来的影响将是“牵一发而动全身的”,因此在基础模型修复后应当及时恢复至正常运营状态。
针对服务应用层发生的风险事件,应当对风险来源作出基本判断。当风险事件出自用户端,服务提供者除了履行上述应急补救义务和告知义务外,还应当对用户实施相应限制和惩罚措施。例如,因用户向模型实施“数据投毒”行为而酿成风险事件,应当事后向用户追责。当风险事件并非出自用户端,则应当向上层追溯,进一步判断风险来自基础模型层还是专业模型层,以确定事后应对义务的履行主体和责任承担主体。
(四)灵活性治理工具:技术解决监管难题,法律创新监管制度
生成式人工智能治理应当综合运用技术、法律手段,对于能够在基础模型和专业模型层通过技术自身发展解决的问题,法律不必过早介入。生成式人工智能的法律治理应聚焦服务应用层,秉承包容审慎的监管理念,利用软法先行治理并通过建立监管沙盒制度、企业合规免责制度以及避风港规则,为新兴技术发展留足下试错空间。
⒈利用技术自身发展解决部分监管难题
2023年5月,OpenAI发表《语言模型可以解释语言模型中的神经元》一文,表示调用GPT-4可以对GPT-2的运行原理作出初步的自然语言解释[33],为算法“黑箱”治理提供了技术解决方案。再如,共享单车兴起之时,车辆乱停乱放现象严重,一度造成交通秩序混乱。近年来,各地政府开始部署电子围栏系统,通过信息化手段,界定互联网租赁自行车停放、禁停区域的虚拟围栏,当互联网租赁自行车进入或离开虚拟围栏时,企业运营平台可自动感知。[34]电子围栏技术的应用能够有效规范用户单车停放行为,为共享单车治理提供了技术方案。
⒉运用软法提升生成式人工智能治理敏捷性
与硬法相比,行业自律公约、伦理规范、标准指南等软法程序更灵活、适应性更强,可以服务于多种治理目标,其已成为人工智能治理的最常见形式。[35]2020年,美国发布的《人工智能应用监管指南》明确提出要减少阻碍人工智能发展的硬性监管措施,并列举了特定部门的政策指导或框架、试点项目和实验、自愿共识标准和框架等非监管方法。[36]此外,2023年1月,美国NIST发布《人工智能风险管理框架(1.0)》,其专为运营、开发或部署人工智能系统的组织而设计,并且是一份非强制性的指导性文件,组织可以自愿选择适用。[37]该框架不规定配置模板且内容高度概括,目前发布了第一版,未来将根据人工智能技术发展持续动态更新,具有极强的通用性、灵活性与适应性。我国可借鉴该框架并结合我国生成式人工智能发展的实际情况,构建人工智能风险管理框架,积极引导生成式人工智能相关组织自主开展风险管理。
⒊探索建立有利于新兴技术发展的制度环境
在服务应用层探索建立监管沙盒制度、企业合规免责制度、避风港规则,营造有利于新兴技术发展的制度环境。
⑴构建监管沙盒制度
监管沙盒是企业测试创新产品或服务的安全空间,在这个空间内其无需担心创新与监管规则发生矛盾时可能遭遇的监管障碍或承担不必要的监管负担,因而属于一种豁免机制。[38]2020年,我国率先在金融科技创新领域进行了监管沙盒试点。2023年5月,北京市颁布的《北京市促进通用人工智能创新发展的若干措施(2023—2025年)》中提出的“包容审慎监管试点”即对监管沙盒的具体制度创新。监管沙盒应重点从以下几个方面进行具体的制度框架设计:
其一,划定适用区域。根据《中国人工智能大模型地图研究报告》显示,目前中国10亿参数规模以上的大模型已发布79个,主要集中于北京(占比48%)和广东(占比25%)[39],因而可在两地先行建立试点或试验区。
其二,明确准入门槛。监管沙盒制度适用应重点考察两个方面:一是模型研发活动是否具有足够的创新性,在这一点上,“从无到有”的基础模型研发相较于“从有到精”的专业模型研发更具创新性;二是企业是否有健全的事后应对机制,生成式人工智能应用风险不可预知,健全的事后应对机制相较于事前防范措施而言更有必要。
其三,明确豁免规则。一是严格划定应用场景范围,生成式人工智能应用场景极其广泛,对于军事、医疗、汽车驾驶、生物基因等敏感程度和专业化程度较高的领域需要审慎适用豁免机制;二是严格限定用户类型,向未成年人用户以及上述敏感领域的企业用户提供生成式人工智能产品或服务应审慎适用豁免机制;三是坚持底线思维。并非所有与大模型相关的活动均不受监管限制,生成式人工智能产品或服务仍应以遵守既已颁布的相关法律、行政法规等为测试前提,不得损害国家利益、公共利益以及消费者权益。
其四,限制适用时间。作为一种试验性监管,监管沙盒制度的适用应当限定在一定时段范围内,具体的时段范围应在对生成式人工智能业态的持续观察予以确定,待豁免机制取消后,应进入常态化监管状态。
⑵细化企业合规免责制度
作为一种行政监管激励手段,企业合规免责制度允许企业通过建立合规机制的形式获得行政机关减免行政责任。[40]企业合规免责制度可从事前预防、事中补救、事后整改三个层面具体展开。
首先,对于由企业内部员工的违法行为引发的合规风险事件,企业若能够证明其事前已经建立了健全的合规管理体系,即可减轻或免除该企业的行政责任。对于生成式人工智能企业,健全的合规管理体系不仅应包括事前的风险防范举措还应当有完善的事后应对举措。
其次,监管部门在行政执法过程中发现企业存在违规情形,企业可通过采取处罚涉事员工、及时修复技术漏洞等补救措施,积极开展合规整改,加强企业合规管理体系建设,争取监管部门的从宽处理。[41]
最后,合规风险事件发生后,可采取达成行政和解协议的方式,由企业交纳和解金并承诺在一定期限内进行合规整改,符合监管要求后,可减轻或者免除企业的行政责任。[42]事后的合规免责有利于督促企业构建完善的合规管理体系,避免类似的合规风险事件再次发生。
⑶建立避风港规则
避风港规则也称“通知-删除”规则,是指针对用户实施的侵权行为,网络服务提供者在接到权利人通知后及时采取了删除、屏蔽、断开链接等必要措施的,无需再承担侵权责任。如前所述,生成式人工智能服务提供者难以控制用户的输入行为,对于人工智能生成内容的生成与传播,不宜对服务提供者设置过高的注意义务。避风港规则一般适用于民事侵权责任,但早在2005年的《互联网著作权行政保护办法》中就曾规定,互联网信息服务提供者在内容提供者发出反通知后,即可恢复被移除的内容,且对该恢复行为不承担行政法律责任。该规定仅针对反通知后的内容恢复行为作出了行政责任豁免规定,生成式人工智能服务提供者在信息内容安全管理方面的行政责任豁免可在此基础上进行延伸。例如,针对用户故意诱导生成的违规内容,服务提供者若能够证明其在模型研发与运行阶段已经采取了输出拦截过滤等必要措施,则不必承担由违规内容生成与传播所带来的行政责任。
五、结语
当前,世界范围内掀起生成式人工智能研发与应用热潮,加速推动新一轮科技革命和产业变革,与此同时也给人类社会带来新的治理难题。ChatGPT类生成式人工智能的出现极大改变了人工智能治理的底层逻辑,人工智能技术从个性化向普适化场景应用发展、风险的不确定性由外部向内部延伸、人工智能技术迭代周期越来越短,传统治理范式适用于生成式人工智能治理时面临统筹难、风险预见难、实效提升难等问题。作为一种快速适应情景变化的动态治理范式,敏捷治理的全面性、适应性、灵活性契合生成式人工智能发展需求,与我国一直以来推行的包容审慎监管“不谋而合”。有鉴于此,生成式人工智能治理应始终秉承包容审慎的监管理念并结合敏捷治理的优势特征,形成全面性治理格局,依据模型产业架构,构建分层治理体系;构建适应性治理机制,依据风险的可预知性,划分已知风险和未知风险,对于前者采取事前预防机制,对于后者采取事后应对机制;运用灵活性治理工具,在基础模型和专业模型层,利用技术先行解决部分监管难题;在服务应用层,秉承包容审慎的监管理念,运用软法提升治理敏捷性并进行监管制度创新,通过建立监管沙盒制度、企业合规免责制度以及避风港规则,为新兴技术发展留足试错空间。