【中文摘要】 AI智能体(AI agent)是指能够感知外部环境,并根据指令自主决策和执行任务的软件程序、信息系统以及其他类型的实体。AI智能体在提升AI信息服务智能化、自动化程度的同时,也对个人信息保护提出了更高的要求:AI智能体的服务模式属于“个性化服务”,故而需要收集和处理尽可能多的个人信息。但是,由于AI智能体的基本功能和个人信息处理目的存在不确定性,以“确属处理个人信息处理目的所必要”为判断逻辑的最小必要原则难以直接适用。在AI智能体场景下,最小必要原则实际上并未因与产业实践脱节而失灵,而是既有的解释论侧重强调“最小”和“必要”的具体要求,忽视了该原则所指向的个人信息保护目标。所谓的“最小”不是指数量层面的最小,而是强调在多种技术方案中选择“对个人权益影响最小”且收集个人信息数量相对最小的方案。所谓的“必要”并不仅以处理目的作为判断标准,而是应结合AI智能体应用场景、信息服务合同、技术保护措施等要素进行综合判断。
【全文】
一、 问题的提出
在人工智能(artificial intelligence,AI)技术应用取得突破式发展的当下,AI智能体(AI agent)被视为未来产业的风向标。AI智能体是以大模型技术为依托、能够自主执行的软件程序、机器人或者其他形式的系统。相较之下,DeepSeek、ChatGPT等现有产品或服务并不能直接自主执行并完成相应的任务,仅仅是根据用户指令将相应结果反馈至用户。而AI智能体则跳过结果反馈环节,直接代替用户完成预期的任务目标。例如,AI智能体一旦与手机终端结合,用户可以告知手机自己的未来旅游规划,手机内设的AI智能体会自行完成搜索、比价、下单、支付等一系列操作。这种高度便捷化的信息服务功能,也促使各地政府纷纷开启AI智能体产业布局“新浪潮”:2025年3月3日,深圳市工业和信息化局印发《深圳市加快推进人工智能终端产业发展行动计划(2025—2026年)》(深工信〔2025〕42号),提出“大力推进AI智能体开发,支持形成更多AI原生应用,鼓励开发者在各操作系统平台上加强人工智能原生能力探索”;2025年4月17日,浙江省人民政府发布《关于支持人工智能创新发展的若干措施》(浙政发〔2025〕10号),明确提出“支持开源社区发布开源模型、提供模型服务(MaaS)、开展模型智能体(Agent)应用”。
然而,AI智能体的应用必然涉及用户个人信息的收集和处理,这也产生了《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)适用的新问题:难以按照既有的“处理目的”来有效判断AI智能体服务提供者的个人信息处理活动是否符合最小必要原则。一方面,AI手机等智能体应用将终端操作系统与应用程序相互绑定,提供的信息服务属于宽泛意义上的“个性化服务”,而这种信息服务并没有如“地图导航”“外卖下单”等特别具体的个人信息处理目的。AI智能体需要尽可能收集个人信息以便还原用户的个人行为习惯和偏好,其收集和处理的目的较为宽泛;同时,这种宽泛性目的使得在实践中难以认定与之相关且必要的个人信息实际范围,且在《常见类型移动互联网应用程序必要个人信息范围规定》(国信办秘字〔2021〕14号,以下简称《必要个人信息规定》)中,无法找到与AI智能体相类似的应用软件(application, APP)类型。另一方面,《个人信息保护法》第6条所规定的最小必要原则强调,“收集个人信息应当限于实现处理目的的最小范围,采取对个人权益影响最小的方式,不得过度收集个人信息”。学界对最小必要原则的解释方式主要是结合特定的应用场景,明确具体的个人信息处理目的,进而判断信息服务提供者收集和处理个人信息的数量和类型是否确属于达成处理目的所必需。在AI智能体场景下,既有的理论学说显然无法有效解释AI智能体收集、处理个人信息目的“宽泛性”与以“处理目的”为判断标准的最小必要原则之间的内在冲突。
针对这一问题,理应先行判断最小必要原则是否确实出现了“机制失灵”现象,在重新审视该原则的理论依据基础上,进一步明确在AI智能体领域应当采取“补强式解释”还是“单独立法规制”的方式来解决这一问题。
二、 最小必要原则失灵的再审视:AI智能体场景的特殊性
(一) 最小必要原则失灵的学理分歧
在《个人信息保护法》制定以及实施过程中,有关最小必要原则是否符合当下数字经济产业实践特征的争议持续存在。支持者认为,最小必要原则是基于公民个人信息保护实践需求所提出的,特别是针对各类APP,旨在防止其过度收集和处理与核心功能无太大关联的个人信息。只有尽可能控制个人信息收集和处理范围,才能最大限度降低实际的个人信息安全风险。质疑者并不否认最小必要原则对公民个人信息保护的重要意义,但是普遍认为这项原则逐渐与产业实践发展趋势脱节。质疑观点大多从三个方面证成最小必要原则的失灵现象:第一,最小必要原则对应的保护模式与个人信息合理利用之间的冲突日益显著。该原则所指向的“最小化”实际上未能考虑信息类型、行业场景等要素对个人信息处理活动的影响。部分观点认为,“对个人信息价值密度较低的信息也采用高强度的最小必要原则来进行保护,其正当性与合理性成为一个不得不审视的问题” [1]。第二,特定行业的个人信息处理活动具有其特殊性,不能一概以最小必要原则设置完全相同的个人信息保护要求。例如,在个人征信认定场景下,最小必要原则所要求的“最小化”收集和处理个人信息必然会影响个人征信水平的准确评估,进而引发信用主体与征信机构之间的权益冲突。并且,个人征信系统的相对封闭性、征信目的的公共性等特点也弱化了最小必要原则在征信领域适用的必要性[2]。第三,最小必要原则所对应的个人信息保护模式具有形式主义特征,机械地设置“目的限制”“数据最小化”等要求,无疑会妨碍大数据技术发挥其应有的价值,也间接限制了信息服务提供者提供高质量信息服务的能力[3]。
关于最小必要原则的争议并非中国独有的法律问题,国外类似的“数据最小化”原则也同样遭受质疑。部分学者认为这会导致软件开发陷入两难境地,究竟是最小化用户数据以保护用户隐私,还是最大化用户数据以增强系统功能。因此,他们主张建构一种数据价值评估决策方式,结合数据敏感程度、数据在系统中的可见性以及数据与系统功能的相关性程度等要素,辅助软件开发人员在“最小化”和“最大化”方案之间作出合理决策[4]。事实上,早在欧盟制定《通用数据保护条例》(GeneralData Protection Regulation, GDPR)之前,就已经有学者提出,“数据最小化”概念属于一种“相当直观且常识性做法”,因为收集和存储的数据越多,相应的隐私和安全漏洞的风险也就越大,这种隐私保护逻辑已经明显不适应当下数据处理、存储技术的发展,亟须从这种陈旧的数据保护范式转向数据赋能个人范式,由个人决定何为“最小化”[5]。
(二) AI智能体场景下最小必要原则适用问题的特殊性
从上述学理争议来看,最小必要原则饱受质疑的核心在于个人信息最小化处理与其合理利用之间存在难以调和的冲突。为解决最小必要原则在适用过程中可能存在的标准模糊等问题,《必要个人信息规定》明确了“必要个人信息”的判断标准是保障APP基本功能服务正常运行所必需。例如,针对地图导航类APP,因其基本功能服务是“定位和导航”,所以个人信息的范围限于位置信息、出发地、到达地。如此一来,最小必要原则可能导致的“重保护轻利用”弊端能够有所缓解,并且以“基本功能服务”作为判断标准也能够为个人信息处理者提供更为清晰的行为指引。但是,在AI智能体应用场景下,此种适用方式却再次面临新的问题:AI智能体的基本功能服务难以直接归属于当下任何一类信息服务类型,其核心功能是提供个性化的信息服务。在技术逻辑层面,只有采集足够多的用户个人信息,才能提供符合预期的信息服务。一旦按照最小必要原则的保护逻辑予以限制,AI智能体的功能将与现有常见APP并无实质区别。
目前,不同学科对“AI智能体”概念存在不同的解释逻辑,如部分学者认为该概念主要指具有实体形态的人工智能[6],其研究重心更加侧重人工智能应用的主体性地位。但在技术产业层面,“AI智能体”主要是指能够与外部环境进行交互的独立智能应用程序、软件或者其他信息系统[7];随着大模型技术的不断创新,该概念指涉对象也从单智能体延伸至多智能体,即由多个具备一定计算、通信、告知、学习和执行能力的单智能体组成,能够协同完成大规模复杂任务[8]。换言之,AI智能体更像是能够自动执行用户指令的终端设备,相较于“一键下单”“一键清理内存”等常见的信息服务类型,这种应用模式更加智能化,能够结合用户的行为习惯或者事前预设好的偏好、特征等自动完成任务,而非单纯地机械式执行用户指令。因此,讨论AI智能体场景下最小必要原则的适用问题,并非简单地将以往的个人信息保护议题迁移至具体的应用场景,进行“新瓶装旧酒”式的研究,该问题是确实值得讨论的新型法律问题。其特殊性主要表现为两个方面:一方面,倘若继续沿用既有的“基本功能服务”“个人信息处理目的”等标准来判断AI智能体服务提供者收集、处理个人信息的必要范围,由于该类应用目的的非限定性,可能推导出“所有的用户个人信息均属必要范围”的吊诡论断,这一情况是以往个人信息保护法律制度研究所不曾出现的;另一方面,AI智能体相关问题并非算法治理领域中某些特定场景下的“个案问题”,因此,算法治理领域的现有理论难以直接沿用,这也导致与最小必要原则相关的“权益影响最小”“比例原则”等传统理论范式,在AI智能体领域面临“再解释”的新需求。
(三) 最小必要原则失灵现象的再思考
在AI智能体场景下,最小必要原则适用问题的特殊性实际上反映了技术创新与立法规范之间的内在冲突。《个人信息保护法》制定时,立法者通常预设的个人信息处理场景多是存在特定且明确的处理目的;且实现这种目的所需的个人信息数量有限,而AI智能体的应用方式显然超出了这一立法预期。此外,2021年全国人民代表大会宪法和法律委员会关于《中华人民共和国个人信息保护法(草案)》审议结果的报告中也提出,第6条强调“对个人权益影响最小的方式”“限于实现处理目的的最小范围”等内容,正是针对应用程序过度收集个人信息、大数据杀熟以及非法买卖、泄露个人信息等行为[9]。换言之,最小必要原则适用的默认前提之一,是个人信息处理者在实现其处理目的时所需要的个人信息存在明确范畴,而AI智能体显然不符合这一前提。
然而,需要说明的是,这种适用前提的不契合并不当然意味着最小必要原则的失灵。在过去的个性化推荐服务中,最小必要原则的适用也存在类似的问题。个性化推荐服务的基础逻辑是获取更多的用户个人信息,向用户推送更加符合其偏好的网络信息内容,但如果严格按照最小必要原则的要求,显然会限制此类服务的实现。然而,从处理目的来看,个性化推荐服务仅属于附加性服务,个性化功能越强并不必然意味着信息服务质量越高,反而还有可能使得用户面临“信息茧房”“大数据杀熟”等问题。此外,个性化推荐服务通常是具有明确的应用场景,例如,在网上购物场景下,其目的是提供更符合消费者要求的商品或服务。因此,虽然个性化推荐服务需要尽可能多的个人信息来建构用户画像,但从个人信息保护的角度来看,除非用户明确同意,其收集和处理的个人信息必要范围应当仅以特定服务目的为限。《互联网信息服务算法推荐管理规定》(国家互联网信息办公室、中华人民共和国工业和信息化部、中华人民共和国公安部、国家市场监督管理总局令第9号)第17条,不仅明确限定了服务提供者应当提供不针对用户个人特征的服务选项,还提及了对用户权益造成重大影响时的告知义务,其内在逻辑正是为了尽可能减少这类算法推荐服务对个人信息权益的不利影响。在“郭某诉浙江淘宝网络有限公司个人信息保护纠纷案”中,法院认定网络平台个性化推荐服务是否涉及过度收集个人信息时,其判断依据也是以“网购类APP基本功能定位是网络购物”和“维护网络安全所必需”作为具体标准 ①。
因此,仅凭“AI智能体需要详尽的个人信息”与“最小必要原则要求尽可能少地收集和处理个人信息”之间的冲突,不能直接断言最小必要原则在AI智能体场景失灵。以最小必要原则无法调和个人信息安全保护与合理利用之间的冲突为论据,指明该原则与产业实践脱节等类似观点实际上是将“最小必要原则”误读为尽量减少个人信息的收集和处理,将“最小”狭隘地理解为数量层面的最小化。因此,与其说是最小必要原则存在失灵现象,倒不如说该原则面临适用方式的再解释难题:其一,最小必要原则的理论基础和功能定位需要延展,以便能够涵盖AI智能体以及未来科技创新可能涉及的个人信息处理模式;其二,AI智能体收集和处理个人信息的“最小化”概念需要重新解释;其三,AI智能体收集和处理个人信息目的和范围、方式之间的“必要性”需要明确相应的判断标准。
三、 最小必要原则基本内涵的再解释
(一) 最小必要原则的理论基础
在国外,最小必要原则通常被描述为“数据最小化”,并且该概念最初是以“经设计的隐私”(privacy by design)为基础,只不过在数据经济价值被大数据、云计算等信息技术创新后才延伸至个人信息保护领域。早期的“经设计的隐私保护”强调信息系统在设计和搭建阶段应当避免或者最大限度地减少个人数据的处理量,而“数据最小化”的核心要素则表现为将个人身份信息与内容数据分离、使用假名化技术、尽早实现匿名化或者删除个人数据[10]。在欧盟正式施行GDPR后,这种“经设计的隐私”转变为“经设计的数据保护”(data protection by design)。部分学者主张,“数据最小化”的标准也需要从“将个人数据数量控制在绝对必要的最低限度”转变为“数据保护的有效性”,即“数据最小化”的判断需要结合执行任务的软硬件技术发展水平予以确认[11]。理想中的“数据最小化”并非一项纯粹的强制性法定义务,而是法律与信息技术之间的有效协作,借助信息技术的发展成果拓展“数据最小化”的实践方式。
此外,欧盟在2019年和2020年先后发布了两版《关于GDPR第25条经设计和默认的数据保护指南》,2020版将“数据最小化”的判断标准从个人信息处理目的相关程度,扩展到个人身份的识别程度,即“最小化”要求至少应当尽可能降低个人身份信息被识别的安全风险。同时,在“经设计的数据保护”逻辑指引下,“数据最小化”的基本内容被解读为数据避免、限制、访问限制、相关性、必要性、聚合、假名化、匿名化与删除、数据流、“最新技术”。例如,数据流是指数据传输应当足够高效且避免产生不必要的数据副本;“最新技术”则是指个人信息控制者应当采用最新且适当的技术手段,以减少数据收集范围 ②。这两版指南最大的区别在于,2020版更加强调“数据最小化”的实践可操作性,并在“建议”部分强调“经设计的数据保护目标是将基本原则和数据主体权利保护有效地嵌入适当的数据处理活动中”。欧盟的“数据最小化”并非一项内容明确的法定义务,更多地表现为与透明原则、目的限制原则等基本原则共同构成的数据安全保护理念。虽然“数据最小化”要求个人信息处理者在收集个人信息时需要尽可能限制信息的数量和类型,但这一要求可根据实际的处理场景、处理目的以及数据安全保障技术发展水平而灵活调整。
有学者将欧盟GDPR视为最小必要原则的直接域外渊源[12],但这种观点显然忽视了中国最小必要原则具有其独特的制度背景和实践基础。在《个人信息保护法》立法过程中,审议报告、草案三次审议稿中均提及对最小必要原则相关内容的优化[13],其目的不仅是强化草案说明稿中提及的“确立个人信息处理应遵循的原则……限于实现处理目的的最小范围” [14],更是回应社会公众普遍关注的APP过度索取个人信息访问权限等问题。中国的最小必要原则与欧盟的“数据最小化”在形式上均作为基本原则存在,其适用方式通常是转化为具体的法律条款,立法目的是促成个人信息处理者形成符合“最小必要”理念的业务合规逻辑。与欧盟模式类似,中国的最小必要原则并非明确限定法定义务的履行方式,而是立法者预设的一种数据保护状态,指引个人信息处理者在多种技术方案中优先选择对个人权益影响最小的数据类型,其选择标准核心在于“最小”和“必要”这两大要素。“最小”要素强调的是个人信息处理范围最小化、存储期限最短等,“必要”要素则是强调个人信息处理活动应当具备充分的必要性。当然,这两大核心要素并不是将最小必要原则机械化地拆解为两个独立原则,而是为了避免在“最小必要”和“最小化”两个近义概念之间陷入循环论证。“个人信息采集最小化”[15]、“最小化”、“必要性”等确属最小必要原则的核心内容,但并不是全部内容,否则在概念称谓上直接表述为“最小化原则”或者“必要原则”即可。故而也有观点认为,“最小”应当被解释为“必要”的内涵限定[16],这类观点实际上还是将最小必要原则定位为“必要原则”,更确切的解释逻辑应当是“最小”与“必要”互为内涵限定标准。
(二) “最小”内涵的再解释
《必要个人信息规定》详尽列明了各类APP收集个人信息的“最小必要”范围和类型,因此有学者推断中国在实践中适用最小必要原则采取的是“严格适用”立场[17]。但从实际情况来看,所谓的“严格适用”更适宜解释为“个案式适用”。部分个人信息处理者可能会以《个人信息保护法》第6条的“笼统表述”作为其处理个人信息合法性依据,试图尽可能扩大其个人信息收集范围,此时就需要针对重点行业、关键领域的个人信息处理者设置更为明确的判断标准。倘若中国采用的是“严格适用”模式,这意味着一般情形下,个人信息处理者所收集的个人信息已经满足“最小必要”的要求;而涉及未成年人等特殊群体时,《个人信息保护法》第31条等条款设置了高于一般的个人信息保护要求,个人信息处理者需要进一步限缩个人信息的收集范围。然而,既然一般情形下已经达到了“最小必要”要求,那么显然无法实现“最小的最小”这一业务合规效果。因此,最小必要原则中的“最小”并不单纯只是数量上的最小,更为核心的内涵是“最小”收集和处理活动能够满足现行立法对个人信息保护的基本要求。此外,这种“最小”要求也不是仅限于个人信息收集阶段,也包括在发生个人信息安全事件时,将泄露和损害程度降至最低。
未来,AI智能体只是人工智能技术应用的众多趋势之一,其他应用方式同样可能对最小必要原则提出类似挑战。因此,在解释“最小”标准时,更应当强调在信息系统设计与研发之初就有必要考虑“最小”这一数据保护目标,而不是将“最小”的实现方式限定在信息系统投入商业化运营阶段。国外有学者从安全工程学的视角建构了一套包含“清晰的功能需求分析—基于特定功能的数据最小化—攻击者、威胁和风险建模—多方安全需求分析—设计实施与测试”的个人信息保护评估框架。在解释“基于特定功能的数据最小化”时,该学者以向驾驶员征税功能为例,提出最小数据集应当是驾驶员的身份和收费金额,车辆行驶地点和时间属于非绝对必要数据,此时采用分布式数据收集和处理的架构更加合理,因为中央实体无法访问细粒度的位置数据[18]。该评估框架展示了“数据最小化”的方式不仅指向个人信息收集行为,还要求信息系统设计应契合最小化收集行为,以降低个人信息安全风险。诚然,该评估框架的前置性条件是“相当明确的功能需求”,但这并不妨碍为中国“最小”标准提供一种可借鉴性参考。具体而言,“最小”标准具有多重含义,基于“对权益影响最小”这一核心标准,具体包括三个方面的要素:其一,收集的个人信息数量最小化。其二,在特定的收集目的原则上指向个人信息处理者的核心业务或应用程序的核心功能,同时涵盖特定个人信息收集、处理活动所对应的具体目的。在应用程序实现多线程任务同步或异步执行时,特定收集目的则可以拆解为单个线程任务执行目的。其三,“最小”涵盖个人信息收集、处理的全部环节,特定目的达成后删除个人信息也是“最小”标准的直观表现。
(三) “必要”标准的再解释
在论及最小必要原则时,学者们对其与比例原则之间的关系存在分歧。一方面,理论支撑论认为,最小必要原则是比例原则在个人信息保护领域的另一种表现形式,应当将最小必要原则的适用要素拆解为相关性、均衡性、合比例性三项内容[19];另一方面,无直接关联论则认为,最小必要原则中的“必要”仅是为了突出强调个人信息处理方式、范围应当与处理目的相匹配,并等同于比例原则中的“必要”概念[20]。这种分歧的形成根源在于广义和狭义“比例原则”的概念混同,狭义的比例原则主要是指用于评价负担行政行为的基本原则,广义的比例原则更类似于在法治过程中法治措施与法治目标的匹配性。在个人信息保护领域,部分学者习惯性地用狭义的比例原则解释最小必要原则,部分原因是狭义的比例原则通常包含必要性原则、适当性原则、最小损害原则等具体判断标准,能够作为最小必要原则适用的最直接判断标准。然而,这种论证显然忽视了狭义的比例原则适用对象的特殊性,负担行政行为与民事法律行为终究在法律效力等方面存在实质性差异,不能因为“相关性—均衡性—合比例性”这种分析框架的实用性就径直进行所谓的“理论改造”。事实上,已有学者注意到私法领域狭义比例原则的误用现象,并指明广义的比例原则适用于“一般性确定基本权利的界线”[21]。在民法中,这种比例原则成为个体民事权利受到限制的正当性基础,并与诚实信用原则共同作用于个体民事权利的行使过程中,实现个体利益与公共利益的最佳平衡状态。
从现有研究来看,“必要”标准常被细化为充足、相关、不过量、不损害公共利益底线、最大有效性等要素[22-24]。除了需要满足“权益影响最小化”“限于处理目的”,部分学者也倾向用“数据最小化利用”解释“必要”标准[25]。这类观点显然是将“最小必要原则”表述为“必要原则”、将“最小”视为“必要”的直接表现。此外,《中华人民共和国网络安全法》第41条要求网络运营者应当遵循“合法、正当、必要的原则”,《中华人民共和国民法典》第1035条要求 “处理个人信息的,应当遵循合法、正当、必要原则,不得过度处理”,这些规定常被用来解释个人信息保护的基本原则应为“必要原则”,而非“最小必要原则”。然而,《个人信息保护法》第5条所提及的“必要”原则和第6条对应的“必要”原则并非指向同一个概念:第5条的“必要”是与正当、合理等并列,强调的是个人信息处理收集和处理行为本身确有必要;第6条的“必要”则是为了体现“如何实现对权益影响最小”,强调的是个人信息收集和处理的范围和方式确属必要。最小必要原则中的“必要”标准从来都不是固定的,而是根据个人信息收集、处理活动对“个人权益影响”的实际效果来判断是否符合“必要”要求。例如,在突发公共卫生事件中,个人信息的收集范围包括患病情况、出行信息等,虽然部分个人信息表面上与公共卫生无直接关联,但从维护公共安全的角度考量,这些信息确有必要收集。并且,事后及时删除销毁,也是“对个人权益影响最小”的表现形式之一。
四、 AI智能体场景下最小必要原则的适用方式
(一) 适用逻辑的转变:从利用最小化到权益影响最小
尽管现有研究普遍提到了最小必要原则的适用逻辑,应当是对个人权益影响最小,但在具体的适用过程中,往往将“影响最小”简单解释为收集和处理最少的个人信息来实现相同的信息服务功能。这类观点的局限性在于,在未出现同AI智能体类似的应用场景时,通过明确具体的处理目的来界定个人信息的最小化利用方式尚无太大争议。然而,一旦信息服务的基本功能或者相应业务的处理目的难以确定,最小必要原则便可能出现失灵的现象。事实上,基于处理目的、基本功能服务等要素判断是否符合最小必要原则,仅是实现个人权益影响最小化的主要判断标准,收集阶段采取匿名化处理措施、事后阶段及时销毁个人信息等方式同样属于依循最小必要原则确定个人信息处理方式的判断标准。针对个人信息收集、处理的各个环节设置不同的最小必要监管要求固然能够有效保障个人信息安全,但实现安全的目的是更好地促进个人信息合理利用。倘若将数据利用最小化认定为最小必要原则的唯一适用逻辑,则会产生这样一种悖论:既然是“最小化”,满足最小数量的个人信息收集、处理方式有且仅有一种,进而使得个人信息保护义务的履行方式也被限定为这一种,这无疑会妨碍个人信息的合理利用。并且,所谓的“最小必要”更多地体现为一种“两相比较,取其轻者”的内涵:法律既不能也无须强制法律主体有且仅能采用最低安全风险的技术方案,而应允许其在综合考量经济效益、外部威胁等因素后,选择能够有效保护个人信息的技术方案,并在这些方案中选择风险更低、数据采集规模更小的一种。
在AI智能体场景下,解决最小必要原则适用难题需要重新审视实现“权益影响最小”的具体方式。结合AI技术发展趋势来看,继续尝试论证AI智能体收集、处理个人信息具体目的这一路径已然不具有可操作性。那么,不妨放弃对收集环节的过多关注,转而考虑从个人信息全生命周期切入,在自然人同意的前提下,允许AI智能体按照符合法定要求的用户协议收集、处理个人信息。但这种做法必然会招致“放任个人信息处理者随意收集个人信息”“最小必要原则名存实亡”等质疑观点。为此,需要从两个方面对这种“允许收集”施加限制性条件:一方面,在收集后续环节设置更为严苛的个人信息安全保护义务,确保因收集范围的扩大而带来的个人信息安全风险水平与一般情形下限制个人信息收集数量的安全风险水平相同。另一方面,按照AI智能体执行的具体任务,拆分判断个人信息收集行为的“最小必要”。AI智能体可能同时执行多个任务,如点外卖和制订“五一”假期出行计划等,这些任务可能会需要尽可能多的个人信息,以便AI智能体推导出符合用户需求的最佳方案。在涉及单一任务时,虽然无法直接限制哪些个人信息可以被收集,但可以限制或禁止AI智能体收集跟单一任务完全无关的个人信息。例如,执行点外卖这一任务时,可以禁止AI智能体将之前收集的家庭成员等相关个人信息用于该任务执行场合。
(二) AI智能体收集、处理个人信息的“最小”判断
最小必要原则作为一项基本原则,通常不会直接适用于具体的个人信息处理活动,而是通过转化为具体的法律条款加以体现。对AI智能体而言,在实现其“私人助理”服务功能的过程中,或多或少地会收集用户的敏感个人信息,这时便会触发个人信息保护影响评估机制。该机制的设置在一定程度上是最小必要原则的内容延伸,二者均强调对个人权益的影响程度的控制,而且影响评估事项也是基于最小必要原则。《个人信息保护法》第56条第1项规定“个人信息的处理目的、处理方式等是否合法、正当、必要”对应的是第5条规定的“合法、正当、必要原则”,而第2项和第3项提及的“个人权益的影响”则对应的是第6条规定的“最小必要原则”。此外,在司法实践中,法院的裁判逻辑通常是先行适用具体条款,再行判断是否符合最小必要原则。例如,在“左某诉爱某商务咨询(上海)有限公司、雅某股份有限公司(ACCOR SA)个人信息保护纠纷案”中,法院先行适用《个人信息保护法》第13条第1款第2项规定判断委托共享处理行为是否确属“履行合同的必需”,后再将该案中个人信息处理情况与最小必要原则的基本要求进行比对 ③。
正如上文所述,最小必要原则并非一项具有明确履行标准的法定义务,其适用逻辑更多的是为个案裁判提供一般性的认定标准。换言之,所谓的“最小”既指特定个人信息收集、处理方式在个案中实现的数据利用最小化,也指个人信息收集、处理活动无限趋近于“最小”的理想状态。评估个人信息收集和处理范围、规模是否“超出权利主体的合理预期”,通常从数量、时间、质量等维度进行衡量[26]。在AI智能体场景下,“最小”认定方式表现为:其一,由一般情形下的“个人信息收集、处理数量最小”转变为“最大化去除不影响具体任务执行的非必要个人信息”。其二,明确AI智能体的应用场景,判断是否收集了显著不相关的个人信息。基于类型化监管的思路,AI智能体的功能定位大致可分为“行业专属型”和“综合服务型”两类。针对“行业专属型”AI智能体,个人信息收集和处理不应当包括显著不相关的个人信息。例如,在教育领域,无论AI智能体提供何种学习方案、辅导模式,未成年人父母的工作教育情况、未成年人的家庭住址等信息均不应当纳入收集和处理范畴。针对“综合服务型”AI智能体,则应根据其执行的单一任务类型,限制与该任务无关的个人信息在该环节的使用。其三,鉴于AI智能体收集和处理的个人信息范围、敏感程度远超一般信息系统,故而需要采取更为严苛的安全保障措施,确保在收集、存储过程中的保密性,并在相关任务执行完成之后及时删除、销毁个人信息。此外,有必要强调的是,《个人信息保护法》第8条还规定了个人信息处理者有义务保证个人信息的质量,避免因个人信息的不准确、不完整对个人权益产生不利影响。因此,判断AI智能体收集和处理个人信息是否符合“最小”要求,还需要确保收集和处理的个人信息数量足以支撑基本功能运行和维持信息服务合同所约定的信息服务质量。
(三) AI智能体收集、处理个人信息的“必要”判断
在明确“必要”判断标准具有动态性后,新的问题也随之而来:这种动态化、场景化或者个案化的结论无法解决现实问题,即便再加上“对个人权益影响最小”这一标准予以限定,所提供的仍然只是一个笼统抽象的判断标准。针对这一问题,有必要在此前讨论的“必要”判断标准的基础上,进一步建构一个具有可操作性的判断框架,如图1所示。
第一步,明确AI智能体的应用场景,进而确定个人信息收集、处理是否属于该应用场景中“常用”的信息类型。需要注意的是,此处应用场景并非指《必要个人信息规定》中提及的APP类型和处理目的,而是指面向不同的用户群体类型,如面向用户个人、面向工业化生产、面向未成年人用户等。AI智能体本质上是自动化管理和执行复杂工作流程的自主系统[27],其核心功能大致包括面向个体的定制化服务和面向企业的工作流程优化。其服务模式是整合既有的各类应用程序,进行一体化规划和协调,故而沿用传统的医疗保健、金融服务、运输物流等应用场景分类模式并无实际意义。例如:在电子商务领域,AI智能体的服务对象是电商企业,其服务模式是整合预测需求趋势、与客户进行自动化互动等一系列环节,实现降低成本、提高效率之目的;在能源领域,AI智能体的服务对象是电力企业,其服务模式则是整合优化发电和配电、管理智能电网、预测设备维护需求等环节[28]。AI智能体本身并不直接完成具体的业务活动,而是通过需求分析、整体规划,安排特定的应用程序予以特定的执行任务。因此,在判断AI智能体收集个人信息是否确属必要时,首先,需要评估不收集相关个人信息是否会导致处理目的无法实现。鉴于AI智能体的处理目的在一定程度上属于“服务质量的提升”而非“实现具体的服务目的”,处理目的无法实现的具体判断标准应为:是否“无法提供高度契合个体用户使用习惯的信息服务”或者“无法提供能够显著提高工作效率的信息服务”。此外,考虑用户个体的差异性,针对未成年人、老年人等特殊群体,必要性的判断标准还应结合相关“特别法”规定,如《未成年人网络保护条例》(中华人民共和国国务院令第766号)将“必要”判断标准细化到“国家网信部门和有关部门关于网络产品和服务必要个人信息范围的规定”。
第二步,明确AI智能体信息服务合同的约定内容,并根据合同目的判断个人信息处理活动是否确属必要。由于AI智能体收集的个人信息范围并不特定,结合《个人信息保护法》规定的“知情同意规则”,判断必要性时需要满足两个条件:一是收集个人信息前,服务提供者已经明确向用户告知具体的收集范围和类型,并详细解释AI智能体的业务逻辑和特征,使用户能够据此知晓收集个人信息的行为并非过度收集;二是所收集和处理的个人信息应当是实现服务提供者与自然人之间信息服务合同目的所必需,即不存在其他技术方案可以在不收集、处理该范围内的个人信息的情况下达成合同目的,且若不收集该范围内的个人信息,合同目的无法达成。此外,鉴于AI智能体尚处于技术发展阶段,所能实现的技术效果也未曾形成行业共识,服务提供者在具体的服务过程中需要对用户说明AI智能体服务的技术水平、功能效果等。相较于《个人信息保护法》第13条第2项提及的“为订立、履行个人作为一方当事人的合同所必需”的规定,这里“根据合同目的”判断必要性不仅要求判断主合同目的(即提供AI智能体服务)是否能够达成,还需要评估信息服务提供者承诺的“特定功能效果”“特定的服务质量”等特别约定是否得以履行。
第三步,判断AI智能体是否设置了能够予以“豁免”的技术保障措施。一方面,如果AI智能体在收集阶段就对个人信息进行匿名化处理,匿名处理后的信息不再属于个人信息范畴,那么也无须确保其个人信息处理活动应当与最小必要原则保持一致;另一方面,则需要关注AI智能体的数据存储方式。目前,主要存在云侧、端侧以及云端结合等三类大模型部署方案。云侧大模型指的是在云端部署大模型,这意味着用户个人信息需要频繁上传至云端,在这种情况下,“必要”的判断须考虑云端数据安全问题,倘若难以保障安全性,且部分个人信息的收集和处理对AI智能体服务质量无显著影响,那么则属于不满足“必要”情形;端侧大模型则是用户终端(如手机等)进行本地化部署,数据不上传云端而是存储于终端设备,故而并不需要进行“必要”判断;云端结合大模型,则兼具上述两种大模型部署方案的特点,因此相应的“必要”判断则需要根据具体的数据存储方式进行拆分式评估。
五、 结语
AI等信息技术的创新发展持续挑战着既有的个人信息保护制度,而最小必要原则在AI智能体领域的适用难题正是这一挑战的典型体现。在传统的个人信息保护模式中,个人信息处理目的通常是判断处理活动合法性的关键要素,然而,AI智能体并非以实现特定目的为直接导向,而更强调执行任务的智能化与自动化。在这一技术背景下,与其说最小必要原则失灵,不如说其既有适用逻辑亟须重新调整。
最小必要原则旨在预防个人信息的过度收集和处理,并降低个人信息及潜在的各类安全风险,其实现路径是最小化对个人权益的影响程度,其中“最小”和“必要”是控制影响程度最为直接有效的实践措施。然而,随着AI智能体等应用场景的不断扩展,显然有必要避免将最小必要原则认定标准狭义地限缩为数量层面的最小化和目的层面的直接相关性,更应当考量究竟如何在实践层面实现“保护个人信息”和“促进个人信息合理利用”这两项立法目标。
【参考文献】
[1]王月明, 唐瑞芳. 大数据时代最小必要原则的悖论与超越[J]. 湖南大学学报(社会科学版), 2023, 37(3): 120.
[2]翟相娟. 个人信用信息采集最小化原则的适用困境与替代方案[J]. 南京大学学报(哲学 ? 人文科学 ? 社会科学), 2024, 61(3): 73-82.
[3]丁晓东. 大数据与人工智能时代的个人信息立法——论新科技对信息隐私的挑战[J]. 北京航空航天大学学报(社会科学版), 2020, 33(3): 8-16.
[4] SENARATH A, ARACHCHILAGE N A G. A data minimization model for embedding privacy into software systems [J]. Computers & Security, 2019, 87: 101605.
[5] COLONNA L. Mo' data, mo' problems? Personal data mining and the challenge to the data minimization principle [C]. Conference proceedings of Big Data and Privacy. Palo Alto: Stanford Law School and the Center for Internet and Society, 2013: 1-5.
[6]王春梅. 功能论视域下人工智能体主体制度的私法建构[J]. 上海师范大学学报(哲学社会科学版), 2025, 54(2): 56-66.
[7]黄昌勤, 钟益华, 王希哲, 等. 从单智能体到多智能体:大模型智能体支持下的激励型学习活动设计与实证研究[J]. 华东师范大学学报(教育科学版), 2025, 43(5): 44-56.
[8]秦家虎, 马麒超, 李曼, 等. 多智能体协同研究进展综述:博弈和控制交叉视角[J]. 自动化学报, 2025, 51(3): 489-509.
[9]中国人大网. 全国人民代表大会宪法和法律委员会关于《中华人民共和国个人信息保护法(草案)》审议结果的报告[EB/OL]. (2021?08?20)[2025?06?23].
[10] SCHAAR. P. Privacy by design [J]. Identity in the Information Society, 2010, 3(2): 267-274.
[11] JEZOVA D. Principle of privacy by design and privacy by default [J]. Regional Law Review, 2020: 127-139.
[12]金龙君, 翟翌. 论个人信息处理中最小必要原则的审查[J]. 北京理工大学学报(社会科学版), 2023, 25(4): 140-150.
[13]中国人大网. 全国人民代表大会宪法和法律委员会关于《中华人民共和国个人信息保护法(草案三次审议稿)》修改意见的报告 [EB/OL]. (2021?08?20)[2025?06?23].
[14]中国人大网. 关于《中华人民共和国个人信息保护法(草案)》的说明——2020年10月13日在第十三届全国人民代表大会常务委员会第二十二次会议上[EB/OL]. (2021?08?20)[2025?06?23].
[15]李明. 数字经济下个人信息采集最小化原则的适用[J]. 江苏社会科学, 2025(2): 179-187.
[16]陈禹衡. 生成式人工智能中个人信息保护的全流程合规体系构建[J]. 华东政法大学学报, 2024, 27(2): 37-51.
[17]武腾. 最小必要原则在平台处理个人信息实践中的适用[J]. 法学研究, 2021, 43(6): 71-89.
[18] G?RSES, SEDA F. Carmela troncoso and claudia díaz. engineering privacy by design [C]. Conference on Computers Privacy & Data Protection. Brussel: The Vrije Universiteit Brussel, 2011: 1-25.
[19]朱晓峰, 林睿尧. 论未成年人个人信息处理中最小必要原则的适用[J]. 经贸法律评论, 2024(4): 102-124.
[20]王晓晓. 患者个人信息保护的现实困境与完善进路[J]. 中国政法大学学报, 2025(1): 226-237.
[21]程啸. 论我国个人信息保护法的基本原则[J]. 国家检察官学院学报, 2021, 29(5): 3-20.
[22]张新宝. 个人信息收集:告知同意原则适用的限制[J]. 比较法研究, 2019(6): 1-20.
[23]卢家银. 网络个人信息处理中必要原则的涵义、法理与适用[J]. 南京社会科学, 2021(12): 118-125.
[24]刘权. 论个人信息处理的合法、正当、必要原则[J]. 法学家, 2021(5): 1-15.
[25]谢琳. 大数据时代个人信息使用的合法利益豁免[J]. 政法论坛, 2019, 37(1): 74-84.
[26]梁远高. 论人工智能大模型训练数据风险的分层规制[J]. 郑州大学学报(哲学社会科学版), 2025, 58(3): 61-67.
[27] NVIDIA. AI agents [EB/OL]. (2025?02?05)[2025?06?23].
[28] GITHUB. What are AI agents? [EB/OL]. (2025?02?06)[2025?06?23].