前沿动态
司法文明协同创新中心的建设目标是按照“国家急需、世界一流、制度先进、贡献重大”的要求,依据科学研究、学科建设、资政育人“三位一体”的方针,打造中国乃至世界司法研究的重镇、中国司法学科建设的平台、卓越司法人才培养的基地、司法文明和法治中国建设的核心智库。
赵精武: 人脸识别应用的分级分类监管制度建构 以整体性风险治理为视角
    【学科类别】人工智能
    【出处】《上海师范大学学报(哲学社会科学版)》2025年第3期
    【写作时间】2025年
    【中文摘要】广泛应用的人脸识别技术改变了传统的身份核验效率,优化了信息服务质量。但强制“刷脸”等现象却使得社会公众不堪其扰,技术创新与权益保障如何实现有效平衡这一根本性问题久争不下。在相关论争中,人脸信息保护是该类技术治理的关键内容已成共识,但人脸识别技术治理重心还表现为,该类技术的“可拓展性”和“非接触性”的技术特征使得相应风险呈现综合性的特征。为了在实现技术安全治理目标的同时,推动人脸识别技术创新应用,更需要建构以整体性风险治理为导向的分级分类监管机制。在科技创新促进论、自主选择能力保障论和风险治理体系论的理论框架下,通过对个人权益影响程度的定性评估和对具体安全风险的定量评估,实现对人脸识别技术风险的精细划分,设置差异化和层次性的监管要求,能够有序推动人脸识别技术在风险可控要求下的广泛应用。
    【中文关键字】人脸识别;分级分类监管;自主选择;整体性风险治理
    【全文】


      一、问题的提出
      当下,人脸识别技术应用治理的相关研究已经相当充分,并且,研究视角与研究结果具有同向性,即侧重对人脸识别技术的应用场景、数据处理以及法律责任分配的论述。诚然,具体的研究结论有所差异,但核心内容依然是围绕人脸识别技术风险建构相应的权利义务体系:个人信息保护论是从敏感个人信息、生物特征识别数据保护的角度对人脸信息采集、处理行为加以限制;场景限制论是从隐私权、人格尊严保护等角度对人脸识别技术的应用场景、应用方式设置禁止性规范;主体责任论是通过分析非法采集来明确刑事责任以及彼此之间法律责任的承担方式;刑事规范论则从人脸识别技术在刑事侦查、犯罪预警等特定应用场景切入,主张从算法透明和算法安全的角度建构配套的刑事程序规则。
      不过,这种研究倾向却使得人脸识别技术治理产生了另一个问题:这些制度建构主张所针对的技术风险实际上在《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》《中华人民共和国民法典》等现行立法中均能找到相应的针对性条款,为何还需要通过专门立法的方式予以规制?对于这一问题的回答,多数意见倾向于从人脸识别技术风险的特殊性予以解释,强调该类技术的滥用存在更为严重的权益侵害。这种解释路径并无不妥,但实际情况是,风险程度的差异化特征未能被现有研究所关注,仅仅以不同应用场景存在不同风险等方式一言以概之。并且,人脸识别本身还存在实时识别和事后识别等不同的技术方案,更需要对相应的风险特征予以明确。因此,在现有研究较为充分的背景下,针对不同风险类型的人脸识别应用,如何在制度层面设置层次化的监管要求乃是当下人脸识别治理活动需要正面回应的核心问题。
      二、人脸识别安全风险的识别:以人工智能治理为起点
      人脸识别技术应用治理规则的逻辑起点是此类技术应用所产生的各类安全风险,这也是设置分级分类监管机制的实践基础。然而,现有研究对人脸识别安全风险的确认和识别多是以社会危害性严重、涉及敏感个人信息为主,缺乏对不同技术方案下安全风险特殊性的细致评估。
      1.人脸识别技术风险的特殊性审视
      学界对于人脸识别相关的法律问题并没有太大争议,普遍认可在立法层面应当对人脸识别技术作出专门规定。并且,在论述人脸识别技术治理措施时,大多是围绕个人敏感信息保护和技术应用场景的必要性展开。而在论及人脸识别技术风险时,多数意见默认人脸识别技术滥用风险存在一定的特殊性。关于特殊性的研究主要存在四类主张:其一,技术创新论,认为人脸识别属于创新性技术,其作为“一种前所未有的安全预防、身份认证的工具”,一旦被滥用,可能导致大规模侵权事件的发生。[1]其二,公共场所侵权论,认为人脸识别技术应用于公共场所时可能对个人隐私权、个人信息权等权利与自由造成侵害,故而有必要进行法律规制,[2]这种不合理扩散可能导致隐私泄露、算法歧视等问题。[3]并且,这种全场景监管叠加全维度监控所形成的全场景监控可能导致对个人合法权益全方位的损害,并且这种损害具有持续性、广泛性的特征。[4]其三,广泛侵权论,认为人脸识别技术风险主要表现为人脸信息被滥用而引发的一系列侵权事件,如金融账户被盗取,人脸信息被收买、被用于深度伪造等。[5]其四,特殊技术特殊风险论,侧重对特殊类型的人脸识别应用考察,认为诸如人脸情绪识别算法被滥用可能导致正当性风险、安全性风险、准确性风险以及可责性风险等一系列特殊风险。[6]
      上述关于特殊性的论断最存疑的地方在于,侵害个人信息权利、隐私权、滥用公权力监控社会公众等具体风险实际上属于数字时代最常见的技术风险类型,并且《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》《中华人民共和国民法典》等法律法规均已规定了相应的禁止性规范和义务性规范。由此观之,人脸识别技术风险在一定程度上并不具备法律意义上的特殊性,也缺乏相应专门立法的必要性。尽管《中华人民共和国个人信息保护法》中的“知情同意”规则可能难以适用,特别是在公共场所不可能逐一询问不确定的社会公众是否同意接受人脸识别,但是,依据《中华人民共和国个人信息保护法》第13条第3项的规定,国家机关只需要证明属于履行法定职责或者法定义务所必需即可采用人脸识别技术。进一步而言,现有研究成果对于人脸识别技术风险的描述是以风险程度为主,而这种量化风险的研究视角未能有效揭示人脸识别技术风险的特殊性。个人信息安全风险、隐私侵权风险等风险类型固然属于人脸识别技术治理需要重点预防和控制的风险类型,但需要强调的是,这种风险法律性质论断也仅仅能够推导出人脸识别技术应用需要重点监管,不能推导出人脸识别技术需要专门立法规制之结论。
      人脸识别技术应用饱受诟病的地方是技术使用者往往以强制或变相强制的方式要求权利人接受人脸识别信息服务,部分技术使用者甚至直接无视权利人是否同意,以各种方式擅自采集和分析人脸信息。无论是“全国人脸识别第一案”,[7]还是法学教授对小区进出闸机强制刷脸的质疑和批判,[8]均表达了对人脸识别信息服务“强制性”的反感和抵触。究其原因,乃是这些技术应用方式严重降低了个人的自主选择能力。特别是在信息技术时代,人脸识别技术并非唯一能够完成身份核验的技术方案,技术使用者强制排除其他技术选项的行为实际上减损了个人的自主选择能力。在民法体系下,民事主体作为独立的法律主体,最为根本的要素便是能够以自己的独立意志自由地进行民事活动,并维系和保障行为自主性。实践中,部分人脸识别技术应用方式虽然美其名曰“提供便捷服务”“安全可靠完成身份核验”,实际上却以牺牲最基本的行为自主能力实现为代价,实现其具有可替代性的技术功能。
      2.人脸识别安全风险被忽视的两个基本特征
      对于上述人脸识别技术风险认知误区,需要从实践层面的技术应用模式及其风险类型角度进行修正,亦即重新确认、评估和识别人脸识别风险。虹膜识别、指纹识别等身份识别模式,同样涉及人脸识别相关的生物特征识别信息,同样是以身份核验作为核心功能,同样存在个人信息风险等问题。有意思的是,这些身份核验技术所受到的关注度远不及人脸识别技术,也鲜有学者提出这些技术应用需要专门立法予以规制。这是因为与这些身份核验技术相比,人脸识别风险最大的特殊性在于其技术风险的延伸性,即人脸信息的安全风险与人工智能技术风险相关联,人脸信息的识别、分析可能会被用于“换脸”“深度合成”等服务模式。此外,这些生物特征识别信息的收集方式也存在显著差异:虹膜信息、指纹信息需要在自然人明确自愿的前提下才能够采集到,但是人脸信息却可以通过摄像头等设备直接无感式采集,自然人可能并不知晓自己的人脸信息正在被采集和分析。
      尽管现有的人脸识别治理研究对该项技术的基本原理展开了较为全面且详尽的阐述,但是鉴于人工智能技术创新现状,仍然有必要先行完成对人脸识别技术特征、业务环节以及应用目的层面的梳理,再行提炼人脸识别技术风险的“全景图”。主流观点通常将人脸识别的技术环节总结为“探测和提取人脸—分析人脸信息—数据库比对—输出结果”;[9]相应地,技术特征则被总结为非接触性、算法专业性、网络依存性等。[10]此外,部分学者试图从身份核验的角度将人脸识别技术应用方式划分为“一对一”和“一对多”;[11]或者将人脸识别应用分为“人脸识别”(将人脸图像与具体个人关联)和“人脸分析”(从图像中提取人脸信息);[12]又或者将场景化分为人脸验证、人脸辨识、人脸搜索三类,分别对应核查个体身份、研判个体身份背景、实时追踪与追捕追逃三类目的。[13]这些技术特征的总结在一定程度上证明了对人脸识别技术风险的考察不能仅仅停留于人脸信息这一个维度,还需要结合各类风险要素进行综合性的判断。换言之,现有研究大多只完成了对于技术特征部分内容的分析和评估,相应的研究结论本质上并没有超出个人信息保护、隐私权保护或者预防算法歧视的基本范畴。
      人脸识别技术应用最为关键的两个特征是“可拓展性”和“非接触性”。“可拓展性”是指人脸信息识别后,基于识别结果能够扩展出众多的技术应用方案,诸如进出门禁、人脸图片检索、精准定位逃犯等。这种技术特征意味着人脸识别技术风险与其他安全风险呈现交叉重叠的状态,而这也是人脸识别需要通过专门立法加以规制的原因之一。例如,用人单位可以利用该技术,在工作场所实现刷脸进出、跟踪出勤记录、远程监控员工工作状态;[14]在应聘环节,更是可以直接关联相关数据库进行背景调查。[15]“非接触性”则是指人脸识别技术应用不需要自然人直接与硬件设备接触即可完成人脸信息比对功能。虽然学界已经注意到这个技术特征,但大多数研究未能将该技术特征与技术风险相关联。因为在技术层面这种“非接触性”不仅仅表现为自然人近距离站在摄像头面前即可完成身份核验,还表现为通过特殊摄像设备实现远距离无感式人脸识别。人脸识别技术风险的特殊性在很大程度上与这种远距离无感式人脸识别技术方案密切相关,即擅自收集和分析人脸信息,并将识别结果数据应用于远超身份核验必要功能的其他场景中,诸如分析自然人的出行路线、行为模式、情绪变化等,以非法窥视自然人的私密空间和私密生活。
      3.人脸识别安全风险治理需求的全景式识别
      在专门立法必要性层面,技术风险的特殊性意味着该类技术风险独立于已被现行立法调整的技术风险类型,并且这种风险的成因、预防要素也超出现行立法的预防和控制范畴。从人脸识别应用的技术特征、损害权益类型来看,人脸识别技术风险的特殊性在于自身与其他技术风险的交叉重叠:一方面,以人脸信息比对功能为限,人脸识别的基础风险是人脸信息安全风险;另一方面,以具体应用场景为对象,人脸识别应用会产生其他类型的延伸性风险。现有研究对人脸识别技术风险的论证实际上只完成了人脸信息比对层面的剖析,淡化了人脸识别技术的延伸性应用。无论人脸信息的安全风险存在何种特殊性,本质上均可以在个人信息保护立法框架内予以解决。实践中,社会公众对于人脸识别应用合法性的质疑大多聚焦于该项技术应用方式本身。特别是在“不接受人脸识别就不提供相关信息服务”“不主动询问就不主动告知人脸信息收集事项”等业务模式下,社会公众对人脸信息处理活动的安全可靠性以及人脸识别技术应用对自己权益的影响担忧。此时,人脸识别技术风险的外在表现形式大体分为个人信息风险和应用安全风险,后者主要指向人脸识别应用方式对个体权益的侵害状态。
      当然,如果仅仅从个人信息风险和应用安全风险两个维度解释人脸识别技术风险并不足以回应该项技术专门治理的必要性和正当性。在数字时代,法律对于技术风险的回应方式正在发生变化:大数据、云计算、区块链等信息技术的创新发展导致既有的立法体系无法及时有效回应产业治理实践需求,立法者为此制定了一系列包括数据安全、算法安全等在内的法律法规。随着数字立法体系趋于成熟,常见技术风险均已纳入现行立法调整范围内;相应地,风险治理体系需要从个体风险治理转向风险体系治理,否则只会陷入“出现个体技术风险,设置专门的治理机制”这一逻辑怪圈。人脸识别技术风险本质上属于综合性风险类型,个人信息安全风险、应用安全风险仅仅是综合性风险内容的组成部分。人脸识别技术以人工智能技术为底层基础,其技术风险特征也与人工智能技术风险相类似。在关于人工智能技术治理的早期研究中,多数意见习惯性地将人工智能技术风险拆解为数据安全风险、网络安全风险、网络信息内容风险、算法安全风险等类型,这种拆分式的风险考察视角反而使得人工智能技术风险并不具备单独治理的必要性。人脸识别技术风险亦是如此,人脸信息安全风险往往与后续的应用安全风险相互结合,拆分式研究视角只会弱化人脸识别风险治理的必要性,因为完全可以通过法律解释的方式解决个人信息安全风险。
      人脸识别技术作为人工智能技术应用类型之一,其技术风险也独立于常见的个体性技术风险,具体表现为:其一,该类技术风险需要置于人工智能技术风险框架内进行体系化考察。与人工智能技术治理相似,人脸识别技术风险治理规则的重点内容应当是技术应用整体,而不是拆分聚焦某一类个体风险。并且,在分级分类治理理念下,人脸识别应用作为特殊的人工智能应用方式,理应在制度内容层面维系人脸识别技术风险治理嵌入人工智能风险治理体系的解释空间。其二,该类技术风险治理需要遵循与人工智能技术风险相类似的治理逻辑。在论及网络空间各类风险治理时,部分学者也倾向于采用分级治理理念实现差异化的义务与责任配置。[16]在人脸识别技术治理领域,根据技术风险的权益损害程度、风险程度等因素细化不同应用模式的监管制度也成为立法的必然趋势。其三,该类技术风险是常见个体风险的复杂结合,而不是简单的风险类别相加。这些个体风险的复杂组合对于个人自主选择能力的减损程度、减损方式差异化明显,进而导致不同技术应用的合法认定需要设置不同的判断标准。
      三、人脸识别安全分级分类监管的三层理论架构:面向整体性风险
      基于风险治理和促进技术创新应用的基本目标,分级分类监管成为人脸识别应用差异化监管的必然选择。围绕整体性治理人脸识别技术风险这一目标,相应的分级分类监管理论基础可以划分为科技创新论、选择能力保障论和风险治理体系论三层理论内涵。
      1.第一层理论内涵:科技创新促进论
      关于安全监管与促进发展之间的关系始终未能得到更为明确的论述。并且,在技术风险治理的研究趋势下,学者们普遍将研究重心置于技术风险预防,有关促进科技创新的论述却寥寥无几。这种研究特征逐渐演变为“优先实现技术安全,然后再实现科技创新”的论证逻辑,显然与“安全与发展并重”的基本原则相悖。在人脸识别技术治理领域,之所以强调建构分级分类监管,其目的是通过对整体性风险的确认、识别,设置不同层次的技术监管标准,确保能够真正做到技术安全与技术创新两种立法价值的同步实现。如涉及公共数据开放时,有学者主张根据市场需求和数据功能进行分类,以便更有针对性地利用公共数据,这本身亦是数据安全与数据利用立法价值同步实现的表现之一。[17]当然,笼统性的法律价值权衡论证无助于解决实践问题,也无法转化为具体的法律规范。解决这一论述弊端的关键在于阐明促进科技创新的具体内涵,并充分解释如何通过安全风险预防和控制促进科技的创新发展。
      法律对于科技创新的促进作用主要表现为两个维度:一是按照市场资源分配和科技创新规律,推动创新资源的合理配置和供给;二是“作为可执行、可预期的诱导性规则”,[18]提供明确的行为规范指引,划定科技创新应用的合法性边界。前者对应的是包括促进科技成果转化、创新资源供给等在内的产业保障型规范,属于直接促进机制;后者则对应的是技术研发者、提供者的注意义务等义务性规范,属于间接促进机制。在解释“安全与发展并重”的立法目标时,这两个促进维度同样分别对应了两种技术安全治理观:其一,直接促进机制追求的是技术可持续发展安全目标,因为科技创新发展需要遵循市场调节的客观规律,法律在科技创新发展中的促进作用逻辑实际上是加速和放大市场的筛选功能,通常只有满足绿色低碳且能够被广泛商业应用的技术方案才会得到立法层面的创新资源支持。立法者在制定科技创新促进制度时所遵循的内在逻辑是“市场调节为主,政府必要干预”,故而直接促进机制的核心目标是明确科技创新发展的优先顺位,并在此基础上确定创新资源调度重心,建构起层次性的科技创新促进体系和战略架构。其二,间接促进机制追求的是技术应用安全目标,但其最终目标不是安全风险的预防,而是通过对安全风险类型和水平的划分,形成“禁止高风险应用,限制中高风险应用,允许低风险应用”的监管架构。
      因此,“安全与发展并重”这一立法目标的实现是以风险层次化划分为基础,立足于市场调节和筛选机制,根据不同风险状况强化对各类技术应用的“精细化”监管。[19]一方面,“安全”是一种层次化的风险识别体系,对应了不同的监管标准;另一方面,“发展”则是一种有先后顺序的科技创新过程,面向存在不同风险的技术应用设置相应的技术产业发展策略。“并重”的实现则是通过对风险类型、水平的层次划分,排除不可接受的高风险类型,对于可接受的风险再行建构不同的监管标准和科技创新促进机制。在该科技创新促进论框架下,人脸识别应用分级分类监管机制显然不能理解为“低、中、高风险判断”“分行业监管”等笼统的分类监管制度。因为这些笼统的分类标准既不能作为有效区分人脸识别应用的“禁止、限制和允许”的监管依据,也缺乏必要的可适用性,采取这些分类标准只会导致义务履行标准的模糊化。值得注意的是,分级分类监管机制的最终目的是基于人脸识别技术“可拓展性”这一特征,实现对应用场景风险的体系性识别和评估,进而确认技术研发者、提供者不同的义务内容和义务履行标准。
      2.第二层理论内涵:选择能力保障论
      分级分类监管在促进科技创新的同时,也需要以保障个人合法权益为基础。人脸识别技术的“可拓展性”和“非接触性”特征决定了分级分类监管的保护客体是“个人自主选择能力”。现有研究大多倾向于设置知情同意规则保障自然人的合法权益,但问题在于,知情同意规则的前提是“自然人能知晓”,既包括知晓人脸信息的处理目的、方式和范围,还包括知晓自己所在场所设有人脸识别设备。人脸识别应用的“非接触性”意味着人脸识别技术的研发者、使用者可以在自然人不知情的情况下擅自收集人脸信息,此时自然人后续一系列的权利主张均可能因“不知情”而无法启动。不少学者也提出通过设置人脸识别技术使用者的标识义务告知自然人在特定场所安装有人脸信息采集设备,但这又会引发另一个棘手的问题:这是否意味着所有的技术应用场景均应当设置显著的提示标识。倘若这一问题的答案是“所有的应用场景”,那么无疑会增加技术使用者的业务合规成本,并且会产生不同场所的显著标识范围是否应当相同等新问题。为了解决诸如此类的问题,显然需要按照某种标准对人脸识别应用进行类型划分,进而对于不同技术使用者提出有区分的义务履行标准。同时,结合人脸识别技术的“可拓展性”特征,类型划分的核心依据是不同应用方式对个人自主选择能力产生不同程度的影响。
      科技创新论所延伸出的制度内容是对人脸识别应用安全风险进行类型划分,筛选出适用不同监管要求的应用类型。选择能力保障论则是在此基础上提供更为综合性的类型划分标准,即评估和确认技术应用方式在多大程度上限制了个人的自主选择。人脸识别应用通常会面临该应用方式是否确属公共安全之必要这一根本性问题。在法律价值权衡的过程中,促进科技创新、保障公共安全并不当然构成削减自然人权益的正当性事由,而是在比较促进科技创新、保障公共安全与自然人自主选择的基础上,判断何种价值顺位能够达成最佳的制度效果。一旦平台企业无限制地普及刷脸服务,最终可能导致平台企业甚至比政府、亲朋好友更加了解自己,自己网络身份的自主决定能力实际已被蚕食殆尽。[20]不过,在制度实施层面,选择能力保障论在法律价值层面比较权衡得较为笼统,缺乏实践的可操作性,故而需要通过分级分类监管实现更为精细化的监管效果。
      对个人自主选择能力的保障主要是为了应对人脸识别技术“可拓展性”和“非接触性”延伸出的综合性风险,但是这种自主选择能力也不是无限制的。具体而言,个人自主选择能力主要包括三个层面的内容:其一,自主选择能力强调的是自然人有选择接受或拒绝人脸识别技术应用的实践能力。实践中,面对各类技术风险,自然人最先受到侵害的法益便是充分自由选择是否接受相关技术服务的事实能力,部分服务提供者以拒绝提供服务、诱导式弹窗等方式变相强制用户接受,用户的选择可能缺乏真正意义上的自主性。其二,自主选择能力的适用前提是存在可选事项。倘若涉及生命健康等重要权益,强调自主选择能力实际上属于本末倒置,忽视了自主选择能力的最终目的是更好地行权。上海市禁止酒店强制要求旅客刷脸,原因之一在于除了人脸识别之外,身份证核验等方式同样能够达到相应的身份验证目的,此时旅客应当具备选择快捷式刷脸入住和程序稍微繁琐的证件核对两种选项。其三,自主选择能力是自然人行使其他权利的前提条件,人脸识别技术风险治理目标之一是确保自然人在“知晓能够选择”和“知晓存在哪些选项”的基础上进行自主选择。因为只有知晓技术应用的风险程度、权益影响程度等事实,自然人才能够制定下一步的行权策略。
      3.第三层理论内涵:风险治理体系论
      科技创新论和选择能力保障论明确了建构分级分类监管的正当性基础,并对分级分类的目的予以明确。风险治理体系论则细化到具体的技术风险治理逻辑,与系统治理原则所强调的整体性、全局性治理较为相似。[21]人脸识别技术风险本质上属于常见个体风险的相互结合型风险,应当置于失控风险、责任风险等构成的人工智能综合性技术风险体系下予以治理。[22]因为在人脸识别技术“可拓展性”特征的作用下,个人信息安全风险、应用安全风险以及其他技术风险通常会根据具体的应用方式呈现出不同的风险状态。如果简单地将该类技术风险归结为人脸信息安全风险,现行的敏感个人信息保护制度足以解决这些风险问题。《人脸识别技术应用安全管理规定(试行)(征求意见稿)》第4条规定的“特定的目的和充分的必要性”、第9条规定的“充分确保个人充分知情”“不得关联与个人请求事项无直接必然相关的个人信息”等内容在《中华人民共和国个人信息保护法》中均能发现类似的表述。这种立法模式不能简单理解为将敏感个人信息保护的一般规则转变为特定技术应用场景中的具体规则,否则只会推导出重复立法的结论。
      从风险治理体系论的视角解释人脸识别技术治理,除了能够较为系统地解构该类技术风险的一般性与特殊性,另一个目的在于整合相应的风险治理规则。现行立法规定了数种安全风险评估机制,如网络安全风险评估、数据安全风险评估、个人信息保护影响评估等。倘若不对这些安全风险评估机制进行体系化整合,其直接的结果是,义务主体不得不就同一业务事项重复进行数次没有实质性区别的安全评估。特别是网络安全评估、数据安全风险评估以及个人信息保护影响评估在评估事项、评估标准等要素层面具有一定的相似性,若不在风险程度、风险类型、风险特征等层面明确各类安全风险评估的适用范围和评估对象,将会淡化各项安全风险评估制度之间的差异性。类似的问题同样存在于算法领域,如部分学者认为算法分级分类与算法安全风险评估属于两种相互独立的制度,算法分级分类的目的是为算法安全风险评估划定需要评估与监测的算法范围。[23]
      风险治理体系论是在科技创新促进论和选择能力保障论的基础上提出的分级分类监管机制,是对内在逻辑的统一和对外部规则的有效衔接。现阶段,但凡涉及网信领域的安全风险治理,多提及分级分类治理制度建构,如算法分级分类监管、平台分级分类监管等。这种制度建构主张并无不妥,但是为每一个技术风险治理重新设置一次分级分类监管,反而会弱化网信领域分级分类监管作为一项基本法律制度的整体性定位,导致每一个新兴技术、每一类技术风险均需要重复识别评估安全风险。更重要的是,实践中大多数技术风险是网络安全风险、数据安全风险、应用安全风险等常见个体风险的结合体,故而更需要建构一种体系化的分级分类治理架构,如网络安全等级保护制度、数据分级分类保护制度本质上亦是分级分类监管的表现形式之一。在风险治理体系论的视角下,因为人脸识别技术风险并不纯粹由网络安全风险和数据安全风险所构成,所以相应的分级分类监管机制需要形成有别于这两类制度的监管模式,进而达成风险治理层面网络安全风险、数据安全风险、人工智能技术应用类安全风险的体系化治理目标。
      四、人脸识别应用分级分类监管的制度架构
      人脸识别应用的分级分类监管既不是场景论监管,也不是个案式监管。在科技创新促进论、选择能力保障论和风险治理体系论的导向下,人脸识别应用分级分类监管需要实现“安全与发展并重”的目标,并保持其与人工智能治理规则的内容衔接。
      1.分级分类监管的功能定位
      在科技创新促进论框架下,分级分类监管的核心内容之一是依据精细化的技术风险划分,筛选出合适的技术应用场景,推动人脸识别技术的广泛应用,以及设置具有可操作性的风险划分标准。为了实现这一制度目标,分级分类监管制度内在的风险划分模式应当具备定性和定量两个方面,既要避免走入“个案论”“场景论”的制度误区,也要避免陷入不具有可操作性的“低—中—高”三级风险划分困局。在现有讨论中,存在将分级分类监管制度与根据应用场景设置具体监管标准混淆的研究偏差。一方面,所谓的“根据应用场景设置具体监管标准”缺乏风险划分的可操作性,场景与场景之间的区分度难以明确。另一方面,断章取义地使用国外学者海伦·尼森鲍姆所提出的“场景一致性理论”,将原本用于解释“什么是隐私”的判断标准泛化为适用于网络空间治理相关的“场景化”理论,这使得相关制度的建构缺失相应的正当性基础。虽然部分学者试图通过量化风险程度建构实用性的分级分类监管体制,但在解释“低—中—高”风险级别划分模式时,未能阐明三级风险采用何种标准划分以及各个风险级别之间如何进行区分,进而导致最终的风险划分缺乏相应的可操作性。
      在选择能力保障论框架下,分级分类监管的核心内容之二是定性层面的权益影响评判标准。技术风险的构成要素包括定量层面的技术安全风险级别和定性层面的权益损害风险。承接科技创新促进论所侧重的定性定量两个维度的风险划分模式,选择能力保障论则是将权益损害风险划分为两个评断阶段:一是评估自然人是否知情人脸识别应用的基本情况,二是评估自然人是否知晓面对人脸识别应用时存在其他技术方案选项。分级分类监管的预设前提是已经事前完成了对人脸识别应用的风险识别和评估,进而才能判断对个人权益是否产生实质性影响以及具体的影响程度。需要强调的是,这种对个人权益影响的评估不是直接指向敏感个人信息权利、隐私权等具体权利的影响评估,而是对行权的可能性进行定性评估。因为具体权利的影响评估完全可以通过后续的个人信息保护影响评估机制予以解决。而且,分级分类监管的直接目的是明确针对特定义务主体和技术应用方式应当采取的针对性监管标准,只需先行判断和评估人脸识别应用是否限制了自主选择能力,进而明确相应的义务履行标准和监管要求。
      在风险治理体系论框架下,分级分类监管的核心内容之三是定量层面的技术安全风险判断标准和统一化的技术风险监管标准。为了避免技术研发者和提供者陷入重复冗余的安全风险评估,有必要细化各类安全风险评估机制的制度目的,进而提升各项制度之间的区分度和功能独立性。分级分类监管的另一个预设前提便是对技术风险的全面识别和评估。尽管现行立法尚未形成统一化的分级分类监管体系,但是随着网络安全、数据安全和技术安全立法体系的趋于完善,后续的立法重心必然会转移至不同领域分级分类监管体系的内容协调和规则统一。唯有如此,才能确保风险治理规则的目标一致性和标准统一化。否则,每一个监管领域设置不同的分级分类监管模式,既可能导致同时涉及数据安全、网络安全以及技术安全等不同业务合规目标时,义务主体和监管机构均会陷入不同标准的分级分类认定困境,也可能产生不同领域的分级分类监管要求存在法律适用冲突的问题。同时,实践中的风险治理不可能做到完全精准的风险治理效果,因为技术更新、业务模式调整等因素,技术风险始终处于一个动态变化的过程中。为了兼顾风险治理的动态性和相对精准,分级分类监管的风险划分方式不能采用“低-中-高”三级模式,网络安全等级保护设置五级安全级别便是最好的佐证。
      2.分级分类监管的两个步骤
      鉴于人脸识别应用在公共场所和私人场合存在截然不同的技术风险类型,故而现有研究多否定私人场所人脸识别应用的合法性,除非明确获得自然人同意;同时,细化公共场所人脸识别应用的“分情况”讨论,如划分为绝对应用、相对应用和禁止应用三类场景,[24]又或是根据个人合理预期明确程度标准划分为“单一场景和复合场景”,[25]再以法益权衡、技术风险程度、目的必要性等理论工具判断技术应用是否属于合法范围。并且,上海市已经专门针对公共场所安置人脸识别设备制定了地方标准《公共场所人脸识别分级分类应用指南》(DB31/T 1467-2024),该标准所采用的分级分类方式是公共场所分类和具体应用风险量化分级相结合。在分类制度层面,该技术标准将应用场景划分为社会管理、行业应用和其他三类,这种分类方式的内在逻辑实际上是技术应用目的与技术应用场景的关联程度。因为在判断人脸识别在公共场所应用必要性时,满足“充分必要”条件的情形往往是以公共安全为目标的社会管理活动,故而该标准将社会管理作为首先划分出的应用类别。在此基础上,该技术标准将应用目的、底库规模、覆盖密度、管理水平、网络环境等作为风险评估因素,按照综合风险评估值划分为从低到高的 A、B、C、D、E 五个等级。这种分级分类方式契合了地方标准的可操作性特征,但本质上还是以量化风险数值和水平为核心。结合分级分类监管制度的理论框架和功能定位来看,在法律制度层面所需建构的分级分类监管不能仅以风险水平的定量评估为限,还应当包括定性权衡的过程。
      风险量化评级固然可以精准判断人脸识别应用的技术风险水平,并采取对应层次的监管措施,但是,该类技术风险是一种综合性风险,既包括技术安全层面的风险,也包括权益保障层面的合法性风险。[26]为了避免“唯数据论”的弊端,分级分类监管制度的内容设置应当划分为两个阶段,先在权益保障层面进行定性评估,权衡人脸识别技术应用的必要性,然后再结合具体的技术应用场景,根据相应的风险因素量化评估风险水平。
      在定性评估阶段,评估事项主要是对个体合法权益的影响程度。国外学者同样认为,在隐私和自由的语境下定位人脸识别技术话语的关键点在于对自主权是否构成不利影响。[27]当然,仅仅在法律价值意义上进行笼统评估和利益平衡,是难以有效解决现实问题的。因此,按照前述的三层理论框架,可以将“影响程度”的评估流程划分为以下三个步骤:
      第一步,判断技术应用方式是否属于促进科技创新的合理范畴。现行立法对科技创新作出了一般性规定,如《中华人民共和国科学技术进步法》第3条规定了科学技术进步工作的立法导向,最核心的目的是“促进经济社会发展、为维护国家安全和推动人类可持续发展服务”;《中华人民共和国促进科技成果转化法》第3条同样存在类似的规定,明确科技成果转化活动应当有利于提高经济效益、社会效益和保护环境、合理利用资源。因此,这里的“合理范畴”除了要求技术应用方式符合法律法规之外,还要求技术应用方式能够比已有的技术方案产生更多的社会经济效益。例如,人脸识别技术的应用既满足更加安全可靠地验证自然人身份的需求,又能够实现更加便捷的信息服务效果。
      第二步,判断技术应用方式是否构成实质性阻碍自然人自主选择。按照自主选择保障论的要求,人脸识别技术使用者不应当以强制或变相强制的方式让自然人接受人脸识别技术。首先,应当判断技术使用者是否完成了前置性告知义务,具体告知事项包括“是否告知安装了人脸识别设备”“是否告知了自然人在身份核验环节所享有的选择空间”。因为只有知悉“存在人脸识别设备”,自然人才有可能作出后续的行为选择。其次,应当判断技术使用者是否按照《中华人民共和国个人信息保护法》第17条等规定的告知义务设置了相应的提示说明环节。因为自然人在知悉“存在人脸识别设备”这一事实后,还需要充分知晓与人脸信息相关处理事项才能作出“独立自主”的选择。国外学者在评估人脸识别应用的可靠性时,主张供应商在信息系统更新时应当对数据、算法、参数、公平性约束以及可能影响性能的其他事项予以说明。[28]最后,判断人脸识别应用是否设置了非必要的业务环节诱导自然人选择人脸识别技术。实践中,部分服务提供者往往在刷脸支付、账户登录等环节前置性地询问用户是否使用“刷脸”服务,并将直接支付、账号密码登录等选项以不显著的方式展示,这构成了对自然人自主选择能力的不当干预。
      第三步,对技术应用进行科技伦理审查。按照前述两个步骤完成了法律风险的评估判断后,接下来则需要按照人工智能技术风险治理逻辑之一的“科技伦理治理”进行科技伦理审查,按照《科技伦理审查办法(试行)》的要求判断人脸识别应用方式和应用场景是否存在显著的科技伦理风险。例如,在面向部分老年痴呆症、心智障碍患者、盲人、面瘫患者等特殊群体时,人脸识别应用不应当成为唯一的身份核验技术方式。
      在定量评估阶段,技术风险的评估方式则可采用与上海市地方标准相类似的方式,根据人脸识别应用的具体方式、使用者的安全管理能力、摄像头覆盖范围、信息系统可靠性等风险因素计算具体的风险数值范围,并进而确定极低、低、中、高、异常五类风险级别,既可以避免“低-中-高”三级风险划分模式的笼统弊端,也可以避免风险级别划分过细,异化为技术风险精准计算。
      3.分级分类监管框架下的具体监管要求
      在分级分类监管框架内,风险定性评估和定量评估并不完全是两个相互独立的评估环节,彼此之间的评估结果也需要相互结合、综合判断。在定性评估阶段,因为该阶段的风险评估主要面向的是法律风险和科技伦理风险,相应的风险评估结果主要是“具备技术应用必要性和正当性”和“不具备技术应用必要性和正当性”两类。但实践情况往往相较于理论设想更为复杂,人脸识别技术风险也会因为应用场景等因素的不同而发生动态变化。例如,在公园、动物园等公共场所安装人脸识别设备时,相应的定性评估结果可能是不具备应用各类技术的必要性和正当性,因为完全可以通过安保人员、一般的监控摄像头等方式解决公共安全问题,径直安装并要求游客接受人脸识别技术显然属于定性评估第二步所指向的“强制接受”。然而,倘若该公园或动物园成为“网红景点”,游客数量激增,原有的安全管理机制不足以提供充分的安全保障,此时,定性评估的结果则转变为“需结合具体情况判断”。但是,这种判断不是简单的个案判断,而是与定量评估结果相结合,倘若相应的风险阈值处于“极低、低、中”风险范畴内,则属于典型的可控性风险,可以“有条件地”使用人脸识别技术。这里的“条件”则是根据具体的风险阈值确定相应的技术使用者义务履行标准。
      在分类层面,“不具备”“具备”和“需要结合具体情况”分别对应三类人脸识别应用类型:“不具备”这一类应用方式属于法律禁止范畴,“具备”和“需结合具体情况”两类应用方式属于法律允许自由使用或限制使用的范畴。一方面,“需结合具体情况”这类应用方式本身在应用必要性和正当性判断环节存有争议,其涉及需要法律干预的风险程度,故而不能将其纳入“极低”风险级别。另一方面,“具备”这类应用方式在通常情况下并不会对个人自主选择能力造成过多影响,故而不必将这类应用方式纳入“高”风险级别的评断活动。当然,分类的标准也存在诸如按照领域、业务等情况进行分类,但是鉴于需要在全国范围内施行,行业、业务领域之间的边界划分可能存在地区差异,这种权益影响程度的分类方法更适宜在全国范围内适用。并且,无论是人工智能或算法的分级分类监管,还是数据分级保护,分类的目的始终是首先需要考量的。如国家标准《数据安全技术数据分类分级规则》(GB/T 4367-2024)所规定的分类方法是“先行业领域分类、再业务属性分类”,其目的是便于数据管理和使用,且能够确定相应的行业主管部门。对于人脸识别应用而言,其最具争议的问题便是技术应用是否构成个人权益的不当影响,所以分类方法也是围绕技术应用是否具备必要性和正当性展开的。
      在分级层面,经由风险数值计算后的五级风险级别对应的监管标准分别是:其一,对于极低风险的应用方式,允许技术使用者使用并要求其维持既有的信息系统安全保障能力。其二,对于低风险的应用方式,除了满足第一类的监管要求外,技术使用者还应当确保设置专门的安全管理制度、管理机构和管理人员。其三,对于中风险的应用方式,监管机构应当重点监管、定期评估人脸识别应用的安全风险。除了满足第一类、第二类的监管要求外,技术使用者应当将人脸识别应用风险事项纳入个人信息合规审计、安全风险评估等安全保障义务的重点环节,并且在此基础上,持续性、周期性地优化升级安全保障技术措施和内部管理活动。鉴于此风险级别可能导致更高级别的风险事件,监管机构可以采用事前备案的方式对该类技术应用进行合理限制。其四,对于高风险的应用方式,监管机构应当以清单列举和事前审批相结合的方式严格限制该类技术应用。例如,人脸识别应用对个人权益影响程度处于合理范畴,但是如果涉及未成年人人脸信息、人脸识别与医疗病历信息关联或者人脸识别是金融产品投资的前置环节,且相应的风险阈值处于高风险状态,此时的人脸识别应用难以实现风险可控的治理目标。所以,监管机构需要严格限定具体的应用情形,以“非必要不使用”为原则,以技术使用者能够在技术层面提供远超同类标准的安全保障技术措施为例外。其五,对异常风险的应用方式,监管机构应当严格禁止设备安装和信息系统流入市场,避免出现重大安全事件。
      五、结语
      人脸识别技术滥用问题的解决首先应当明确相应的治理重心不是个人信息保护,而是技术应用行为本身。在现行立法已经对人脸信息等敏感个人信息作出充分规定的当下,倘若还将人脸信息保护作为唯一的治理重心,无疑会导致技术风险治理缺乏体系性。人脸识别应用的分级分类监管是在评估对个人权益影响程度和实际的安全风险阈值基础上,对相关技术应用实施差异化的监管措施,进而在“允许低风险、控制中风险、禁止高风险”的治理逻辑下推动该项技术的普及应用和创新发展。在具体的立法活动中,更应当关注该类技术应用的“可拓展性”和“非接触性”等技术特征,在兼顾人脸信息保护的同时,规范该项技术的应用方式,并将其纳入人工智能技术治理体系之中,实现网络安全治理、数据安全治理与技术安全治理领域在网络安全等级保护、数据分级分类保护与技术应用分级分类监管上的制度协同。


    【作者简介】
    赵精武,北京航空航天大学法学院副教授。
    【注释】
    [1] 袁泉:《公共空间应用人脸识别的法理逻辑与制度建构》,《北方法学》2022年第1期。
    [2] 石佳友:《公共视频设备应用中的个人信息保护》,《江苏社会科学》2022年第3期。
    [3] 汤建华:《人脸识别技术不合理扩散的伦理风险与法律规制——兼论动态同意规制模式的建构》,《新疆社会科学》2022年第3期。
    [4] 洪延青:《人脸识别技术应用的分层治理理论与制度进路》,《法律科学(西北政法大学学报)》2024年第1期。
    [5] 焦艳玲:《人脸识别的侵权责任认定》,《中国高校社会科学》2022年第2期。
    [6] 包康赟:《人脸情绪识别算法的风险与规制》,《北方法学》2022年第1期。
    [7] (2019)浙0111民初6971号民事判决书和(2020)浙01民终10940号民事判决书。
    [8] 任雾:《法学教授的一次维权:人脸识别的风险超出你所想》,https://www.thepaper.cn/newsDetail_forward_9640715,2024年7月14日检索。
    [9] 石佳友:《人脸识别治理的国际经验与中国模式》,《人民论坛》2022年第4期。
    [10] 陈瑞英:《人脸识别侵权风险治理研究》,光明日报出版社2023年版,第43—44页。
    [11] 王小光:《人脸识别技术应用于侦查情报分析的偏差控制》,《情报杂志》2023年第4期。
    [12] Oana B. Albu and Hans Krause Hansen, “Three Sides of the Same Coin: Datafied Transparency, Biometric Surveillance and Algorithmic Governmentalities”, Critical Analysis of Law, Vol.8, No.1(2021).
    [13] 颜飞、刘文琦:《人脸识别技术在刑事司法中的场景化应用、风险及治理》,《学术交流》2023年第4期。
    [14] Alison Dixon, Oran Kiazim, Stephanie Creed and Olivia Bowden, “Facial Recognition Technology in Employment: What You Need to Know”, Journal of Robotics, Artificial Intelligence and Law, Vol.4, No.2(2021).
    [15] Kerri A. Thompson, “Countenancing Employment Discrimination: Facial Recognition in Background Checks”, Texas A&M Law Review, Vol.8, No.1(2020).
    [16] 展鹏贺、罗小坤:《互联网平台分级监管的法理逻辑与路径完善——基于欧盟〈数字服务法〉的比较观察》,《湖南大学学报(社会科学版)》2023年第3期。
    [17] 胡凌:《公共数据开放的法律秩序:功能与结构的理论视角》,《行政法学研究》2023年第4期。
    [18] 许可:《论新兴科技法律治理的范式迭代——以人脸识别技术为例》,《社会科学辑刊》2023年第6期。
    [19] 尹雪萍、王义方:《以风险和责任为核心的算法法律规制》,《法律适用》2022年第10期。
    [20] Anna Bunn, “Facebook and Face Recognition: Kinda Cool, Kinda Creepy”, Bond Law Review, Vol.25, No.1(2013).
    [21] 董新凯:《生成式人工智能治理的经济法逻辑》,《山东师范大学学报(社会科学版)》2024年第3期。
    [22] 张凌寒:《生成式人工智能的法律定位与分层治理》,《现代法学》2023年第4期。
    [23] 陈兵、董思琰:《生成式人工智能的算法风险及治理基点》,《学习与实践》2023年第10期。
    [24] 叶涛:《公共场所人脸识别技术应用的利益衡量与类型构造》,《浙江社会科学》2022年第7期。
    [25] 姜野:《人脸识别技术应用的场景化法律规制》,《法制与社会发展》2023年第1期。
    [26] 张溪瑨、王晓丽:《人脸识别技术与应用的风险及治理研究》,《科学学研究》2023年第3期。
    [27] 伊恩·伯尔勒:《人脸识别:看得见的隐私》,赵精武、唐林垚译,上海人民出版社2022年版,第103—104页。
    [28] Daniel E. Ho, Emily Black, Maneesh Agrawala and Li Fei-Fei, “Evaluating Facial Recognition Technology: A Protocol for Performance Assessment in New Domains”, Denver Law Review, Vol.98, No.4(2021).


稿件来源:北大法律信息网法学在线

原发布时间:2025/7/14 12:03:09

上一条:赵精武: 法学视角:DeepSeek对法学科研和教学模式的影响 下一条:张新宝: 论相应补充责任的承担

关闭