【全文】
当“AI公务员”犯错,谁来为这场数字失误买单?
当前,AI已彰显出其在政务办公领域的强大潜力:2月8日,深圳市龙岗区政务服务和数据管理局部署了DeepSeek-R1全尺寸模型,2月16日,深圳市通过政务云正式向各区和部门提供了DeepSeek模型应用服务,这些 “AI公务员”的上岗,标志着深圳市政务服务智能化的全新升级,也提高了深圳市政府在决策智能化和政务服务方面的效率。
AI能不能真的替人类员工处理公共事务?AI幻觉会不会让公共事务的处理出岔子?出口岔子谁来负责?今天就让飒姐团队来跟大家好好聊聊这个话题。
一、“AI公务员”为何会出错?
用过AI通用语言大模型检索信息的人都知道,无论是GPT还是DeepSeek,给出的答案出错其实还蛮频繁的,大部分情况下AI给出的答案,我们都需要进行人工复核并再三check,生怕出现纰漏。
这主要是因为,AI技术尤其是生成式人工智能技术(Generative Artificial Intelligence, GAI)在部署和应用的过程中,“AI幻觉(AI Hallucinations)”不可避免。“AI幻觉”是指人工智能“能够输出看似合理且连贯的信息,但这些信息可能与已知数据或现实完全不符合。”简言之,AI会生成错误内容。
AI/GAI出错的必然性在于GAI是一种预训练的大语言模型,其基本原理是运用机器学习算法在海量文本数据上进行预先训练,使模型学习语言的通用规律和结构,然后运用统计概率的方法,不断循环预测下一个词语的可能性情况,从而生成顺序文书。 “但这并不能代表它真正理解了输入输出的内容,其返回的答案也必然是‘统计结果’,”它并不关心真相或准确性,并不是从既有数据库中搜索确定的固定答案,正是它大语言模型的本质决定了AI/GAI必然有可能生成错误内容。
二、“AI公务员”出错,责任由谁担?
(一)责任识别困境
传统行政关系形成的是“行政主体—行政相对人”的直接关系,行政主体对自己作出的行政行为负责并承担相应的责任,而依靠AI生成的自动化行政决策将上述关系转化为“行政主体—自动化设备—行政相对人”。若“AI公务员”出错即AI生成的自动化行政决策的结果出现错误或纰漏,损害了行政相对人的信赖利益,造成了损失,该责任由谁承担,损失由谁负责,挑战了传统行政“谁作出谁负责”的责任追究机制,成为AI赋能数字政府治理的难题。
根据我国《人工智能法(学者建议稿》)》第六十九条规定,“国家机关使用人工智能实施行政行为的,应当遵守合法、合理、正当、比例原则......”, 则在部署应用“AI公务员”时,则行政机关系AI的使用者。目前,就AI/GAI部署应用中因“AI幻觉”引发的“AI公务员”出错的责任究竟由谁承担,学界尚未形成共识。有观点认为AI/GAI责任分配应遵守“得利之人需承担相应不利后果”的原则,其责任最终应由其研发者、提供者及使用者等来承担。
虽然,我国《人工智能示范法(专家建议稿)2.0》及《人工智能法(学者建议稿)》均采用了三分主体架构,即AI研发者/开发者、AI提供者与AI使用者,但责任主体却限定在某两个主体上,具体来说,我国《人工智能示范法(专家建议稿)2.0》第70条明确了AI研发者、AI提供者承担过错推定的侵权责任,但未对AI使用者的责任作出安排。而《人工智能法(学者建议稿)》则重点围绕AI提供者、AI使用者的侵权责任问题进行规定,却将AI开发者排除在责任主体之外。
(二)责任识别建议
1.坚持场景化规制方法为先,明确AI技术的应用场景为政务领域
飒姐团队认为,在探讨AI/GAI生成错误内容的责任承担时,应先坚持场景化的规制方法,明确AI技术的应用场景为政务领域。原因在于不同场景下AI/GAI的应用所涉及的法益、行业性或领域性的法律不同,如劳动用工中的AI/GAI的应用主要涉及侵害劳动者权益的问题,与劳动法等法律密切相关;商业场景中的AI/GAI的应用主要涉及侵害消费者权益的问题,与消费者权益保护法、个人信息保护法等法律密切相关。
具体到“AI公务员”,系公权力机关对AI/GAI的应用,涉及公平、公正、民主参与、政府公信力等公共性价值,“AI公务员”出错危及公民基本权利、公共安全、公共威信,与公法关系甚密,难以通过市场机制进行有效防范。
2.公权力机关需承担引入部署AI的决策责任和AI运行的监督责任
虽然“AI幻觉”引发的“AI公务员”出错不可避免,但这不意味着公权力机关享有责任豁免权,仍需承担引入部署AI的决策责任和AI运行的监督责任。
具体来说,一是公权力机关引入部署AI的安全审查义务,审慎考察AI特定风险,否则政府将承担审查不当的责任。
二是公权力机关决策责任与监督责任。行政机关及其工作人员应避免过度依赖算法给出的决策建议,引入人工审核机制,防止陷入“技治主义”陷阱。同时,关注算法本身存在的偏见问题,在使用过程中要履行监督责任。当然,行政机关承担上述责任是基于两个前提,一是行政相对人没有输入错误信息,若因行政相对人输错信息导致“AI公务员”出错,则应遵守“责任自负”的原则,此时由行政相对人承担责任。
三是,“AI公务员”运行过程算法模型未出现运算逻辑、应用数据等瑕疵,若“AI公务员”在使用过程中因前述瑕疵导致决策失误,则行政相对人可通过依法申请行政复议或提起行政诉讼等方式维护自身合法权益,公权力机关可向AI服务提供者追责,要求其承担产品违约责任或产品质量侵权责任。
三、写在最后
目前,政务领域智能化的浪潮大势所趋,AI技术在提高政府治理效能的同时,“AI幻觉”引发的“AI公务员”出错给全社会带来了新的挑战,鉴于AI大语言模型的本质,如何探寻有效的化解之道以缓解或消除“AI幻觉”给全社会带来的负面效应,必将是一个长期、复杂且艰巨的任务。
虽然,“AI幻觉”引发的负面效应的责任承担尚未明确,但我们必须坚持以人为本的人机关系模式,明确AI的角色是协助者,其作用在于扩展人类的能力,而非取代人类的判断。同时,也需以“开放、审慎的态度‘拥抱’生成式人工智能等前沿科技,让AI更助力于人类社会的发展。
【参考文献】
1.“AI公务员接入深度学习,伦理困境如何破解”,https://www.sohu.com/a/860824542_121798711,访问于2025年3月2日。
2.参见陈建兵、王明:《负责任的人工智能:技术伦理危机下AIGC的治理基点》,《西安交通大学学报(社会科学版)》2024年第1期,第5页。
[[1]]SeeTamkinA,BrundageM,ClarkJ,etal.,UnderstandingtheCapabilities,Limitations,andSocietalImpactofLargeLanguageModels,ComputerScience(Feb.4,2021),https://arxiv.org/abs/2102.02503.
3.参见鞠宏磊、申欣雨:《生成式人工智能产品的内容安全风险及监管路径》,《经济问题》2023年第12期,第16页。
4.参见姚立:《生成式人工智能ChatGPT编造法律案件的风险与启示—评2023年美国“马塔诉阿维安卡公司案”》,《新兴权利》集刊2024年第2卷,第191页。
[[1]]参见康京涛、王砼:《人工智能赋能数字政府建设的安全风险及应对策略研究》,《文献与数据学报》第6卷第3期,第20页。
5.参见冯子轩:《生成式人工智能应用的伦理立场与治理之道:以ChatGPT为例》,《华东政法大学学报》2024年第1期,第68页。
6.参见郑志峰:《人工智能应用责任的主体识别与归责设计》,法学评论(双月刊)2024年第4期(总第246期),第127页。
7.参见丁晓东:《人工智能风险的法律规制》,《法律科学(西北政法大学学报)》2024年第5期,第16页。
8.参见上官莉娜、王舒宁:《公共部门人工智能责任性风险的识别与防范策略研究》,《贵州师范大学学报(社会科学版)》。
9.参见陈万球、罗一人:《生成式人工智能的“知识幻觉”及其风险治理探索》,《上海市社会主义学院(学报)》,2024年7月(双月刊,总第210期),第51页。