前沿动态
司法文明协同创新中心的建设目标是按照“国家急需、世界一流、制度先进、贡献重大”的要求,依据科学研究、学科建设、资政育人“三位一体”的方针,打造中国乃至世界司法研究的重镇、中国司法学科建设的平台、卓越司法人才培养的基地、司法文明和法治中国建设的核心智库。
索洛姆·维尔琼 林少伟 :数据治理的关系理论
【学科类别】理论法学
【出处】《上海政法学院学报》2023年第2期
【写作时间】2023年
【中文摘要】数据治理法是规范个人数据收集、处理和使用的法律制度,也是理论研究和诸多拟议立法改革关注的重点话题。各种理论提出了不同的信息法益:部分强调数据主体对其数据化条件的个人控制权,部分则注重实现数据主体经济利益的最大化。但这些理论在概念层面上都存在相同的缺陷,一言以蔽之,都未能抓住数字经济中数据生产的痛点:以群体为基础考察人际关系。在数字经济中,数据收集的社会价值和危害大多源自这种关系性。从理论层面阐释这一观点,即数据是由法律和技术制度构成的社会关系,并揭示数据关系催生超个人法益的运作机制。如何妥当地代表和裁决这些法益,需要依靠更具公共和集体(例如民主)性质的数据生产治理形式。个人主义的数据主体权利根本无法代表这种群体层面的影响,遑论给予相应的解决方案。
【中文关键字】数据治理;关系理论;隐私;社会信息危害;数据主体
【全文】


  引言
  近年来,科技行业一直饱受公众质疑,同时也是社会、工人运动以及监管审查的重点对象。[1]这种全社会的关注通常被称为“科技抵制潮”,引发这种大规模抵制的正是人们对数据化(即将关于人的信息转化为商品)的重重顾虑。
  数据治理法是一种管理如何收集、处理、使用有关“人”的数据的法律制度。随着科技公司对人类日常生活的不断渗透,其在经济层面的主导性愈发凸显。这些公司将数据收集作为重中之重,自然加大了数据治理法的风险。随着数据逐渐变成信息资本必不可少的组成部分,监管数据生产的法律就成了如何以及为何监管信息资本主义争论的焦点。我们普遍认为,目前的数据治理法无法有效保护技术用户,使其免受数据提取的危害。部分原因在于,数据作为消费者权利主体的法律地位与其作为准资本的事实地位之间存在着巨大差距,且这种差距还在不断扩大,而现有的数据治理法无法对此作出解释。[2]
  数据治理改革是争议的热点,理论创新层出不穷,各种方案不断被提出,以尝试解决现状不足的问题。本文评估的对象是这些方案背后的法律概念。换言之,拟议的改革对数据化为何具有监管价值,以及信息中哪些主体的利益应当获得法律认可等问题作何理解。数据化这一概念是如何建构地影响并制约了对应的法律举措。若数据治理法对数据生产制造社会效益和危害的方式置若罔闻,则其想要趋利避害,提高数据生产的效益无异于痴人说梦。
  本文的核心论点是,最强大的科技公司之所以要开展数据收集,其主要目的是提取(和生成)关于数据主体关联性的洞见。这种洞见是群体而非个人层面的,因而可以适用于具有种群共有特性的所有个体(而不仅仅是数据主体)。就概念而言,这种群体层面的经济动机对于数据收集和使用活动的监管法律制度极为重要,需要对长期形成的、关于个人对自身信息享受法益的原因及获取此类利益的源头进行梳理。
  现阶段的数据治理法及其主要的改革方案将群体层面的关系效应视为一种附带品,或个人数据权利受侵蚀的副产品。因此,无论是当前的数据治理法还是其改革方案,都存在一个共同的概念缺陷:它们都试图将信息法益弱化为个人主义权利主张,而个人主义权利主张对应的是个人主义的救济,这类救济根本无法代表数据生产在群体层面的利益和影响。这反过来又掩盖了主要的社会信息危害,使其在法律管理数据收集、处理和使用的过程中得以隐匿滋生。
  在数字经济中,如何妥善代表数据生产衍生的群体利益,需要我们在安排这类生产性活动时采用更具集体性质的模式。[3]数据治理的相关任务并非重申个人对自身数据化条件的控制(即便这具有可行性),亦非如同数据治理的主要法律对策那样追求个人利益的最大化。相反,数据治理的任务是探索必要的制度性应对方案,更有效地代表(和裁决)数据生产中的群体性利益。换言之,期望妥善应对数据生产的经济需求和社会影响,就必须脱离个人主义数据主体权利方案的窠臼,转而对可靠的数据治理所需的集体制度形式进行理论化探索。
  以往的数字隐私和数据治理相关理论研究指出,隐私侵权的社会成因和影响具有相当的重要性。本文立足前人研究[4],提炼其中精髓来阐释隐私侵权的社会影响与数据治理法密切相关的原因。本文将数据关系及其群体层面的影响作为讨论与人相关的数据为何受(且应受)法律监管的重点,这对数据治理法的理论研究有两点启发。
  一方面,本文将有关数据生产治理方式的法律论争与将数据作为信息经济关键投入的经济转型联系起来,进一步说明数据治理法作为监管信息资本主义主要法律制度,其作用将日益凸显。本文详细描述了数字经济中数据生产的本质关系性是如何产生的:作为一种商业行为,数据生产的基本目的就是依据相关联的共同群体特征实现人与人之间的联系。这既能够产生可观的社会价值,也会造成众多紧迫的社会风险,令数字经济泥足深陷。正如下文所探讨的,数据的关系性决定了在数据收集和使用的过程中存在广泛的群体利益,而这些利益与特定数据交换中的个人法益是不可分割的。因此,需要利用数据治理法对数据生产经济现实的矛盾进行调和:不仅要对信息经济中各种人际侵权行为进行惩戒,还要对其中经济生产(和社会再生产)的规则进行建构。
  另一方面,本文与前人研究的区别在于,对数据化不合法的原因提出了另一种规范性解释。传统的隐私和数据治理法为了保护数据主体的尊严或自主权,会对私人的人际交换形式进行管理。但随着数据收集和使用成为关键的生产活动(例如,认定当前经济为信息经济的经济活动),新型信息化危害也应运而生。越来越多的证据表明,数字技术正是加剧社会和经济不平等的推手。[5]用于优化富人用户体验的数字监控技术同时为穷人提供了惩戒手段。算法系统会催生或加剧性别和种族歧视。[6]即便表面上看起来无害,数据收集也可能成为统治和压迫的手段。[7]对用户关注的追求以及数据流的不间断访问都放大了身份主义的极化、侵犯,甚至暴力。[8]种种证据表明,数据化的社会过程不仅会侵犯个人尊严和自主权,还会造成或加剧社会的不平等。
  前人的论述正确地指出了数字经济中自主权保护面临的挑战与数据生产如何作为社会过程发挥作用的现实之间存在着千丝万缕的联系:在确保个人数据生产具备更完善的社会条件之前,强大隐私保护的个人利益就不可能实现。[9]就此而言,数字隐私侵蚀的超个人性质至关重要,因为它使得确保个人享有强大数字隐私保护利益愈发困难。
  与这类论述不同,本文将数据提取的不平等影响与其自主权侵蚀效应置于同等地位。隐私侵蚀的社会效应的确牵涉个体自主权的个人(和社会)价值。但数据生产造成的不平等则应归咎于数据治理任务本身,而不仅仅是不平等对数据主体个人自塑能力和自我设定能力的影响。因此,本文指出,除个人自主权的传统问题外,数据生产造成的社会不平等也属于信息危害的范畴。无论是当前还是拟议的数据治理法,都未能充分把握数据关系在社会经济和规范层面的核心地位,由此引发了以下两个问题。
  第一是概念问题,即在现有和拟议的数据化治理法中,驱动数据生产的核心经济需求没有得到体现。这就导致法律与信息创造社会价值的方式脱节,同时使信息危害持续存在,无法得到妥善解决。这给美国数据治理法带来了一个社会性问题:数据治理法对数据生产的社会效益作何解释?
  第二是制度设计的问题。信息利益的个人主义理论催生了种种法律方案,其中提出了一系列新的信息权利和义务。但在判断信息生产是否合法的实践中,却依靠个人进行裁决。这不仅会掩盖某些社会信息危害(遑论解决),还会危及有益于社会的信息生产。由此,美国数据治理法面临这样一个合法性问题:抛开个人通知和选择,规制数据生产的法律制度如何能够判定数据使用是否合法?
  社会性问题说明,数据治理法需要对信息生产中的相关利益作出进一步的解释。合法性问题则表明,数据治理法需要扩大规制范围,在判断数据生产合法性的个案中,考察何种主体的利益具有相关性,以及对应的理由为何。
  本文对上述概念和制度设计问题作出了回应。从概念层面对社会性问题进行阐释,承认数据生产带来的群体利益具有普遍性和相关性。基于这一认识,本文对合法性问题作出了回应,提出将不同类型的数据作为集体资源进行管理,因而相较于个人治理方式,需要更加民主的制度性管理方式。这继而引发了对数据治理法律问题的不同研究路径。当前的争论聚焦于如何确保对数据主体实施更强的控制,对数据主体尊严进行更有力的保护,或对数据主体自主权作出更妥当的法律表达。有关数据社会关系的论述认为,利益是数据生产群体效应的组成部分,未来考察的重点就在于如何平衡这些相互重叠又相互冲突的利益。这一研究路径提出了民主治理的核心问题:在群体相互塑造的社会过程中,如何授予个人话语权?如何平衡公平认知和对特定少数群体的特别关照?何种公民生活能达到合适的集体利益水平?如何认识到数据生产有输有赢,从而制定公平的制度性应对措施?
  本文分为四个部分。第一部分对数据治理的利害关系和现状进行梳理。首先阐述数字经济数据处理的重要性,继而对合同法和隐私法(管理数据收集和使用的主要法律制度)如何将数据作为个体媒介进行编码展开评估。本文通篇将这一概念化过程称为“作为个体媒介的数据”(Data as Individual Medium,以下简称“DIM”)。DIM制度将数据造成个体危害的能力视为数据化与法律相关的特征。从这一危害理论出发,DIM制度主张数据应受私人秩序规制。
  第二部分介绍了本文的核心论点,围绕数据政治经济领域中数据社会关系的激励和影响展开。数据传递社会和关系含义的能力使得数据生产给数据主体(即数据收集的对象)之外的其他主体带来了更大的利益和危害。此外,数据生产中的群体利益同样来源于此,而这种利益与数据治理中普遍的个人利益不可混为一谈。因此,数据的关系性对数据治理改革而言,是一项概念性的挑战。
  第三部分对数据化问题的两套主要法律改革方案进行了评估。改革方案对数据进行了广泛类比,在“类物”与“类人”之间游移。[10]依照数据“类物”的定位,财产主义者主张正式确定个人对数据的财产权利,以此应对数据经济中不断扩大的贫富差距。这些改革要求将数据的可转让权利定性为劳动或财产,在商品或劳动市场上流通。依照数据“类人”的定位,尊严主义者主张数据是数据主体个人身份的延伸。通过强调数据主体对个人数据享有基本权利,尊严主义者对过度信息提取侵害个人自主权的方式作出回应。尽管财产主义者和尊严主义者的方案在数据化背后的不公正理论上存在分歧,且提出了各自的解决方案,但二者都坚持个人主义权利主张和救济,但这种权利主张和救济既不能代表也不能解释数据收集和使用的关系性质。
  第四部分提出了新的定位:作为民主媒介的数据(Data as Democratic Medium,以下简称“DDM”)。根据这一概念性定位,数据造成社会危害的能力是数据化的根本相关特征,因此需要集体的制度秩序形式。将数据视为受民主秩序约束的集体资源,这种观念突出了数字经济中群体关系的重要性,也引出了数据生产过程中一系列的相关利益。DDM不仅回应了其他数据治理改革指出的种种不公,还对个人主义论述未能发现的不公进行了回应。如此,DDM还提出了一种数据治理理论,为个人主义论述所摒弃的、有益于社会的数据生产形式正名。最后,第四部分列举了一些例子,对认定数据具有民主性的制度的具体表现形式进行了阐述。
  在此之前,需要对本文使用的三个关键术语进行准确的定义:
  ·数据。简明扼要地说,除另有说明外,“数据”指的是有关于人的数据。有关于人的数据即指在人“投资、工作、经营、社交”以及处理日常事务过程中收集的数据。[11]无论是竞争激烈的数字科技公司,还是依靠数据收集构建商业模式的观察者,对这类数据都极为重视。相较于美国定义的“个人数据”和与之非常相近的“个人可识别数据”,本文所称的“数据”含义更为广泛。[12]此外,本文提述的“数据”为单数而非复数,取一般用法,不追求严格正确。
  ·数据主体和数据收集者。本文用“数据主体”来指代数据收集的对象(即个人),在技术社区中通常称为“用户”。“数据处理者”与“数据收集者”同义,用于指代收集、分析、处理和使用数据的实体或一组实体。“数据主体”和“数据收集者”的定义大致取自欧盟的《通用数据保护条例》(GDPR)。[13]虽然《通用数据保护条例》对个人数据的定义为非个人主义阐释提供了一定的借鉴,但本文中提述的“数据主体”指的是数据收集的对象(即个人)。
  ·信息危害。个人信息危害指的是数据主体因个人相关数据的收集、处理和使用方式可能遭受的危害。相较而言,社会信息危害则指的是在收集、处理和使用数据主体信息过程中第三方个体可能遭受的危害。
  一、数据治理:利害关系与现状
  本文对数据治理的利害关系和现状展开讨论。首先阐述数据处理对数字经济的重要性,继而对合同法和隐私法(管理数据收集和使用的主要法律制度)如何将数据作为个体媒介进行编码展开评估。
  (一)数据:信息资本主义的基本特征
  诸多描述性论述和批判性论述时常将当代数字政治经济称为信息资本主义,对此,数据可谓功不可没。[14]在竞争激烈的科技公司圈内,访问高质量的数据能够带来巨大的竞争优势。有了高质量的数据,公司就能开发出更优秀的算法产品,对客户(或客户想要接触的受众)有更深入全面的了解,同时对产品、服务进行更精准的定价或在竞标中获得更大优势。[15]
  因此,从事数据收集的公司通常将数据生产作为数字经济盈利的关键要素。有关人的数据存在三种盈利方式:其一,公司直接出售数据;其二,利用数据来优化服务;其三,利用数据来预测、改变或改进行为。[16]其中,第三种方式是迄今为止科技公司最大的营收来源。[17]现有证据显示,在这部分营收中,绝大多数来自广告技术产业,即买卖用户注意力的业务。[18]2019年,谷歌报告的总营收为1607.4亿美元,其中广告营收为1348.1亿美元。[19]2020年第一季度,脸书的广告总营收达到了174.4亿美元,而其他营收则只有2.97亿美元。[20]
  以预测或影响行为为目的开发的广告技术在其他行业中愈发受欢迎。广告技术能够帮助数字公司了解(或声称了解)[21]激发目标主体购买广告产品意愿的特质,或利用这些特质来刺激期望行为,这种技术的用处远不止于此。举例而言,可以利用它们来筛选参与某项议题或支持某位候选人的潜在选民,识别哪些活动与财务或健康风险有关,哪些活动能规避这些风险,或预测不同个体愿意为同一产品支付多少费用。这些用处揭示了数据经济新的增长点:政治咨询服务、医疗保险、金融服务和就业。[22]总而言之,这些行为技术推动了数字经济的蓬勃发展,其体量约为2.1万亿美元,是美国第四大产业。[23]
  数字经济中的许多重大决策都是基于数据本身的价值作出的。近期的例子如下:其一,2020年5月,华纳媒体(WarnerMedia)推出流媒体服务HBO Max,推出后的几个月,当时最大的两个流媒体平台——Roku和亚马逊Fire TV(占美国本土观看时间的63%)——仍不支持使用HBO Max。[24]原因在于各方无法就数据价值的访问达成一致,合同谈判陷入僵局。华纳媒体希望能获得更多的用户数据以及对数据更强的控制,并进行广告推广,但无论是Roku还是亚马逊都不愿对此作出让步。为了保住己方对用户数据的控制,他们都愿意放弃可观的共有利益。[25]其二,特朗普连任竞选团队决定与一家名为Phunware的小型广告软件公司合作,共同开发2020年的竞选程序,这一决策之所以能够切实落地,是因为该公司能够提供宝贵的竞选数据:特朗普的竞选团队不会为一个程序支付400万美元……值钱的是数据,是有针对性的广告服务。想象一下,每次打开手机,都会弹出这样一条竞选信息,“选拜登,战争生”。这就是特朗普竞选团队从Phunware购买的服务。这样的程序只是冰山一角而已。[26]
  评论家们同样注意到了数据生产对数字经济的重要性。杰坦·萨多斯基(Jathan Sadowski)认为,数据是一种特别的资本形式,将收集数据的必要性与资本积累的无限循环相联系。[27]朱莉·E.科恩(Julie E. Cohen)阐释了亚马逊和脸书等平台公司是怎样通过数据封装确保自身对用户数据的准所有权,并指出“数据加工单元”的信息处理是“经济生产的重要手段之一”。[28]按照波兰尼的理论,科恩指出,有关于人的数据是“第四种生产要素”,将资本主义的信息形式独立出来。[29]肖莎娜·祖博夫(Shoshanna Zuboff)把数据生产比作一种以征服为基础的财富积累形式,把人们的内心生活比作未被殖民的大陆,而科技公司则是入侵者,肆意侵入和掠夺,攫取利益。[30]这些论述将数据化当作价值创造的一种特殊经济过程,将信息资本主义与其前身区别开来。(二)隐私法的个人主义
  在美国,数字隐私法是规制此类数据收集的主要制度,本文所指的是一整套法律,这些法律旨在对如何收集、处理、分享和使用有关人的数据进行规制。[31]
  美国的隐私法具有完整的架构和体系,由联邦和州合同法、消费者保护法、隐私侵权法以及行业消费者权利法共同构成。收集的有关人的信息,大部分需要遵守服务的合同条款,受《联邦贸易委员会法案》第5条约束,并受州消费者保护监督。[32]一系列行业隐私法额外赋予消费者对特定类型数据(例如消费者信用数据、健康和金融信息以及教育信息)以权利。这类隐私法包括《医疗保险可携性和责任法》(HIPAA)、《儿童在线隐私保护法》(COPPA)、《家庭教育权利与隐私法》(FERPA)、《公平信用报告法》(FCRA)以及伊利诺伊州的《生物特征信息隐私法》(BIPA)和《加利福尼亚州消费者隐私法》(CCPA)等著名的州法律。[33]
  许多行业法律都是依据公平信息实践原则(FIPP)制定的。公平信息实践原则包含一系列有效的指引和建议,为公平数据处理设立标杆,为制定新的隐私保护和行业最佳实践提供典范,并为联邦交易委员会(FTC)以及其他州和联邦隐私法执行机构评估行业隐私承诺提供指导。[34]依据公平信息实践原则,公平数据处理等于授予个人对自身数据有意义的控制权。这包括要求用户就被处理的数据作出知情同意,并就数据使用的方式向用户作出通知。
  相较于直接执行公平信息实践原则,联邦交易委员会选择行使《联邦交易委员会法案》项下的一般权力,执行公司对数据主体作出的合同承诺。在实践中,受公平信息实践原则启发制定的部门法律和联邦交易委员会据其作出的执行相结合,共同促成了“通知和同意”这一备受诟病的隐私制度(也称“通知和选择”)。[35]依照这一监管制度,只要向消费者作出收集其相关数据的通知,并取得其同意,搜索引擎、社交网络、手机应用程序等数字服务和其他数字媒介服务就被推定为具有效力。[36]
  由此产生的隐私法制度将数据视为一种个体媒介,聚焦法律调查,认定数据造成个人危害的潜力具有法律相关性,因此应适用私人的个体秩序。将“数据”概念化为“个体媒介”(DIM)使数据处理传输数据主体知识的能力高于传输其他主体知识的能力。依照这一概念,个人主义的知识传输是数据化在法律和规范层面的相关特征。
  “通知和同意”建构了个人消费者(即“数据主体”)和数字服务提供商(即“数据处理者”)之间的基本法律关系。在这一关系中,部门隐私法的确授予数据主体一定的额外权利,同时对数据处理者施加一定的额外义务,但大体上还是遵循这一“通知和同意”模式。例如,这类法律都规定,消费者有获取数据使用详细信息的权利,且公司有义务主动获取选择性加入同意(而不是更为被动的选择性退出同意)。[37]其他法律赋予消费者加强某些形式个人选择和控制的权利。例如,依据《加利福尼亚州消费者隐私法》,就被收集的个人数据具体为何以及个人数据是否被售予或披露给第三方,数据主体有权要求获取相关信息。[38]此外,还授予数据主体拒绝出售个人信息的权利。[39]举例而言,依据《公平信用报告法》,数据主体有权对其信用报告中信息的准确性提出异议,并有权更新或删除不准确的信息。[40]再者,依据《医疗保险可携性和责任法》,患者有获取个人健康信息、就信息使用和分享获得通知以及就健康信息特定用途作出同意的权利。[41]虽然这些法律都赋予了消费者部分额外的权利,但(除极个别例外情况外)是否行使这些权利,还取决于数据主体本身。[42]
  现有的隐私法通常将个体信息危害分为以下几种:
  ·未经同意收集。未经他者同意收集其数据是隐私法能预见的最基本且最重要的信息危害形式。未经同意获取个人信息被视为侵犯了该主体对自身信息使用方式的控制权。[43]这一行为剥夺了数据主体自主决定信息的权利,对其自主权和尊严造成了危害。
  ·草率同意。损坏的系统结构或设计过程可能会导致表面同意,实际上却违反或损害真实同意。例如,通过某些设计特征,提高选择性退出的难度,或利用对行为的洞见严重影响数据主体,促使其授予同意。[44]与未经同意收集数据一样,草率同意阻碍数据主体发挥其信息自主能力,同样损害了数据主体的真实意愿。
  ·访问危害。违反信息自主的原则,剥夺个体访问自身信息的权利,或个体无法限制或控制他者访问自身信息,就会产生访问危害。[45]过度访问的危害则包括骚扰和对自我表达的寒蝉效应。[46]
  ·重新识别。若可识别的个人数据被泄露,无论是故意泄露还是由于数据外泄或黑客攻击,个人都可能遭受危害。在某些情况下,披露会造成即时危害(例如声誉受损)。各种不当使用也会造成危害,例如身份窃取或跟踪。许多隐私法授予数据主体更多权限,允许其对已经(至少名义上已经)去除可用于重新识别个体的标识符的信息进行处理和使用,以此来防止重新识别的危害。此类法律还对数据外泄作出了直接规定。[47]
  ·不准确和歧视。隐私法还包括一些有关个人信息危害更为宽泛的概念,对某些形式的可能会造成不公平、致使个人错失重要机会的知识进行了阐述。举例而言,《公平信用报告法》对获取信用报告准确信息和删除不准确信息的权利作出了规定。[48]禁止询问犯罪记录法案同样禁止雇主在招聘时询问申请者的犯罪记录,理由是这些信息可能会导致申请者不公平地丧失就业机会。
  这些都是信息个体危害的形式,阐明了信息流的产生或使用方式可能会对数据主体造成危害。
  (三)隐私法评论及其动机
  尽管学界普遍认为数据治理亟待改进,但对有关数字经济的评论就现状而言不足的原因、失败的后果以及数据治理失败的理由作出了不同的判断。判断的依据是有关以下事项的基本主张:信息造成危害的方式、信息造福人类的方式以及法律改革者处理信息治理项目的方式。
  1.传统观点:隐私=控制和访问
  隐私法缘何无法保证数据主体自主权,继而阻碍与隐私相关的个体和社会利益的实现,关于这一问题,众说纷纭,莫衷一是。对于通知—同意制度如何以及为何无法保证个人对自身数据的控制和访问,评论家们也给出了不同的解释。部分指出,与许多“拆封合同”一样,包含通知—同意条款的服务隐私条款其实是法律拟制条款。个体并不会阅读其同意的隐私条款,对其中的条款也没有讨价还价的余地。[49]其他评论家则强调,个人数据是非竞争性、不可灭绝且可重复利用的,这就意味着个人数据的流动和使用方式能够随着科技和商业模式的发展而改变。正因为如此,基于一次性个人知情选择的监管方法很难对数据进行有效的规制。[50]在数据收集过程中,很容易通过见不得光的手段对同意制度做手脚,尤其是在用于最优数据提取的数字设置中。[51]无论是通知还是同意,都未能弥补保护隐私的法律要求与实践中科技设计促进或侵蚀隐私的方式之间无法逾越的监管鸿沟。[52]
  很多有关隐私法的评论都集中于通知—同意制度无法确保隐私的个体和社会利益这一问题上,而针对隐私具体存在何种个体和社会利益这一问题,同样是言人人殊。一般而言,法律和哲学的观点认为,隐私是一种先决条件或一种工具性权利,一个公正的社会要想确保对个体自主权或尊严的有力保护,就必须保障隐私。[53]依照这一观点,对于培养个人独立思考、把握个人内心欲望、了解内心世界、表达个人观点,以及塑造自己社会、政治和经济身份的能力而言,隐私侵蚀将造成致命的威胁。
  数据治理的规范目的——信息自主——体现了对个体自我的重视。[54]传统的法律观点认为,隐私是一种控制权,为保证和实施自主提供手段,前述目的与这一观点不谋而合。许多早期极具影响力的隐私法律理论都将隐私视为一种特别的控制。举例而言,美国学者阿兰·威斯丁(Alan Westin)在《隐私与自由:论隐私的价值定位》(Privacy and Freedom: Locating the Value in Privacy)一文中指出,隐私是“个人、团体或机构自行决定何时、如何向他者传递其信息以及传递多少信息的权利”。[55]查尔斯·弗里德(Charles Fried)则认为,隐私“并不只是他者不知道的关于我们的信息,而是……我们对自身信息的控制权”。[56]近期的研究同样采用了这一观点。迈克尔·弗鲁姆金(Michale Frookmkin)指出,隐私“是控制自身信息获取或发布的能力”[57]。杰瑞·康(Jerry Kang)认为隐私是“个体对其自身信息处理——即信息的获取、披露以及使用——的控制”[58]。
  隐私是一种访问的权利,信息自主与这一传统法律观点大体一致。依照这一观点,隐私是一项条件,“按照信息、注意力以及亲密程度来区分访问个体信息的限度”[59]。将隐私作为访问权利与作为控制权的观点大同小异,区别在于它们并未将隐私理论化为一种可行使的代理权,而是当作个人发现自我的条件。受此影响,这一观点的拥趸并不愿意将隐私的规范性简述为确定谁对信息保有合法控制权。[60]鲁斯·加维森(Ruth Gavison)赞成这一观点,并对隐私法中的这一观点的发展进行了梳理,提出对侵犯知识和信息的问题:在什么情况下,能够获得关于某个人的知识?谁能知道什么?如何利用这些知识?使用这些知识会造成什么样的影响?[61]
  2.其他观点:隐私的社会价值
  其他评论家把通知—同意制度的失利归咎于隐私危害的社会性质,指出信息流的情景性质[62],这种性质造成的集体行动问题和市场失灵[63]、个人交易的外部性[64]以及参考的个人主义框架本身存在的认知局限性[65]。这些判断对隐私目的的相关论点进行了溯源,强调隐私具有社会价值,驳斥了隐私保护等于信息自主的微观概念。他们提出了一种更为宽泛的自主权概念,认为隐私对于培育公共公民和公共治理极为重要。
  举例而言,普瑞希拉·里甘(Priscilla Regan)指出,隐私具备社会层面的重要性,原因在于隐私能够保护结社自由和言论自由,继而促进民主政治的繁荣。[66]她还强调隐私的共同利害关系,因为市场力量会挤压个体隐私的生存空间,除非能够保证每个人都能保有最低限度的隐私。[67]海伦·尼森鲍姆(Helen Nissenbaum)认为,隐私是一种适当的信息流,要依据社会发展规范来确定具体情形中合理的信息分享。[68]因此,隐私是对适当信息流的权利,受各种社会生活规范的“约束网络”规制。[69]隐私属于社会和政治生活的边际价值,侵蚀隐私、扰乱或破坏这种约束网络的行为“不仅对隐私有威胁”,还“可能对社会和政治生活的结构造成彻底的破坏”[70]。
  科恩提出了另一种社会隐私观点,与自主主体的自由概念相区分,主张隐私对社会构建的主体而言至关重要。[71]对这类主体而言,“隐私保障了其动态的、紧急的主体性”,避免数据驱动的种种行为将其“固化、看穿并加以预测”。[72]对于自我定义、批判性的自我反思和自知的公民身份(自由民主的必要条件)而言,这种能力不可或缺。[73]
  总而言之,上述论述就数据化(或信息侵蚀)的社会影响提出了两个论点。其一,培养个体自塑能力所需的强大隐私保护条件只能存在于社会层面。换言之,要让一个人拥有隐私(即自塑的必要条件),所有人都必须拥有隐私。因此,隐私就变成了我们必须实现的社会价值,而非个体价值。其二,赋予个体发展和执行自我认识的能力(受强有力的隐私保护)具有社会价值。举例而言,欣欣向荣的民主,其所需要的个体必须清楚自己的意愿,并能落地执行。因此,隐私及其促成的个体自塑无论是对个体还是对社会都极具重要性,因为没有能够自主行事的公民,就没有民主可言。这两个论点都强调了数据化和隐私侵蚀的重大社会效应和严重后果。
  上述论述正确地指出了导致隐私侵蚀的社会效应以及隐私侵蚀的社会后果,并将数据化的社会后果作为重中之重。然而,这两个论点在讨论解决数据化能够带来哪些社会效益时,都选择以数据化对个体参与自我认识塑造和执行的不利影响为出发点。因此,这些论点的理论依据仍旧是个体自主权:若数据化威胁到个体发展和实施自身意愿的能力,则其不合法,且对个体和社会均有危害。为了确保个体自我塑造和执行有充足的条件,要确保隐私保护不受数据化的影响,这是主要任务。尽管前述观点集中对数据化的社会效应进行了论述,但对于主要任务而言,这些社会效应会导致风险和难度的增加。
  关于自主权,种种论述反映了批评家们对隐私法失利所引发的利害关系的看法。按照这些观点,若数据生产衍生的数据提取和算法治理形式会导致操纵、侵蚀数据市场(及其意外事件)的自主、阻碍自我表达或涉及侵犯个体作为道德主体行事能力,则这种数据生产不合法。[74]
  这些观点还对数据治理的改革进路进行了阐述。如第三部分所讨论的,出于对自主权和尊严的关切,尊严主义者尝试弱化数据化对数据主体内心生活的商品化,试图对那些破坏用户自我意志的数据流进行更有力的监管。另一方面,失控问题与对数据价值的明确权利的缺位促使财产主义者采取行动,尝试将数据主体的此类权利正式化。种种改革都将焦点集中于提高数据主体对自身数据收集、处理和使用方式(以及条件)的决断力。
  二、数据关系及其社会效益
  若要对不同的数据治理理论进行评估,可行的方法之一就是检验这些理论是如何构想(以及建议如何处理)数据流塑造的社会关系的。[75]要理解数据的关系性为何重要,首先要对以下问题进行更详细的阐述:数据是怎样将人与人相关联的?这种关系如何造成社会效应?何种关系具有现有和拟议的数据治理法规定的法律相关性?何种关系不具有法律相关性?
  (一)数据治理的社会性问题
  2018年7月,隐私保护主义者报告称,联邦调查局和国家标准与技术研究院正在评估文身识别技术的有效性。[76]为进行评估,联邦调查局提供了其TAG-IMAGE数据库的访问权限,该数据库存储了从囚犯、被捕人以及19家公司和学术团体处收集的数千张囚犯文身图像,而这些公司和学术团体都致力于开发图像识别技术,尝试通过文身识别个人,以及识别帮派成员的标志性文身。[77]
  想象这样一个场景:联邦调查局与一家名为TattooView AI的公司合作,共同推出文身识别产品和自动匹配功能,不仅通过文身来识别个人,还能判断其文身是否与帮派有关。执法部门随后利用这一工具来识别潜在的帮派成员,从而加强警方对帮派活动的监察。
  文身这一生物特征数据在多方流转,从被捕者到TAG-IMAGE的经理,再到诸如TattooView AI之类的第三方,最后到拘留疑似帮派成员的执法人员手中。此外,这一数据还牵涉多种法律制度:刑法、政府采购和交易保密法、合同法以及隐私法。重要的是,数据的流转起始于人,也终结于人:第一,对某个人(假设他叫亚当)的文身进行拍摄,并将照片上传到TAG- IMAGE;第二,凭借上传的图像数据,执法人员拘留了有相同文身的人(假设他叫本)。[78]
  对于这种信息流,典型的隐私评论不仅强调这一数据流对亚当和本两个人的重要意义,还强调数据收集条件的特殊性。亚当的数据是在高度强制性的条件下被收集的(亚当当时被羁押在监狱中),目的是识别其他帮派成员,而亚当对此可能并不认同,但没有任何话语权。在数据收集之时,亚当缺乏能动性。在生物特征监控批评中,数据收集对象主观能动性的缺乏具有重要的道德和法律相关性。[79]
  亚当和本是利益共同体,以此类推,加强亚当对TattooView AI的法律权利就相当于保护本的利益。若亚当有权拒绝将其文身传入TAG-IMAGE数据库,他大概率会行使这一权利。因此,执法人员就无法利用其文身图像数据来拘留本。
  考虑另外一种情况,TattooView AI在开发自己的文身识别算法时,不使用联邦调查局的TAG- IMAGE数据集,而是使用其收购TattooID平台时从该平台获取的数据集。TattooID是一个社交平台,文身爱好者们可以在这里分享自己的文身图片,标记自己的文身设计师,并搜索设计方案。假设前帮派成员亚当后悔加入帮派,自愿在TattooID上分享自己的文身图像,将其标记为帮派成员文身,希望借此帮助识别其他帮派成员。
  在此情况下,个人主义者对数据造成个体(亚当)危害方式的理解就很难推及这一数据流对本的影响。亚当在分享数据时并未受到胁迫,他主观上是自愿的。此外,数据使用的目的和亚当分享数据的意图一致,在其看来,这一行为有正向的回报。但不可否认,本承担了这一数据流带来的严重后果。本的利益同样具有法律和规范层面的相关性,这也是数据治理法的痛点之一。
  (二)纵向与横向的数据社会关系
  围绕数据主体、数据生产者和受数据使用影响的第三方产生的种种关系可从纵向和横向两个维度进行梳理。
  在纵向维度,要梳理的是个体数据主体与数据收集者(即数据处理者)之间的数据关系。若亚当同意TattooView AI制定的数据收集条款并分享自身数据,则纵向的数据关系描述的就是亚当和TattooView AI之间的关系。在这一纵向数据关系中,数据主体提供自身数据,以交换数据收集者提供的数字服务。
  在技术层面,这一纵向社会关系表现为数据从数据主体到数据收集者的流转过程,在法律层面,则表现为合同条款(即有关数据主体和数据收集者之间数据交换的条款)以及分配合同双方特权、权利以及义务的消费者法和隐私法制度。在某种程度上,这种纵向数据关系在数据治理法中很容易理解。正如第三部分所详细阐述的,各项数据治理改革方案关注的焦点正是法律如何规制这种纵向关系,如何安排数据主体和数据生产者之间的不平等关系,以及如何通过分配双方权利和义务来解决这一失衡问题。
  在横向维度,要梳理的是数据生产如何将不同数据主体相关联以及将其与具有相同群体特征的其他主体相关联,而非考察数据生产如何将数据主体与数据收集者相关联。亚当和本之间的关系就是典型的横向数据关系。
  在技术层面,这一横向关系表现为信息基础设施,可以通过群体分类来解析数据主体,再利用不同分类对其他主体进行反馈。这种技术方法是通过共同偏好、社会模式以及群体性行为来理解(并在理解过程中定义)群体身份在社会层面的表现。举例而言,亚当和本具有相同的文身,因此二者之间的横向数据关系具有特殊的社会意义。这一横向数据关系构建了一种社会过程,通过这一过程,我们可以利用某一相关的共同特征(即文身)来预测和确定某种社会意义(即帮派成员),然后按照这一分组来对群体成员(本)进行反馈。
  事实上,横向关系并不是像亚当(数据主体)和本(受数据流影响的主体)之间一对一的关系,而是一种群体性的关系。举例而言,亚当分享自己的文身图片,这一行为不仅将其与本一个人相关联,而是与所有文有相同文身的人相关联,并会基于这一共同特征对这些人进行反馈。同样地,本不仅与亚当存在横向关系,还与所有与其具有相同群体特征(在本案例中指文身)的人都存在横向关系,并向数据收集者共享了有关这一特征的数据。[80]为了方便讨论,我们将本所属的群体称为“Puse”,指代使用亚当文身图像数据的人群,并将该群体中除本之外的其他个体称为“Bn”。[81]另外,我们将亚当所属的群体称为“Pcollect”,并将该群体中除亚当之外的其他个体称为“An”。
  群体层面的关系引发了横向的群体利益。举例而言,本对亚当数据收集的利益就代表了Puse这一群体对Pcollect数据收集的利益。和纵向关系利益不同,这种利益不会具体到个体数据来源。本之所以对Pcollect数据收集享有利益,是因为使用这一数据对其有切身影响。无论这一数据是从他自己、从亚当还是从任何他者处收集的,都不影响数据的使用。就此而言,数据“收集”的对象是谁并不重要,利用数据对本进行的解析以及解析的信息如何作用于本才是重点。这就是本(以及其他像本一样的人)对捕捉其共同群体特征的数据所具有的群体利益。如前例所示,这种利益的来源并不单一,可以是本分享的数据、亚当分享的数据,也可以是其他任何主体分享的数据。关于这一利益,孤证或许有片面之嫌,但在整个数据生产经济中,通过横向关系网将个体与许多其他个体关联起来的相关例证不胜枚举。
  对于数据收集自上而下的社会影响,数据治理的应对表现不尽如人意,笔者将其称为“社会性问题”。要理解这一社会性问题,就需要了解数据治理法对个人主义(DIM)作出的概念承诺。该承诺侧重于对数据生产危害数据主体的方式进行分析,并尝试提出法律对策。虽然这能优化数据主体(例如亚当)和数据收集者(例如TattooView AI)之间的纵向数据关系,但并未突出横向数据关系在创造社会价值和社会风险过程中的作用。下文会详细阐述由此造成的严重后果。
  (三)数字经济中横向数据关系的重要性
  尽管横向数据关系与数据治理法无甚相关,但其对数据生产如何创造社会价值和社会风险而言至关重要。对于数字经济而言,数据生产的关系性极强,甚至可以说是其根本属性。
  毫不夸张地说,数据流的构建、收集和产生都只有一个目的,那就是将人与人相互关联。[82]只有在将人彼此关联的情况下,数据流才具有价值。它存在的目的就是揭示人与人相似的方式以及对彼此有意义的事物,即我们在生物学、人际关系、政治和经济层面的相似性。[83]
  数据流按照群体成员的特定分组来对人进行排序和分类。这种排序和分类的过程就是个体成为数据主体以及实现生产经济价值的过程。换言之,在数字经济中,有关于人的数据之所以有用,是因为它能够帮助我们确定相关的群体类别。我们可以操作这种分类,按照人们的分类来对其进行解析,再依据解析采取行动。
  关于群体的信息则会被用来开发模型,以预测和改变行为,深入了解消费者或竞争对手,攫取市场优势,赚取更多的剩余价值。[84]这类活动揭示了针对数据主体的一种取向,即将其视为群体成员而非个体,这一群体是通过成员共有特征和相同行为模式建构的。[85]在此过程中,人被重新定义为社会关系和群体行为的集合体,而数据主体则是提炼群体知识得出的具体行为模式。仰赖这一基本方法,行为定向、预测、大规模风险评估和调制反馈系统得以成型,且有利可图。[86]
  对于数据收集如何产生经济价值,数据的关系性是核心。这将亚当的数据对机器学习或人工智能应用的价值与个人数据对传统消费者监控的价值区分开来(并影响了法律对数据隐私的处置方式)。在大型数据集计算技术普及之前,亚当这种数据主体的数据或许很有价值,因为能够帮助企业、雇主、政府以及保险机构了解亚当。从某种程度上来说,这也是有关亚当的数据至今仍旧具有价值的原因。
  但对于当代数字经济而言,有关亚当的数据之所以尤为具有价值,是因为公司可以利用该数据作出预测,或依据其他个体与亚当共有的群体特征(即大规模的群体横向数据关系)改变其他个体的行为。正是数据的关系价值塑造了数据访问、处理和使用的必要性。机器学习系统和人工智能系统之所以独特,就在于我们可以利用这些系统,通过An来推导亚当,来了解亚当都不了解的关于自己的信息。更具法律意义的是,可以利用从An推导出的数据来训练模型,从而“了解”Bn,哪怕Bn这一群体与系统所有者之间不存在任何纵向关系。这可谓是大规模数据分析的关键转变,因为无论是在范围还是程度上,以往的数据收集方法根本无法与过去10年数字经济活动中典型的数据聚合、计算能力和推理模型相匹配。此外,它还强调,横向数据关系不仅对阐释数据流广泛利益极具重要性,对于建构数据收集者在其与数据主体的纵向数据关系中的动机也意义非凡。承认数据的关系性对数字经济至关重要有两点启示。
  其一,将数据的横向关系性视为管理数据生产的附带条件是不正确的。(从数据主体和数据治理现状的角度来看)数据的横向关系性的确会导致明显的外部性效应;但将其视为实体数据交易目的和用途的“外部”效应显然存在谬误。[87]执行横向关系不像排污,如果污染者能“像变魔术一样消除”污染,就算是为了挽回名誉损失,他们肯定会这么做。但数据生产者却不尽然:对于数据生产业务而言,数据的关系性是核心,也是数据生产经济价值的根源。
  其二,数据的聚合效应放大了断联的后果。在典型的数据流中,单独个体的数据无关紧要,不收集某一个体的数据所带来的边际成本非常低。[88]但整体的数据具有极高的价值,且能与其他类型数据相结合的数据越多,这种价值就越大。在算法开发和机器学习的诸多领域(从计算机视觉到自然语言处理,再到对抗性机器学习),一条经验法则就是:模型训练集中数据的质量和数量是决定整体性能的关键。[89]数据越多,模型就越完善,产出的数字产品就能对数据主体以及与数据主体具有相关特征的其他主体进行更精准的预测。大型数据收集和聚合因此成为数字经济中的关键竞争优势。
  将数据的关系性视为数据生成的随机副产品,这种观点将数据的特征误判为缺陷。数据生产关系效应和聚合效应相结合,促使公司加大马力,从数据主体收集尽可能多的数据。面对数据收集者如此强烈的收集动机,数据主体很难对其进行有效的限制。然而,问题不仅仅是双方相对强制力的不匹配,而是数据交易中众多利益并没有得到充分的代表,哪怕数字公司正是受这些利益背后的经济回报刺激才开展数据收集实践。
  数据中横向利益的盛行导致了数据主体和数据收集者之间纵向关系的结构不匹配问题。在给定的数据流中,数据主体只拥有一部分利益,如上所述,数据主体在信息中的许多利益也不会简化为其与数据收集者的纵向交易。与此同时,数据收集者非常积极,努力从尽可能多的数据主体处收集尽可能多的数据,通过挖掘横向数据关系的洞见来实现可观的收益。如忽略数据治理法中的横向关系,就无法充分揭示其所代表的利益和刺激数据收集者作出的行为。改革的任务是规避进一步的隐私侵蚀风险,而错误地将上述效应视为这一任务的陪衬,可能会导致改革半路夭折,难以对过度冒险的数据生产进行有效的约束。
  (四)数据治理法中横向数据关系的缺位
  尽管横向数据关系能阐释数据收集者开发数据流收集和货币化相关基础设施的原因,但对于当前数据治理法如何分配数字经济不同参与者的权利、特权和义务,横向数据关系并未发挥太大作用。在数据生产中,众多与群体关系相关的利益在数据治理法中并未得到体现。这一点既有实践意义,也有规范意义。
  其一,从实践层面来说,横向数据关系法益的缺位导致法律无法准确捕捉这一关系对数字经济的重要性。如上所述,这种脱节同样会阻碍对纵向关系的有效监管。个体横向关联的必要性激励了数据收集者,并对其与数据主体之间的交换条件产生了一定的影响。因此,对于监管数据主体—数据收集者纵向关系这一任务,横向关系也是相关因素之一。
  其二,从规范层面来说,法律中横向数据关系的缺位会导致数据治理法忽视或误解数据生产导致特定类型不公的方式。由于群体利益没有得到代表,因此对于由横向关系引发的种种不公,数据治理法就无法编制有效的索引。囿于这种误解,数据治理制度还可能无意识地排除有益于社会的数据生产方式。下文对此进行更细致的讨论。
  鉴于横向数据关系的法律边缘性,数据治理法对数据生产的众多后果都疏于阐释。其中包括法律如何解释从亚当到TattooView AI的数据流中风险和收益的外部性问题(例如本的代表权缺失问题)。此外,数据治理法并没有解决分配效应的问题:在数字经济的参与者之间,数据流如何不均衡地分配利益和风险?通常是按照群体身份进行分配,而这些身份则指向不同的压迫和统治形式。举例而言,若本是一个黑人,数据治理法无法代表本在亚当数据流中的利益,这就带来了不同的(可以说更严重的)规范性问题,因为这种数据流是种族化社会过程的具体表现。
  某些数据生产形式可能会导致个体遭受同样的强制性数据收集,但由此生成的数据流却会造成不同的严重后果。强制性数据收集通常会造成不平等的纵向关系,而由此产生的横向关系却会在规范层面对不同群体施加不同的压迫。举例而言,近期,移民和海关执法局和海关边境保护局从Vennetal公司购买了移动位置数据,根据边境地区的手机活动识别和逮捕可疑的无证移民。[90]Vennetal数据库的位置数据追踪了数百万部手机的位置信息,主要是从游戏和天气之类的手机应用中提取数据,这类应用通常会要求访问用户的位置数据。移民和海关执法局还从Clearview AI公司购买了许可,这家公司主营面部识别,近期因执法机构的广泛使用以及可疑,甚至非法的数据收集行为受到公众的广泛关注。[91]在这两个例子中,数百万数据主体的数据被Clearview和Vennetal公司收集,而这种收集行为并没有获得符合标准的同意。许多数据主体会认为这种收集行为不公平,从而明确要求对数据收集行为进行改革,以解决这种问题。[92]
  然而,这些数据使用方式带来的风险在受影响的人群中并未平均分布。除数据收集条件不公平外,这将带来另一种不同的危害。Venntel公司的数据流构建了横向的数据关系,利用相关的共同特征(例如运动模式)来(对无证移民)进行预测,并按照这一分类对群体成员采取行动(拘留)。这种做法以社会受压迫群体的成员身份为依据,放大了数据流和共同特征的风险。因为自身的种族、民族、宗教或语言,个体会受到移民官员更严格的审查,所面临的风险也更为巨大,因为移民官员能够通过此类数据流捕捉个体及与之类似的主体的运动模式。
  这并非因为运动模式本身具有压迫性质。相反,作为一个相关的群体共有特征,“运动模式”在一定程度上反映了社会是如何定义这一群体成员并对其实施压迫的。运动模式成了识别无证移民的有效特征,随后又用以拘留群体成员,依据就是他们的移民身份。换言之,横向的数据关系使得社会压迫程序具象化。如果一个人不是相关群体(无证移民)的一分子,哪怕其位置信息被收集,其所遭受的这种社会信息危害也基本可以忽略不计。
  风险分布不均说明,即便在同样的条件下收集数据主体的数据,数据使用带来的收益和风险也可能分布不均,从而加剧对少数群体成员的有害社会后果。从规范层面出发,这种危害是有别于不公正的数据收集的。不公正的点在于数据流构建的社会过程,而非数据收集的条件。将(不公正的)收集条件作为这一数据流的唯一弊病,既不能充分体现数据收集的整体风险,也不能反映这一风险分配方式和分配不均问题的规范意义。
  尽管可能会对社会弱势群体造成危害,更有社会优势的群体甚至可能会自愿参与对其有益的数据收集。自愿数据主体和非自愿第三方之间的横向关系实现了加剧群体之间(压迫性)差异的社会过程。举例而言,有一位房主(假设她叫爱丽丝)自愿安装了亚马逊Ring,这是一种流行的互联网可视门铃,居民可远程记录门廊的情况,并与来访者交谈。[93]与许多Ring的用户一样,爱丽丝也安装了Ring的Neighbors应用程序。通过这一程序,她能够接收和发布实时犯罪和安全警报。[94]对于Neighbors和当地执法机构之间的合作关系,爱丽丝知情且表示认可。
  爱丽丝有两位邻居,碧翠斯(Beatrice)(白人)和卡拉(Cara)(黑人)。鉴于从爱丽丝的Ring收集的数据依照共同特征(例如,他们都生活在Ring发出警报进行干预的范围之内)进行处理后,可能会用来报告并对碧翠斯和卡拉采取行动,两者与爱丽丝都存在横向的数据关系。碧翠斯和卡拉都是爱丽丝与Ring交易的第三方。两者的门廊都在爱丽丝的监控之下,可能会从中受益,但也会承担一些风险:有关于他们的共同群体数据被爱丽丝的Ring抓取,提交给Neighbors应用、亚马逊和当地的执法机构。但相比碧翠斯,这一横向数据关系给卡拉带来了更大的暴力风险。卡拉与爱丽丝的数据关系是种族等级制度不公正社会过程的表现形式之一。这一程序使得爱丽丝的监控更容易引发执法部门和其他邻居对卡拉的暴力。因此,爱丽丝和碧翠斯以及卡拉的两种横向数据关系在规范层面的意义大相径庭:前者或因外部性造成生产或分配效率的低下,而后者则可能导致种族主义的滋生或加剧。
  这种不均衡的风险说明,即便数据主体自愿同意进行数据收集,相关的横向关系在法律中仍未得到体现,继而加剧了边缘群体成员身份的危害性和副作用。
  三、作为个体媒介的数据改革及其概念局限性
  针对数据化的种种问题,学界提出了两种著名的法律改革方案——财产主义方案和尊严主义方案,本部分对这两种方案展开评估。财产主义方案主张将个人对数据的产权正式化,将数据认定为个人资产,以此应对数据经济中日益加剧的财富不均问题。尊严主义方案则主张数据是个体自我的延伸,应将其视为基本权利予以保护,以此应对过度数据提取给个人自主权造成的威胁。两种改革都有其可取之处,但两者在概念上存在一个共同的缺陷:这两种方案都尝试将信息的法益简化为个人主义权利,而个人主义的权利对应的是个人主义的救济,从根本上就无法代表数据生产横向的群体利益。这就致使明显的社会信息危害得不到妥善解决,同时还会阻碍有益于社会的数据生产形式。
  (一)财产主义数据治理改革
  针对数据提取的危害,学者、活动家、技术人员甚至总统候选人都提出了数据治理改革方案。数据提取与财富积累之间的紧密关系刺激了许多改革者,他们希望在数据主体和数据处理者之间进行更广泛的财富分配。举例而言,万维网之父蒂姆·伯纳斯-李(Tim Berners-Lee)出于对数据提取加剧网络权利失衡的关切,创建了Solid这一网络去中心化平台。[95]他指出:“尽管我们取得了很多成就,不可否认的是,网络已经成为不平等和分裂的源头;强权者正在操纵网络满足私欲。”[96]Solid“旨在彻底改变当今网络应用程序的工作方式,实现真正的数据所有权,同时更好地保护隐私”[97]。在区块链社区的Ownyourdata运动中,Solid备受青睐。
  经济学家格伦·韦尔(Glen Weyl)和法学学者艾瑞克·波斯纳(Eric Posner)共同提出了激进市场这一方案,为数据引入劳动力市场。[98]韦尔等人主张将数据作为一种劳动力,从而应对不平等问题。受数字经济的“技术封建主义”的影响,数据劳动者的劳动成果被无偿“分配给少部分富有的学者而非普罗大众”[99],韦尔等人的建议就旨在打破这一局面。
  关注信息经济不平等问题的进步政治家们也提出了类似的方案。例如,前总统候选人杨安泽就在其竞选平台上提出了一项数据财产权。[100]近期,他还推出了“数据红利项目”,向脸书和谷歌等互联网巨头发难,要求他们就用户数据资本创造的财富向用户支付“数据红利”。[101]议员亚历山德里娅·奥卡西奥-科尔特斯(Alexandria Ocasio-Cortez)也将数据所有权视作解决不平等问题的方法之一,她在推特上发文:“许多科技平台之所以能够创造亿万富翁,是因为其在用户不知情的情况下对他们进行了跟踪,收集他们的个人数据,并在未经明确同意的情况下出售数据。用户对数据没有所有权,但理应拥有。”[102]
  这些方案所提出的数据治理改革都主张赋予数据主体以数据财产权。财产主义改革将数据权利正式化为个人对其数据资产的权利。大多数改革都提出数据的财产权,数据主体可以出售使用权和全部的所有权。换言之,我们可以将数据生产视为一种数据主体的劳动,数据主体因此有权在数据劳动市场中获得报酬。
  针对数据提取造成的种种问题,财产主义数据改革提出了一种特殊的法律解决方案,将关于主体的数据转化为资产,从而为主体创造财富。[103]依照这一观点,(在合同协议和交易保密法的共同作用下)数据在法律上已经被“编码”为准资本,能够为其持有者创造财富,但作为数据来源的个人却被排除在外。[104]问题不在于将数据概念化为资本,而在于谁拥有合法权利并从数据这一资本中受益。作为一个法律问题,实施财产主义改革会赋予数据更多特征,而这将更有利于为数据主体创造财富。[105]因此,数据治理变成了(通过合同法、财产法、就业法和劳动法)对财产关系或工资关系的治理。法律改革的任务也转变为改变适用于数据资产的法律法规,而不是否定数据作为资产这一概念。
  数据从事实产权向法律产权转向是为了确保实现财产主义改革的种种益处。首先,这一转向通过向数据主体分配数据的合法权利,厘清数据的自决权和控制权。笔者将此称为“数据控制权”,这必然会对数据可转让权利的建立有一定的影响。其次,数据被认定为法律产权,使得数据主体掌握一定的话语权,可在个人数据市场与数据收集者之间博弈,从而实现数据提取利益的帕累托有效分配(以及有效生产和消费)。笔者将此称为“市场效率权利”。再次,个体切实参与了数据价值的创造,通过对其进行补偿,数据法律产权确保对数字经济利益进行更广泛的分配。[106]笔者将此称为“再分配权利”。
  鉴于科技公司相当于垄断了数据资源,是数据资源的实际所有者,就此而言,上述三种权利无疑大大提高了财产主义改革的吸引力。这类改革正式确立了数据的财产地位,直接否定了谷歌、脸书和亚马逊等大型数据收集者对个人数据流的准财产权,使无偿获取主体数据价值的做法直接作废。[107]
  财产主义改革还与对数据政治经济竞争和公平问题的某些判断和对策不谋而合。[108]这类观点认为,公司对数据资产的过多控制或公司数据资产控制过于集中是阻碍竞争的关键因素。[109]要解决这一问题,“数据可移植性”是常用对策之一,其包含一系列技术互操作要求和法律权利,允许用户传输其数据。[110]依照这一观点,授权用户“购买”新的数字服务能够促进市场纪律(因为增强了用户的退出选择权),同时为新的市场参与者提供吸引用户和获取宝贵用户数据的机会。[111]数据可移植性结合了数据控制权和市场效率权的要素,能够通过个体市场行为来增强竞争机会。
  最后,财产主义改革对数字经济的不公正问题作出了回应:有些事物在个体看来毫无价值,有些甚至会给个体带来风险,但仍能从中产出非常宝贵的资源,而个体在这一过程中发挥了一定的作用。如上所述,之所以要进行权利改革,是因为公司空手套白狼,无偿收割用户数据,以积累大量财富。当科技公司被大众指责在日常生活中攫取了太多经济和政治权力时,再分配权利就会令公众更加拥护财产主义改革。有些人认为,再分配权利不过是实现数据控制和市场效率的工具罢了,但即便是对这些人而言,再分配权利在主张财产权利方面也起到相当大的作用。
  当然,我们仍有质疑财产主义数据改革的理由。一是可行性问题。按照规定的规模操作这种复杂的小额支付系统既不切实际,也不划算。[112]此外,在当前的数据化条件下,财产主义方案能否切实解决数据提取问题,尚无任何经验可供参考借鉴。[113]二是财产主义数据改革大概率无法解决隐私侵蚀问题,而隐私侵蚀恰恰是许多数据提取问题的诱因。[114]数据付费会刺激人们分享自己的数据,因此不仅会侵蚀自己的隐私,还会侵蚀他者的隐私。数据主体可能会觉得,将个人隐私变现是划算的买卖,出卖隐私是买卖双方的双赢。暂且不论这种行为对他者有什么影响,在交易当时,数据主体很容易低估自己的隐私风险。[115]数据带来的隐私风险既不是静态的,也不是线性的。在多个数据源、不同下游用途以及新应用程序的复合作用下,它会随着时间的推移不断地累积和增长。[116]举例而言,2009年,我们给上传网络的自己和亲友的照片加标签,当时我们不会预见,在2019年,和执法部门合作的公司会使用这些照片来开发面部识别产品。[117]三是财产主义改革给最不愿意放弃数据收益的主体施加了更大的边际压力,丰富了隐私的内涵。[118]无论是否聚焦隐私,财产主义改革都承认数字经济的确正在经历一个数据商品化的过程:开弓没有回头箭,数据主体能够且应当确保的是自身能在这一价值生产过程中得到应得的份额。
  (二)尊严主义数据治理
  拒绝承认数据商品化是尊严主义者对数据治理现状和财产主义改革方案的核心评价。财产主义改革将数据视为个人所有权主体(数据“类物”),而尊严主义数据治理则将数据视为个人自我的表达或延伸(数据“类人”)。[119]
  关于信息资本主义和隐私侵蚀的典型规范性评论反映了尊严主义者对数据化的观点。举例而言,信息资本主义备受诟病的一点就是,对于以机器可读的形式理解个体并对其施为,信息资本主义认为这具有经济上的必要性,但这种行为通常没有经过有效的同意,其目的也可能与数据主体的意愿相悖。数据化及其所依赖的无缝且不间断的数据提取,将个体重构为“数据复制品”,以清晰易读的算法形式呈现出来。[120]通过这种方法,数据化将个体变成了行为模式,标记为类别或分类的组合(例如“女性”“00后”“律师”)。因此,数据化违背了个体作为自主存在的基本概念。
  另一个与之紧密相关的批评主题就是数据化能否负担起算法治理:按照特定的类别和特征,将个体转化为行为模式,经过持续的反馈和微调,依据这些分类,通过算法和迭代对个体施为,不断循环这个过程。这一循环把对数据主体的算法理解重复作用于数据主体,破坏数据主体自我塑造和执行自我意志的能力。[121]
  针对这类问题,祖博夫等尊严主义者指出,数据化和数据提取切断了人与自我的连接。[122]内心世界的“净土”被入侵,充斥了“社会大同的集体主义愿景”。[123]祖博夫断定,信息资本主义必然会导致不公,因为其尝试通过货币化计划把个体的内心自我商品化、殖民化,对其进行统治,进而攫取利益。这种货币化计划所仰赖的正是行为预测和控制。这种新的资本主义需求违背人的尊严,破坏了个人的主观能动性。
  祖博夫曾多次将数据理解称为侵权,将行为修改称为殖民,这说明令其忧心忡忡的是数据化本身,而不仅仅是数据化的目的或其引发的关系。按照这种观点,数据化是一种对个体可识别性的危害,严重侵犯个体的人格尊严。
  尊严主义者认为,数据化是造成信息资本主义不公的元凶,因为数据化代表的是对内在自我的商品化和异化过程。祖博夫的论断与此不谋而合。按照这一观点,通过数据化令个体变得可识别是对个人的一种侵犯。数据化、数据提取以及算法治理都是错误的,因为它们都对个体进行了操纵,侵犯个体神圣的内心世界,破坏个体表达和执行自由意志的能力。[124]对于尊严主义者而言,这些不公威胁到人格的本体和存在,因此无论数据如何使用,其本身就难以成立。
  为应对这些问题,尊严主义者致力于加强数字经济中对个体自主权(在欧洲语境中即个体尊严)的保护。他们提出的最有力的观点就是,由于数据是数据主体尊严权和自决权的延伸,个人数据的法律权利应该上升到自然权利层面,主张将数据权利作为人的基本权利。[125]欧盟的数据治理制度中就包含这类权利。针对个人信息,欧盟的数据治理制度不仅规定了广泛且不可剥夺的权利,还设置了积极的数据处理义务,同时将数据保护和隐私确定为基本权利。[126]欧盟内外这一方法的拥趸主张将人权框架套用到数据治理中,以此加强法律的基本数据保护。[127]基本权利赋予个人对自身信息不可剥夺的控制权,包括更严格的同意要求以及数据主体对数据的持续访问权利。[128]赋予数据主体人权地位能够确保这一点,即“哪怕能预见数据的所有潜在用途,也不能通过同意放弃最低标准的权利”[129]。
  针对数据提取的问题,尊严主义改革提供了一个强有力的法律解决方案:将对主体相关数据的保护尽量与对主体本身的保护相结合,以此加强对数据的保护。因此,尊严主义改革的目的就是尽可能地用“类人”特征来进行数据编码。在这种准人格基础上,尊严主义改革能够扩大数据主体不可剥夺的权利,并对其他主体施加特定义务,确保个人数据在法律层面具有最基本的公民和政治地位。这将正式推翻数据的准所有权主张,转而承认数据的准人格地位,属于公共生活中个人民事自由主义保护的规制范畴。
  许多尊严主义改革者声称,数据提取不仅牵涉个人利益,也牵涉社会利益。举例而言,祖博夫曾表示,世界上的数字信息是一种公共产品。[130]欧盟数据保护监察专员则指出,隐私“不仅是一项个人权利,也是一种社会价值”[131]。然而在实践中,基于尊严主义者数据治理概念提出的法律解决方案仍对数据适用私人秩序,保护数据主体免受个人主义信息危害。[132]尊严主义改革保障了数据主体对特定下游使用(例如,未经同意使用数据、超出给定用途使用数据或撤回同意后使用数据)以及就收集到的数据享有的消极权利。
  (三)作为个体媒介的数据改革的概念局限性
  相较于财产主义改革,虽然尊严主义改革提出的个人主义数据保护制度更为有力,但其仍将数据视为一种个体媒介(DIM)。正因如此,无论是财产主义改革还是尊严主义改革,都试图将信息法益简化为个人主义权利,适用个人主义救济,但这类救济从根本上就无法代表横向数据关系产生的群体利益。这就致使明显的社会信息危害得不到妥善解决,同时还会阻碍有益于社会的数据生产形式。
  1.横向关系的缺位
  对DIM改革本身而言,无法对横向关系作出解释是一个棘手的问题。利用从亚当身上提取的数据总结共有群体特征,再依据这些特征对本采取行动,这就是数据收集如此令人向往的原因所在。这种关系性在一定程度上可以解释为何数据收集者如此执着于从亚当这样的数据主体身上持续提取数据流。横向的数据关系刺激数据收集者参与这种持续的、深入的数据提取。因此,无视横向关系带来的利益不仅否定了本对该数据的利益,还无法解释具体是哪些结构性条件对亚当和TattooView AI之间的数据交换造成了影响。
  仍以前述亚当、TattooView AI和本之间的数据关系为例,财产主义改革会要求TattooView AI就数据向亚当付费,但在收集时向亚当付费并不能解决其数据被用来拘留本的问题。本从财产主义数据改革中没有获得任何利益,反而遭受了严重的危害。通过授予亚当获取报酬的权利,财产主义改革试图重新平衡亚当与TattooView AI之间的纵向关系。这类改革或许能缓解数据主体受到的过度剥削(并引起某种程度的再分配),但其未能把握本和亚当在横向关系中的法益,因此无法赋予亚当(或本)改变交易条件的能力。鉴于上述现实情况,无论是纵向还是横向,财产主义改革都无法塑造更平等的数据关系。
  尊严主义改革扩大了保护的范围,将侵犯亚当受保护数据权益的下游数据使用行为纳入规制范畴。这类改革将亚当的数据权利归为基本权利,令其有资格发声,提出利用其数据来拘留他侵犯了他的基本权利,或者赋予其更强大的事先权利,使其可以拒绝数据收集。然而,和财产主义改革一样,尊严主义权利同样忽略了本这样的第三方。赋权亚当,防止他者利用其数据对其不利,这种权利并不会阻止他者利用亚当的数据(即文身图像数据)来对付本这样的他者。但对于这一信息,亚当和本的利益基本相同(即不得利用他们的文身提取文身图像数据,将他们分类为疑似帮派成员,然后依据这种分类对他们进行拘留)。区别对待两人,保护一人排斥另一人,这种做法无疑是武断且荒谬的。在这两种情况下,数据流中的相关法益并不能简化为DIM改革赋予亚当的个人权益。
  和财产主义改革一样,尊严主义改革未能准确理解其所针对行为的结构性条件。尊严主义改革赋予亚当对其数据收集和使用条件不可剥夺的权利,尝试重新平衡亚当与TattooView AI之间的纵向关系。但由于未能考虑许多相关的横向利益,其无法说明横向数据关系在塑造数据提取经济必要性过程中发挥了何种作用,以及这种关系会造成何种社会信息危害。数据生产可能会侵犯个人自主权,这一发现对进一步理解这种侵权为何,以及如何成为数据政治经济中竞争性市场行为的必要条件并无助益。[133]据此来加强个人数据主体的控制权,这种做法自然也无法从根本上解决现有问题。
  2.危害理论的缺失和误判
  由于法律中横向数据关系的缺位,数据治理法难免会忽视或误判数据生产造成特定类型不公的方式。如上所述,数据化催生了两种关于不公正的批评或主张:不公平判断和商品化判断。不公平判断认为,数据生产的不公正指的是数据化引发的财富分配不公,是一种不当得利。商品化判断则认为,数据化的不公指的是其导致数据主体过于易读,数据收集者借此可对数据主体进行不正当的控制。这种控制把个体的内心生活简化为价值交换,破坏了数据主体的自主权,侵犯其尊严。
  关于数据化不合法原因的这两种论述或判断反而推动了两项DIM改革方案。针对不公平判断,财产主义改革的对策是授予数据主体主张返还部分数据生产利益的权利。针对商品化判断,尊严主义改革则主张赋予数据主体更强的控制权,令其能控制自身数据是否、何时以及如何被数据收集者收集。但任一改革都无法解决对方指出的不公正问题。财产主义改革承认广泛的数据主体可读性是确保再分配利益的必要条件。尊严主义改革的种种承诺无法为数据主体带来实质的再分配价值,因为尊严主义理论反对将内心自我认知商品化。即便我们假设这两种改革都能解决自身提出的不公正问题(正如前文所述,这种假设实际并不成立),一旦选择其中一种方案,就意味着另一种方案提出的问题只能搁置。如果认定这两种改革方案都抓住了数据生产的痛点,在这两种DIM方案中作出选择同样也是让人头疼的问题。
  3.不公平的数据生产=不公平的数据关系
  各项判断和相关改革方案都存在规范性问题(例如,未能指明导致数据化不合法的根本原因)和操作问题(例如,在阐明数据化不合法根本原因时忽略了相关特征),因此很难真正触及改革的痛点。
  重新建构对不公正问题的判断,阐释数据关系,可能会为解决上述问题打开新思路。数据化之所以不合法,原因既不在于其代表不当得利,也不在于其反映不合法的自我商品化。数据化,或者更准确地说,数据生产,只有在其造成不公正的纵向或横向社会关系时才是不合法的。这些不公正的社会关系有许多表现形式,包括催生财富分配不公的剥削性数据关系以及造成诸如种族主义、性别歧视和排外心理等群体压迫的数据关系。在对不公正进行判断的过程中,应当围绕数据关系展开,这样才能将数据治理法改革拉回管理(和平衡)数据关系的正途上来。
  这种新的规范性判断还能帮助DIM法律方案查漏补缺。在造成或加剧不平等方面,数据生产发挥的作用不仅仅是无偿使用数据主体的数据,还包括依据共同群体特征放大或实施不公平的社会关系。在收集数据时支付费用能够对剥削性数据收集的部分利益进行重新分配,但根本无法解决数据生产本身为了产出利益而实施或加剧的社会压迫。[134]即便是在绝对公平的条件下对数据生产的收益进行分配,数据化仍旧会造成不公平和压迫性的社会关系。
  (相较于不当得利)对社会不公平的关注也反映了尊严主义者对算法治理的担忧。通过数据驱动的反馈系统进行治理同样不合适,不仅因为这种治理方式会破坏自塑过程(这是事实),还因为这类系统会催生不公平的社会关系,引发支配、边缘化和贬抑。将监控数据流的不公正重新定义为不平等社会关系的不公正,就会对个人违反行为背后的结构性成因以及这种不公正中个体的共同利益有更清晰的认知。
  针对“易读性”不合法的问题,尊严主义论述并未阐明“商品化”和“易读性”之间的差异,重构数据治理改革,以均衡数据关系为出发点,有助于厘清这二者的区别:前者是推动数据理解的目标,后者是决定目标的实质和程序性条件。脸书等私人公司是尊严主义者批判的主要对象,但其所作评论均未谈及上述区别。但对于区分私营公司的数据收集和使用、公共或集体数据基础设施的数据收集和使用,这种区别具有相当的参考价值。问题不在于给定系统能否以及在何种程度上可以对数据主体进行读取(或者数据主体是否有机会对这一程序进行控制),而在于这种可读性的目的和发生的条件是什么。更重要的是,决定这些目的和条件的方式是否能催生更平等的数据关系。依照这一观点,获准的可读性远非个体数据主体同意或控制如此简单,而是一种判断数据生产是否合法的制度形式。
  再以TattooView AI收集用户数据拘留可疑帮派成员为例,文身的数据流之所以不公平,并不是因为在收集数据之时数据主体没有得到报酬,而是因为一个群体(数据主体)的信息被用来压迫和支配群体中的其他主体,其依据就是其所属群体的成员身份(即“帮派成员”,一种由种族、民族、阶级和语言差异决定的群体成员身份)。这一文身数据流是不公正的,因为其收集和使用导致亚当具有可识别性,会侵犯亚当的自主权和自决权。此外,它还具象化了一种社会类别(“帮派成员”),导致对他者的统治和压迫。依照财产主义和尊严主义改革,这一社会效应与信息法如何监管收集、存储、交换或使用的数据无关。
  4.作为个体媒介的数据改革与有益社会的数据生产
  将数据经济中的利益简化为个人数据主体的利益可能会无意识地排除掉有益于社会的数据生产形式。目前,个人财富创造是数据化引起评论的主要原因。财富创造是数据收集的目的之一,但并非唯一目的。举例而言,有些社会福利机构需要对宝贵的资源(例如水资源)进行大规模的分配和管理,有些则需要对最重要的公共利益作出时效性预测(例如限制新冠病毒传播的公共卫生战略),运营这类机构必须获取高质量的群体信息,才能确保有效和公平地履行社会福利义务。
  然而,DIM改革项下对危害的判断并没有对这些区别及其衍生出的法律方案进行索引。依照这些观点,无论是为公共利益进行的数据化,还是为私人财富创造进行的数据化,其侵犯个体利益的风险是相同的,也受到同样的个人主义治理规制。在财产主义制度下,若公共机构无法就数据向数据主体支付公平的报酬,那么大可以说这种数据化构成公益征收(Public Taking),或者应当由数据主体决定是否捐赠该数据。在尊严主义制度下,个体可能并不认同公益目的(例如,他们可能认为政府追踪新冠病毒感染的措施侵犯了他们的医疗自由),并以数据使用违背其个人意愿和基本权利为由拒绝机构访问数据。无论是免费获得数据、未经同意收集数据还是为数据主体不认同的目的收集数据,都与自由主义对数据收集和使用组织形式以及数据化合法条件的理解相悖。但是,若仅凭个人自愿参与,就会大大削弱实现更广泛社会利益的能力。[135]
  因此,DIM改革既过于偏狭又过于宽泛。这种改革聚焦于数据化对自我价值创造和无偿价值创造的侵犯,不仅没有解决导致这种危害的经济动因,也没有提出有效的方案化解数据政治经济中的不平等问题。与此同时,对数据化的关注致使我们忽略了数据生产目的和决定该目的所依据的条件之间的区别。
  四、作为民主媒介的数据
  (一)合法性问题
  当前和拟议的个体数据权利并不能处理数据生产催生的群体利益。因此,这些改革既无法解决社会性问题,更无法解决合法性问题,两者是压在美国数据治理法之上的两座大山。合法性问题是:在不依赖个体裁决的情况下,数据治理法如何区分合法数据使用和非法数据使用?
  举例而言,假设一家实体(Watercorp)正在收集家庭用水数据。每次有人打开水龙头饮水、用水壶烧水、给香草园浇水或者刷牙,Watercorp都会对信息进行收集、处理和分析,目的是改变特定城市未来的家庭用水行为。这一数据反映了人们生活的私密细节。事实上,依据这些数据,可以对人们的日常习惯进行准确的描绘,得出的结论用途相当广泛:帮助家庭设置和实现节水目标;根据消耗峰值计算用水“峰时”价格;利用反馈数据改变人们的用水习惯,转向使用客户的瓶装水饮;向广告商、保险公司、债权人和雇主出售有关人们日常习惯的结论;测试哪些策略最能刺激人们缴纳水电费;等等。
  现在,假设除了Watercorp之外,易旱地区的市政公共机构Waterorg也进行了同样的数据收集,目的是了解市政用水情况、制定节水策略并(随着旱情加重)制定计划,确保在水资源不断减少的情况下进行公平和负责任的分配。进一步假设,在该市旱情最严重和最贫困的地区,干旱导致的水资源短缺和断供风险最高,而这些地区居住着更多的少数族裔居民。[136]
  最后,假设该市有少数公民反对国家强制收集他们的数据或利用该数据来制定对其有影响的水资源分配策略。这些公民认为,这种数据收集行为侵犯了他们的尊严和自主权。提取私密用水数据对他们并无好处,因为将来据此制定的用水政策大概率会削弱其不受监控自由取水和用水的能力。和Watercorp一样,Waterorg也在施加强制力,违背公民的意愿强制读取他们的数据,不仅目的与其利益不符,还未支付任何费用。
  若有人对Watercorp的数据生产忧心忡忡,但认为Waterorg可以甚至应当进行同样的数据生产,则依据数据治理的DIM观点进行分析就非常有挑战性。Waterorg的基本治理架构使其在决定社会目标时具有更广泛、民主的表现,同时也受到体制上的限制,禁止特定形式的个性化使用。对于Watercorp而言,我们无法就集体社会目标进行民主决策,也没有相同的体制监督形式能够确定哪些收集和使用是被禁止的。聚焦具体个人或家庭对是否参与数据收集的偏好或权利,并不能反映这两家实体在数据生产目的和条件上存在的规范性差异。此外,这一方法并未体现这些家庭对彼此选择中共同和重叠利益之间的关系。
  (二)横向关系和制度设计
  要说明Watercorp和Waterorg数据生产之间的区别并判定其是否合法,就需要对这些拟议数据生产计划进行群体性的民主评估。
  根据DIM,对此类计划合法性的评估会引发各种问题。例如,这些家庭是否充分同意相关实体追踪其数据?收集数据的目的是否维护了家庭成员的权利?是否违反该实体对家庭成员的义务?或者,家庭是否就数据收集得到充足的报酬?针对反对数据收集的公民,强劲的DIM改革会赋予公民拒绝数据收集的能力,确保自身相关数据不会被用来侵犯自身利益的权利,或就其选择提供的数据获得报酬的权利。
  根据这一分析,无论是Watercorp还是Waterorg,任一方违背家庭意愿或利益,收集和商品化其家庭用水信息,都会被认定为不正当(在法律改革层面,被认定为不合法)。若家庭成员认为其数据被不合法地商品化,依据尊严主义DIM保护措施,其有权反对并选择退出这一数据生产;依据财产主义DIM保护措施,则有权要求就其数据为Watercorp创造的财富中获得更大的分成,或依据Waterorg的征收法要求获得公平的补偿。另一方面,依照这一分析,若Watercorp或Waterorg在收集数据时取得了有效的同意,使用数据时也没有侵犯家庭成员受保护的法益,允许家庭退出用水数据收集或就用水数据支付公平的报酬或买价,则其行为是正当且合法的。总而言之,无论是哪家实体在收集数据,无论数据收集的目的为何,只要正确落实这些保护措施,就能确保家庭有获得报酬、退出以及追索的权利。这种方法能够赋予单个家庭与实体对抗的能力,但实际上,数据收集是否合法,还取决于个体的选择。
  即便DIM改革的应对措施非常有力,也忽略了数据生产中群体利益的作用方式。假设那些公民是因为担心家庭用水数据可能会被用来损害自身利益,才反对Waterorg收集数据(假设其中一名反对者叫“凯特”)。凯特的这种担忧既不会变为禁止从其家庭收集数据的权利,也不会变为限制其数据使用方式的权利。相反,她的担忧反映了用水数据中的群体利益。要获取类似家庭的用水习惯,提炼群体性认识,Waterorg其实并不需要凯特的数据,因为从具有共同相关特征的家庭(例如相同的家庭规模、相同的社区)中提取这种认识简直不费吹灰之力。要想准确表达凯特的担忧,就要从群体层面进行阐释:将城市水资源数据生产视为一个整体。
  从凯特家收集的用水数据牵涉的并不是凯特自己的利益。如果没有足够的高质量家庭用水数据,那么随着干旱加剧,Waterorg就无法制定充分公平或准确的用水分配计划。这有碍Waterorg实现其计划,即为包括那些保留数据的人在内的每位市民制定有防旱意识的用水管理。对于居住在更贫困且干旱易发地区的人来说,公平有效的用水管理尤为重要。不收集数据给这些人带来的风险更大,给居住在这些地区的人们造成了实质的困难。对于整体的用水数据生产而言,这同样是群体利益。
  鉴于数据主体的利益并不单指其个人用水数据的提取或使用方式,而且牵涉的利益范围很广,不仅仅是个体数据主体的利益,所以仅凭数据主体与Waterorg交易的条件根本无法确定其数据生产是否合法。只有认识到数据治理的任务牵涉一系列相关利益,才能解决由此产生的各种社会信息危害。
  (三)民主数据治理
  重构数据治理,将其重点从保障个人权利转向集体秩序制度化,考察的问题也会随之改变。首先,如何保障数据主体有更强的控制权或确保其自主权获得更优的法律表达。新的问题聚焦于如何平衡对数据生产群体效应的重叠且相互竞争的利益。这种重新定位指出了民主治理的核心问题:如何在民众自塑的社会过程中赋予其话语权?如何平衡对特定少数群体利益的一般认识和特别关注?如何确定公民生活的相关“公共”或制度水平,从而对这种集体利益进行联合和治理?如何在认识到数据生产有输有赢的同时制定公平的制度对策?
  这种转向为新的数据处理方法(从将数据视为表达个体利益的个体媒介转向将数据视为实现群体社会利益的民主媒介)奠定了理论基础。与其他社会关系媒介一样,数据的管理同样引发了一系列的政治问题:在这些具体关系中,个体对彼此负有什么责任?如何分配相关利益和风险?下文将这一数据概念称为“作为民主媒介的数据”(DDM)。[137]
  1.作为规范性(平等主义)标准的民主
  对数据具有“关系性”这一描述进一步展开,所得出的观点就是数据关系具有“民主性”。对于数据的关系性及其附带的社会影响应当如何调和和规制,这一观点给出了明确的政治和规范标准。[138]因此,将数据概念化为民主媒介体包含了积极和规范的主张:描述数据生产催生的种种利益,以及这些利益应当如何规制。换言之,数据具有关系性(并会产生不可或缺的社会利益)这一事实意味着,必须对数据进行民主治理,这种治理模式能够赋予数据关系性在道德和法律层面的效力。
  作为一种规范性标准,民主为数据治理法如何以及应当如何规制数据关系提供了依据。民主理论厘清了不公正数据关系的具体特征,将其与公正的数据关系区分开来。正如艾莉斯·马利雍·杨(Iris Marion Young)所言:“彻底的社会和政治民主是独裁的反义词。”[139]伊丽莎白·安德森(Elizabeth Anderson)指出,在“人与人之间存在平等关系”的条件下,民主平等才得以实现。[140]要建立人人平等相处的民主制度,只保障个人权益的社会条件远远不够,还需要建立能够使人们获得机会的制度安排,“反映作为平等道德主体的普遍诉求”。[141]对于相互竞争的利益,制度层面的认可使个体数据选择对他者群体性影响的规范性力量发挥作用,不仅能够反映个体的义务,还能反映他们对彼此的义务。[142]这一框架绕过个人选择,为合法性设立了平等主义政治标准,对数据生产所依据的关系及其旨在执行的关系进行质量评估。
  因此,民主秩序能够为我们提供一个切实可行的标准,依据数据生产寻求实现的目标和所依据的社会关系对不同的目标进行评估和区分。在数据生产领域,群体利益对数据生产的具体经验意义印证了普遍的平等主义民主秩序。因此,DDM所表达的并不只是支持民主秩序的一般政治观点,还揭示了这一经验事实:个人对数据分享的选择应当反映这种选择对他者的影响,不仅是处于对他者背后的政治和道德利益的考量,还因为在当前的数据化条件下,个人已经能够直接传递与他者的相关信息,而这些信息会被用以预测和影响他者的行为。
  2.对Waterorg和Watercorp的民主评价
  基于这种观点,我们能够对Watercorp的数据生产是否以及为何不合法进行更准确完善的阐释。 Watercorp数据生产的问题并不在于未经同意提取家庭数据、克扣数据费用或违背家庭意愿读取数据。相反,Watercorp数据生产存在一个更为根本的问题:Watercorp数据生产计划下的家庭对于自己所处数据关系(即因数据生产而参与的社会过程)的质量并无任何决定权。就对其有影响的群体决策而言,这些家庭既不能对Watercorp也不能对彼此行使同等权力。换言之,依据当前的法律安排,Watercorp根本无须考虑其对他者决策或行为的规范影响,也不必考虑单个家庭是否参与这一数据生产。[143]按照Watercorp的计划,在规定这些家庭选择范围和所处社会过程的制度性安排中,它们(充其量)只有部分话语权。在数据生产的条件和目的中,确保退出或付费的消极权利与确保代表的积极权利大相径庭。
  这一观点说明,即便Watercorp对数据主体进行了强制性数据收集,但只要满足制度性认可的基本条件,其数据生产也可能是合法的。群体利益厘清了这一点,即数据治理的任务不是重申个体对自己数据化条款的控制权(即便由此可能),也不是实现个人利益最大化,而是制定必要的制度措施,充分代表数据生产牵涉的群体利益。这引发了改革任务的转变,从保障数据主体的退出、获偿以及追索权,转变为获得制定数据生产目的和条件的认可和资格,从而确立合法的相互义务。[144]
  群体代表也阐明了数据生产中竞争利益之间的折中。在Watercorp的计划中,从个体权利向制度性治理的转变,体现了两种利益:一是反对数据收集的公民的利益;二是受不收集数据受害最深的公民的利益。这明确了数据生产的赢家和输家,以及其相对胜负在规范层面的不同利害关系。
  (四)作为民主媒介的数据的优势
  正如前面的假设所示,DDM重构了数据治理所牵涉的相关利益,以此证明数据关系存在诸多益处。它罗列了数据化的种种社会不公,并将社会信息危害与个体信息危害置于同等地位。此外, DDM还为社会数据生产的重要形式提供了理论依据。与模拟社会关系类似,数据关系可能(且通常)具有压迫或剥削性质;但也会赋权于民众,使其能够共同实现个体无法单独实现的社会目标。下文将对这些优势以及DDM如何处理个人主义理论相关利益展开讨论。
  1.社会信息危害
  重新定义与数据治理相关的利益,能够厘清数据生产这一数字经济核心经济活动不合法的根源。若数据主体在数据收集之时受到操纵或在数据使用时受政府控制,则数据生产的确有不公正之嫌。此类行为侵犯了数据主体的自主权。此外,若数据生产催生或加剧了对横向数据关系的社会压迫过程,则也是不合法的。事实上,有证据显示,这种问题在数字经济中愈发凸显,这也是大型数据生产者备受社会和政治批判的重要原因。
  作为一种不公正的社会过程,数据化剥夺了个体(包括数据主体以及与其有横向数据关系的主体)在其相互塑造的社会过程中的话语权。通过这种做法,数据关系能够实现不公正的群体关系,例如种族主义、性别歧视和阶级歧视。
  同样以移民和海关执法局依据运动模式拘留无证移民的做法为例。作为一种共同特征,移动模式成为确定“无证移民”这一类别(确定这一类别的依据是种族、阶级和语言差异)的特征。通过识别这一共同特征并据此来拘留相关人员,这种数据流令“无证移民”这一类别具有了特殊的压迫性社会意义。因此,它同样构成社会统治的一部分:促进社会类别的生成、组织和表达,并指出这一社会类别本质上是对其所属成员的系统暴力和压迫。[145]这使得“无证移民”这一类别的社会含义具像化,被纳入这一类别就意味着自己和他人的运动模式会被收集,反过来对自己不利。[146]
  这种不公正与个体侵害异曲同工,剥夺了无证移民决定自己社会形态的机会,是一种独特的社会不公正。它构建了无证移民与他者之间的群体等级关系。因此,DDM的概念性描述有助于确定数据化个人侵害模式为何要按照种族、性别、阶级和民族来重新定义模式化差异的现有社会安排。将法律调查的重点落在数据生产的群体效应上就会发现,个人侵犯的风险并非随机分布,而是由现有社会权力分配模式确定的,而这一权力分配模式则是随着群体成员身份产生的。[147]
  简而言之,数据化是以压迫和统治的方式得出群体相似性,并据此施为的,其所实现的压迫性分类本身就是不公正的。这是另一个社会维度的治理侵犯个人权利。数据化之所以不公正,不仅因为数据提取或其衍生的数据化治理可能侵犯个人自主权,还因为它违反了社会公平的愿景。因此,社会信息危害代表了另一种数据治理法不公正的基本形式。确定数据化社会不公正的具体形式有助于确定数据生产在其他辩论中的地位,这些辩论涉及:实施群体压迫的社会过程为何不合法?如何通过法律来理解和解决这些问题?[148]
  2.有益社会的数据生产
  DDM令我们有机会从概念上对公益性数据生产的目的和优先级进行区分和梳理。如此一来,为数据治理法提供了积极有效的方案,拓展数据生产实践,促进公共利益,同时适用强有力的公共问责、目的限制和保密标准。
  (1)拓展现有实践
  一直以来,公共数据的收集和使用在国家福利的制度管理以及公共利益的公共知识管理等方面都发挥了关键的作用。诸如英国的国家卫生数据集、退役军人事务部的开源电子病历记录系统VistA之类的公共卫生保健信息系统,促进了高质量公共卫生研究的发展。美国劳工统计局和其他统计机构收集的美国人口和经济活动统计数据,为深入了解美国生活模式的变迁提供了宝贵的信息。此外,如果没有国税局提供的翔实税务信息,治理的基本任务根本无法完成。同理,如果没有受证券交易委员会监督的披露要求,金融监管根本无法落地实施。
  治理若对公共福利作出了承诺,则必定需要平衡这两者之间的关系:一是收集公民高度私密且重要信息的必要性;二是收集该信息可能伴随的压迫和不当胁迫的风险。然而,如上所述,公共监督的缺位并不意味着数据生产不会带来强制性和危害性影响。事实上,对于如何实现强有力的法律保障,在规避对社会有害的数据生产的同时,保留数据生产可能带来的社会效益,现有的最佳实践和数据治理的民主方案已经给出了可行的方案。
  一些民主数据治理方案和项目可以提供一定的参考。有些方案主张通过强制公共访问或将此类数据恢复到公域,由公共信托进行管理,从而对现有的专有数据流实施公共管理和控制。[149]数据治理立法的可行方法之一就是要求私人数据公司按照法律或机构制定的规范,向国家统计人员开放访问私人数据集的权限。
  另一种更大胆的做法就是仿照人类基因组计划,设立一家公共数据管理机构,以实现公共利益而非私有收益。前德国社会民主党领导人安德烈娅·纳勒斯(Andrea Nahles)主张建立国家数据信托,指出数字科技公司和制药公司是一丘之貉,都对其个人数据有一定的垄断权。[150]在规定年限后,这些数据会恢复到公共领域,由公共信托或独立机构管理,用以服务公共利益。[151]英国和加拿大对公共数据信托展开了研究,将其作为集体管理公民数据的一种方式,把公民数据作为一种国家资源,用于发展具有竞争力的技术产业。巴塞罗那则设立了公民数据信托来管理数据资源,在推进数据治理民主化的同时,利用数据基础设施来深化民主参与。[152]
  这些方案与基于个人的财产主义方案不同,并未通过赋权数据主体来打破公司对消费者数据的垄断。相反,其将公民数据视为一种公共资源(或基础设施),通过公共治理来进行管理,旨在达成公共目标。这种方案同样有别于尊严主义方案,既把公民数据作为潜在侵犯的对象,也将其作为公民赋权的依据。诸如《通用数据保护条例》之类的尊严主义治理系统可能会制定侵犯标准和退出路径,但民主的公共数据治理则为提升公众利用数据基础设施实现公共目的能力提供了有力依据。[153]换言之,相较于考察一种治理方法能够对私人实体实施怎样的限制,使其无法对德国、加拿大或巴塞罗那公民的数据施为,这种方法的重点在于数据作为一种公共资源能为公民做什么。事实上,数据生产高度协调的反馈机制为公共治理和社会协调提供了新的可能性。
  并非所有主张建立新集体数据机制的方案都了解传统的公共数据管理形式。有些尝试推动数据生产治理的民主化,作为持续推进其他生活领域(尤其是工作场所)民主化的一部分。劳动活动家们正在开发工人数据集,通过监控工作场所的压迫形式和记录违反《职业安全和健康法案》和克扣工资的行为,来对抗雇主日益严苛的工作场所监视。[154]还有人正在开发新的工人数据流,旨在对工人的经济价值和影响进行更完善的记录,或协助其对其产品供应链进行更精确的记录和追踪。[155]在个体不相信私营公司或政府能够保障集体利益的情况下,这些非政府的集体数据方案或许是很好的选择。在实现民主数据治理愿景的过程中,私人数据治理制度也会面临许多挑战。最值得注意的是,私人信托方案往往需要将个体数据主体的权利集中起来。[156]这类方案通常只承认数据收集对象的利益,不考虑数据使用对象的利益,而数据使用的对象也是数据收集和处理过程的利益相关者。
  最后,现有可信的公共数据收集和管理形式(例如美国人口普查局及其统计机构、国会图书馆、州和地方市政图书馆使用的公共数据收集和管理形式)可适用于更广泛的数据治理机构中。[157]就负责任的信息和知识管理而言,公共统计机构和图书馆积累了丰富的经验,并遵循严格的目的限制和保密标准。[158]此外,还可以通过扩大科研机构(例如国立卫生研究院和国家科学基金会)或持有公共数据的公共机构(例如食品和药品监督管理局)的权限来实现公益的公共数据管理。[159]这些机构在管理数据和科研资源以服务公共利益方面已经驾轻就熟。虽然这些方案并非尽善尽美,但都是进行了长期的公益集体知识管理实践,通过总结实践经验教训得出。
  (2)民主数据的可能性
  数据经济促使了对消费者购买偏好和社交网络信息的大规模收集,但这对本部分讨论的废物生产、用水或金融工具的财富如何在全球流动等问题并无太大关联。[160]公司对消费者可谓是了如指掌,但消费者对公司的供应链、所有权结构以及运营实践可谓知之甚少。工人无论在工作场所还是就业筛选过程中,都面临着越来越严格的监视,但对于雇佣政策、工作场所生活质量以及雇主的歧视和骚扰记录的了解却相对较少。提高认知能够扩展与数据生产计划制定相关的一系列利益,进而拓宽数据基础设施的资金来源和发展方式。简而言之,数据的民主构想能够助力更广泛的优先事项和目标,推动信息生产方式和原因的发展。这不仅会导致消费者偏好数据生产的减少,还会促进其他社会有用数据生产的激增。
  正如Waterorg的例子所示,DDM还为强制数据收集这种数据生产条件提供了有力的理论依据,只要这种收集行为的目的和条件源自合法的集体资源和合法的公共目的,其就具有正当性。对于以数据基础设施和公民数据为基础的其他公共改革项目而言,DDM意义重大。有些数据治理改革项目遵循这一政治立场,即国家因公民的公民身份而对其负有更多义务。对于这类项目而言,从概念上区分和肯定数据生产的核心公共功能尤为重要。[161]公共配给需要对社会资源作出生产和分配性决策,这类决策应(且事实上必须)以公民数据为依据。要想对商品和服务(例如医疗、教育、住房、清洁空气和淡水)进行可靠的生产和分配,在分配过程中兼顾效率与公平,就必须建立配套的数据基础设施,而数据基础设施则需要进行一定程度的强制性公民数据收集。
  3.民主制度和个人数据主体权利
  上述讨论对民主数据治理的法律方案与个人数据主体权利优先的法律方案之间关系进行了深入探讨,提炼出以下观点。
  首先,本文提出的民主制度理论对于个人主义制度的本体论承诺持怀疑态度,个人主义制度认为数据“类物”或“类人”。长久以来,哲学和法律都把财产和人视为社会关系的组成部分。民主治理方案与个人主义方案的不同之处就在于,两者对信息利益的来源以及由此衍生的法律方案存在不同的理解。举例而言,民主治理制度不会否定“数据是一种资产”“个体对这种资产的产生方式和价值(即社会危害)创造方式享有利益”等概念。其否定的是,可以将个体在数据价值生产和分配过程中享有的社会利益简化为个体对社会数据资源的财产主义利益。若把数据资产视作一种财产, DDM观点支持通过公共信托或类似的共同所有权制度安排对数据资产进行管理,反对个体对集体数据价值提出法律主张。除此之外,其还反对这种观念,即人对数据价值享有的社会利益可纯粹以金钱衡量:分配剥削性数据关系的不当得利无法改变这类关系本质上的不公。
  其次,数据主体权利的尊严主义概念是更为棘手(且法律上更为根深蒂固)的问题。民主治理制度并不否认个体对信息享有尊严利益。其否定的是这一观点,即这些利益的法律保障可以简化为数据主体和数据收集者之间的纵向关系。举例而言,假设某一生育追踪程序收集的数据显示,艾米(Amy)处于怀孕的头3个月。有人会认为,广告公司或雇主取得下游访问权限,得到艾米的孕情数据,这是一种对艾米尊严权的侵犯。然而,艾米对自己孕情保密的尊严利益牵涉很多问题,包括公司是否是通过艾米的生育追踪程序访问其数据,或是购买了相关服务,对艾米分享给其他孕妇的相关特征进行分析,从而推导出艾米有95%的概率已经处于孕早期。对于想了解其孕情的人,艾米当然享有尊严权益,但这种权益不仅艾米独有,和她同处孕早期阶段的女性一样具有。
  民主制度承认相同的数据存在相互竞争的尊严利益,并允许对这些利益进行取舍。举例而言,若为保障艾米的尊严利益,就限制收集孕早期数据,则对于行使信息自决权、在生育应用上分享孕早期数据的其他女性而言,这种做法同样侵犯了她们的尊严利益。
  正如本文所示,人们对信息不仅享有尊严利益,还享有平等利益。这些利益集中反映了与社会信息危害相关的种种问题:对于因数据流导致的不公正社会过程、因数字生活导致的彼此压迫以及因群体身份陷入统治或压迫自己和他者的数据关系,人们都享有集体利益。将信息的所有相关问题一股脑简化为求偿权或自决权问题,掩盖了执行平等数据关系(以及处理压迫性数据关系)过程中的集体平等社会利益。
  民主数据制度认可集体平等社会利益的存在,继而发现,在实现更平等的数据关系和实施强大尊严信息保护之间,其实存在潜在(概念和制度)冲突。同样以艾米为例,尊严主义观点认为,有权访问艾米孕情数据的公司或雇主侵犯了艾米对这一敏感信息的特权。对这一信息流关系的描述同样能够说明孕情数据为何是敏感信息。
  我们会发现,艾米的数据流之所以特别敏感,是因为它直接指向一种群体身份,具象化了当前历史背景下(法律和社会层面)“女性”身份的关键要素。[162]女性身份的建构涉及早孕的法律和社会领域。[163]传递早孕信息的数据流将艾米引入这一领域,同时也令其容易因此受到特定形式的社会压迫。在艾米作出与法律、文化和社会制度建构和制约女性方式密切相关的选择(包括敏感和有争议的选择,例如终止妊娠)时,这一数据流就会对其造成影响或限制。总而言之,早孕数据流具有敏感性,需要治理,因为其有助于实现性、性别和生育社会关系,至于这类数据流能否改善数据关系的不平等问题,还取决于具体的数据流治理方式。
  换言之,尊严利益相关论述中对数据流的许多见解大多与数据流实现显著社会关系的能力有关。举例而言,孕情数据之所以是敏感数据,是因为“孕妇”是历史上受压迫的社会类别。相比之下,“红发猫奴”所涵摄的法益就要少得多(且不太重要),因为“红发猫奴”并不是历史上以统治的形式构成的社会类别。然而,要区分构成社会边缘类别和重要类别的数据流,以及区分(和裁决)社会平等利益和个体尊严利益,就需要制定全面的数据治理机制,从群体层面对不同的利益进行阐释和分析。
  民主治理制度认可信息生产过程中存在多种(群体)利益,并对利益的取舍提出了规范理论,这是民主治理制度与个人主义治理制度的区别所在。对不公正的基本权利催生的个人主义改革方案,这种权利固然重要,但尚不完善。将这些利益简化为单个数据主体在数据交易过程中的权利明显欠缺考量,未能阐明这些利益与其他利益冲突或被取代的条件。
  五、结语:数据治理任务的重构
  若数据治理旨在考察数字经济中的群体利益,就需引入不同的信息危害法律概念(和法律应对措施)。这并非证明纵向关系不存在不公正问题。然而,正如本文第二部分所述,将人与人联系起来的需求将压力转移到交换条件之上,而纵向的数据关系正是由交换构成的;此外,要解决这些不公正问题,同样需要对横向的群体利益进行分析。
  本文第三部分指出,依据个人主义信息概念衍生的数据治理理论,数据生产的社会效应并非普遍的横向群体关系。因此,这类理论既不能说明这些效应造成危害的方式,也不能阐释利用这些效应产出共同利益的途径。这反映出这类理论在方法论和认识上的局限性,仅凭信息危害的概念根本无法识别和解决数据化造成的有害社会效应。
  本文提出的概念性论述突出了数据的关系性,为数据治理任务正本纠偏。首先,本文指出,社会不公并不是不公正数据收集的副产品,而是数据生产本身的不公正。这是对数据治理不力的不同判断。因此,数据化可能是不合法的,不仅是因为其对“人”进行操纵,还因为其引发的社会效应违反了公平标准。作为一种经济过程,数据化可能会导致不公平的财富不均,这有悖于正义的分配理念。作为一种社会过程,数据化可能引发和加剧违反正义标准的社会分层。
  数据生产中存在普遍的群体利益。这意味着,在数据政治经济中,个体的行为必然会以不平衡的方式对没有直接控制权的他者造成影响,引发或加剧对某种群体身份所遭遇的不平等。[164]这就引出了典型的民主问题:需要在具有竞争利益和规范层面不同利益的群体之间进行权衡。因此,数据化不仅产生了关于私权侵犯风险的个人权利主张,这种主张为私人秩序背书,还产生了关于社会效应风险的群体权利主张,这种主张则为政治秩序背书。
  数据在法律层面地位不明,这既是挑战——一个解决数字生活种种不公的挑战,也是机遇——一次试验不同法律社会秩序的机遇。数据治理并未选择重新构建各种形式的私人市场秩序或狭义的公民自由主义权利主张,而是从私人治理中抽离出来,另辟蹊径。


【作者简介】
[美]索洛姆·维尔琼,美国密歇根大学法学院;林少伟,西南政法大学民商法学院教授、博士生导师。
【注释】
[1]脸书的剑桥分析丑闻事件标志着媒体和公众对科技公司态度的转变。关于剑桥分析丑闻,参见“Mark Zuckerberg Testimony: Senators Question Facebook’s Commitment to Privacy”, N.Y. TIMES (Apr.10, 2018), Zeynep Tufekci, “Facebook’s Surveillance Machine”, N.Y. TIMES (Mar.19, 2018)。从2015年至2019年,美国对科技持乐观态度的人数下降了21%。See Carroll Doherty & Jocelyn Kiley, “Americans Have Become Much Less Positive About Tech Companies’ Impact on the U.S.”, PEW RSCH (July 29, 2019).自2016年以来,科技公司的工人行动主义与日俱增,这在针对科技公司与美国国防部、美国移民海关执法局(ICE)之间的合同时则显得尤为瞩目。See“Worker Power in the Tech Industry”, TECH WORKERS COAL., http://tech workers coalition.org/, accessed by Dec.12, 2022; Jimmy Wu, “Optimize What?”, COMMUNE (Mar.15, 2019); Drew Harwell, “Google to Drop Pentagon AI Contract After Employee Objections to the ‘Business of War’”, WASH. POST (June 1, 2018).
[2]参见Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, 2019, p.44(“数据访问活动的重要‘副产品’是对数据和算法作为[若非法律上的]专有信息财产之法律地位的悄然革命”);id.at 76(文章指出:“法律与事实上的豁免权日益增多,主要用以支持私人经济权力,这加剧了普通公民被操纵、被剥削或被剥夺政治权利的脆弱性,并可能将造成深刻的集体伤害。”)。
[3]本文将不同程度地提及“数据政治经济”“数据经济”“数字经济”,虽然上述概念本身就存在区别,但在此处,均意指行为者、产品、商业惯例以及义务的集合,它们依赖通过数据采集、传输和分析过程产生经济价值(和政治效果)的能力。参见Mark Andrejevic, Infoglut: How Too Much Information Is Changing the Way We Think and Know, Routledge, 2013, pp.1-18, 20-21;Matthew Crain, “Financial Markets and Online Advertising: Reevaluating the Dotcom Investment Bubble”, 17 Info., Commc’N & Soc’Y 371, 374-81(2014);Oscar H. Gandy Jr., The Panoptic Sort: A Political Economy of Personal Information, Westview Press, Inc., 1993, pp.1-13;Lee McGuigan & Vincent Manzerolle, “All the World’s a Shopping Cart: Theorizing the Political Economy of Ubiquitous Media and Markets”, 17 New Media & Soc’Y 1830, 1831-39(2015);Joseph Turow & Nick Couldry, “Media as Data Extraction: Towards a New Map of a Transformed Communications Field”, 68 J. Commc’ N 415, 415(2018)(认为数字媒体公司的数据提取和分析功能的经济重要性不断提高,为媒体和通信学者的研究对象带来了“重大转变”:从传统的关注媒体内容本身到媒体行业“监控和人口构建”如何成为“经济生活基础设施的关键”)。
[4]See Helen Nissenbaum, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford University Press, 2010, pp.1-4, 1011; Priscilla M. Regan, Legislating Privacy: Technology, Social Values, and Public Policy, University of North Carolina Press, 1995, pp.220-31; Julie E.Cohen, “What Privacy is For”, 126 Harv. L. Rev.1904-06(2013).关于先前观点的更完整讨论,参见下文第一部分。
[5]参见Virgina Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, St. Martin’s Press, 2018(研究分类和监测技术系统对美国贫民阶层与工薪阶层的不同影响);Ben Green, The Smart Enough City: Putting Technology in Its Place to Reclaim Our Urban Future, MIT Press, 2019, pp.39-116(描述城市技术如何加剧社会与政治的不平等);Ben Green & Salomé Viljoen, “Algorithmic Realism: Expanding the Boundaries of Algorithmic Thought”, In Conf. Fairness, Accountability & Transparency (FAT’20), January 27-30, 2020, Barcelona, Spain. ACM, New York, NY, USA, p.19, 20, 21-23(2020)(研究算法形式主义如何加固不利的社会条件、歧视与不平等);Frank Pasquale, “Two Narratives of Platform Capitalism”, 35 Yale L.& Pol’Y Rev.309, 310-17(2016)(提出对平台资本主义的反击言论,认为平台可以维护不平等、加剧歧视、破坏经济增长,并限制用户的行为);Neil Irwin, “To Understand Rising Inequality, Consider the Janitors at Two Top Companies, Then and Now”, N.Y.TIMES (Sept.3, 2017); Miriam Pawel, “You Call It the Gig Economy. California Calls It ‘Feudalism’”, N.Y. TIMES (Sept.12, 2019)?
[6]See Joy Buolamwini & Timnit Gebru, “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”, 81 Proc. Mach. Learning Rsch.1, 1-2, 5-10(2018); Safiya Umoja Noble, “Google Search: Hyper-Visibility as a Means of Rendering Black Women and Girls Invisible”, INVISIBLE CULTURE (Oct.13, 2013); Ben Green, “The False Promise of Risk Assessments: Epistemic Reform and the Limits of Fairness”, In Conf. Fairness, Accountability & Transparency (FAT’20), January 27-30, 2020, Barcelona, Spain. ACM, New York, NY, USA, pp.594, 596-600(2020).
[7]参见Joseph Cox, “How the U.S. Military Buys Location Data from Ordinary Apps”, VICE NEWS (Nov.16, 2020)(详述美国军方如何从众多来源处购买位置数据,包括一个下载量超过九千八百万次的穆斯林祈祷应用程序)。
[8]See About Us, MEDIA MANIPULATION CASEBOOK; Anthony Nadler et al., “Weaponizing the Digital Influence Machine: The Political Perils of Online Ad Tech”, Data & Soc’Y (Oct.17, 2018); Ronan Farrow, “A Pennsylvania Mother’s Path to Insurrection”, NEW YORKER (Feb.1, 2021); Chinmayi Arun, “On WhatsApp, Rumours, and Lynchings”, 54 Econ.&Pol. Wkly.30, 30-33(Feb.9, 2019).
[9]关于对数据生产中所存在问题之民主价值的详细讨论,参见See Amy Kapczynski, “The Law of Informational Capitalism”, 129 Yale L.J.1276(2020)(reviewing Shoshana Zuboff, Age of Surveillance Capitalism: The Fight for A Human Future at the New Frontier of Power, Public Affairs, 2019); Julie E. Cohen, “What Privacy is For”, 126 Harv. L. Rev.1904-06(2013);Evgeny Morozov, “Digital Socialism?”, 116/117 New Left Rev.(2019);Ben Tarnoff & Moira Weigel, “Why Silicon Valley Can’t Fix Itself”, GUARDIAN (May 3, 2018)?
[10]数据已被广泛地类比为“物”与“人”,产生了关于数据隐喻的目的、限制和影响的丰富文献资料。See Luke Stark & Anna Lauren Hoffmann, “Data Is the New What? Popular Metaphors & Professional Ethics in Emerging Data Culture”, 4 J. Cultural Analytics 1, 5-13(2019); Rowan Wilken, “An Exploratory Comparative Analysis of the Use of Metaphors in Writing on the Internet and Mobile Phones”, 23 Soc. Semiotics 632, 635-41(2013); Dawn Nafus, “Stuck Data, Dead Data, and Disloyal Data: The Stops and Starts in Making Numbers into Social Practices”, 15 Distinktion: J. Soc. Theory 208, 20811(2014); Cornelius Puschmann & Jean Burgess, “Metaphors of Big Data”, 8 Int’ L J. Commc’ N 1690, 1697-1701(2014); Deborah Lupton, “Swimming or Drowning in the Data Ocean”, This Sociological Life (Oct.29, 2013), ocean-thoughts-on-the-metaphors-of-big-data/; Sara M. Watson, “Data Is the New ‘’”, DIS MAG.(May 28, 2016); Kailash Awati & Simon Buckingham Shum, “Big Data Metaphors We Live by”, TOWARDS DATA SCI.(May 14, 2015); Cory Doctorow, “Personal Data Is as Hot as Nuclear Waste”, GUARDIAN (Jan.15, 2008); Lilly Irani, “Justice for ‘Data Janitors’”,PUB. BOOKS (Jan.15, 2015).
[11]See Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, 2019, p.38.
[12]美国隐私法是由州和联邦法律组合而成的,其中部分内容在第一部分已有详论。个人数据的定义因法规而异。但美国隐私法的特别之处在于,它们赋予受监管实体的众多义务都与“个人数据”或“个人可识别信息”相关。其中部分定义相当宽泛,包含本文所讨论的大部分(若非全部)社会数据。例如,美国国家标准与技术研究所(NIST)将联邦机构背景下的个人身份信息定义为“由机构维护的关于个人的任何信息,包括:(1)可用于区分或追踪个人身份的任何信息,如姓名、社会保障号码、出生日期和地点、母亲的婚前姓名或生物识别记录;(2)与个人有联系或可联系的任何其他信息,如医疗、教育、财务和就业信息”。Erika McCallister, Tim Grance & Karen Scarfone, “Guide to Protecting the Confidentiality of Personally Identifiable Information (PII)”, Nat’l Inst. Standards & Tech.2-1(2010), (quoting U.S. Gov’T Accountability Off., GAO-08-536, “Privacy: Alternatives Exist for Enhancing Protection of Personally Identifiable Information”, 1, 29(2008).各州的数据泄露通知法和数据安全法通常对个人数据的定义更为狭隘,侧重于敏感信息的类别,如社会保障号码、信用卡和金融账户号码、个人健康数据、金融数据、信用数据和生物识别数据。有关各州数据泄露通知法的清单,参见Security Breach Notification Laws, NAT’L CONF. STATE LEGISLATURES (Apr.15, 2021)。
[13]第4条作出如下定义:“‘个人数据’是指与已识别或可识别的自然人(‘数据主体’)有关的任何信息;可识别的自然人是指可以直接或间接识别的人,尤其是通过参考诸如姓名、识别号码、位置数据、在线标识符或与该自然人的身体、生理、基因、精神、经济、文化或社会身份有关的一个或多个特定因素。”Council Regulation 2016/679, art.4, 2016 O.J.(L 119)1.
[14]信息资本主义,也被称为监控资本主义和数字资本主义,意指一种围绕提取和处理信息,获取并积累财富的生产模式。这将信息——尤其是以机器可读的数据形式出现的信息,转化为关键的生产资源。参见Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, 2019, p.6(“在信息资本主义制度中,市场参与者利用知识、文化和网络信息技术作为获取和占有剩余价值的手段,其中也包括消费者剩余”)。卡斯特尔将信息资本主义定义为作为生产模式的资本主义与作为发展模式的信息主义之结合。参见Manuel Castells, “The Information Age: Economy, Society, and Culture”, The Rise of The Network Society Volume 1(2nd ed.), 2009, pp.14-16(描述与信息主义的出现相关的新型社会结构);Dan Schiller, How to Think about Information, University of Illinois Press, 2010, pp.xiv, 3-4(分析向信息资本主义的过渡以及此类过渡对作为商品和理论研究对象的信息之影响)。关于先前此类概念的讨论,参见Kevin Robins & Frank Webster, “Cybernetic Capitalism: Information, Technology, Everyday Life”, in Vincent Mosco & Janet Wasko eds., The Political Economy of Information, University of Wisconsin Press, 1988, pp.44, 57-70,该书对如今所谓的信息资本主义进行了前瞻性的分析。
[15]See Eric A. Posner & E. Glen Weyl, Radical Markets: Uprooting Capitalism and Democracy for a Just Society, Princeton University Press, 2018, pp.208-09.面向企业的出版物强调了数据对保持和实现竞争优势的重要性。See Andrei Hagiu & Julian Wright, “When Data Creates Competitive Advantage and When It Doesn’t”, Harv. Bus. Rev., at 94(Jan.-Feb.2020); Nitin Seth, “Analytics Are a Source of Competitive Advantage, If Used Properly”, FORBES (July 18, 2018, 7: 15 AM EDT).反垄断学者愈发关注大规模数据收集的竞争效应以及更多的数据访问为现有计算技术提供的锁定优势。See Maurice E. Stucke & Allen P. Grunes, Big Data and Competition Policy, Oxford University Press, 2016, pp.36-50; Dina Srinivasan, “Why Google Dominates Advertising Markets: Competition Should Lean on the Principles of Financial Market Regulation”, 24 Stan. L. Rev 55 passim (2020).某些实体对数据流近乎垄断的控制,以及由此产生的竞争优势,在欧盟引起了与日俱增的监管关注。See “Antitrust: Commission Launches Sector Inquiry into the Consumer Internet of Things (IoT)”, EUR. COMM’N (July 16, 2020).然而,正如评论员所指出的,如若此类反垄断措施没有与之配套的关注数据经济意义的数据治理改革,则其所发挥的作用将是有限的。See James Surowiecki, “What Does Breaking up Big Tech Really Mean?”, MIT TECH. REV.(June 30, 2021).
[16]See David Stein, Presentation at the Privacy Research Group, NYU Law School (Feb.26, 2020); David Stein, Presentation at the Information Law Institute, NYU Law School (July 15, 2020); Email from David Stein to Salomé Viljoen (Mar.8, 2020)(on file with author).
[17]对全球数据流的价值(以及在如何使用数据方面的价值来源)进行高质量、客观、公开的估量具有相当难度,而促进这一测量的标准化也正在紧锣密鼓地进行之中。参见Kean Birch, DT Cochrane & Callum Ward, “Data as Asset? The Measurement, Governance, and Valuation of Digital Personal Data by Big Tech”, 8 Big Data & Soc’Y 1(2021)(阐述数据垄断者如何衡量、管理和说明数据的价值);Ben Williamson, “Nudging Assets”, CODE ACTS EDUC.(Sept 17, 2021);“A Roadmap Toward a Common Framework for Measuring the Digital Economy: Report for the G20 Digital Economy Task Force”, OECD 7-10(2020);Measurement Issues in the Digital Economy, ECON. STAT. CTR. EXCELLENCE; David Nguyen & Marta Paczos, “Measuring the Economic Value of Data and Cross-Border-Data Flows: A Business Perspective”, OECD 5-6(2020);Diane Coyle & David Nguyen, “Cloud Computing, Cross-Border Data Flows and New Challenges for Measurement in Economics”, 249 Nat’l Inst. Econ. Rev. R30, R30(2019)。一些证据表明,全球数据经纪业每年收入约为2000亿美元。See David Lazarus, “Column, Shadowy Data Brokers Make the Most of Their Invisibility Cloak”, L.A. TIMES (Nov.5, 2019, 5 AM PT).然而,通过数据经纪人进行买卖的大量数据并非是关于“人”的数据。
[18]使用行为数据来改善在线商店或广告拍卖交易所的定价和竞价策略,以获取更大比例的剩余价值,是数据科学和算法机制设计研究界和程序化广告行业的热门研究主题。See Hal R. Varian, “Computer Mediated Transactions”, 100 Am. Econ. Rev.1, 4-5(2010); Liran Einav & Jonathan Levin, “Economics in the Age of Big Data”, 346 SCIENCE 1243089-1, 1243089-4(2014); Joseph Y. Halpern & Rafael Pass, “Algorithmic Rationality: Game Theory with Costly Computation”, 156 J. Econ. Theory 246(2015); Eric Sodomka, Rsch. Scientist, Facebook, “On How Machine Learning and Auction Theory Power Facebook Advertising, Address to the Simons Institute for the Theory of Computing”(Nov.17, 2015), Simons Institute, https://simons.berkeley.edu/talks/how-machine-learning-auction-theory-power-facebook-advertising, accessed by Dec.12, 2022; Tuomas Sandholm, “Automated Mechanism Design: A New Application Area for Search Algorithms”, in Francesca Rossi ed., Principles and Practice of Constraint Programming–CP 2003, Springer, 2003, at 19.
[19]Annual Revenue of Google from 2002 to 2020, STATISTA; Advertising Revenue of Google from 2001 to 2020, STATISTA.
[20]Facebook’s Global Revenue as of 2nd Quarter 2021, by Segment, STATISTA.
[21]数字广告普遍存在欺诈性宣传和夸大数据的问题,这涉及广告商对目标用户的了解程度与接触程度。 See Erik Sherman, “How Companies Can Deal with Rampant Digital Ad Fraud”, FORBES (Apr.23, 2021).关于数字广告业的精彩描述,以及对其技术、准科学历史的探索,参见Lee McGuigan, “Automating the Audience Commodity: The Unacknowledged Ancestry of Programmatic Advertising”, 21 New Media &Soc’ Y 2366(2019)。
[22]核心的数字服务供应商经常延伸至其他部门。参见Jay Peters, “Verily, Google’s Health-Focused Sister Company, Is Getting into Insurance”, VERGE (Aug.25, 2020)(介绍Alphabet旗下专注于健康的公司Verily Life Sciences最新推出的保险子公司);Brittany Straughn, “Amazon Halo Now Available for John Hancock Vitality Members”, JOHN HANCOCK (Dec.14, 2020)(宣布John Hancock保险公司将亚马逊的可穿戴健康设备Halo作为其Vitality保险项目的一项福利)。
[23]2021年6月,经济分析局估计数字经济在2019年的价值约为2.1万亿美元,对整体GDP的贡献率为9.6%。 Updated Digital Economy Estimates-June 2021, BUREAU ECON. ANALYSIS.数字经济(和/或整体经济)的价值如何取决于基础数据资产的价值,以及政府或其他评估者应该如何对此类资产进行估值和征税——这是一个相当棘手的问题。 See Amanda Parsons, “Tax’s Digital Labor Dilemma”, 71 Duke L.J.manuscript at 16, 18(2021).然而,技术公司和经济学家都热衷于衡量数据对数字经济的价值,并同时也承认其重要性。参见MIT Technology Review Insights, “The Rise of Data Capital”, Mit Tech. Rev. Custom (March 21, 2016)(“对于大多数公司来说,数据是它们最大的一笔资产??谷歌、亚马逊、奈飞和优步都已意识到,数据不仅是对已发生事件的记录,也是创造新型价值的原材料??”)。
[24]参见Julia Alexander, “Why Peacock and HBO Max Aren’t on the Biggest Streaming Platforms”, VERGE, (July 15, 2020, 4: 27 PM EDT) (“根据Conviva年初发布的研究,Roku在美国拥有44%的观看时间,而亚马逊Fire TV仅保持约19%的观看时间”)。
[25]See id.
[26]Sue Halpern, “How the Trump Campaign’s Mobile App Is Collecting Huge Amounts of Voter Data”, NEW YORKER (Sept.13, 2020).
[27]Jathan Sadowski, “When Data Is Capital: Datafication, Accumulation, and Extraction”, Big Data &Soc’Y, at 1(Jan.-June 2019).
[28]Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, 2019, pp.67-68.
[29]Id.at 47.
[30]肖莎娜·祖博夫在她的案例中援引了对入侵和强行剥夺殖民主义的比较:(1)为何监控资本主义标志着与先前资本主义形式的异化;(2)为何监控资本主义会带来新的伤害。参见Shoshana Zuboff, Age of Surveillance Capitalism: The Fight for A Human Future at the New Frontier of Power, Public Affairs, 2019, pp.103-04(“他们为自己对政治机构无法企及的操作空间的主张所欢呼:21世纪相当于‘黑暗大陆’,吸引了19世纪的欧洲投机者来到他们的海岸。”);id.at 142(“我的房子,我的街道,我的邻居,我最喜欢的咖啡馆:每一个都被重新定义为活生生的旅行指南、监视目标和脱衣舞场,成为普遍检查和商业征用的对象。”); id.at 521(“我说,让我们最好的联结、同情心和信息本能被严苛的条件交换制度利用是不可接受的,因为这些货物被囚禁在我们生活的普遍裸搜中。”);Shoshanna Zuboff, “Big Other: Surveillance Capitalism and the Prospects of an Information Civilization”, 30 J. Info. Tech.75(2015)(进一步研究监控资本主义的影响)。其他人更明确地参与了数据提取和殖民主义之间的比较研究,参见Nick Couldry & Ulises A. Mejias, The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism, Stanford University Press, 2019?
[31]See Neil Richards & Woodrow Hartzog, “A Duty of Loyalty for Privacy Law”, 99 Wash.U. L. Rev.manuscript at 10(2021).
[32]参见15 U.S.C.§45(a)(1)(2018)(禁止“商业中或影响商业的不公平或欺骗性行为、做法”)。所有州都将类似的消费者保护条款纳入其民法典,州总检察长办公室利用其在此类法规和无数其他州隐私法下的执法权来落实消费者数字条款和服务。See Danielle Keats Citron, “The Privacy Policymaking of State Attorneys General”, 92 Notre Dame L. Rev.747, 754(2016).各州总检察长设立了专门的单位或部门,以实施与数字隐私相关的执法行动。See Bureau of Internet and Tech (BIT), N.Y. ATT’Y GEN.’S OFF; Privacy Unit, CAL. ATT’Y GEN.’S OFF。关于州隐私法的清单,参见Privacy Laws by State, ELEC. PRIV.INFO.CTR。
[33]Health Insurance Portability and Accountability Act of 1996(HIPAA), Pub. L. No.104-191, 110 Stat.1936(codified as amended in scattered sections of 18, 26, 29, and 42 U.S.C.(2018)); Children’s Online Privacy Protection Act of 1998(COPPA), 15 U.S.C.§6501-06(2018); Family Educational Rights and Privacy Act of 1974(FERPA), 20 U.S.C.§1232g (2018); Fair Credit Reporting Act of 1970(FCRA), 15 U.S.C.§1681(2018); Biometric Information Privacy Act (BIPA), 740 ILL. COMP. STAT.14/10, 14/15(2021); California Consumer Privacy Act of 2018(CCPA), CAL. CIV. CODE §§1798.100-1798.199.100(West 2021).
[34]FIPP最初是在一份有影响力的报告中被命名的,该报告被委托对实体使用计算自动化方法来收集和使用个人信息进行探索。See U.S. Dep’t Health, Educ.& Welfare, Dhew Publ’n No.(OS)73-94, “Records, Computers, and the Rights of Citizens”, at xx-xxi (1973).
[35]这一制度及其关于点击式合同、作为合法行为基础的“同意”的基本概念在文献中得到了详尽的论述。关于同意、点击式或标准化消费者合同的合法性之法律理论,参见Nancy Kim, Consentability: Consent and Its Limits, Cambridge University Press, 2019, pp.91-116; Nancy Kim, Wrap Contracts: Foundations and Ramifications, Oxford University Press, 2013, pp.126-46;Margaret Radin, Boilerplate: The Fine Print, Vanishing Rights, and the Rule of Law, Princeton University Press, 2012, passim。关于点击式数字合同的更详尽论述,参见Elizabeth Edenberg & Meg Leta Jones, “Analyzing the Legal Roots and Moral Core of Digital Consent”, 21 New Media & Soc’Y 1804, 1804-05(2019);Woodrow Hartzog & Neil Richards, “Privacy’s Trust Gap: A Review”, 126 Yale L.J.1180, 1197-98(2017)[hereinafter Hartzog & Richards, “Privacy’s Trust Gap”](reviewing Finn Brunton & Helen Nissenbaum, Obfuscation: A User’S Guide for Privacy and Protest, The MIT Press, 2016);Neil Richards & Woodrow Hartzog, “Taking Trust Seriously in Privacy Law”, 19 Stan. Tech. L. Rev 431, 434(2016)[hereinafter Richards & Hartzog, “Taking Trust Seriously”]; Andrea M. Matwyshyn, “Technoconsen(t)sus”, 85 Wash. U. L. Rev.529 passim (2007);Elettra Bietti, “Consent as a Free Pass: Platform Power and the Limits of the Informational Turn”, 40 Pace L. Rev.307, 329-31(2020);and Daniel J. Solove, “Privacy Self-Management and the Consent Dilemma”, 126 Harv. L. Rev.1880, 1883-85(2013)。
[36]See “Protecting Consumer Privacy in an Era of Rapid Change: Recommendations for Businesses and Policymakers”, Fed. Trade Comm’N 4860(2012); Woodrow Hartzog, “The New Price to Play: Are Passive Online Media Users Bound by Terms of Use?”, 15 Commc’N L.&Pol’Y 405, 432(2010).
[37]See Health Insurance Portability and Accountability Act of 1996(HIPAA), Pub. L. No.104-191, 110 Stat.1936(codified as amended in scattered sections of 18, 26, 29, and 42 U.S.C.(2018)). HIPAA不仅是一部隐私法,其隐私规则限制个人健康信息(PHI)(如该法所定义)的使用、出售或披露的情况,并赋予患者其他权利。除法律规定或为促进治疗、付款或医疗保健业务外,承保实体必须获得个人的书面授权才能披露其个人健康信息。See 45 C.F.R.§164.502(2020); accord, e.g., Children’s Online Privacy Protection Act of 1998(COPPA), 15 U.S.C.§6501(2018);16 C.F.R.§312.5(c)(2020); Family Educational Rights and Privacy Act of 1974(FERPA), 20 U.S.C.§1232g (2018);34 C.F.R.§99.30(2020).“Gramm- Leach-Bliley案”(GLBA)只要求实体赋予消费者较为弱势的“退出”权利,但明确要求实体向消费者提供年度通知,详细说明其所收集的信息。See Pub. L. No.106-102, §502(b), 113 Stat.1338, 1437(1999);17 C.F.R.§§160.1-160.9(2020).
[38]See California Consumer Privacy Act of 2018(CCPA), CAL. CIV. CODE §§1798.100(a)(1), 1798.110(3), 1798.135(West 2021).
[39]See id. But see Salomé Viljoen, The Promise and Pitfalls of California’s Consumer Privacy Act, DIGIT. LIFE INITIATIVE (Apr.11, 2020).
[40]See Fair Credit Reporting Act of 1970(FCRA), 15 U.S.C.§1681i(a)(5)(A)(2018).
[41]参见45 C.F.R.§164.524(2020)(授予个人访问其PHI的权利);id.§164.520(授予个人对其PHI的使用和披露被充分通知的权利); id.§164.502(需要患者同意)。与下文讨论的FCRA一样,HIPAA也包括部分确定性的数据处理义务,并规定了部分不需要个人同意的数据使用情形。然而,大多数健康数据共享合同并不依赖这些例外情况,而是结合法律的匿名化规则和患者同意来共享健康数据。See Paul Ohm, “Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization”, 57 Ucla L. Rev.1701, 1736-38(2010).
[42]FCRA的部分内容是明显的例外。例如,除消费者权利外,FCRA对何种主体可因何种目的使用消费者报告作出了明确限制。See Fair Credit Reporting Act of 1970(FCRA), 15 U.S.C.§1681c(a)(2018).其他例外情况包括HIPAA所禁止的个人身份信息的使用。See Health Insurance Portability and Accountability Act of 1996(HIPAA), Pub. L. No.104-191§1177, 110 Stat.1936, 2023(1996).
[43]See Alan F. Westin, Privacy and Freedom: Locating the Value in Privacy, New York: Atheneum, 1967, p.7.
[44]See Daniel Susser, Beate Roessler & Helen Nissenbaum, “Online Manipulation: Hidden Influences in a Digital World”, 4 Geo. L. Tech. Rev.1, 18-33(2019). These design features are frequently termed “dark patterns”.这类设计特征常被称为“黑暗模式”? See Harry Brignull, “Dark Patterns: Inside the Interfaces Designed to Trick You”, VERGE (Aug.29, 2013, 11: 15 AM).这种设计经常利用心理学和行为经济学的行为论,其虽被广泛用于“推动”个人走向社会理想的结果,但更多的是被用于实现社会性的可疑目的。See Richard H. Thaler, “Nudge, Not Sludge”, SCI. MAG., at 431(Aug.2018).
[45]在版权领域,巴尔加内什就“传播性损害”提出了类似的观点,即创作者确定其作品是否以及何时被分享的权利受到侵犯为“被迫署名”。 See Shyamkrishna Balganesh, “Privative Copyright”, 73 Vand. L. Rev.1, 8-20(2020).
[46]隐私研究者主张保护自己免受网络骚扰和基于性别的暴力侵害,以维护隐私。他们认为,骚扰可能会使弱势群体的表达自由产生寒蝉效应。参见Danielle Keats Citron, “Law’s Expressive Value in Combating Cyber Gender Harassment”, 108 Mich. L. Rev.373, 374-78(2009); Danielle Keats Citron & Jonathon W. Penney, “When Law Frees Us to Speak”, 87 Fordham L. Rev.2317, 2318-21(2019);Scott Skinner-Thompson, Privacy at the Margins, Cambridge University Press, 2020, p.86(解释隐私如何对监视制度提供某种表现形式的抵制)。
[47]美国所有州都通过了数据泄露法,其要求受数据泄露影响的实体通知其客户相关泄露事件,并采取具体措施(因法规而异)补救数据泄露的影响。参见N.Y. Gen. Bus. Law §§899-AA to -BB (McKinney 2021)(“未经授权获取私人信息的通知。数据安全保护”)。
[48]See Fair Credit Reporting Act of 1970(FCRA), 15 U.S.C.§§1681, 1681i (2018).
[49]See Katherine J. Strandburg, “Free Fall: The Online Market’s Consumer Preference Disconnect”, 2013 U. Chi. Legal F.95, 143; Jonathan A. Obar & Anne Oeldorf-Hirsch, “The Biggest Lie on the Internet: Ignoring the Privacy Policies and Terms of Service Policies of Social Networking Services”, 23 Info. Commc’N & Soc’Y 128, 140-42(2020).隐私政策通常很长,且充斥着法律术语,它们也无处不在。2008年的一项研究发现,一位普通用户仅在一年内就需要用76天来阅读他们遇到的所有隐私政策,全国范围内的年度机会成本约为7810亿美元。See Aleecia M. McDonald & Lorrie Faith Cranor, “The Cost of Reading Privacy Policies”, 4 J.L.& Pol’Y for Info. Soc’Y, 543, 564(2008).
[50]许多隐私学者已经对这一缺陷进行了详尽的论述。理查德和哈佐格提供了一种有用的类型学,对在数字背景下无法确保隐私的不同同意方式进行分类。See Neil Richards & Woodrow Hartzog, “The Pathologies of Digital Consent”, 96 Wash. U. L. Rev.1461(2019).比埃蒂对这种失败的规范性风险进行了有益的探索。See Elettra Bietti, “Consent as a Free Pass: Platform Power and the Limits of the Informational Turn”, 40 Pace L. Rev.307, 329-31(2020).通知和同意对收集点的一次性同意直截了当地强调也与对适当的信息流的具体关切不一致。参见Helen Nissenbaum, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford University Press, 2010, pp.1-4, 10-11;Madelyn Sanfilippo, Brett Frischmann & Katherine Standburg, Privacy as Commons: Case Evaluation Through the Governing Knowledge Commons Framework, 8 J. INFO., POL’Y 116(2018)(提出“使用中的规则”的概念,以涵盖管理道德信息传播的名义规则和实际措施)。
[51]See Solon Barocas & Helen Nissenbaum, “Big Data’s End Run Around Anonymity and Consent”, in Julia Lane et al., eds., Privacy, Big Data, and the Public Good: Frameworks for Engagement, Cambridge University Press, 2014, pp.44, 56-61.关于黑暗模式,参见Arvind Narayanan et al., “Dark Patterns: Past, Present and Future”, 18 ACM Queue 68(2020)。
[52]See Ari Ezra Waldman, “Privacy Law’s False Promise”, 97 Wash. U. L. Rev.773, 786(2020); Woodrow Hartzog, Privacy’s Blueprint: The Battle to Control the Design of New Technologies, Harvard University Press, 2018.
[53]See Helen Nissenbaum, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford University Press, 2010, pp.1-4, 10-11.
[54]See Neil Richards & Woodrow Hartzog, “A Duty of Loyalty for Privacy Law”, 99 Wash. U. L. Rev.961, manuscript at 23(2021); Woodrow Hartzog & Neil Richards, “Privacy’s Constitutional Moment and the Limits of Data Protection”, 61 B.C. L. Rev.1687, 1695-96(2020).
[55]Alan F. Westin, Privacy and Freedom: Locating the Value in Privacy, New York: Atheneum, 1967, p.7.
[56]Charles Fried, “Privacy”, 77 Yale L. J.475, 482(1968)(emphasis omitted).
[57]A. Michael Froomkin, “The Death of Privacy?”, 52 Stan. L. Rev.1461, 1463(2000).
[58]Jerry Kang, “Information Privacy in Cyberspace Transactions”, 50 Stan. L. Rev.1193, 1203(1998).
[59]Helen Nissenbaum, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford University Press, 2010, p.70.
[60]See Jeffrey Raiman, “Privacy, Intimacy and Personhood”, 6 Phil.&Pub. Affs.26, 30(1976).
[61]这份清单与加维森极具影响力的隐私观相一致。他认为隐私是他人通过信息、关注和身体接近度来了解你的一种衡量方式。See Ruth Gavison, “Privacy and the Limits of Law”, 89 Yale L.J.421, 423(1980).
[62]See Helen Nissenbaum, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford University Press, 2010, pp.127-57.
[63]See Katherine J. Strandburg, “Free Fall: The Online Market’s Consumer Preference Disconnect”, 2013 U. Chi. Legal F.95-97(2013).
[64]See Daniel J. Solove, “Privacy Self-Management and the Consent Dilemma”, 126 Harv. L. Rev.1889-93(2013); Joel R. Reidenberg et al., “Privacy Harms and the Effectiveness of the Notice and Choice Framework”, 11 I/S: J. L.& Pol’Y for Info. Soc’Y 485, 492-94(2015); Omri Ben- Shahar, “Data Pollution”, 11 J. Legal Analysis 104, 104(2019).
[65]Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, 2019, p.67.
[66]See Priscilla M. Regan, Legislating Privacy: Technology, Social Values, and Public Policy, University of North Carolina Press, 1995, p.225.
[67]See Id., pp.227-31.理查德提出了一个类似的观点,即知识隐私之于强大自由表达的必要性。See Neil M. Richards, “Intellectual Privacy”, 87 Tex. L. Rev.387, 403-07(2008).
[68]Helen Nissenbaum, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford University Press, 2010, pp.140-41.
[69]Id.at 128.
[70]Id.
[71]See Julie E. Cohen, “What Privacy Is For”, 126 Harv. L. Rev.1904, 1906-11(2013).
[72]Id.at 1905.
[73]Id.
[74]众多隐私权和数字权利活动家相当关注这些影响,特别是在从个人侵犯中获利的私人系统的背景下。关于操控,参见Daniel Susser, Beate Roessler & Helen Nissenbaum, “Online Manipulation: Hidden Influences in a Digital World”, 4 Geo. L. Tech. Rev.4-12, 33-44(2019);Ryan Calo, “Digital Market Manipulation”, 82 Geo. Wash. L. Rev.995, 1007-12, 1024-34(2014)。关于被侵蚀的自决权,参见Woodrow Hartzog, Privacy’ s Blueprint: The Battle to Control the Design of New Technologies, Harvard University Press, 2018, pp.21-55;Neil Richards & Woodrow Hartzog, “The Pathologies of Digital Consent”, 96 Wash. U. L. Rev.1476-91(2019)。关于自我表达的寒蝉效应,参见Danielle Keats Citron, “Law’s Expressive Value in Combating Cyber Gender Harassment”, 108 Mich. L. Rev.373, 374-78(2009);Danielle Keats Citron & Jonathon W. Penney, “When Law Frees Us to Speak”, 87 Fordham L. Rev.2319-20, 2329-32(2019)?关于数据提取与算法治理,参见Jennifer Cobbe & Elettra Bietti, “Rethinking Digital Platforms for the Post-Covid-19 Era”, CTR. FOR INT’L GOVERNANCE INNOVATION (May 12, 2020)。
[75]本文在先前研究的基础上重新定义了“数据关系”。库尔德里和梅吉亚斯用“数据关系”一词来描述捕捉和处理社会数据的过程,他们认为这创造了一种基于持续追踪的新型社会秩序。See Nick Couldry & Ulises A. Mejias, “Data Colonialism: Rethinking Big Data’s Relation to the Contemporary Subject”, 20 Television & New Media 336, 336(2018).数据社会关系由影响数据创建、收集、传输、使用的法律与技术系统所构成。
[76]Dave Maass, “FBI Wish List: An App that Can Recognize the Meaning of Your Tattoos”, ELEC. FRONTIER FOUND (July 16, 2018).
[77]TAG-IMAGE是包含在下一代识别系统中的几种生物识别标记形式之一,用于实现生物识别能力的自动化进程,并将生物识别标记的追踪范围扩大到联邦调查局自动指纹识别系统所包含的标记之中。生物识别卓越中心(BCOE)是该机构致力于发展生物识别技术和身份管理的主要小组。BCOE指出,文身和其他生物识别标志对执法部门的用处可能远远超出身份验证的目的。最值得关注的是,自动识别服务允许调查人员使用探测或查询图像来寻找类似的图像。“虽然就识别的角度而言,图像与图像匹配技术的价值是显而易见的,但了解文身和涂鸦背后的象征意义和背景内容也同样具有价值。就情报的角度而言,某些符号或涂鸦可能被用来帮助确定某个人是否与某个特定的帮派、恐怖组织或极端主义团体存在联系。这可能有助于确定个人或帮派对执法部门或社区的威胁程度,也可能有助于识别与关联全国各地的犯罪。”CJIS Link, “Image-Based Matching Technology Offers Identification and Intelligence Prospects”, FED. BUREAU INVESTIGATION (Dec.28, 2012).
[78]本文将探讨所收集的某人数据可能被用来针对其他人的几类情况。通过这些情景,我们可以研究众多常见与普遍的数据实践的社会影响。例如,通过揭示社会网络或遗传信息的数据,关于某人的数据可能通过两个数据集的链接影响到另一个人。这些数据就定义而言是共享信息,或是通过应用根据一个人的数据所推导出的预测算法。例如,剑桥分析公司直接收集了27万名“this is your digital life”应用程序用户的数据。由于剑桥分析公司能够接触到这些用户的社交网络数据(包括其朋友与家人的资料),因此获取了大约8700万用户(美国为7060万)的资料信息。这些信息被应用于某个广告定位程序,该程序根据用户对特定广告的反应可能性,向脸书的1.9亿美国用户(以及英国和其他国家的用户)中的一部分投放精准化的政治广告。See Nicholas Confessore, “Cambridge Analytica and Facebook: The Scandal and the Fallout So Far”, N.Y.TIMES (Apr.4, 2018); Hannes Grassegger & Mikael Krogerus, “The Data That Turned the World Upside Down”, VICE (Jan.28, 2017, 9: 15 AM); Issie Lapowsky, “Facebook Exposed 87 Million Users to Cambridge Analytica”, WIRED (Apr.4, 2018, 5: 43 PM); Sam Meredith, “FacebookCambridge Analytica: A Timeline of the Data Hijacking Scandal”, CNBC (Apr.10, 2018, 9: 51 AM EDT); Owen Bowcott & Alex Hern, “Facebook and Cambridge Analytica Face Class Action Lawsuit”, GUARDIAN (Apr.10, 2018, 11: 45 AM EDT).
[79]“对原告的成员、客户和伊利诺伊州的项目参与者来说,能够控制他们的生物识别码并在公共场合活动,不受偷偷摸摸揭开面具或监视的威胁,是至关重要的。……Clearview已经从网络提供的照片中获取了超过30亿张面部图像,所有图像都是在照片上的人不知情的情况下所拍摄的,更遑论通过其同意。”Complaint at 3, ACLU v. Clearview AI, Inc., No.9337839(Cir. Ct. Cook Cnty., May 28, 2020).
[80]Pcollect =[Adam, A1, A2, A3...], where An = other individuals in Pcollect.
[81]Puse =[Ben, B1, B2, B3...], where Bn = other individuals in Puse.
[82]详细介绍大数据如何不仅仅以数量来表示,还可在其他特征中以关系来表示,这是指“包含能够连接不同数据集的共同字段”和灵活性,“具有外延性(可轻松添加新字段)和可扩展性(可迅速扩大规模)的特征”。See Ben Green, The Smart Enough City: Putting Technology in Its Place to Reclaim Our Urban Future, MIT Press, 2019, pp.93-103; Rob Kitchin, “Big Data, New Epistemologies and Paradigm Shifts”, Big Data & Soc’Y, at 2(Apr.-June 2014); Danah Boyd & Kate Crawford, “Critical Questions for Big Data”, 15 Info., Commc’N & Soc’Y 662, 670-71(2012).关于揭示他人信息之数据效用的更多内容,参见Sebastian Benthall & Jake Goldenfein, “Data Science and the Decline of Liberal Law and Ethics”, p.7-8(Oct.2, 2020)(unpublished manuscript)。
[83]几乎所有从个人或个人设备上获取的数据都能成为关系型数据。社交媒体数据不仅包含个人信息(如偏好和关注),还可显示出个人社交网络。这些信息可以产生政治与社会上的后果。例如,网络数据可被用于在概率上确定对某一政治候选人或立场的支持或反对,以明确政治广告或投票的目标。See Robert M. Bond et al., “A 61-Million-Person Experiment in Social Influence and Political Mobilization”, 489 Nature 295, 295-98(2012).网络数据可用于预测信用评分,并有益于主动跟踪和锁定疾病、自杀和枪支暴力。See Ben Green, Thibaut Horel & Andrew V. Papachristos, “Modeling Contagion Through Social Networks to Explain and Predict Gunshot Violence in Chicago, 2006 to 2014”, 177 Jama Internal Med.326, 326-33(2017).来自消费者基因组测试的遗传数据揭示了某人的亲属信息可以帮助其在早期发现疾病,同时也可将其置于与过去的种族歧视和解与赔偿的政治、法律项目中。See Alondra Nelson, The Social Life of DNA: Race, Reparations, and Reconciliation after the Genome, Beacon Press, 2016, pp.xii-xiii.位置数据显示了关于某人家庭的信息。事实上,从某人身上获取的大体数据,如果可用于对其进行预测或试图改变其行为,都可通过行为模型的形式进行。关于揭示他人信息之数据效用,参见Sebastian Benthall & Jake Goldenfein, “Data Science and the Decline of Liberal Law and Ethics”, pp.7-8(Oct.2, 2020)。制度经济学文献肯定了数据通过定制、预测、个性化、诱导和市场设计而产生的竞争价值,参见MIT Technology Review Insights, “The Rise of Data Capital”, Mit Tech. Rev. Custom (March 21, 2016)(“如今,数据是一种资本形式,在生产新的数字产品和服务方面与金融资本处于同一水平”)。这一文献的观点与控制论中人类行为的预测性和概率性的概念相一致,参见James R. Beniger, The Control Revolution: Technological and Economic Origins of the Information Society, Harvard University Press, 1986。关于数据封装,参见Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, 2019, p.62-63?
[84]Salomé Viljoen, Jake Goldenfein & Lee McGuigan, “Design Choices: Mechanism Design and Platform Capitalism”, Big Data &Soc’y, at 1, 5(July- Dec.2021).
[85]See Jake Goldenfein, Monitoring Laws: Profiling and Identity in the World State, Cambridge University Press, 2019, pp.101-02; Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information, Harvard University Press, 2015, pp.191-94; Sebastian Benthall & Jake Goldenfein, “Data Science and the Decline of Liberal Law and Ethics”, p.893(Oct.2, 2020).
[86]See Frank Pasquale, supra note [4], pp.191-94.
[87]明确地说,本文赞成关于数据生产导致外部性的通说,即数据生产产生的社会成本没有反映在个人交易中。See Daniel J. Solove, “Privacy Self-Management and the Consent Dilemma”, 126 Harv. L. Rev., 1880-83(2013); Joel R. Reidenberg et al., “Privacy Harms and the Effectiveness of the Notice and Choice Framework”, 11 I/S: J.L.& Pol’y Info. Soc’y 485-86(2015).然而,指出外部性的存在,在阐明数据生产的社会效应背后的结构性条件和不平等特征方面具有有限的分析价值。
[88]参见Michael Mandel, “The Economic Impact of Data: Why Data Is Not Like Oil”, Progressive Pol’y Inst.6(2017)(“使用过的数据,本身具有不确定的经济价值。它的价值取决于如何与其他数据结合和使用”);Eric A. Posner & E. Glen Weyl, Radical Markets: Uprooting Capitalism and Democracy for a Just Society, Princeton University Press, 2018, pp.205-09(描述人们作为“数据生产者”的概念,其在总体上为数字经济提供动力);Alessandro Acquisti & Jens Grossklags, “Privacy and Rationality in Individual Decision Making”, IEEE Sec.& Priv., p.2430(Jan./ Feb.2005)(论证不完全信息、有限理性和系统性的心理偏差如何影响个人隐私敏感性行为);Alessandro Acquisti, Leslie K. John & George Loewenstein, “What Is Privacy Worth?”, 42 J. Legal Stud.249, 249-74(2013)(研究个人如何进行隐私评估);Alessandro Acquisti, Curtis Taylor & Liad Wagman, “The Economics of Privacy”, 54 J. Econ. Literature 442, 442-92(2016)(强调消费者对隐私的经济分析是如何随时间演变的);Imanol Arrieta Ibarra et al., “Should We Treat Data as Labor? Moving Beyond ‘Free’”, 108 Am. Econ. Ass’n Papers & Proc.38, 38-42(2017)(主张一种不将数据视为资本,而是视为劳动力的范式)。
[89]参见Pedro Domingos, “A Few Useful Things to Know About Machine Learning”, 55 Commc’Ns ACM 78, 84(2012)(“更多的数据胜过更聪明的算法”);Alon Halevy, Peter Norvig & Fernando Pereira, “The Unreasonable Effectiveness of Data”, 24 IEEE Intel. Sys.8, 8-12(2009)(“一万亿字的语料库……甚至可以捕捉到人类行为中极为罕见的方面”);Amandalynne Paullada et al., “Data and Its (Dis)contents: A Survey of Dataset Development and Use in Machine Learning Research”, 2(11) Patterns 100336(2021)(“无论如何强调数据集对于机器学习研究的重要性都非言过其实”);Chen Sun et al., “Revisiting Unreasonable Effectiveness of Data in Deep Learning Era”, 2017 IEEE International Conference On Computer Vision 843, 843-52(Dec.25, 2017)(“深度学习的成功……可以归功于……大规模标记数据的可用性”)。
[90]See Byron Tao & Michelle Hackman, “Federal Agencies Use Cellphone Location Data for Immigration Enforcement”, WALL ST.J.(Feb.7, 2020).
[91]See Kim Lyons, “ICE Just Signed a Contract with Facial Recognition Company Clearview AI”, VERGE (Aug.14, 2020, 3: 19 PM ET) Clearview AI.公司通过从网络上收集公开的人脸图像来建立其面部识别数据库,违反了伊利诺伊州的《生物识别信息隐私法》。该法要求公司在收集和使用消费者的生物识别信息之前必须获得同意。See Biometric Information Privacy Act (BIPA), 2008 Ill. Legis. Serv. P.A.095-994(codified as amended at 740 ILL. COMP. STAT.14/15[2021]).
[92]Andrew Perrin, “Half of Americans Have Decided Not to Use a Product or Service Because of Privacy Concerns”, PEW RSCH. CTR.(Apr.14, 2020); Bruce Schneier, “We’re Banning Facial Recognition. We’re Missing the Point”, N.Y. TIMES (Jan.20, 2020).
[93]Ring, AMAZON.
[94]RING这一应用程序已与1300多个地方执法机构建立了视频共享伙伴关系。参见Atlas of Surveillance, ELEC. FRONTIER FOUND; Khaleda Rahman, “Police Are Monitoring Black Lives Matter Protests with Ring Doorbell Data and Drones, Activists Say”, NEWSWEEK (Aug.9, 2020, 10: 46 AM EDT)(指出这些协议授予各部门对Amazon Ring的Neighbors应用程序及其犯罪和安全警报的“特殊权限”,引出这种权限在2020年种族正义抗议活动期间的影响,并指出所有者和亚马逊Ring之间的垂直关系可能不足以规避警方获取录像);Rani Molla, “How Amazon’s Ring Is Creating a Surveillance Network with Video Doorbells”, VOX (Jan.28, 2020, 12: 08 PM EST)。
[95]Solid旨在通过一个系统来应对事实上的数据封存,该系统通过本地存储确保对个人数据的控制,并以一系列访问用户数据的协议为中介。See Solid, INRUPT.
[96]Tim Berners-Lee, “One Small Step for the Web”, MEDIUM (Sept.29, 2018).
[97]“What Is Solid?”, Solid Project MIT, https://solid.mit.edu/, accessed by Nov.2, 2022.
[98]拉尼尔是最早提出“数据即劳动”概念的人之一。他同样“担心为数据和在线创意产业付费失败所带来的分配与社会后果”。Eric A. Posner & E. Glen Weyl, Radical Markets: Uprooting Capitalism and Democracy for a Just Society, Princeton University Press, 2018, pp.222; Jaron Lanier, Who Owns the Future, Simon & Schuster, 2013.拉尼尔的主张被韦尔、波斯纳等人采纳,认为这比将数据视为财产或资本更为可取,因为其考虑到个人在数据经济中产生价值所充当的角色。根据这一观点,有必要将数据视为劳动而不是资本,以恢复用户贡献的有效市场。 See id.at 209; Imanol Arrieta Ibarra et al., “Should We Treat Data as Labor? Let’s Open Up the Discussion”, BROOKINGS INST (Feb.21, 2018).
[99]参见Posner & Weyl, supra note [3], pp.231, 209;Imanol Arrieta Ibarra et al., “Should We Treat Data as Labor? Moving Beyond ‘Free’”, 108 Am. Econ. Ass’n Papers & Proc.38(2017)(指出免费数据“使数据经济的金融收益分布”出现偏差)。
[100]See “Data as a Property Right”, YANG 2020, https://2020.yang2020.com/policies/data-property-right/, accessed by Dec.5, 2022.
[101]DATA DIVIDEND PROJECT.
[102]Alexandria Ocasio-Cortez (@AOC), TWITTER (Feb.19, 2020, 11: 43 PM).
[103]参见Eric A. Posner & E. Glen Weyl, Radical Markets: Uprooting Capitalism and Democracy for a Just Society, Princeton University Press, 2018, pp.205-07(戏剧性地描绘了脸书为用户在该平台上分享的人际关系信息付费的情景)。
[104]See Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, 2019, p.63.关于资产如何在法律上被转化为资本的详细论述,参见KATHARINA PISTOR, THE CODE OF CAPITAL 2-3(2019)(“从根本上说,资本由资产和法律法规所构成……有了正确的法律法规,任何资产都可转化为资本,从而增加其为持有人创造财富的可能性”)。
[105]正如皮斯特所描述的那样,一旦数据在法律上被视为一种资产,则资本(K)和劳动(L)在任何概念上的区别都会缩小。See Katharina Pistor, The Code of Capital, Princeton University Press, 2019, p.11.在法律上,两者都将数据作为数据主体和数据处理者之间交换关系的主体,以获得数据的可转让价值。作为一个法律概念问题,劳动极易通过些许立法技术上的处理而转化为资本。例如,以有限责任合伙(LLP)的合伙人为例,他们将自己的劳动作为实物服务贡献给公司实体,并以股东分红代替工资,从而受益于更好的法律保护和更低的税率。劳动与资本在此时完全重合。See id.pp.11, 48.除法律外,公司财务、组织社会学和劳动经济学中的“人力资本”概念也有助于消弭资本、资产和劳动能力对生产的贡献之间的概念区别。参见Samuel Bowles & Herbert Gintis, “The Problem with Human Capital Theory—A Marxian Critique”, 65 Am. Econ. Ass’n.74, 74-75(1975)(讨论人力资本理论如何吸纳关于劳动的基本观点,同时也将对劳动的解释类别吸收到资本的概念中);Claudia Goldin, “Human Capital”, in Claude Diebolt & Michael Haupert eds., Handbook of Cliometrics, Springer, 2016, p.55?
[106]长期以来,产权主义改革的动机是声称其可将物质利益扩大到那些目前被排除在外的人之上。发展经济学家费尔南多·德索托是“给予发展中国家的穷人产权可作为实现经济安全的一种方式”这一观点的杰出支持者。See Hernando De Soto, The Mystery of Capital: Why Capitalism Triumphs in The West and Fails Everywhere Else, Basic Books, 2000.他认为,这种权利可以把“死资产”转化为“活资本”,使所有者有机会抵押土地或其他资产,投资新的企业,并开始积累财富。See Id.at 50.这种通过产权创造广泛和共享财富的基础理论在20世纪80年代得到广泛认同。在当时,“明确的产权和可信的合同执行”这一观点被全世界的发展经济学家和政治家广泛采用。See Pistor, supra note [1], at 1.关于德索托和这一改革在发展经济学中普及的研究,参见Pistor, supra note [1], pp.1-2, 14。
[107]大型平台公司通过其对个人数据流的“事实上的占有和封闭”,主张对数据流的准特权要求。See Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, 2019, p.25.
[108]参见Lina Khan, “Amazon’s Antitrust Paradox”, 126 Yale L.J.710(2017)(研究数字平台的反竞争行为)。FTC正在就这一概念举行听证会和研讨会。See “FTC Announces September 22 Workshop on Data Portability”, FED. TRADE COMM’N (Mar.31, 2020).参议员华纳、霍利和布卢门撒尔已提出一项法案,鼓励社交媒体平台之间的市场竞争,其中包括数据的可移植性。See Augmenting Compatibility and Competition by Enabling Service Switching (ACCESS) Act of 2019, S.2658, 116th Cong.(2019)(reintroduced in 2021).
[109]参见Maurice E. Stucke & Allen P. Grunes, Big Data and Competition Policy, Oxford University Press, 2016, p.145(“数据合并后的集中可能会引发对反垄断的担忧”)。
[110]Gabriel Nicholas, “Taking It with You: Platform Barriers to Entry and the Limits of Data Portability”, 27 Mich. Tech. L. Rev.263(2021).
[111]Id.pp.276-77.数据可移植性可被视为一种增强市场反应的“退出”。参见Albert O. Hirschman, Exit, Voice, and Loyalty: Responses to Decline in Firms, Organizations, and States, Harvard University Press, 1970, p.52(讨论耐用品与非耐用品的退出选择)。
[112]批评者应该警惕过度依赖实施的便利论据。虽然就消费者而言,这类支付系统不切实际。但就技术而言,这样的系统可能与高度复杂的算法拍卖平台系统、交易所并无差异。广告商通过此类系统向消费者“购买”观点、态度和点击,这对大规模管理数十亿的即时定价和交易行为构成类似的挑战。See Salomé Viljoen, Jake Goldenfein & Lee McGuigan, “Design Choices: Mechanism Design and Platform Capitalism”, Big Data & Soc’y, at 30(July-Dec.2021).
[113]关于数据作为劳动力限制更为详尽的讨论,参见Zo? Hitzig, Lily Hu & Salomé Viljoen, “The Technological Politics of Mechanism Design”, 87 U. Chi. L. Rev.95, 101-05(2019)。简而言之,仅仅赋予一项劳动或财产上的权利并不能保证该劳动或财产的销售条件是非榨取性和非胁迫性的。当前数据市场的条件并不能给人以信心。大型数据的收集者高度集中,其能够利用现有优势知识来设计有利的交换和价格。相比之下,数据主体广泛分散,彼此孤立,他们对数据价值的创造方式几乎没有任何洞察力,无法讨价还价。任何一个数据主体的个人数据基本上都不具有价值,这就降低了个人数据主体有意义地进行议价的能力。此外,数据主体(目前)还没有被认定为一个共同的社会群体,以从中形成政治议价能力。最后,数据化并没有导致某种可能激发道德义愤和建立对抗力量的真正压迫。与压迫性的工作场所或高度贫瘠的生产条件相比,数据提取被设计为尽可能无缝且无痛地发生,在数据主体过着在线和离线生活的同时传输数据流。关于美国劳动力市场的挑战,参见Matthew Desmond, “Americans Want to Believe Jobs Are the Solution to Poverty. They’re Not.”, N.Y. TIMES MAG.(Sept.11, 2018)。
[114]参见Pamela Samuelson, “Privacy as Intellectual Property?”, 52 Stan. L. Rev.1125, 1136-46(2000);Jessica Litman, “Information Privacy/ Information Property”, 52 Stan. L. Rev.1283, 1295-1301(2000)(对隐私的财产处理方法进行批判);Julie E. Cohen, “Examined Lives: Information Privacy and the Subject as Object”, 52 Stan. L. Rev.1373, 1377-1402(2000)(批评以自由和效率的一般概念为基础的财产观);Jane Bambauer, “The Perils of Privacy as Property: The Likely Impact of the GDPR and the CCPA on Innovation and Consumer Welfare”, PROGRAM ON ECON.& PRIV. ANTONIN SCALIA L. SCH.6-7(Mar.12, 2019)。
[115]See Alessandro Acquisti & Jens Grossklags, “Privacy and Rationality in Individual Decision Making”, IEEE Sec.& Priv., p.29-32(Jan./ Feb.2005); Alessandro Acquisti, Curtis Taylor & Liad Wagman, “The Economics of Privacy”, 54 J. Econ. Literature 442, 446-48(2016); Alessandro Acquisti, Leslie K. John & George Loewenstein, “What Is Privacy Worth?”, 42 J. Legal Stud.251-52(2013). Daniel J. Solove, “The Myth of the Privacy Paradox”, 89 Geo. Wash. L. Rev.1, 3(2021).
[116]Aaron Fluitt et al, “Data Protection’s Composition Problem”, 3 Eur. Data Prot. L. Rev.285, 292(2019).
[117]See Kim Lyons, “ICE Just Signed a Contract with Facial Recognition Company Clearview AI”, VERGE (Aug.14, 2020, 3: 19 PM ET).
[118]Michelle Gilman & Rebecca Green, “The Surveillance Gap: The Harms of Extreme Privacy and Data Marginalization”, 42 N.Y.U. Rev. L.& Soc. Change 253, 255(2018).
[119]欧盟数据治理制度的隐私和数据保护理论源于康德的尊严概念,即数据是自我的表达,受制于人类尊严的道义要求。这种规范性和概念性的说法为夯实的欧洲数据制度奠定了基础,包括其对个人数据所赋予的一系列不可剥夺之权利。See Regulation 2016/679, art.88, of the European Parliament and of the Council of 27 April 2016 on the Protection of Natural Persons with Regard to the Processing of Personal Data and on the Free Movement of Such Data, and Repealing Directive 95/46/EC (General Data Protection Regulation), 2016 O.J.(L 119)1, 84[hereinafterGDPR]; Luciano Floridi, “On Human Dignity as a Foundation for the Right to Privacy”, 29 Phil.& Tech.307, 307-08(2016).
[120]See Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, 2019, p.67.本文对“可读性”和“可读功能”这两个术语的使用,主要是通过以下文献了解的:James C. Scott, Seeing Like a State: How Certain Schemes to Improve the Human Condition Have Failed, Yale University Press, 1998; Michel Foucault, Discipline and Punish: The Birth of The Prison, Pantheon, 1977。
[121]关于数据科学如何将其主题理论化为行为模式,以及这与法律理论化的主题产生的脱节,参见Sebastian Benthall & Jake Goldenfein, “Data Science and the Decline of Liberal Law and Ethics”(Oct.2, 2020), available at https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3632577;Marion Fourcade & Kieran Healy, “Seeing like a Market”, 15 Socio-Econ. Rev.9, 10(2017)(讨论“基于大数据的[个人]估值和[从个人]价值提取对社会分层的影响”);Dan L. Burk, “Algorithmic Legal Metrics”, 96 Notre Dame L. Rev.1147, 1152-53(2021)(解释法律决策是如何被算法指标所扭曲的); Julie E. Cohen, “What Privacy Is For”, 126 Harv. L. Rev.1905(2013)(认为隐私“保护边界厘清的适当实践增强了自决能力”)。
[122]参见Shoshana Zuboff, Age of Surveillance Capitalism: The Fight for A Human Future at the New Frontier of Power, Public Affairs, 2019, pp.293, 521;Shoshanna Zuboff, “Big Other: Surveillance Capitalism and the Prospects of an Information Civilization”, 30 J. Info. Tech.76(2015)(描述“监控资本主义的逻辑和影响,以及‘大数据’在这一新制度中的基础作用”)。关于祖博夫的启蒙思想及其局限性的精彩观点,参见Quinn Slobodian, “The False Promise of Enlightenment”, BOS. REV.(May 29, 2019)?
[123]Zuboff, supra note [4], at 519.
[124]其他部分对数字经济的批评也同样关注现有的数据生产过程如何破坏个人自主权,参见Brett Frischmann & Evan Selinger, ReEngineering Humanity, Cambridge University Press, 2018, p.34;Woodrow Hartzog, Privacy’ s Blueprint: The Battle to Control the Design of New Technologies, Harvard University Press, 2018;Daniel Susser et al., “Online Manipulation: Hidden Influences in a Digital World”, 4 Geo. L. Tech. Rev.1, 18-33(2019);Becky Chao et al., “Centering Civil Rights in the Privacy Debate”, OPEN TECH. INST.(Aug.14, 2019);Alvaro Bedoya, “Privacy as Civil Right”, 50 N.M. L. Rev.301, 306(2020)(“但隐私的核心是人类尊严:政府是否认为它会侵犯你的尊严;政府是否认为它必须保护你生活中最敏感、最私密的事实”)。
[125]参见Guide to the UK General Data Protection Regulation (UK GDPR), INFO. COMM’R’S OFF.(Jan.21, 2021);Regulation 2016/679, art.88, of the European Parliament and of the Council of 27 April 2016 on the Protection of Natural Persons with Regard to the Processing of Personal Data and on the Free Movement of Such Data, and Repealing Directive 95/46/EC (General Data Protection Regulation), 2016 O.J.(L 119)1, 84; Luciano Floridi, On Human Dignity as a Foundation for the Right to Privacy, 29 PHIL.& TECH.307, 307-08(2016),其中讨论了欧盟的基本权利制度。关于美国的讨论,参见Elizabeth M. Renieris, Ravi Naik & Jonnie Penn, “You Really Don’t Want to Sell Your Data”, SLATE (Apr.7, 2020, 10: 00 AM)(其中反对数据的产权主义观点,主张采用基本权利框架);Alvaro Bedoya, “Privacy as Civil Right”, 50 N.M. L. Rev.301, 306(2020)?
[126]See Charter of Fundamental Rights of the European Union, arts.7-8, 2012 O.J.(C 326)391, 397; GDPR, See Regulation 2016/679, art.88, of the European Parliament and of the Council of 27 April 2016 on the Protection of Natural Persons with Regard to the Processing of Personal Data and on the Free Movement of Such Data, and Repealing Directive 95/46/EC (General Data Protection Regulation), 2016 O.J.(L 119)1, 84.欧盟的GDPR不仅包括尊严主义的数据改革。除一系列个人权利外,GDPR还包括部分确定性的数据处理义务。这适用于数据处理者,而不考虑个人消费者的选择,并明确要求任何数据处理都要有合法的依据(个人同意是其中之一)。虽然关于GDPR合法依据的范围,以及它们如何与个人同意、个人限制处理的权利和删除的权利相互作用有相当多的争论。但至少,这提供了一个超越个人命令的数据保护法律框架。关于一个有用的论证,参见Guide to the UK General Data Protection Regulation (UK GDPR), INFO. COMM’R’ S OFF.(Jan.21, 2021);关于数据处理合法依据的争论,参见Jeff Ausloos, Michael Veale & René Mahieu, “Getting Data Subject Rights Right”, 10 J. Intell. Prop. Info. Tech.& E-Com. L.283(2019);Margot E. Kaminski, “The Right to Explanation, Explained”, 34 Berkeley Tech. L.J.189(2019)?
[127]See Elizabeth M. Renieris & Dazza Greenwood, “Do We Really Want to‘Sell’ Ourselves? The Risks of a Property Law Paradigm for Personal Data Ownership”, MEDIUM (Sept.23, 2018).
[128]GDPR赋予个人对数据的以下权利:知情权、访问权、更正权、删除权、限制处理权、数据可携带权、反对权,以及不受制于自动化决策的权利。所有权利都存在某些最重要的例外情形,并在欧盟法律中得以阐明。Charter of Fundamental Rights of the European Union, arts.13-22, 2012 O.J.(C 326).
[129]“The EU General Data Protection Regulation”, HUM. RTS. WATCH (June 6, 2018, 5: 00 AM EDT).其他形式的数据治理在制定最低标准方面采取了一种并不常规的方式,它们试图加重数据收集者对数据主体的责任,这是因为数据“有能力”对数据主体产生持久和重大的影响。例如,一些学者主张信义义务理论,或将有益的可分离性理论从产权理论扩展到个人数据治理。See Jack M. Balkin, “Information Fiduciaries and the First Amendment”, 49 U.C. Davis L. Rev.1183(2016); Neil Richards & Woodrow Hartzog, “Taking Trust Seriously in Privacy Law”, 19 Stan. Tech.L. Rev 431, 434(2016); Woodrow Hartzog & Neil Richards, “Privacy’s Trust Gap: A Review”, 126 Yale L.J.1180, 1197-98(2017); Mark Verstraete, “Inseparable Uses”, 99 N.C. L. Rev.427, 429-31(2021).这些改革理论虽然与尊严主义方法具有某些相关的特征,但并不直接基于尊严主义的改革基础,因此需进行单独分析。
[130]Alvin Powell, “An Awakening over Data Privacy”, HARV. GAZETTE (Feb.27, 2020).
[131]“Data Protection”, EUR. DATA PROT. SUPERVISOR.
[132]参见Mark Scott, Laurens Cerulus & Steven Overly, “How Silicon Valley Gamed Europe’s Privacy Rules”, POLITICO (May 22, 2019, 10: 40 AM)(其中指出,尽管之前被禁止,但面部识别技术在欧洲再次被允许。这是因为根据GDPR的同意规则,用户“可以选择接受该服务”)。
[133]例如,GDPR并没有取缔主要推动数据化的广告导向的商业模式,它要求公司更为透明,并让用户有更多机会了解他们的数据如何被使用。
[134]事实上,通过使数据市场合法化,支付可能有助于使合法参与该市场的下游行为合法化。由于数据一开始就已被商品化,ICE能够从其供应商Venntel处购买数据库的使用权,而不是自己收集这些数据。这一商业交易为ICE使用这些数据提供了强有力的法律保护。根据“Carpenter v. United States案”,ICE可能需要许可才能直接从运营商或应用程序公司获得这些数据。138 S. Ct.2206, 2209(2018).然而,由于ICE只是像任何其他实体一样,从数据经纪人处购买了对数据库的访问权,因此其违反宪法的潜在可能性就已减弱。
[135]例如,公共卫生当局部署COVID-19数字接触追踪应用程序的目标是60%的人口阈值,这有益于系统最有效地对抗新冠疫情。尽管较低的应用程序用户数量仍有望减少病例数量,但接近60%的阈值将显著提高数字追踪系统的效用。See “Digital Contract Tracing Can Slow or Even Stop Coronavirus Transmission and Ease Us Out of Lockdown”, U. OXFORD RSCH.(Apr.16, 2020).认为即使用户比例低得多,应用程序仍然是有效的。See Patrick Howell O’Neill, “No, Coronavirus Apps Don’t Need 60% Adoption to Be Effective ”, MIT TECH. REV.(June 5, 2020).
[136]虽然规模较小,但这种分布并非不切实际。有证据表明,气候变化造成的水资源压力将对贫困社区造成不成比例的影响。世界卫生组织估计:“至2025年,世界人口的一半将生活在缺水地区”;目前,世界人口的四分之一面临着“极高”的用水压力。See “DrinkingWater”, WORLD HEALTH ORG.(June 14, 2019); Rutger Willem Hofste, Paul Reig & Leah Schleifer, “17 Countries, Home to One-Quarter of the World’s Population, Face Extremely High Water Stress”, WORLD RES. INST.(Aug.6, 2019).17个水资源最紧张的国家中有12个是北非和中东国家;印度的水资源压力在国际上排名第13位,人口是其他16个国家人口总和的3倍多。Id.在美国,新墨西哥州面临着极端的水资源压力,加州、亚利桑那州、科罗拉多州和内布拉斯加州也都面临着沉重的水资源压力。Id.
[137]作者希望归功于克里斯汀·德桑于2018年12月在哈佛法学院举行的一次题为“作为民主媒介的货币”的会议,该会议启发了这一术语在数据经济背景下的应用。See Brette Milano, “Money as a Democratic Medium”, HARV. L. TODAY (Jan.11, 2019).
[138]参见Kasper Lippert-Rasmussen, Relational Egalitarianism: Living as Equals, Cambridge University Press, 2018, p.27;Samuel Scheffler, “The Practice of Equality”, in Carina Fourie et al., eds., Social Equality: On What It Means to Be Equals, Oxford University Press, 2015, pp.21, 3(1认为平等是一种实践形式,而不是一种规范的分配模式);Iris Marion Young, Justice and the Politics of Difference, Princeton University Press, 2011, p.16(分配范式是一种将社会正义和分配视为共同概念的倾向)。
[139]Young, supra note [2]at 38.
[140]See Elizabeth Anderson, “What Is the Point of Equality”, 109 Ethics 287, 289(1999); Elizabeth Anderson, “Toward a Non-Ideal, Relational Methodology for Political Philosophy: Comments on Schwartzman’s Challenging Liberalism”, 24 Hypatia 130(2009)[hereinafter Anderson, Comments].
[141]See Lippert-Rasmussen, supra note [2]at 19; Anderson, Comments, supra note [4].
[142]See LIPPERT-RASMUSSEN, supra note [2], pp.24-25; Samuel “The Practice of Equality”, in Carina Fourie et al., eds., Social Equality: On What It Means to Be Equals, Oxford University Press, 2015, pp.38-39.
[143]See Samuel Scheffler, “The Practice of Equality”, in Social Equality: On What It Means to Be Equals, Oxford University press, 2015, p25.谢弗勒将关系平等主义的理想定义为一种审慎约束:人们处于一种平等的关系中,每个人都接受另一个人同样重要的利益应该在影响处理这种关系的决定方面起到同样重要的作用——每个人就“同样重要的利益在相同程度上约束(他们的)共同决定。” Id.
[144]参见Nancy Fraser, Justice Interruptus: Critical Reflections on the “Postsocialist” Condition, Routledge, 1997, pp.11-39(探讨认可是对不公正的补救); Axel Honneth, The Struggle for Recognition: The Moral Grammar of Social Conflicts, Joe Anderson trans., Polity Press, 1995(在黑格尔的“为承认而斗争”的模式上,提出了具有规范内容的社会理论基础)。
[145]See Catherine A. MacKinnon, “Feminism, Marxism, Method and the State: An Agenda for Theory”, 7 Signs 515, 516(1982).
[146]关于系统性暴力,参见Iris Marion Young, Justice and the Politics of Difference, Princeton University Press, 2011, pp.61-62。艾莉斯·马利雍·杨将系统性暴力的一种特殊形式定义为社会压迫体系。被压迫群体的成员常常生活在这样的认知之中:他们必须将恐惧基于群体成员身份的随机、无端的攻击。暴力的社会实践通过对群体认同意义的断言,以及将害怕某种特定形式暴力的体验作为群体成员的特征,以再现社会压迫。凯瑟琳·麦金农通过欲望的等级关系提出了关于性的社会建构的著名论点,参见MacKinnon, supra note [1]。
[147]参见Charles Tilly, Durable Inequality, University of California Press, 1998, pp.8-9; Young, supra note [2]pp.40-48(认为压迫是社会群体的一种状况,并指出“某些人遭受的不利和不公正”是由该社会群体的结构性地位造成的,而不是“一个群体对另一个群体的有意识和故意的压迫”);Marilyn Frye, “Oppression”, in The Politics of Reality: Essays in Feminist Theory, Crossing Press, 1983, pp.10-11(“压迫是一种由力量和障碍构成的封闭结构,它倾向于稳定或削弱一个群体或一类人”)。
[148]参见Issa Kohler-Hausmann, “Eddie Murphy and the Dangers of Counterfactual Causal Thinking About Detecting Racial Discrimination”, 113 Nw. U. L. Rev.1163(2019)(认为法律和社会科学中的歧视模型所依据的歧视社会理论是基于一种有缺陷的理论,即种族类别是什么、其如何在世界中产生影响,以及当谈及因为种族而作出的决定是错误的又是何种含义);Lily Hu, “Direct Effects”, PHENOMENAL WORLD (Sept.25, 2020); Martha Minow, Making All the Difference, Cornell University Press, 1990;Iris Marion Young, Justice and the Politics of Difference, Princeton University Press, 2011, p.16。在政治和社会哲学中,适当关注群体成员是否需要以群体为基础的方法论或正义理论来确定正义的特征尚未盖棺论定。这场值得讨论的论争极为复杂,超出了本文的研究范围。本文只想指出群体成员资格的重要性,以及类别构建对众多理论家(上文引用了其中部分)理解社会不公有何作用,从而理解正义对群体成员的要求。参见Lisa H. Schwartzman, Challenging Liberalism: Feminism as Political Critique, Penn State University Press, 2006, pp.1-4, 8-11(“权利也应被视为‘目标’,需要通过社会权力结构的变化来寻求和实现”); Elizabeth Anderson, “Toward a Non-Ideal, Relational Methodology for Political Philosophy: Comments on Schwartzman’s Challenging Liberalism”, 24 Hypatia 130(2009);Sally Haslanger, Resisting Reality: Social Construction and Social Critique, Oxford University Press, 2012, pp.3-32?
[149]Jathan Sadowski, Salomé Viljoen & Meredith Whittaker, “Everyone Should Decide How Their Digital Data Are Used—Not Just Tech Companies”, NATURE (July 1, 2021).
[150]Andrea Nahles, “Die Tech-Riesen des Silicon Valleys Gef?hrden den Fairen Wettbewerb”, HANDELSBLATT (Aug.13, 2018, 6: 16 AM).
[151]参见Evgeny Morozov, “There Is a Leftwing Way to Challenge Big Tech for Our Data. Here It Is”, GUARDIAN (Aug.19, 2018, 12: 59 AM EDT);Nahles, supra note [2], at 174;Hetan Shah, “Use Our Personal Data for the Common Good”, 556 Nature 7(2018)(主张为公共利益进行公共数据治理)。
[152]参见Evgeny Morozov & Francesca Bria, Rethinking The Smart City: Democratizing Urban Technology, Rosa Luxemburg Stiftung, New York Office, pp.27-29(Jan.2018)(其中详细介绍了巴塞罗那建设“城市数据共享中心”的措施)。
[153]GDPR赋予有尊严的数据主体的权利可以为此类提议所设想的各种肯定性数据生产提供补充性的支持,但正如在Waterorg的例子中所讨论的那样,强大的个人数据主体权利也可能排斥它们。事实上,许多评论家认为,欧盟拟议的《数据治理法》为某些集体形式的数据治理奠定了基础,这将违反欧盟的基本数据主体权利。这是因为这一法案允许数据主体将对有关自身数据不可剥夺的权利移交给数据机构。
[154]参见WECLOCK(“[WeClock]提供了一种保护隐私的方式,使工人和工会在争取体面工作的斗争中赢得权”);Lighthouse: A Guide to Good Data Stewardship for Trade Unions, PROSPECT。全国家政工人联盟为家政工人开发了替代平台,其通过为客户提供一个平台,帮助家庭清洁工获得福利,为清洁工的Alia计数作出贡献。反之,清洁工可以利用客户的集体捐款来获得法律规定中家政工人可能无权享受的福利。See Alia, NAT’L DOMESTIC WORKERS’ ALL.
[155]La Alianza, NAT’L DOMESTIC WORKERS’ ALL; see Katya Abazajian, “What Helps? Understanding the Needs and the Ecosystem for Support”, MOZILLA INSIGHTS 37-38(Mar.31, 2021).例如,Abalobi使南非渔业社区能够获取数据,以帮助其跟踪产品在何处出售,并与购买其股票的餐馆和其他顾客联系;渔业劳工合作社管理该平台,并对其进行集体决策。See Abazajian, supra.
[156]参见Enabling Data Sharing for Social Benefit Through Data Trusts, GLOB. P’SHIP ON A.I.(将数据信托定义为“一种数据管理形式,其允许数据生产者汇集他们的数据[或数据权利],并通过受沉重信托责任约束的独立受托人,在技术、法律和政策干预框架内促进数据使用并为防止数据滥用提供强有力的保障,推动与潜在数据用户集体协商使用条款”);Data Trusts: A New Tool for Data Governance, ELEMENT AI & NESTA(推动关于数据信托以及改善数据治理的需要的公共政策对话);Data Trusts: Lessons from Three Pilots, OPEN DATA INST.(Apr.15, 2019)(探索在保持信任的同时增加数据访问的方法)。
[157]Jake Goldenfein, Ben Green & Salomé Viljoen, “Privacy Versus Health Is a False Trade-Off”, JACOBIN (Apr.17, 2020); JULIA LANE, DEMOCRATIZING OUR DATA (2020); Jathan Sadowski, Salomé Viljoen & Meredith Whittaker, “Everyone Should Decide How Their Digital Data Are Used—Not Just Tech Companies”, NATURE (July 1, 2021).
[158]U.S. Census Act, 13 U.S.C.§§8(b)-(c), 9(2018); Eun Seo Jo & Timnit Gebru, “Lessons from Archives: Strategies for Collecting Sociocultural Data in Machine Learningz”, FAIRNESS, ACCOUNTABILITY & TRANSPARENCY (Jan.2020).
[159]See Christopher J. Morten & Amy Kapczynski, “The Big Data Regulator, Rebooted: Why and How the FDA Can and Should Disclose Confidential Data on Prescription Drugs and Vaccines”, 109 Calif. L. Rev.493, 493(2021).
[160]参见Compare Liran Einav & Jonathan Levin, “Economics in the Age of Big Data”, 718 Science 1243089-1, 1243089-4(2014)(“专门从事数据汇总的私营公司,如征信机构或Acxiom等营销公司,正在收集涵盖几乎所有家庭的丰富个人数据”);Richard Henderson & Owen Walker, “BlackRock’s Black Box: The Technology Hub of Modern Finance”, FIN. TIMES (Feb.24, 2020)(讨论BlackRock的技术平台Aladdin如何充当“投资管理行业中众多最大参与者的中枢神经系统”)。BlackRock没有被要求披露该系统中的全球资产数额。他们上一次这样做是在2017年,当时报告为20万亿美元。自此之后,BlackRock又增加了数十个新客户。
[161]参见Elizabeth Anderson, “How Should Egalitarians Cope with Market Risks?”, 9 Theor. Inq. Law 239(2008);Elizabeth Anderson, “Common Property: How Social Insurance Became Confused with Socialism”, BOS. REV.(July 25, 2016)(描述各州为公民提供的不同形式的社会保险)。
[162]为讨论这一问题,我们假设艾米被认定为女性。当然,不被认同为女性的人也可以怀孕。在艾米不被认定为女性的情况下,这种数据流所体现的社会关系可能更加敏感和重要。
[163]早孕这一社会事件可能不仅是典型的或划定了女性的社会意义,也可能存在部分怀孕但不被认同为女性的人的情形。在此种情况下,早孕可能在法律和社会上更具争议。
[164]库尔德里和梅吉亚斯提出了一个有趣的观点,将数据与社会的关系理论化为殖民者与被殖民者的关系,他们把这种说法称为“数据殖民主义”。See Nick Couldry & Ulises A. Mejias, “Data Colonialism: Rethinking Big Data’s Relation to the Contemporary Subject”, 20 Television & New Media 336, 336(2018).

稿件来源:北大法律信息网法学在线

原发布时间:2023/8/4 14:50:58

上一条:冯 硕:境外仲裁机构内地仲裁的政策动因与法治保障 下一条:陈 胜 袁 普 :树立法治思维 处置特殊资产——以实质合并破产与刺破公司面纱为视角

关闭