社科网首页|论坛|人文社区|客户端|官方微博|报刊投稿|邮箱 中国社会科学网

【黄柏恒】大数据时代下新的“个人决定”与“知情同意”

 

引言:大数据时代下新的“个人决定”与“知情同意”

大数据技术的持续发展与广泛应用将会为社会带来彻底转变,因此,大众生活的不同层面(包括日常活动、工作、政治参与等)将无可避免地受到影响。①除此以外,大数据技术亦在挑战隐私权、知情同意权等固有道德概念的适用性,并为社会带来新的道德争议。就大数据技术带来的伦理挑战,米特尔施泰特(Brent Mittelstadt)和弗洛里迪(Luciano Floridi)在最近发表的一篇文章里总结现今讨论中涉及的十多个主要课题,其中包括知情同意权及隐私权在大数据时代下的意义与可行性、数据所有权(data ownership)、大数据鸿沟(big data divide)、大数据可能带来的群体层次伤害(group-level harm)、知识论在大数据伦理中的角色及重要性、数据管理涉及的信托关系、大数据应用中学术用途与商业用途之区分、与大数据相关的知识产权问题,以及数据存取权(access rights)等。②米特尔施泰特和弗洛里迪已详细介绍了以上各个重点课题,本文不会就它们再进行讨论。本文重点关注大数据技术带来的另一种道德挑战,即个人决定(personal decision)及知情同意(informed consent)在大数据时代何以成为一种新道德责任之现象。

个人决定及知情同意在大数据时代下成为一种新道德责任乃是基于大数据技术发展及应用所产生的一种背景条件(background condition)。我把这种背景条件称为“互联状态”(the condition of interconnectedness)。简言之,所谓“互联状态”是指在大数据时代,人与人之间的联系在线上线下生活各个层面变的紧密无缝。互联状态不但挑战人们对私隐权及知情同意权的固有理解,更可能使得这些道德概念在大数据时代下不再适用。就互联状态带来的规范性问题,国内外社会科学学者及信息伦理学者均主要关注不同的应对方案;但他们的讨论忽略了互联状态对一些日常(道德)行为造成的根本转化(fundamental transformation),因而也忽略了互联状态可能带来的新道德责任。本文将阐述大数据技术如何模糊“涉己行为”(self-regarding acts)与“涉他行为”(other-regarding acts)的界线,并以“个人决定”及“知情同意”这两种行为作为例子,讲述此转变如何使以上两种行为成为一种新道德责任。

一、“个人决定”及“知情同意”的原有道德意义

本文旨在阐述个人决定及知情同意在大数据时代的道德转化,因此我们必须厘清这两种行为的本质及其原有道德意义。

在日常道德生活中,我们普遍赞成除非我们拥有凌驾性理由,否则我们应该接受并尊重他人的个人选择;同样,我们亦普遍赞同如果我们的决定和行为将会对他人造成重大影响,我们则有必要事先取得对方同意。换句话说,在日常道德生活中,我们一般把没有充分理由否决他人所做的个人选择或没有获取对方的同意下做出影响他人的决定和行为视为道德错误。但我们应如何理解上述行为作为一种道德错误?要说明上述行为的道德错误,最直接的可以在自由主义传统中找到答案。从自由主义角度出发,个人决定及知情同意两者均是个人自主性(personal autonomy)的体现。因此,根据自由主义,上述行为的道德错误源于违反个人自主性的价值。

我们可以更加详细地分析“个人决定”的道德意义。我们可以把个人决定区分成两部分:(1)把个人决定视作自主决定(autonomous choices),即不受他人或其他外在因素干扰,并在没有限制选择条件之下所做出的决定。③(2)个人决定应被理解为关注自身的决定,而且该决定不会对他人构成直接影响。此“个人决定”的定义可帮助我们更清楚理解它的道德价值。由于个人决定基于人们的个人自主性,所以,若我们接受如康德或密尔等自由主义哲学家对自主性拥有内在价值(intrinsic value)的观点,我们就需要接受他人的个人决定并予以尊重;除非该决定直接影响其他人的福祉,否则我们不应该对其做出任何干预。④密尔的伤害原则清楚表明了这种对个人决定的道德意义的想法。

人类之所以有理有权可以个别地或者集体地对其中任何分子的行动自由进行干涉,唯一的目的只是自我防卫。这就是说,对于文明群体中的任一成员,所以能够施用一种权力以反其意志而不失为正当,唯一的目的只是要防止对他人的危害……要使强迫成为正当,必须是所要对他加以吓阻的那种行为将会对他人产生祸害。任何人的行为,只有涉及他人的那部分才需对社会负责。在仅只涉及本人的那部分,他的独立性在权利上则是绝对的。对于本人自己,对于他自己的身和心,个人乃是最高主权者。⑤

根据自由主义,因为理性的人们最熟识自己的喜好和利益,我们不应干涉他人的个人决定。因此,他们是最适合为自己做出选择的个体。换言之,个人决定对理性个体来说必然是一种最佳(或对自己最好)的决定。同时,自由主义者指出,人们均享有追求自己生活方式的权利,并且只有通过个人选择,他们才可以真正计划并实践一个属于自己的人生。所以,自由主义者提出我们应该把个人决定视为一种基本权利。有自由主义者甚至提出人们应该享有“做错事的权利”(a right to do wrong)。⑥当然,这并不表示我们不可批评他人的不当选择;但如果这些选择只会影响到选择者本身,我们对他们的批判或责难仅是关于决定是否精明的慎思性批评(prudential judgment),而不是关于道德对错的道德性批评(moral judgment)。即,只要我们的个人决定并没对他人构成直接影响,我们仅需要为自己的个人决定负责任。

当然,人们存活于社会,国家的决策无可避免地会直接影响大众的生活方式,甚至简单如人与人之间的基本日常交流亦在所难免地互相构成影响。若按照自由主义者所言,自主性的价值是根本不可被侵犯的。在这一情况下,国家的政策以至人与人之间的交流又如何可能避免侵犯个体自主性?就以上问题,自由主义者认为,我们可通过人们同意(consent)达成的社会契约来解决。⑦

自由主义政治理论传统把人民的同意视为政治合法性(political legitimacy)的根源。⑧只要人们在自愿的情况下认同政权,他们的同意就反映了同意者自主地接受国家的统治,并接受国家所制订的政策。⑨也就是说,只要透过自愿同意,同意者自愿把(一部分)决定的权力交到政府,并把它的决定视为自己的决定。我们亦可以用日常生活作例子来说明同意的道德价值。比如,若我们的行为可能使他人陷入风险,我们则有必要在行动前事先征求他们的同意(或征询他们的意见),否则我们的行为在道德或法律上都均为错误。这亦是医疗伦理和实验伦理皆提出必须在手术及研究前取得病人及实验对象的知情同意的原因。⑩通过病人及实验对象的同意,他们将不会被视为被迫接受手术或被迫承受实验所带来的风险;而是自愿接受并清楚自己将会承受这些已知的风险。同时,亦因为他们是自主地把自己置身那些风险之中,所以他们自己亦要对这些风险负责任,并且不能再把所有责任推到施术者或实验者身上。

我们更可以把知情同意视为有允许功能(permissive function),可通过有效的知情同意来改变一个行为的允许性(permissibility)。比如,擅自进入私人领地与探访朋友这两种行为有着基本的道德分别;前者不被道德允许,但后者则是道德所允许的。这两种行为在表现上无疑是一致的,但两者差异在于后者拥有被探访者对探访行为的同意,即他愿意接受朋友的到访。同样,在用刀刺穿他人身体与施行一项手术,两者的行为表现上亦可以视为毫无差异,但两者的分别在于施手术这一行为有着病人对施术者的知情同意。(11)换句话说,知情同意亦可被理解为接受他人加诸在我们身上的行为的一种决定。因此,这亦该被视为自主性的一种体现。

上述讨论指出个人决定和知情同意均是基于自主性的价值,因此我们是不可能代替他人作个人决定或是知情同意的。同时,由于“个人决定”或是“知情同意”均是基于自主性的价值,我们只需要在决定及同意过程中考虑自己的利益,以及考虑当中是否涉及对他人造成的重大影响,并就个人决定或知情同意负责任,我们则已完成“个人决定”或是“知情同意”的道德责任。也就是说,在决定和同意并不直接影响他人的情况下,个人则不需要考虑他人(除非他们自己决定要这样做)

二、互联状态对“个人决定”与“知情同意权”之挑战

诚如米特尔施泰特和弗洛里迪等学者所言,大数据技术对我们固有的道德观念带来极大挑战。这些道德挑战不单源于大数据技术所带来的前所未有的结果,更是因为大数据技术改变了我们与世界、社会和他人的关系。这部分,我将以“互联状态”概念去阐释大数据技术所带来的转变,并以个人决定及知情同意为例解释互联状态所带来的道德冲击。

所谓“互联状态”,是指人与人之间在线上线下生活紧密无缝的联系,我们可以以技术(technical)及本体论(ontological)两个层面进一步说明这种关系。

首先,我们可通过技术运作的最低技术要求(minimum technical requirement)或技术带来的影响去理解互联状态;我们可以把此互联状态的理解称作“技术性互联状态”。诸如铁路、互联网等大型技术系统,有些技术必须要大规模应用才能有效实践其应有功能,而一旦这些技术开始运作,社会上的个体皆会成为其用家(或直接受其影响)。通过促使人们成为技术的共同用家,这些技术以中介的形式把人们紧密地联系在一起;又或是,这些技术把社会上不同的人以一个用家群组的形式连结一起。

大数据技术正是这样的一种技术。作为有效的大数据技术应用,它必须要横向及纵向广泛实施。首先,大数据技术应用必须收集足够数量的数据才能发掘可靠的模式(patterns)及统计相关性(statistical correlations)以创造新的知识,并协助我们透过数据预测未来。因此,大数据分析系统必须收集大量甚至不同的信息作为发掘模式及统计相关性的根据。再者,大数据分析系统亦需要持续数据输入来协助系统进行反复验证,才可以确保从数据发掘的模式及统计相关性的准确性,并针对新的数据,在需要时对大数据系统作出修改,以加强它的预测能力。更重要的是,随着大数据技术应用的成熟,它将可以预测过往从未赞成被收集数据的人们的决定和行为;因为大数据系统只需要少量的个人信息,就能对这些未完全未被收集过数据的人们进行预测。(12)这种情况下,大数据技术将带来一种技术性互联状态:个人通过大数据技术应用及影响成为紧密相连的用家群组成员。

技术性互联状态对个人决定权的影响尤其严重。承上文,大数据技术只需少量个人信息就能够针对个人决定和行为做出相对准确的预测;当大数据分析系统正式推出,人们便难以回避大数据系统对我们做出预测的可能性。只要第三方(包括国家、企业等)拥有少量关于我们的基本参数,大数据分析系统就能够利用过往发掘的模式及统计相关性进行比对,并对我们进行预测。我们可把这一情况看成:在大数据时代,除非我们能回避所有数据收集,否则我们将无法拒绝成为大数据技术的预测对象;即,我们没有退出的权利(the right to opt-out)和可能性。同时,因为大数据系统会基于过去收集的数据为我们提供选项,我们所拥有的选项将会被系统过去发掘的模式及统计相关性所限制,这些有限的选项亦必然会大大减少我们的选择空间。(13)

大数据技术带来的技术性互联状态亦会对知情同意权带来挑战。瑞典技术哲学家汉森(Sven Ove Hansson)指出,要在任何大型技术工程项目中获取众人的知情同意是不可能及不可行的。(14)汉森认为,大型技术工程项目影响多样、而且程度不一,因此,我们不可能明确界定谁是大型技术工程项目的受影响者,在大型技术工程项目中我们亦不能确定需要谁的知情同意。汉森亦认为,若任何大型技术工程项目均必须获得所有受影响者的同意才能进行,它们将会面对另一问题——否决权问题。由于各人想法和利害有所不同,现实中我们基本上不可能使每个受影响的人都同意此大型项目。作为一种带来大范围影响的技术,大数据技术同样面对以上汉森所提出的两个难题:在大数据分析系统投入运作之前,我们到底要谁的同意权?是直接被收集数据的对象,抑或是任何有机会被预测的对象?就算我们能够定出谁要对大数据分析系统的应用给予同意,但这些人又是否可以达成一致的同意?这些都是大数据技术应用要获得知情同意必然会遇到的难题。

另一种对互联状态的理解是本体论式的。借用弗洛里迪的说法,大数据技术属于一种重新本体化技术(re-ontologizing technology)。所谓“重新本体化”,弗洛里迪是指:

一种极端的重组(re-engineering),重新本体化不仅重新设计、构造或构建系统(例如,一间公司、一台机器,或其他的人造物),更加从根本上改变了其内在本质(instrinsic nature),即它的本体。(15)

当我们把自身身份数位化(digitalized)及数据化(datafied)时,我们将大幅度地减低本体摩擦(ontological friction)。大幅度地减低本体摩擦的结果就是个人信息交流传递变得容易,亦同时使得第三方更容易获取有关我们的信息。(16)我们可以透过大数据系统支持的剖析技术(profiling technology)进一步来说明本体论式互联状态。

剖析技术会根据每个人的性别、性格特质、个人历史、社会地位等不同因素把人们分门别类(classification),再根据他们所属类别(categories)进行不同回应。通过剖析技术,大数据系统是与一个类别进行互动,而再非与独立个体进行互动。因此,我们的个人身份相对我们所属的群组变得不再重要,因为在剖析技术的视觉中所有决定均针对群组订制。

基于大多数剖析技术的分类程序及方法并非公开,亦没有足够透明度,被分类者通常无从得知他们属于哪一群组。这种情况下,个人实在难以做出知情同意。同时,由于从剖析技术所做的决定乃是针对群组订制,如果这些针对群组的决定要获得知情同意才被视作合乎道德,我们则需要得到所有群组成员的同意。因此,在大数据时代一个重大的挑战是,我们如何能够就一些针对群组的决定而取得所有群组成员的个人同意。在个体之上,群组在大数据时代成为一种主要的决策对象,因此,弗洛里迪等学者认为,群组亦应该成为伦理反思的基本单位。在大数据时代,我们需要考虑的不单只是个人同意权,而是群组同意(group consent)、集体同意(collective consent)等概念。

三、大数据时代的个人行为及决定:从涉己到涉人

大数据技术对个人决定及知情同意所带来的问题极为重要,正是因为它冲击我们固有的道德思考,就以上问题,有学者指出大数据时代反思自主性价值的迫切性、亦有学者提出我们需要扩大伦理考量的范围,即我们有必要把超越个人的群组作为考量单位,并探讨如“集体同意权”、“集体私隐权”等概念的可能性及可行性。

我赞同以上学者提出的课题均为重要的研究方向,但我亦认为以上提及的研究方向忽略了一个非常重要的问题:决定或行为的道德责任因背景条件改变而做出根本转化的可能性。尤其值得指出的是,现今学术圈及政策界对以上课题的讨论均集中于探索如何从第三方(如国家、企业等)保障个人权利或群组权利,或是分析第三方对个人或群组的道德责任,但要明白这些论述只侧重外界对个体的干预及侵犯,完全忽略个体自身在大数据时代下应当主动承担的道德责任。我将会通过“个人决定”及“知情同意”这两种行为,展示大数据技术如何从本质上改变行为的道德价值。

讲述大数据技术如何从本质上改变行为的道德价值前,我们可先参考大数据技术带来的其中一个伦理难题,即米特尔施泰特所说的“集体隐私权”问题(the problem of group privacy)(17)米特尔施泰特指,大数据技术拥有人可通过搜集数据进行分析,把人们进行分类并将他们置于不同临时群组(ad hoc groups),再按临时群组作为决定的参考。米特尔施泰特认为,大数据技术拥有人可透过这些临时群组去窥视群组成员的特征。但由于这一临时群组的身份与个人身份不同,前者由大数据技术应用组成而拥有的共同身份(shared identity),所以现行法例并未有合适的措施保障个人免受第三方透过这种临时群组(或由临时群组给予群组成员的共同身份)的影响。米特尔施泰特提出,由于个人与临时群组在本质上并不相同,因此现行保障个人隐私权的制度并不适用于临时群组。亦因临时群组对个体带来直接影响,米特尔施泰特认为我们需要其他法例及制度来保障临时群组的权利。

我简述米特尔施泰特对集体私隐权的讨论的原因是因为它一方面反映大数据技术会带来全新的伦理难题,另一方面亦显示现有讨论所忽略的固有道德责任根本转化的可能性。在米特尔施泰特的论述中,我们主要关注的还是第三方的举动及他们对临时群组(及组成临时组的个体成员)带来的影响。米特尔施泰特提出的集体隐私权问题主要关注第三方与临时群组间的关系,尤其是第三方对临时群组应负怎样的道德(或法律)责任。虽然米特尔施泰特的论述明确指出大数据技术将带来临时群组此一新道德对象(moral patient)(见图1),但他的论述却未有言明大数据技术产生的互联状态将会转化某些行为的本质及结果,从而使这些行为的道德意义有所改变。

 

如我先前所指,在做出个人决定及知情同意时,我们只需在决定及同意过程中考虑自身利益及有否对他人造成重大影响,并对该个人决定及知情同意负责任,这便足以完成个人决定或是知情同意的道德责任。换言之,个人决定及知情同意均是涉己行为。但由于米特尔施泰特对集体隐私权的讨论已经隐约可见,通过大数据技术,无论是个人决定还是知情同意都会对他人造成直接影响,因此,在大数据时代,个人决定及知情同意不应再只被视为“涉己行为”(self-regarding acts),同时它也是“涉他行为”(other-regarding acts)

 

2所见,A的决定和行为会为他所置身的临时群组提供新的信息,因而令拥有大数据技术的第三方更加了解同属这临时群组的成员的想法和行为。第三方亦可根据A所提供的信息改变针对这个临时群组的预测,此举将会对BCDE等其他属于相同临时群组的成员带来直接影响。也就是说,以大数据技术形成的群组作为中介,A的个人决定不再只限对自己造成直接影响,而是对所有与他相类似的人带来直接影响。比如,假设A住在上海徐汇区并习惯到家乐福购物,同时是哈利·波特系列小说的忠实读者。某日,A决定买一辆新跑车。他这个决定为大数据分析系统提供了新的信息,并协助该系统修正他所置身的临时群组的参数。参考这些新数据后,第三方便可以对这个临时群组制订新的回应(如对该群组提供更多跑车相关的广告等)。新回应并不只对A造成影响,更是对与A有相同特征的BCDE等带来影响。更甚,若A的体质容易患上某种危险疾病,A的健康信息修正其所属群组的参数,以致以此临时群组作参考的第三方可能拒绝受理这一临时群组其他成员的医疗保险。由此可见,在大数据下,个人决定明显会对他人造成直接影响。

在大数据时代,我们的决定不再只是“个人决定”。通过大数据技术,“个人决定”将会转化成一种“个人—集体决定”(personal-group decisions)并必然对他人带来直接影响。因为此转变,我们在做出“个人—集体决定”时亦再不能再只是对自身负责任,更需要顾及与我们相似的个体或是与我们属同一临时群组的成员负责任。在这个理解下,个人决定转化成一种新的道德责任,而我们在做决定前亦有道德义务考虑这个决定将会对其他与我们相似的人所带来的影响。

相同的情况亦出现于知情同意:假设A同意拥有大数据技术的第三方对他做出的决策,第三方可以透过A的同意更加了解如何使得与A相似的人(或是与A同属一个临时群组的成员)同意这个决策。与个人决定的情况一样,A对第三方的知情同意意味着与他特征相近的人也会同意相似或相近的决定。在这个意义下,A的同意不仅代表其个人,更代表所有与他相似的人(或是与A同属一个临时群组的成员)。此知情同意的问题,在生化医学大数据(biomedical big data)相关的情况下更是显而易见。如果A同意提供他的生物材料用作研究或商业用途,他的知情同意将直接影响那些与他共享相近生物特征的人。换句话说,生化医学大数据带来的影响已超出捐助者本身,并扩展到与他相似的人。知情同意不再只限于自身,而是一种会对他人造成直接影响的行为。因此,与“个人决定”一样,在做出知情同意前我们有道德义务考虑到这个知情同意将对与我们相似的人所带来的影响。

在大数据时代,我们的行为可以因为大数据技术而发生本质上的变化,从而让这些行为的道德意义有所改变。本文以个人决定及知情同意这两种行为从“涉己”转化成“涉人”为例讲述大数据技术产生的互联状态带来的道德责任转化。必须说明的是,本文旨在识别大数据伦理中一个并未被讨论的问题,纵使我并没有提供解决问题的方案,但我认为提出学者忽视的问题乃是解决问题最重要的一步。

本文的讨论,亦可被视作质疑“个人决定”及“知情同意”的归谬法论证(reductio ad absurdum),即,在大数据时代,每个决定或是每次同意都对他人构成直接影响,因此绝不可能存在单纯的“个人决定”或“知情同意”。不过,就算上述讨论成功论证个人决定及知情同意在大数据时代并不存在(或不再存在),我亦相信“个人决定”及“知情同意”将保留在我们的日常话语中。因此,我们现在更需要的是明确指出大数据时代的个人决定及知情同意所包含的涉他维度。即,在决定及同意前,我们需要考虑决定及知情同意对与我们相类似的人所带来的直接影响。又或,我们现在必须开始用一个超越个人的角度去思考这些行为。也就是说,以上的讨论可以视为对“个人决定”及“知情同意”的一种修正主义(revisionism)。在大数据时代下,我们有必要重新理解“个人决定”及“知情同意”的内涵意义。

当然,我所提出的修正主义并非完全没有问题。尤其是假设以上对于个人决定及知情同意已从涉己行为转化成涉他行为论证为正确,人们似乎不可能在决定及同意时考虑所有受影响的人——因为他们无从得知这个决定或知情同意到底会对谁造成影响。(18)对于这个问题,我们可以通过两个方向去做出回应。首先,我们可以强调决定和同意过程的重要性。一般情况下,我们亦是没法全然预测决定和行为将会带来的所有后果。因此,我们应当考虑的并非我的决定能否保证不会为所有人带来负面影响,而是在决定或同意过程中,我到底有没有把其他人所受到的影响考虑在内。其次,我们可以考虑在技术层面上减低人们承担道德责任的难度。国内外多位学者都指出我们可以透过重新设计、构建技术来改变人们的行为,令他们更符合道德。(19)个人决定及知情同意从“涉己”转换成“涉他”亦是源自大数据技术的本质及其应用结果,因此我们亦可以透过(重新)思考大数据技术的设计和运作方式以提升我们在做出个人决定和知情同意时同时考虑对他人的影响的可能性。例如,我们可以要求大数据分析系统加入提示功能,在用家做出决定或知情同意前提醒他们所做出的决定将会对他人造成直接影响,并要求用家花少许时间再做考虑。

最后,以上的讨论亦可以为大数据治理提供一些思考方向。由于现行大数据治理方式主要以自主性为核心价值,使得大数据治理的法例及制度难以实践本文提出的新道德责任。简而言之,只要现行的讨论仍旧集中于保障个人(或是群组)权利,这种思考模式将会完全忽略个人的()道德责任。也就是说,我们必须重新考虑大数据治理的原点,让履行这种与群组相关的道德责任变得更加可能。本文提出的个人决定及知情同意在大数据时代将带来新道德责任这种想法可以帮助我们超越旧有的思考框架。

【注释】

①有关大数据技术所带来不同层面的影响,参见Viktor Mayer- & Kenneth Cukier,Big Data:A Revolution that will Transform How We LiveWork and Think,London:John Murray,2013

Brent Mittelstadt & Luciano Floridi,"The Ethics of Big Data:Current and Foreseeable Issues in Biomedical Contexts",Science and Engineering Ethics,Vol.22,No.2,2016,pp.303341.

Tom Beauchamp & James Childress,Principles of Biomedical Ethics,New York,N.Y.:Oxford University Press,2001,p.58.

Ibid.,pp.6365.

⑤约翰·密尔:《论自由》,许宝骙译,北京:商务印书馆2007年版,第10页。

⑥对于“做错事的权利”的讨论,参见Jeremy Waldron,"A Right to do Wrong",Ethics,Vol.92,No.1,1981,pp.2139; J.Herstein,"Defending the Right to do Wrong",Law and Philosophy,Vol.31,No.3,2012,pp.343365; J.Herstein,"A Legal Right to Do Legal Wrong",Oxford Journal of Legal Studies,Vol.34,No.1,2014,pp.2145

⑦虽然哲学家对“知情同意”(或“知情同意权”)的理解有大致共识,但对其细节的定义还有着一定争议。本文不打算就知情同意的定义和内容进行讨论,本文将简单地把“同意”(或“知情同意”)视作非强迫性,并对同意事项有足够认知的一种决定。对知情同意的详细讨论,参见Nir Eyal,"Informed Consent",The Stanford Encyclopedia of Philosophy,edited by Edward N.Zalta,Fall 2012

Jeremy Waldron,"Theoretical foundations of liberalism",The Philosophical Quarterly,Vol.37,No.147,1987,pp.127150.

⑨有学者指出,我们应该区分一个政权的政治合法性及一个政策的政治合法性。我赞同这个说法,但基于这个问题不会影响我的论证,我将不会就此问题进行讨论,参见Thomas Christiano,"Justice and Disagreement at the Foundations of Political Authority",Ethics,Vol.110,No.1,1999,pp.165187; Kalle Grill,"Liberalism,Altruism and Group Consent",Public Health Ethics,Vol.2,No.2,2009,pp.146157

⑩参见Douglas MacLean,"Risk and Consent:Philosophical Issues for Centralized Decisions",Risk Analysis,Vol.2,No.2,1982,pp.5967; Andreas Teuber,"Justifying Risk",Daedalus,Vol.4,No.4,1990,pp.235254

(11)John Kleinig,"The Nature of Consent",in The Ethics of Consent:Theory and Practice,edited by Franklin Miller & Alan Wertheimer,New York:Oxford University Press,2010,pp.324.

(12)有关大数据技术如何预测个人行为决定,请参见本文第三部分。

(13)Sofia Grafanaki,"Autonomy Challenges in the Age of Big Data",Fordham Intellectual Property,Media and Entertainment Law Journal,Vol.27,2017,pp.803868.

(14)Sven Ove Hansson,"Informed Consent out of Context",Journal of Business Ethics,Vol.63,No.2,2006,pp.149154.

(15)Luciano Floridi,Information:A Very Short Introduction,New York:Oxford University Press,2010,p.11.

(16)Luciano Floridi,"The Ontological Interpretation of Informational Privacy",Ethics and Information Technology December,Vol.7,No.4,2005,pp.185200.

(17)Brent Mittelstadt,"From Individual to Group Privacy in Big Data Analytics",Philosophy & Technology,Online First,2017.

(18)这个问题与汉森对知情同意权在大型技术工程项目的挑战本质上一致,参见本文第二部分。

(19)例如,Peter-Paul Verbeek,Moralizing Technology:Understanding and Designing the Morality of Things,Chicago:Chicago University Press,2011; Luciano Floridi,"Distributed Morality in an Information Society",Science and Engineering Ethics,Vol.19,No.3,pp.727743,2013

(原载《哲学分析》2017年第6期)