热搜词:

戴昕谈隐私、数据、声誉与法律现实主义

戴昕(章静绘)

今天,数字通信、互联网、新媒体以及各类应用的广泛普及和不断迭代,伴随相关争议层出不穷,正是“信息”作为法治议题受到高度关注的重要背景。北京大学法学院长聘副教授、副院长戴昕在新著《信息隐私》中,从微观到宏观层面,深入探讨了隐私保护、数据产权、声誉修复、科技伦理等前沿法律难题,为我们勾勒出一幅二十一世纪中国如何理解与实践信息隐私的立体全景。

公众人物的隐私权是否该受到限制?新一代人工智能兴起后,当数据全面收集和共享不可逆,法律可以建构什么新的有关个人信息处理行为的规则?在今天的信息技术环境中,如何恢复声誉,给人第二次重新来过的机会?数据之治作为一种新治权,会在世界各国引发宪制结构调整吗?就这些问题,《上海书评》专访了戴昕。

《信息隐私:制度议题与多元理论》,戴昕著,北京大学出版社,2024年4月出版,256页,69.00元

您说《信息隐私》全书采用“反形式主义立场”,反对将“隐私”“数据”“个人信息”等概念本质化、实体化(thingify),主张用对“物”的研究代替对“词”的纠缠,基于事理来演绎法理。为什么要反复强调这一立场?当然,您也会让步说,法律理论的形式维度和现实维度应相结合。您怎么看法律形式主义与现实主义的关系?在信息隐私问题上,您的现实主义视角就是社会福利分配视角、损害相互性视角,为什么这样的视角是现实主义的?

戴昕:“法律”内含一套语义和符号系统,其清晰性和逻辑性是法律制度以理性方式运转的前提,因此法学研究者会将很大的精力放在建构系统形式、完善语义逻辑之上,在行外人看来就是特别喜欢“咬文嚼字”。正如书中所说,我并非认为这些形式维度的工作不重要,甚至认同法律工作就应该在“形式上”多下点功夫——每年春天指导学生论文的时候,最常给他们提出的要求之一就是好好读读自己写的句子,想说的意思够不够清楚,有没有前后自相矛盾,同一个概念在不同地方出现会不会对应两件事,等等。

我所反对的是“形式主义”。“法律形式主义”(legal formalism)和“法律现实主义”(legal realism)是一百年多前开始在美国法学理论领域出现的一对相互对立的学理范畴,不过我们如今提起这两种学理立场时,所指相对会更宽泛。所谓法律形式主义,在较极端的意义上,主张以符号、语义和逻辑构成的形式规范系统就是法律的全部,完美的法律是在“真空中”自主运转的理性,其独立于外在的社会、政治或道德考量,能够凭借清晰、精确的概念体系和严谨的演绎方法,对所有法律问题提供确定性。换言之,在法律形式主义者眼中,人类社会的“法律”与自然物理“法则”(law of physics)是没有差别的,法律研究者的工作和牛顿一样,在观察“苹果落地”(真实纠纷与案例)的基础上探究思考,从而发现“万有引力”(抽象法律规则)——后者本身是客观真理,不因社会的利益或需求而改变。与这种立场对立的即是法律现实主义,其认为法律的形式——概念、规则等——本身都来源于社会实践,而法律的运作服务于社会实践的需求,甚至往往有被特定利益诉求驱动的政治属性,因此既不中立客观,更无所谓完美。在现实主义者看来,足够困难的法律问题都无法仅凭形式主义者推崇的所谓法律方法解决,或者说这类问题的法律解决方案本身都不能仅在法律层面理解。

现实中,极端且完全自觉的法律形式主义者恐怕不多,但在半自觉或不自觉的意义上有较强形式主义倾向者其实不少。具体到信息隐私问题,相比于其他更传统的法律理论议题,我认为法学界的形式主义倾向要更弱。信息隐私问题之所以在最近十多年受到突出关注,完全是因为实践日新月异,相关研究者大多都是被实践问题触动才“入坑”的,而不像有些传统领域那样,由于研究已过度饱和,研究者只能从法条或教义的细枝末节出发,在语义层面建构并研讨一些实践中不构成问题的问题。不过,尽管信息隐私问题的研究是由实践而起,但研究在开展过程中还是没有避免形式主义的惯性,比如追求在实质意义上区分界定隐私、数据、个人信息这些概念,明确分辨信息中的人格利益和财产利益,在既有财产权利体系下明确“数据权属”,等等。注意,我并不是说这些概念区分的工作本身没有价值。我的看法是,法律上的这些概念本身不具备“本质”内涵,我们根本做不到,也没必要追求找到某种客观、中立、脱离社会需求的“理性”理由,界定哪些信息是隐私,哪些不是,或者哪些数据是“企业数据”,哪些是“公共数据”。实际上,恰好相反,法律概念是一种制度工具,服务于制度性解决社会问题的需要,后者是我们应该首先思考、理解、辩论的问题,由此出发,再去建构符合实践需要的法律概念。不仅如此,如果“厘清概念”的目的是服务于实践,那么这些形式层面的工作也要适可而止,不应指望并追求实现极致、恒久的精确。现实是复杂、变动的,例如在信息隐私问题上,人格和财产利益如今往往是交织并重叠的,即使没法拆解得一清二白,我们仍可以观察或想象人际互动界面上的行为规范——无论法律还是伦理——及其后果,对规范反思、批判、重新建构,在此基础上解决问题。

除此之外,如您所说,我在书中采用的现实主义视角,确实主要是社会福利(welfarism)意义上的,或者说后果论式的,以行为和规则的后果作为制度评价与建构的基准。这当然不是形式主义的,我不认为存在某个必然正确的概念和规则系统,只有先在逻辑上发现并梳理清楚这个系统,才能思考相关法律和制度问题。当然,我希望本书中呈现出的后果主义是相对较弱的那种,有更强的包容性,可以把例如自主性、独处偏好等通常认为独立于制度的整体社会后果的价值原则也带进来。

关于隐私保护的公众人物规则,即适当限制公众人物隐私权,以保障新闻自由的规则,您通过考察法律与中国其他规制因素的互动,得出了一个与通常认知相反的结论:这一规则表面体现开放多元精神,实际会造成精英阶层内部隐私保护待遇分化,削弱缺乏资源者进入公共视野的意愿,促进媒体人格呈现的单调同质。能介绍一下您的分析过程吗?按您的思路,如果法律不区分精英与普通人的隐私权,虽能让前者多元化,却也会拉大二者的差距。就这里体现的多元与平等的矛盾而言,您认为什么样的安排是好的安排?

戴昕:公众人物隐私保护相对于普通人更受限的法律规则,主要以美国为代表,传统上的确被认为主要有助于保障新闻自由。但正如书中介绍,公众人物并不只靠法律实现隐私,如果法律保护相对弱化,其会转向其他自力保障的方案,无论是购置深宅大院,还是出行坐私人飞机,甚至去买通媒体撤稿、买热搜,等等。基于此,不难想象,都是公众人物,占据这些其他资源的情况却会有很大不同,如果你没有那么多“资源”,又想站到舞台中央,可能就要付出比其他名人更高的隐私代价。在美国其实一直就有这样的讨论,一些被认为非常优秀,甚至被期望参与总统大选的人,因为自己“脸皮不够厚”,不希望个人生活被过度暴露在聚光灯下,并且也没有足够的资源或精力去进行公共形象管理,最终决定放弃进入政治、参与公职,这可能是社会的损失。

就中国的情况而言,书中第一章的讨论受到当年杨丽娟案的启发。在那个案件中,杨氏母女被法院认定为“自愿型公众人物”,由此落入了相对而言隐私更少受法律保护的类别。但反过来,在其他一些看上去所涉信息私密性未必更高的案件中,更接近人们所通常理解的“公众人物”的一些原告,其隐私诉求在法律上却获得了更多认可。在这个意义上,中国的信息隐私规则,看来同样是不太鼓励普通人进入公众视野的。不过,在中国,精英可以借助的隐私保护资源,除了可从市场购买到的那些之外,还有一些是制度性的。一类是社会制度,比如有关“为尊者讳”“死者为大”的文化规范,一类是法律制度,例如管理部门对暴露名人隐私、炒作低俗内容的审查与限制。这使得哪些精英有何种资源保护自身隐私的问题,在中国变得更为多样,值得玩味。

杨丽娟,2007年4月。视觉中国 图

杨绛曾于2013年起诉中贸圣佳公司、李国强侵害钱锺书书信手稿著作权及隐私权。视觉中国 图

至于什么样的安排是最好的,我其实也没有答案——手心手背都是肉。或者,反过来说,不管社会中哪个阶层的个体,其实无非都想“既要又要”,一面要获得超出一般的公众关注并由此获益,一面又要确保自己不想被他人所知的事情一概能够保密。那么,凭什么有些人就应该比另一些人更值得这种待遇呢?传统上,这种关注度和私密性之间的权衡,交由每个个体结合自身占有资源的情况,自行相机决策,无法指望法律给出一揽子制度安排,法律保护对个人决策的影响主要是边际上的。不过,由于社交媒体的普及,以前只有少数人需要权衡的这种利弊,如今对于广大的活跃社交媒体用户而言都成了家常便饭——随便参加个健身活动或网络讨论,都可能引致家底被翻个干净。我们因此需要更好地理解普通人的行为及其背后偏好的变化,思考是否有必要做出一些一般性的制度安排,避免人们在不知情、无意识的情况下,被诱导或操控做出一些具有严重自我伤害性的选择。

如您所说,今天有某种人均公众人物的趋势,普通人在其弱关系网络中表现得越来越像传统意义上的公众人物,更有能力策略性地使用个人信息,甚至实施社交欺诈。同时,“人肉开盒”事件频发又让社会产生不安情绪,人人自危。美国学者丹尼尔·索洛夫(Daniel J. Solove)在其新著《论隐私与技术》(On Privacy and Technology)中指出,数字时代的“同意”机制是一种虚构,个人不该被赋予那么多隐私管理权责,您同意吗?

丹尼尔·索洛夫著《论隐私与技术》

戴昕:作为具体的法律规则,同意机制确实是一种虚构。近年每次到欧洲的时候,打开任何网站,都被要求点击有关网站隐私政策的同意,但我们知道根本不会有人仔细看——不仅是细致的条款没人看,甚至弹窗里一句话的提示都不见得有多少人会看,只是默认点击“接受”,因为人们潜意识里往往会担心,如果不接受,会不会减少服务,甚至没法继续浏览网页。

其实近年来,关于网络用户是否能够理解隐私政策、是否能够根据自己的偏好和需求做出选择,有许多基于实验方法的经验研究,其结论并不完全相同,但至少有一些研究似乎指出,隐私政策本身没有我们想象得那么难懂,普通人完全可以读明白,也能够在考虑之后做出选择。但即便如此,这些研究的发现也不足以作为法律应主要通过赋权个人、提供隐私管理选择以规范数据隐私实践的依据,因为我们根本无法想象,人们需要去阅读每天打开的每个页面和每个应用的隐私政策。因此,数据隐私管理在当代肯定需要从社会层面着手。

但在抽象的意义上,我认为与隐私保护有关的“同意”还是一个有学理意义的观念。我们可以将其理解为数字经济的服务提供者与社会公众之间的某种一般性协议。数字经济的发生、发展和繁荣以用户或社会公众的普遍参与为前提,后者在技术崛起之时被允诺了许多便利、实惠,与此同时还被保证不会面临特别严重的安全风险,而用户为了这被允诺的更美好的前景,也愿意在数字经济发展过程中忍受一些不便甚至困扰。这种一般意义上的社会契约提供了数字经济持续发展所必要的社会信任。如果数据处理者“背信弃义”,故意采取伤害用户乃至危害社会的做法,我们之所以会将这些行为认定为不合法,其规范理由之一可以是“同意”的缺失。

您认为,面对数据社会的前景,换言之,当数据全面收集和共享不可逆,“看破不说破”——知情者积极掩饰知情状态——或许可以成为重构信息隐私的立足点。但您也指出,“不说破”高度依赖语境,这会成为其重构隐私规范和制度的障碍吗?另外该如何回答您在这一讨论最后提出的问题:在哪些领域,何种意义上,“不说破”无法替代“不看”“不说”?在何时,即使可以保证“不说破”,还要谋求“不看”“不说”?

戴昕:对个人信息的全面收集和处理,在新一代人工智能兴起的当下尤其会是一种不可逆的趋势。但需要注意的是,此前多年来法律制度在个人信息收集环节的前端规制,效果本身也并不理想——甚至,新型人工智能兴起本身,在一定程度上得益于这种前端规制在整体意义上并没有成功。

假定未来端侧人工智能体(例如真正智能的“智能手机”)普及,成为每个人在日常生活中实际可用、有用的个性化生活与工作助理,那么法律在个人信息收集环节以告知同意为基础的规制将进一步失效。人们可以关闭不好用的个性化推荐,可以谴责未经许可被打开的“无障碍操作”,但如果AI助手真的既好用又贴心,有多少人会舍得拒绝把个人信息全盘奉送呢?

到这样的时候,不论有多困难,我认为法律都将不得不走出舒适区,真正做出努力,尝试建构比前端收集控制更为细致、接地气并且能够语境化的有关个人信息处理行为的人机交互规则。举例来说,人工智能体可以了解我的需求,甚至最好能推测我的需求,知道我最近BMI(身体质量指数)超标,在我傍晚下课回到办公室之前,它已经给我点好一份热量较低的晚餐,而我因为工作忙,根本没有想起过好要跟它提出这个要求。但更体贴的是,它不会说你最近胖了,应该注意饮食、别再大鱼大肉了,不会让你有任何心理负担。不难想象,家人或亲密的朋友之间,可能会有这种默契、关照和尊重,而这都是基于分享个人信息,甚至敏感个人信息实现的相互了解。我们有没有可能在人机交互界面,建构、适用类似的行为规范?毫无疑问,这比要求机器在收集处理信息之前推送弹窗、获得同意困难多了,甚至近乎科幻。但我认为研究、思考这样的规范是更有意思的,甚至在未来不可避免。这其实也体现了形式主义和现实主义的区别。很多时候形式主义者本身其实也是务实的,只是讨论概念,把概念嵌入规则,这在短期上反而更能落地。所谓现实主义者,反倒会面向远方多做些想象。

您详细论证了传统财产权体制保护抽象排他诉求的做法,与数据资源的特征之间存在深刻的张力,因此您认为,所谓数据界权,应在数据处理行为的冲突层面,而非数据的静态权属层面,并且这种界权是权宜的、持续的、开放的。科斯的理论与霍菲尔德的框架似乎是您到达同一目的地的两条路径,书中对应的两章是用不同语言讲述同一件事,可以这么说吗?

戴昕:科斯的理论指出,法律规则界定权利的意义是为秩序提供起点,而不是确定秩序的终局。换言之,明确了法律规则,基于交易和协商安排利益的市场机制才能够开启运转。而对法律界权这个起点的需求,本身来自稀缺性造成的人和人之间不可避免的利益冲突。在科斯看来,法律对权利的界定,实际上是在必然出现相互妨害时,法律将允许一方妨害另一方,且不需要因此对另一方承担赔偿责任等后果。一方的权利,因此就是另一方需要承受的负累。这样的理解可能有点冷酷,特别是法律界和公众经常会讲,法律的目标是平衡各方利益,而“平衡”的意思似乎是所有人都要照顾到,都能让其满意。但科斯指出,这个在绝对意义上做不到,法律经常不是在“平衡”,只是在“取舍”。

罗纳德·科斯(1910-2013)

很有意思的是,在科斯于1950年代末提出这种“损害相互性”的观点之前,霍菲尔德在早其四十年之前便更为清晰地建构了一套体现这种思想的法律权利概念框架。在霍菲尔德的框架中,所有的法律上的积极权益,都必须对应着某种法律上的负担,权益和负担只有在包含两个主体的法律关系的意义上,才能存在。例如,任何人若在法律上享有权利,都必定意味着另一个人为此背负了相应的义务。这实际上是为损害相互性的思想建构了一种法律形式表达。

韦斯利·纽科姆·霍菲尔德(1879-1918)

限于自身的阅读和查证,我没有找到科斯的理论受霍菲尔德理论影响的直接证据,但如果真有的话,倒也并不奇怪,因为科斯毕竟是在美国的法学院图书馆里泡了比较长时间的经济学家。而如果科斯确实不了解霍菲尔德的话,那这就是又一个英雄所见略同的佳话,也是我在做这个研究时感到非常有趣的一个发现。实际上,虽然人们通常认为霍菲尔德的主要贡献是提供了一套形式化的分析理论工具,但他本人在当年是法律现实主义取向的。霍菲尔德对形式化理论的定位就是工具,如果概念工具比较清楚,就可以借助这套工具,进一步思考将社会政策和政治价值通过这套概念工具转化表述为法律规则。在这个意义上,霍菲尔德不是形式主义者,他并不认为法律概念本身是第一性的,可以独立于底层的社会关系和社会实践成为实体。我认为科斯和霍菲尔德的理论对于我们思考数据相关的法律规范的建构有帮助,前者指出权利规范要结合市场思考后果,后者指出真正必要的规范是界定关系,而不只是站在某个个体的立场上建构其权利。

在互联网商业模式下,人们习惯了用免费数据换免费服务;而在人工智能生产过程中,数据可被视为生产资料,人产生数据可被视为劳动:此即从“数据作为资本”到“数据作为劳动”的范式转向。您认为应该重视市场基于数据质量,对不同数据劳动作出区分定价,尤其使高技能的劳动者制造的劳务数据获得劳务支付。这会制造新的不平等吗?

戴昕:实际上这种“不平等”一直存在。比如,写作就是生产数据,一些人可以为此获得报酬,另一些人则需要倒贴钱给出版方才能实现发表。当然,这里的问题是,市场本身并不是判断作品价值的唯一尺度。正是因为意识到了这一点,人类社会才会出现像大学这样的机构,稳定雇佣一群人创作高质量数据——其中很多人的作品,在至少一定时期之内,都在市场上卖不出什么价钱。

当然,我在书中主要讨论的不是上面这类数据生产活动,而更多是例如游戏平台、社交平台、电商平台上的用户在使用平台服务的过程持续生产的数据,这些数据对于平台企业来说是重要的生产性资源。实际上,除了为用户提供服务之外,平台企业也经常用其他各种优惠促销手段,为一些在它们看来具有更高价值的数据向用户额外支付对价。除此之外,市场上如今有很多数据问卷平台,为研究者招募填写问卷的样本,这些样本在科学意义上比你免费生成个问卷发在微信朋友圈里获得的样本质量高得多,当然也就需要付出更高的价格。还有,最近这些年,不少人的工作是为人工智能训练生产高质量数据,也即数据标注。进行难度较低的数据标注和专业性较强的数据标注,价格当然不一样。当前相对付费更高的数据标注工作,应该转向了为训练具身机器人所需要的动作数据,标注文本和图形的工作较此前已经大为减少了。

因此,这里存在不平等,但并不是新鲜现象。 

在声誉修复的问题上,为什么您认为制度设计者和行动者应该突破被“删除”和“遗忘”锁定的思维,在信息层面做加法比做减法更好?

戴昕:所谓“声誉修复”,在宽泛意义上,涉及的是个体或组织在其外部评价因负面情势出现而遭到降低、减损后,有没有任何办法予以补救、挽救的问题。欧洲个人信息保护制度上有很著名的“被遗忘权”规则,其基本逻辑是负面信息不应该跟人一辈子,而要让个体有第二次重新来过的机会,就必须在满足一定时间期限和其他条件之时,将相关负面信息删除,或至少隐藏起来不被看到(例如不能被搜索引擎找到)。

为人们提供第二次机会的出发点当然是好的,但真要依靠某种删除的制度来实现这一目的,会有三点问题。第一是实际操作层面的。今天的社会环境和早先不同,一个人在一个地方身败名裂,曾经可以远走他乡,更名换姓,重新再来。但今天的信息技术环境使得抹去记忆的难度非常大,尤其是这些记忆随着网络化信息存储结构的普及,一旦生成,便很难彻底抹去。第二是信息价值层面的。负面信息固然对个体本身会带来不利影响,但这不意味着这些负面信息对社会其他主体乃至公众没有正面价值。一个人或一个企业违反合同约定,不履行义务,被法院判定承担责任,这项信息如果因为裁判文书公开而始终可以被公众查到,当然可能不利于个体未来获得交易机会,但对于潜在的交易对象而言,这些信息是极有价值的,是其进行尽职调查和信用评估时的必要信息。第三则是伦理规范层面的。社会固然应当给犯过错的人提供第二次机会,但还需要考虑这样做对于没犯过错的人会有什么样的影响。假设有三个人,其中一个犯了错但毫无悔改之心,一个犯了错但又完成自我革新,另一个始终洁身自好,那么人们如果对此三人的过往情况完全了解,他们是否就一定会对第二个人有偏见,特别是不公正不适当的偏见?有没有可能,他们至少会对第二个人给予比第一个人更高的评价,甚至对第二个人给予接近或不低于第三个人的评价?我想这都是有可能的,取决于社会一般接受的有关宽容、谅解乃至救赎的价值规范。但即便假定在某个社会中,流行的道德标准相对严苛,尽管人们认为第二个人比第一个人要强,却仍认为第二个人还是比不上第三个人,我们固然会觉得这样的社会宽容度不够高,但也可以理解其做这样区分的合理性甚至正当性。实际上,只有在那种有极端道德洁癖的社会,人们会认为只要一个人犯过任何错,无论如何悔改都不可饶恕,此时删除才可能是无法避免的。但这样的社会本身并不理性,这种近乎洁癖的道德规范通常也无法持续。

基于此,我觉得用在信息层面做加法的方式实现声誉修复,比“一删了之”更合理。当然,之所以很多人仍然强调删除,恐怕还是因为这个办法听起来最彻底,或者至少在法律要求的层面最“干净”——至于效果如何,可能不是所有的法律人都会那么在意,觉得那都是实际操作而非规范问题。反过来,做信息加法,确实会引发进一步的如何建构调整社会认知规范的麻烦,即信息越多的情况下,人们应以何种方式处理信息、形成认知,会需要更多规范,这样看上去就更复杂。不过法律虽追求简洁,却也并不总是只图省事。

关于中国当代社会信用体系的建设,您梳理出了三种基本制度逻辑:自由主义-法治分散、国家主义-德治集中、发展及现代化-规制强化。您认为这三者可以彼此找到契合点,拼合出一个整体图景,最终实现社会信用体系建设的理想愿景:智慧城市。您比较强调三种逻辑互补的一面,怎么看它们之间的张力?毕竟,您也说,技术发展会推动权力集中还是分散犹未可知。在您看来,界定何为失信、如何惩处失信的权力是一种新治权,关于它在国家权力结构中应处什么位置,您在书里没有给出明确答案,能谈谈吗?

戴昕:其实我的看法是,这三种制度逻辑之间,从一开始就存在张力,其各自取向并不相同,甚至原本就难以在同一制度空间中实现。事实证明,近些年来,这三条信用建设的路径确实从紧密交织逐渐走向空间分化,例如法治分散的逻辑更多体现在市场化征信建设领域;德治集中的逻辑被限定在了一些地方的诚信建设场景里,已经不再是社会信用体系建设中突出强调的内容;规制强化的逻辑则不断受到行政法治要求的规训,形成了稳定但也较之前更为有限的范畴。

由于社会信用体系建设出现的上述分化,基于信用的新型治权,如今看来不像此前预想的那样集中、强大;至少截至目前,法治相对于信用之治仍然占据明显优势。但在下一步,信用的逻辑本身可能随着新的技术能力——更强数据处理和决策能力的AI——的引入,而有再度兴起的契机。新的公共权力有可能以颗粒度更细的方式,为不同社会主体配置权责、提出行为要求。在这种情况下,新型治权出现的位置,取决于数据和算力会被集中掌握在哪些部门手中,而这是有可能在世界各国均引发宪制结构调整甚至某种动荡的。前一段马斯克在美国搞的联邦政府精简改革,其实就是一个极端但生动的例子。马斯克新政团队谋求攻占各部门的入手点就是其数据系统,而像财政部等极少数部门,则通过拒绝数据获取,暂时抵挡住了马斯克的电锯。

马斯克在新一届美国政府中领导“政府效率部”,帮助特朗普大幅削减联邦开支、大规模裁减联邦雇员。

您在讨论“不说破”与隐私规范的价值基础时,在分析声誉损害的可救济性时,都会谈到主观、感受、精神、心理层面,这似乎也是您书里的一条隐藏线索。这些层面对信息隐私问题的意义是什么?

戴昕:信息隐私牵涉的很多社会利益,都根植于人们的主观感受,而这本身也是“隐私”概念一直被人们认为很难清晰描摹、精准把握的重要原因。在以往的理论讨论中,很多学者尝试界定隐私的方式,就是找到另一种主观性极强的价值诉求,例如尊严、自主、自由等等,并指出隐私其实就服务于人们对这些主观、精神性价值的追求。

在我看来,人们围绕隐私产生的精神层面的价值需求是多元的,相互之间甚至经常发生冲突,例如你若对前尘往事主张隐私,那么我作为这个往事的另一方当事人,反而可能觉得,我没有得到充分尊重。因此,在社会意义上,隐私的务实追求不是让所有人满意,而是尽最大可能维持基本的体面与总体和谐。这也是我为什么会觉得,像“看破不说破”这样的规范,反而更可能是具有基础性意义的隐私规范。人类社会从来都没有什么绝对的秘密,不断流变的信息互动方式,对应的是维系社会共存的“体面”——不管多些还是少些,只要人们还会共同生活,“体面”是刚需,而围绕这样模糊的概念形成的规范体系必然包含多元而非一元价值。

在您书出版后的这段时间,人工智能已更加深刻地融入普通中国人的生活。您曾在采访中谈及与ChatGPT相关的数据安全、著作权等问题。您去年发表了一篇论文,探讨人工智能致害的侵权责任,不难看出,相关分析思路与您书中关于声誉修复、数据交易等问题的讨论有连续性。对于人工智能的发展对数据隐私议题的影响,您目前是否有新的思考愿意分享?

戴昕:前面提到,近期有关端侧人工智能体应用的信息隐私问题,我有一些想法,在一些会议上曾做过初步报告,正准备逐步写出来。一方面,我们对智能体的期待是其成为真正有用的智能助手,但另一方面,一个真正有用的智能助手应当遵守什么样的信息隐私规则,其实是我们普通人此前从没有遇到过的问题——因为,“贫穷限制了想象力”,我们从来都没有享受过私人助理的服务。那么,那些现实中早就先我们一步用上私人助理的少数人,是如何约束私人助理的信息处理行为的?这些规范对于我们建构普世化的智能助理信息规范,是否有任何借鉴和参考价值?这是让我觉得很有意思的一个问题。但在更宏观的层面,这其实仍延续了信息隐私从精英议题扩展为公众焦虑的大趋势。