原文标题:Why I support privacy
特别感谢 Balvi 志愿者 Paul Dylan-Ennis、pcaversaccio、vectorized、Bruce Xu 和 Luozhu Zhang 的讨论和反馈。
最近,我越来越关注改善以太坊生态系统的隐私状况。隐私是去中心化的重要保障:谁掌握信息谁就拥有权力,因此我们需要避免信息的中心化控制。现实世界中,人们对中心化技术基础设施的担忧,有时是担心运营商会意外更改规则或下架用户平台,但同样常见的是担心数据收集。虽然加密货币领域起源于像Chaum的Ecash 这样的项目,这些项目将保护数字金融隐私放在首位,但最近它却低估了隐私,原因归根结底是糟糕的:在 ZK-SNARK 技术出现之前,我们无法以去中心化的方式提供隐私保护,所以我们淡化了隐私的重要性,转而专注于我们当时可以提供的其他保障。
然而,如今隐私已不容忽视。人工智能正在大幅提升中心化数据收集和分析的能力,同时也极大地扩展了我们自愿共享的数据范围。未来,脑机接口等新技术将带来更多挑战:我们或许真的会谈论人工智能读懂我们的思想。与此同时,我们拥有比上世纪 90 年代密码朋克所能想象的更强大的工具来保护隐私,尤其是在数字领域:高效的零知识证明 (ZK-SNARK) 可以在保护我们身份的同时,揭示足够的信息来证明我们是值得信赖的;全同态加密 (FHE) 可以让我们在不查看数据的情况下对数据进行计算;而混淆技术可能很快就会提供更多功能。
隐私不意味着要彼此隔离,而意味着要团结一致。
此时,我们有必要回顾一下这个问题:我们为什么需要隐私?每个人的答案都不一样。在这篇文章中,我将给出我自己的答案,并将其分为三个部分:
隐私即自由:隐私赋予我们空间,让我们能够以符合自身需求的方式生活,而无需时刻担心自己的行为在各种政治和社会博弈中会被如何看待。
隐私即秩序:构成社会基本运作基础的诸多机制都依赖于隐私才能正常运转。
隐私即进步:如果我们能够找到新的途径,有选择地分享信息,同时又能保护信息免遭滥用,我们就能释放巨大的价值,加速技术和社会进步。
隐私就是自由
早在21世纪初,类似大卫·布林1998年出版的《透明社会》一书所概括的观点就曾盛行一时:技术将使世界各地的信息更加透明,虽然这会带来一些弊端,需要不断调整适应,但总体而言,这是一件非常好的事情,而且我们可以通过确保民众能够监视(或者更确切地说,监视)政府来使其更加公平。1999年,Sun Microsystems首席执行官斯科特·麦克尼利曾发出著名言论:“隐私已死,接受它吧!”这种心态在Facebook的早期构思和发展过程中非常普遍,当时Facebook禁止使用假名身份。我个人还记得在2015年深圳华为的一次活动上,一位(西方)演讲者随口提到“隐私已死”,就亲身经历了这种心态的尾声。
“透明社会”体现了“隐私已至”意识形态所能提供的最佳和最光明的前景:它承诺一个更美好、更公正、更公平的世界,利用透明的力量使政府承担责任,而不是压制个人和少数群体。然而,事后看来,即使是这种理念也显然是时代的产物,写于全球合作与和平以及“历史的终结”热情的顶峰时期,并且它依赖于一系列对人性的过于乐观的假设。主要表现在:
全球政治的顶层通常会是善意且理智的,这使得纵向隐私(即不向有权势的人和机构透露信息)变得越来越不必要。权力的滥用通常会局限于特定区域,因此打击这些滥用的最佳方式是将其暴露在阳光下。
文化将不断进步,直到横向隐私(即不向其他公众成员透露信息)变得不再必要。书呆子、同性恋,以及最终其他所有人都可以不再躲在柜子里,因为社会将不再对人们的独特特质苛刻和评判,而是变得更加开放和包容。
如今,没有哪个大国能普遍认同第一个假设是正确的,而有不少大国却普遍认为它是错误的。在第二个方面,文化包容度也在迅速倒退——仅仅在推特上搜索“欺凌是好事”之类的短语就是一个证据,尽管很容易找到更多类似的证据。
我个人很不幸地经常遭遇“透明社会”的弊端,因为我在外面做的每一个举动都有可能意外地成为媒体的公共报道:
最糟糕的是,有人在我清迈用笔记本电脑时拍摄了一段时长一分钟的视频,然后将其发布到小红书上,立即获得了成千上万的点赞和转发。当然,我自己的情况远非人类的常态——但隐私一直都是如此:生活状况相对正常的人不太需要隐私,而生活状况偏离常态的人则更需要隐私,无论偏离方向如何。一旦你把所有重要的方向加起来,真正需要隐私的人的数量就会相当多——你永远不知道自己什么时候会成为其中之一。这也是隐私经常被低估的一个重要原因:它不仅关乎你今天的处境和信息,还关乎这些信息在未来会发生什么(以及它如何影响你)的未知数。
如今,即使在人工智能倡导者中,企业定价机制的隐私也是一个小众问题,但随着基于人工智能的分析工具的兴起,它可能会成为一个日益严重的问题:公司对你的了解越多,他们就越有可能为你提供个性化的价格,从而最大限度地提高他们从你身上榨取的利润乘以你付款的可能性。
我可以用一句话来表达我对隐私即自由的一般论点如下:
隐私让您可以自由地以最适合您个人目标和需求的方式生活,而不必不断平衡“私人游戏”(您自己的需求)和“公共游戏”(各种其他人,通过各种机制,包括社交媒体级联、商业激励、政治、机构等,将如何看待和回应您的行为)之间的每一个行动。
没有隐私,一切都会变成一场持续不断的斗争,争论的焦点是“其他人(以及机器人)会怎么看待我所做的事情”——无论是有权势的人、公司还是同行,无论是现在还是未来的人。有了隐私,我们就能保持平衡。如今,这种平衡正在迅速被侵蚀,尤其是在实体领域。现代科技资本主义的默认路径,渴望找到一种无需用户明确付费就能从用户身上获取价值的商业模式,正在进一步侵蚀这种平衡(甚至会渗透到高度敏感的领域,比如最终会渗透到我们自己的思想中)。因此,我们需要抵消这种影响,更明确地支持隐私,尤其是在我们最实际能够做到的领域:数字领域。
但为什么不允许政府有后门呢?
对上述推理,有一种常见的回应:我所描述的隐私弊端,很大程度上在于公众过度了解我们的私生活,即使涉及到权力滥用,也在于企业、老板和政客过度了解。但我们不会让公众、企业、老板和政客掌握所有这些数据。相反,我们会让一小群训练有素、经过严格审查的执法专业人员查看从街头监控摄像头以及互联网电缆和聊天应用程序上的窃听数据,执行严格的问责程序,这样其他人就不会发现。
这是一个悄无声息却被广泛持有的立场,因此明确地解决这个问题至关重要。即使出于良好的意愿以高质量标准实施,此类策略也存在内在的不稳定性,原因如下:
实际上,不仅仅是政府,各种企业实体也都面临着数据泄露的风险,而且质量参差不齐。在传统金融系统中,KYC 和支付信息掌握在支付处理商、银行和各种其他中介机构手中。电子邮件提供商会查看海量各类数据。电信公司知道您的位置,并定期非法转售。总的来说,要对所有这些实体进行足够严格的监管,确保它们真正高度重视用户数据,对监控者和被监控者来说都耗费巨大精力,这可能与维护竞争性的自由市场格格不入。
拥有访问权限的个人总会感到滥用数据(包括出售给第三方)。2019 年,几名 Twitter 员工因向沙特阿拉伯出售异见人士的个人信息而被指控,随后被定罪。
数据随时可能被黑客入侵。2024 年,美国电信公司依法必须收集的数据遭到黑客攻击,据称是来自中国政府的黑客所为。 2025年,乌克兰政府持有的大量敏感个人数据遭到俄罗斯黑客攻击。另一方面,中国高度敏感的政府和企业数据库也遭到黑客攻击,其中就包括美国政府。
政权可能会更迭。今天值得信赖的政府,明天可能就不再值得信赖。今天的掌权者,明天可能就会受到迫害。一个警察机构,今天还保持着无可挑剔的尊重和礼仪标准,十年后,可能就会沦为各种幸灾乐祸的残酷行径。
从个人的角度来看,如果他们的数据被窃取,他们无法预知未来是否会被滥用以及如何被滥用。迄今为止,处理大规模数据最安全的方法,是从一开始就尽可能少地集中收集数据。数据应最大限度地由用户自己持有,并使用加密手段在不损害个人隐私的情况下汇总有用的统计数据。
有人认为,政府应该有权凭搜查令获取任何信息,因为事情一直以来都是这样运作的,这种说法忽略了一个关键点:从历史上看,凭搜查令获取的信息量远低于今天,甚至低于如果普遍采用最严格的互联网隐私保护措施所能获得的信息量。在19世纪,平均每人只进行一次语音对话,而且从未被任何人记录下来。因此,“信息隐私”引发的道德恐慌完全不符合历史规律:普通对话,甚至金融交易,完全且无条件地保持私密,才是数千年来的历史常态。
1950 年的一次普通对话。除了对话进行时参与对话的人员之外,没有任何人在任何时间记录、监视、“合法拦截”、进行人工智能分析或以其他方式查看过该对话。
尽量减少中心化数据收集的另一个重要原因是,全球通信和经济互动的很大一部分本质上具有国际性。如果每个人都在同一个国家,那么至少可以说“政府”应该有权访问他们互动中的数据。但如果人们身处不同的国家呢?当然,原则上你可以尝试提出一个“银河系大脑”方案,将每个人的数据映射到某个负责他们的合法访问实体——尽管即使这样,你也必须处理大量涉及多人数据的边缘情况。但即使你能做到,这也不是现实的默认结果。政府后门的现实默认结果是:数据集中在少数几个中央管辖区,这些管辖区拥有所有人的数据,因为它们控制着应用程序——本质上就是全球技术霸权。强大的隐私是迄今为止最稳定的替代方案。
隐私就是秩序
一个多世纪以来,人们认识到,民主制度得以有效运作的关键技术要素是秘密投票:没有人知道你投了谁的票,而且,即使你真的想证明,你也无法向任何人证明你投了谁的票。如果秘密投票不是默认设置,那么选民就会受到各种影响其投票方式的附带激励:贿赂、追溯奖励承诺、社会压力、威胁等等。
用一个简单的数学论证就可以看出,这种附带激励会彻底破坏民主:在一场有N人参与的选举中,你影响结果的概率只有大约1/N,因此任何关于哪个候选人更好、哪个候选人更差的考量都会被N除。与此同时,“附带博弈”(例如,选民贿赂、胁迫、社会压力)会根据你的投票方式(而不是基于整体投票结果)直接对你产生影响,因此它们不会被N除。因此,除非附带博弈受到严格控制,否则它们默认会压倒整个博弈,淹没任何关于哪个候选人的政策实际上更好的考量。
这不仅适用于国家规模的民主。理论上,它适用于几乎所有企业或政府的委托代理问题:
法官决定如何裁决案件
政府官员决定与哪家公司签订合同或拨款
移民官员决定签发或拒绝签证
社交媒体公司员工决定如何执行内容审核政策
公司员工参与商业决策(例如,从哪家供应商采购)
所有情况下的根本问题都是一样的:如果代理人诚实行事,他们只能从其行为中为其所代表的实体带来一小部分利益;而如果他们遵循某些附带博弈的激励,那么他们就能获得全部利益。因此,即使在今天,我们仍然需要大量的道德善意,以确保我们所有的机构不会被一场互相推翻的附带博弈的混乱漩涡完全吞噬。如果隐私进一步被削弱,这些附带博弈就会变得更加强大,维持社会正常运转所需的道德善意可能会变得高得不切实际。
社会系统能否重新设计以避免出现这个问题?不幸的是,博弈论几乎明确指出这是不可能的(除了一个例外:完全独裁)。在关注个人选择的博弈论版本中——即假设每个参与者独立做出决策,并且不允许多个主体群体为了共同利益而协同工作的可能性——机制设计师拥有极大的自由度来“设计”博弈,以实现各种特定结果。事实上,有数学证明表明,任何博弈都必须至少存在一个稳定的纳什均衡,因此分析这类博弈变得容易处理。但在允许联盟合作(即“勾结”)可能性的博弈论版本中,即合作博弈论,我们可以证明,存在大量没有任何稳定结果的博弈(称为“核心”)。在这样的博弈中,无论当前事态如何,总有一些联盟能够从中获利。
如果我们认真对待数学,就会得出这样的结论:建立稳定社会结构的唯一途径是对参与者之间可能发生的协调数量进行一些限制——这意味着高度的隐私性(包括可否认性)。如果你不认真对待数学本身,那么观察现实世界,或者至少思考一下上述某些委托代理情境如果被边缘游戏接管会变成什么样,就足以得出同样的结论。
请注意,这引出了另一个关于政府后门为何存在风险的论点。如果每个人都拥有无限的能力在所有事情上与其他人协调,结果就是混乱。但如果只有少数人能够这样做,因为他们拥有获取信息的特权,那么结果就是他们占据主导地位。一个政党拥有获取另一个政党通信的后门,很容易意味着多党制的可行性终结。
另一个依赖于限制共谋才能运作的社会秩序的重要例子是知识和文化活动。参与知识和文化活动本质上是一项由内在动机驱动的公益活动:很难找到旨在对社会做出积极贡献的外在激励机制,这恰恰是因为知识和文化活动在某种程度上本身就是一项决定社会中哪些行为是积极行为的活动。我们可以制定一些近似的商业和社会激励措施来指引正确的方向,但它们也需要内在动机的大力补充。但这也意味着,这类活动极易受到外部动机失衡的影响,尤其是社会压力和胁迫等边缘博弈的影响。为了限制此类失衡的外部动机的影响,隐私再次成为必需。
隐私是进步
想象一下一个完全不存在公钥和对称密钥加密的世界。在这个世界里,安全地远距离发送消息本质上会变得更加困难——并非不可能,只是非常困难。这将导致国际合作大大减少,结果更多的合作将仍然通过面对面的线下渠道进行。这将使世界变得更加贫穷,更加不平等。
我认为,相对于假设的未来世界,我们今天所处的正是这样的境地,那时更强大的密码学形式将得到广泛应用——特别是可编程密码学,并辅以更强大的全栈安全和形式化验证,从而为我们提供强有力的保障,确保这些密码学得到正确使用。
埃及神协议:三种强大且高度通用的结构,可以让我们对数据进行计算,同时保持数据完全私密。
医疗保健就是一个很好的例子。如果你与过去十年在长寿、抗击流行病或其他健康领域工作过的人交谈,他们都会一致告诉你,未来的治疗和预防将是个性化的,有效的应对措施高度依赖于高质量的数据,包括个人数据和环境数据。有效地保护人们免受空气传播疾病的侵害,需要了解哪些地区的空气质量较高和较低,以及病原体在特定时间出现在哪些地区。最先进的长寿诊所都会根据你的身体、饮食偏好和生活方式的数据,提供定制化的建议和治疗方案。
然而,所有这些都同时构成了巨大的隐私风险。我个人知道一个事件,公司为一位“打电话回家”的员工配备了一个空气监测仪,收集到的数据足以确定该员工何时发生性行为。出于类似的原因,我预计许多最有价值的数据将默认不会被收集,正是因为人们害怕隐私风险。即使数据确实被收集到,也几乎总是不会被广泛共享或提供给研究人员——部分原因是出于商业原因,但同样常见的情况是出于隐私方面的考虑。
同样的模式也在其他领域重演。我们撰写的文档、在各种应用程序上发送的消息以及在社交媒体上的各种行为中,都蕴含着大量关于我们自身的信息,这些信息都可以被用来更有效地预测和提供我们日常生活中所需的东西。此外,还有大量与医疗保健无关的关于我们如何与物理环境互动的信息。如今,我们缺乏有效利用这些信息的工具,而又不至于造成反乌托邦式的隐私噩梦。但未来,我们或许会拥有这些工具。
解决这些挑战的最佳方法是使用强加密技术,它可以让我们获得共享数据的好处,而不会带来负面影响。在人工智能时代,获取数据(包括个人数据)的需求只会变得更加重要,因为能够在本地训练和运行“数字孪生”,使其能够基于对我们偏好的高保真近似值,代表我们做出决策,这将带来巨大的价值。最终,这还将涉及使用脑机接口 (BCI) 技术,读取来自我们大脑的高带宽输入。为了避免导致高度集中的全球霸权,我们需要找到在尊重隐私的前提下实现这一目标的方法。可编程加密是最值得信赖的解决方案。
我的 AirValent 空气质量监测器。想象一下,有这样一个设备,它收集空气质量数据,将汇总统计数据发布在开放数据地图上,并奖励你提供数据——所有这些都使用可编程加密技术,以避免泄露你的个人位置数据,并验证数据的真实性。
隐私可以促进社会安全的进步
零知识证明等可编程加密技术非常强大,因为它们就像信息流中的乐高积木。它们可以精细地控制谁可以看到哪些信息,更重要的是,可以控制哪些信息可以被查看。例如,我可以证明我持有一本显示我已年满18岁的加拿大护照,而无需透露任何其他个人信息。
这使得各种有趣的组合成为可能。我可以举几个例子:
零知识人格证明:证明您是独一无二的人(通过各种形式的身份证件:护照、生物识别技术、基于去中心化社交图谱的身份证明),而无需透露任何其他身份信息。这可以用于“证明您不是机器人”、各种“每人最大N值”用例等等,同时在不暴露规则未被违反的情况下完全保护隐私。
隐私池(Privacy Pools)是一种金融隐私解决方案,无需后门即可排除不良行为者。在消费时,用户可以证明其代币的来源不在公开的黑客和盗窃名单中;只有黑客和盗窃者自己无法生成此类证明,因此他们无法隐藏。Railgun 和 privacypools.com 目前正在使用此类方案。
设备端反欺诈扫描:这不依赖于零知识证明 (ZKP),但感觉它属于此类。您可以使用设备内置的过滤器(包括 LLM)来检查传入消息,并自动识别潜在的虚假信息和诈骗信息。如果在设备上执行此操作,则不会损害用户的隐私,并且可以以用户授权的方式进行,让每个用户都可以选择订阅哪些过滤器。
实物来源证明:结合使用区块链和零知识证明,可以追踪物品在其制造链中的各种属性。例如,这可以在不公开披露供应链的情况下对环境外部性进行定价。
左图:隐私池示意图。右图: Message Checker 应用,用户可以选择开启或关闭多个过滤器,从上到下依次为:URL 检查、加密货币地址检查、谣言检查
隐私和人工智能
最近,ChatGPT 宣布将开始将你过去的对话输入到 AI 中,作为你未来对话的背景信息。这种趋势将不可避免地朝着这个方向发展:AI 回顾你过去的对话并从中获取洞见,这从根本上来说非常有用。在不久的将来,我们可能会看到有人开发出更深入地侵犯隐私的 AI 产品:被动收集你的互联网浏览模式、电子邮件和聊天记录、生物特征数据等等。
理论上,你的数据对你来说是私密的。但在实践中,情况似乎并非总是如此:
哇!ChatGPT 有个 bug,它会把别人问的问题推送给我!这可是严重的隐私泄露。我问了一个问题,然后报错,然后“重试”又生成了一个我永远不会问的问题。
隐私保护机制完全有可能运作良好,而在本例中,AI 产生了幻觉,生成了一个 Bruce 从未提出过的问题并进行了回答。但目前无法验证。同样,也无法验证我们的对话是否被用于训练。
这一切都令人深感担忧。更令人不安的是 AI 的明确监控用例,这些用例在未经用户同意的情况下,大规模收集和分析用户的(物理和数字)数据。面部识别技术已经在帮助专制政权大规模镇压政治异见。而最令人担忧的是 AI 数据收集和分析最终的前沿:人类思维。
理论上,脑机接口技术拥有提升人类潜能的惊人力量。以去年 Neuralink 的首位患者诺兰·阿尔博 (Noland Arbaugh) 的故事为例:
这款实验性设备让现年30岁的阿尔博获得了独立感。以前,使用口棒需要有人扶他直立。如果口棒掉了,就需要有人帮他捡起来。而且他不能长时间使用,否则会长疮。有了Neuralink设备,他几乎可以完全控制电脑。他可以随时浏览网页、玩电脑游戏,Neuralink表示,他创造了人类使用脑机接口(BCI)控制光标的纪录。
如今,这些设备功能强大,足以帮助伤病员。未来,它们将强大到让完全健康的人有机会与计算机协作,并以我们难以想象的效率相互进行心灵感应交流(!!)。但真正解读脑信号,使这种交流成为可能,需要人工智能。
这些趋势交织在一起,可能会自然而然地催生出一个黑暗的未来:我们会看到硅片超级代理吞噬并分析每个人的信息,包括他们的写作、行为和思维方式。但同时也存在一个更光明的未来:我们既能享受这些技术带来的好处,又能保护自己的隐私。
这可以通过结合几种技术来实现:
尽可能在本地运行计算——许多任务(例如基本图像分析、翻译、转录、BCI 的基本脑电波分析)都足够简单,可以完全在本地运行的计算中完成。事实上,本地运行的计算甚至在减少延迟和提高可验证性方面具有优势。如果某件事可以在本地完成,就应该在本地完成。这包括涉及访问互联网、登录社交媒体帐户等各种中间步骤的计算。
使用密码学使远程计算完全私密——全同态加密 (FHE) 可用于远程执行 AI 计算,而不允许远程服务器查看数据或结果。从历史上看,FHE 非常昂贵,但 (i) 最近它的效率正在迅速提高,(ii) LLM 是一种独特结构化的计算形式,并且渐近地几乎所有都是线性运算,这使得它非常适合超高效的 FHE 实现。涉及多方私人数据的计算可以通过多方计算来完成;常见的两方情况可以通过诸如混淆电路之类的技术极其高效地处理。
使用硬件验证将保证扩展到物理世界——我们可以坚持认为,能够读取我们思想的硬件(无论是从头骨内部还是外部)必须是开放且可验证的,并使用IRIS之类的技术来验证它。我们也可以在其他领域做到这一点:例如,我们可以安装安全摄像头,可证明的是,只有当本地法学硕士(LLM)将其标记为身体暴力或医疗紧急情况时,才会保存和转发视频流,并在所有其他情况下将其删除,并使用IRIS进行社区驱动的随机检查,以验证摄像头是否正确实现。
未完成的未来
2008年,自由主义哲学家大卫·弗里德曼写了一本名为《不完美的未来》的书。书中,他概述了新技术可能给社会带来的变化,但并非所有变化都对他有利(或对我们有利)。在其中一节中,他描述了一个潜在的未来:隐私与监控之间将出现复杂的相互作用,数字隐私的增长将抵消现实世界监控的增长:
如果一只视频蚊子趴在墙上看着我打字,那么对我的电子邮件进行强加密也毫无意义。因此,在一个透明的社会中,强大的隐私保护需要某种方式来保护我现实空间身体与网络空间之间的接口……一种低技术含量的解决方案是在头罩下打字。一种高科技的解决方案是建立思维与机器之间的某种连接,这种连接不通过手指——或者任何外部观察者可见的通道。24
现实空间透明性与网络空间隐私之间的冲突也体现在另一个方向上……我的掌上电脑用你的公钥加密我的信息,并将其传输到你的掌上电脑,后者解密信息并通过你的VR眼镜显示出来。为了确保没有东西从你肩膀上读取眼镜,护目镜不是通过屏幕显示图像,而是用微型激光将其写入你的视网膜。幸运的话,你的眼球内部仍然是私人空间。
我们最终可能会生活在一个身体活动完全公开、信息交易完全私密的世界。它有一些吸引人的特点。普通公民仍然可以利用强大的隐私优势找到杀手,但雇佣杀手的成本可能超出他们的承受能力,因为在一个足够透明的世界里,所有谋杀案都会被侦破。每个杀手执行一项任务后都会直接入狱。
这些技术与数据处理之间的相互作用又如何呢?一方面,现代数据处理技术使得透明社会成为一种威胁——如果没有数据处理技术,即使你把世界上发生的一切录下来也没什么用,因为没有人能在每天生产的数百万英里录像带中找到他想要的那一段六英寸录像带。另一方面,支持强大隐私的技术提供了重建隐私的可能性,即使在一个拥有现代数据处理技术的世界里,通过保护你的交易信息不被任何人获取,你也无能为力。
这样的世界或许是所有可能世界中最好的:如果一切顺利,我们将看到一个几乎没有肢体暴力的未来,但与此同时,我们的网络自由得以维护,并确保社会中政治、公民、文化和思想进程的基本运作,而这些进程的持续运行依赖于对完全信息透明度的某种限制。
即使它并非理想状态,也比物理和数字隐私归零,最终包括我们自身思想隐私的版本要好得多。到2050年代中期,我们会看到一些评论文章,认为期望思考不受合法拦截的思想当然是不现实的。而对这些评论文章的回应,则包含指向最近一起事件的链接:一家人工智能公司的法学硕士被利用,导致一年内3000万人的私人内心独白被泄露到整个互联网上。
社会始终依赖于隐私和透明度之间的平衡。在某些情况下,我也支持对隐私进行限制。举一个与人们在这方面通常的论点完全不同的例子,我支持美国政府禁止合同中加入竞业禁止条款的举措,主要不是因为它们会直接影响员工,而是因为它们可以迫使公司将隐性领域知识部分开源。强迫公司比他们想要的更加开放是对隐私的限制——但我认为这是净收益的限制。但从宏观角度来看,不久的将来技术最紧迫的风险是隐私将接近历史最低点,并且以一种极不平衡的方式,最有权势的个人和最强大的国家会获得每个人的大量数据,而其他人几乎看不到任何数据。因此,支持每个人的隐私,并使必要的工具开源、通用、可靠和安全是我们这个时代的重要挑战之一。