默认选项的设置 隐私是关于控制的第二个问题是,当涉及隐私时,控制是一种错觉。我们容易忘记互联网并不是自然存在的。它是人类建造的人类建筑,由人类为人类目的所作的决定组成。我们现在得到的互联网是这样一个接口,这个管理隐私的接口是由人类工程师为了满足他们的老板而建造的,他们的目的不是赋予人类权力(尽管硅谷的广告声称他们是)。围绕控制“用户”的所有说辞都掩盖了这样一个事实,即工程师设计他们的技术以产生特定的结果。这些设计选择限制了使用该技术的人类可用选项的范围。公司决定我们可以勾选的选项框。它们还决定了基本隐私仪表板中包含哪一组选择,“高级设置”中包含哪些选择,更重要的是,“用户”根本无法作出哪些选择。例如,脸书让“用户”管理位置设置,关闭照片中的面部识别(默认选项原本被设置为与公司“共享”直到用户强烈抗议并改变这个选择为止),但“控制”脸书收集大量有关其客户的其他人类信息的“选择”是永远不会被提供的。至关重要的是,通过设计技术和设置默认选项,脸书的工程师不仅知道普通用户可能选择哪些选项,而且还可以利用选择架构的微调效果来达到他们想要的结果,并为他们的商业利益服务。设计可以塑造结果,拥有数百万(或数十亿)“用户”的大型科技公司可以对这些人类受试者进行大规模的科学实验,使用A/B测试来弄清楚哪些选项、选择、决策结构、措辞甚至配色方案的混合体产生了公司想要的结果。利用行为经济学的见解,公司创造了操纵界面,利用我们更喜欢大的闪亮多彩的按钮,而忽略小的暗灰色按钮的内在倾向。(“删除我的账号”的按钮永远是又小又灰的,而不是又大又亮的。)他们还可能羞辱我们以使我们对扣留数据或拒绝选择感到不适。有时,平台会设计在线服务,通过游戏化来帮助人们进行过度共享,例如保持连胜,或在脸书上让人们分享旧帖子或祝贺他人。公司知道冲动分享是如何实现的,因此它们建立了一个完整的系统,使冲动分享尽可能容易。
同意理论的空白区域 隐私是关于控制的最后一个问题是,隐私关于控制,是不够的。技术主管和一些监管者的谈话似乎表明解决每一个隐私问题的方法是给予更多的控制、更多的仪表板、更清晰的隐私政策,以及继续将更多的隐私工作倾倒在人们已经疲惫不堪和困惑的脑海中。我们已经看到当信息收集中存在许多我们不能察觉或者明白的地方的时候,迷恋信息控制是毫无成效的。而隐私,正如我们所看到的,是一种社会价值;我们的隐私不仅取决于我们自己作出的选择,而且取决于社会上其他人的选择。在这方面,隐私就像公共卫生或环境一样。在应对新冠肺炎疫情时,我们指望其他人戴上口罩,遵循社交距离准则,并接种疫苗以帮助我们渡过公共和私人健康危机。我们无法独自完成这些工作,其他人的糟糕或有限的选择使得公共卫生状况比它本来的情况更糟。即使我们在隐私控制上进行超人的努力,以空中交通管制员的勤奋管理仪表板,阅读我们的隐私政策并定期回查,看看亚马逊是否作出了改变,其他人不可避免的行动已改变了隐私环境。普通消费者会屈服于祖博夫的“精神麻木”,他们的意志会逐渐被磨损直至听任和接受他们那被企业炮制出的同意。
有时候,我们几乎或根本无法阻止其他人披露有关我们的信息。如果公司建立了依赖信息披露的定价系统,例如汽车保险的“安全司机”折扣取决于您是否同意在您的汽车中安装黑匣子数据控制器,特别是如果此类盒子成为标准配置,那么这种情况完全可能会发生。或者当孩子的学校决定使用“学习管理系统”或其他只有学校才能同意的具有隐私实践的软件时。抑或者,当有人向一家公司披露他们的遗传数据时,由于血缘亲属具有很高的遗传相似性,这意味着他们也分享了有关其亲密家庭成员的敏感信息。也许更重要的是,这类隐私泄漏完全发生在我们可以同意的领域之外,这种同意理论的空白区域进一步证明了隐私是关于控制这一观点无法承受强加于它的巨大压力。
因此,隐私是关于控制的限制是多方面的。它易于表述和理解并且在理论上显得高尚,但在实践中却是一个烟幕弹。公司在烟幕下控制着人类,而不是人类控制着他们的数据。问题不在于控制和选择总是很糟糕——很难想象一个美好的生活或一个自由的社会不给人们提供真正的、选择和控制他们自己的生活的选项。但正如在21世纪的数字世界中所实践的那样,通过提升虚构的控制,而忽略选择的架构、设计、默认和权力,隐私是关于控制的论调是一种剥夺权力的形式而不是所谓的解放力量。我们当然应该专注于为数字消费者提供一套有意义的选择,而不是绝大多数消费者面对的大量严格控制和最终控制有限的选择。我们需要改变我们的观点。我们应该不仅仅关注个人,而是关注我们的公共规范、构建的数字基础架构以及“控制”在实践中而非理论中的运作方式。“隐私是关于权力,而不是控制”。
【本文节选自《隐私为什么很重要》第3章,标题及正文略有删改】
|