“独角兽·人工智能”丛书序言

    这三本国外学术专著的选择主要是以“技术、隐私与数据”为主题,将读者的视野拓展到人工智能所关涉的具体产品或服务。《人脸识别:看得见的隐私》思考的是人脸识别技术所产生的个人强制可见性效应;《隐私为什么很重要》反思的是传统隐私概念在数字时代究竟是否仍有存在的价值;《课税数字经济》则是将研究目标回溯至技术应用者,分析人工智能等信息技术和数据资源在产生直接经济效应的同时,应当如何以税收制度维系数字经济的公平有效竞争。法律的生命在于实践,法学研究同样需要以实践问题为研究对象。在人工智能法学研究趋于精细化的当下,再去探讨抽象层面的“技术—法律”二元互动方式已然过时,真正应当关注的是信息技术革命为个体权利和法律关系所带来的机遇与挑战。

    三部风格迥异的学术著作以不同的研究视角和实践问题为我们呈现了人工智能技术领域的“研究百态”:或是忧虑人脸识别技术牺牲隐私实现安全的治理逻辑成为“常识”;又或是竭尽所能想要吹散“隐私已死”的迷雾,在个性化推荐服务普及的社会中找回真正的隐私;抑或是从技术和数据所推动的数字商业模式切入,以更贴近实务需求的视角分析数字税征收的法理依据和实施方案。这些多样化的研究成果表明人工智能技术的理论研究正在扩张至各个具体领域,研究的具体问题往往又与隐私保护、个人自主权、税收公平等传统法律问题相互牵扯,这也是未来人工智能技术理论研究的必然趋势。

    《人脸识别:看得见的隐私》将人们习以为常的人脸识别技术普及应用以另一种方式予以描述:如果我们不是从政府和企业的视角,而是从技术消费者的公民视角出发,我们可能会对“强制可见性”的含义产生印象。我们已然知晓脸书是一个流行的全球社交网络,它被称为“脸书”是有原因的:它通过消费者的选择,提供家人、朋友和民间社会团体的个体面容。现在想象这么一个社会,许多或绝大多数人的身体、衣服或头饰上都绑着相机,并且可以在日常生活中随意记录周围的人。我们必须要追问的是,随着无处不在的微型相机和人脸识别技术(FRT)的融合发展,公民是否会被置于国家机关和私人公司“强制可见性”的位置。人脸识别技术会对受到其审查的人施加强制可见性,使个人随时暴露于其注视之下,无论它们是出于调查、安全目的,还是在社交网络上。强制可见性在之前可能已经被纳入对个人和社会有益的系统之中;这类系统在架构上可能具有自主性,因此在某些级别的功能性上不需要人工干预或操作,例如自动实时账单支付和访问控制。虽然这些应用看似有益,但当系统不允许选择或者有选择性地提供部分选项时,它们可能会降低自主性并因而具备强制性。

    《隐私为什么很重要》则是重新解读了隐私作为规则的四项要件。第一,隐私从根本上说是关于权力的。隐私很重要,因为信息就是权力。人类的信息技术正被用来预测、影响和日益控制人类行为,被用来为信息时代的技术提供动力。就像石油为工业时代的卡车、火车、工厂和航运提供动力一样,这个时代的卡车、火车、工厂和航运则是被称为“机器学习”“人工智能”或直接称为“AI”的技术。第二,隐私的斗争实际上是关于规则的斗争——管理收集和使用人类信息的规则。平台往往通过隐私政策让我们内疚,因为“我同意了那个应用程序,所以如果我的数据现在‘在那里’,而且超出了我的控制,那就是我的错”。糟糕的设计导致人类选择默认的选项时——我们责备自己,我们成为了隐私规则斗争的失利者。第三,隐私规则是不可避免的。人类信息一旦被分享便不再是“隐私”的概念是个危险的谬误,因为我们需要规范信息的使用和收集。第四,隐私规则是工具性的。隐私本身并不重要,重要的是隐私可以让我们追求其他我们一致认为重要的(甚至是基本的)价值。

    《课税数字经济》一书表达了对数字服务税征收困境的担忧。该类税种仅针对一项特定的业务类别,无法解决现行国际税收框架所面临的难题。可以认为,仅其中两项挑战通过数字服务税得到了解决:其一,逐渐消没的对企业利润进行课税的能力,但仅限于对自动化数字服务企业,而不包括面向消费者企业;其二,对数据的使用和用户的贡献。事实上,这仅是有关数字服务税法律问题的“冰山一角”,“如何将该项税收作为消费税进行征收”这一问题的解决更是相当棘手。因为如果高度数字化企业在特定的管辖区中能够赚取巨额的剩余利润或者仅存在极低的或不存在任何的经营边际成本,那么一个以企业总收入为依据且采用较低税率的税制则又会导致征税过低。此外,该项税收不能够抵扣其他直接所得税,这将导致对企业的双重征税。

下一页 第一页

      相关新闻: