不得利用算法影响网络舆论!
国家网信办等四部门联合发布的《互联网信息服务算法推荐管理规定》,3月1日起正式施行。
近年来,算法应用在给政治、经济、社会发展注入新动能的同时,算法歧视、“大数据杀熟”、诱导沉迷等算法不合理应用导致的问题也深刻影响着正常的传播秩序、市场秩序和社会秩序,给维护意识形态安全、社会公平公正和网民合法权益带来挑战。《规定》要求算法推荐服务提供者应当坚持主流价值导向,积极传播正能量,建立完善人工干预和用户自主选择机制,不得利用算法实施影响网络舆论、规避监督管理以及垄断和不正当竞争行为。要求保障用户的算法知情权和算法选择权,应当向用户提供不针对其个人特征的选项,或者便捷的关闭算法推荐服务的选项。(新闻来源:央视、网信中国等)

《驯服算法》
算法规制的目标无他:其一,警惕本来应当是中立的智能应用,被用来掩饰未取得“多数人同意”的少数人集权;其二,建立利益相关者对话和商谈的场域,避免法律沦为“技术寡头”的帮凶。本书从凯伦·杨“跳出‘数据道德’或‘AI道德’窠臼”以寻求“数据驱动机器时代正义、民主和自由”的主张开始,以李·拜格雷夫“将数据保护法的价值观贯彻进信息系统架构之中”的倡导结束,中间穿插着马丁·洛奇等学者对“风险导向监管路径”的反思与改进;这背后是“自然人正义观”与“算法正义观”从排斥到融合、“个人数据保护”与“技术公共利益”从对立到统一的艰苦历程。本书英文版虽出版于新冠疫情爆发之前,但作者们从不同角度对“算法规制”的路径探寻,无不包含着从“个人健康”促进“社会健康”的现实隐喻,以及人本主义“责有攸归”的道德哲学,对我国“国家治理体系和治理能力现代化”以及疫情常态化下慎终如始“科学防治、精准施策”的稳步推进有着深刻的启发和借鉴意义。
算法的危害和它们的治理挑战
研究人员对算法的危害和风险进行了详细的记录。最主要的风险是“各种形式的歧视、不公正、偏见、排斥,这些都是目前所有形式的监督、法律、人权和公民权利没有充分解决的”。这些给人带来压迫的算法极有可能已经跨过基于种族、性别和资本获取的“技术红线”。
第一,算法偏见。对个人的评分和评估——就业、贷款资格、危险级别——由具有内在人为错误或无意识偏见的算法选择决定。然而,偏见是“算法固有的”;换句话说,它的主要目的是实现“筛选”。
第二,算法操纵。新闻、信息或广告的推送主要基于对用户收集的数据,算法推断用户的偏好来呈现其可能感兴趣的内容,最典型的,例如,脸书的新闻投喂算法(News Feed Algorithm )。
第三,算法违规。利用特定的算法故意欺骗立法者和监管机构,例如,大众汽车的违规减排控制系统;又例如,优步公司抵制当地交通管理法规,通过算法进行价格操纵。
第四,舆论控制。越来越多的证据表明,算法被用于政治宣传,从国家间的信息战到国内竞选与公投,无一不试图充分利用脸书和Youtube等主流社交媒体的算法程序发起攻势。
第五,品牌污染。程序化的广告投放如今已经十分常见,多个品牌发现自己的广告与仇恨言论或恐怖主义宣传放在一起。
第六,算法黑箱。在机器学习的加持下,算法可能变得过于复杂,以至于其造物主人类也无法对其充分理解,英国信息专员办公室和下议院科学技术特别委员会的证据很好地描述了这种情况。帕斯夸尔指出,算法可能被视为不可思议的“黑箱”——这种说法不单单适用于特定的算法,尤其适用于所有基于机器学习 模型开发出来的算法。
此处作者举了六个公共政策制定需要考虑的算法挑战的例子,其他人将这些例子进一步细分为九个“风险类别”。作者的意图是说明性的:它指出了地方、国家和各级公共领导人面临的广泛的算法挑战,以证明在这一领域提升行政能力的必要性。然而,尽管这些例子说明了问题所在,但其中许多都是基于美国的例子, 那么,同样的情况是否也适用于英国呢?考虑到“大型科技公司”无处不在,上述问题的答案是肯定的。
所以,算法正成为各级政府共同面临的挑战。我们需要转向治理和问责制的问题。正如英国上议院特别委员会所指出的那样,对这些新技术的信任和依赖,将取决于在多大程度上政府能够提供一个或多个治理框架让公众放心。潜在的危害已经在公共政策的多个层面中凸显出来。
【本文摘自《驯服算法》,上海人民出版社2020年7月出版,略有编辑,以原文为准。】
|