本文来自微信公众号:经济观察网 (ID:eeojjgcw),作者:李佩珊,头图来自:视觉中国
3月24日,欧洲对于科技巨头的监管靴子进一步落地。欧洲议会、欧洲理事会和欧盟委员会就《数字市场法案》达成一致,试图找到对那些提供核心算法平台服务的大科技企业的新的监管措施。除了打击垄断之外,法案的重点在于要求大科技公司对算法的工作方式保持透明。这承自2018年欧盟施行《通用数据保护条例》以来,欧盟一直在推进的“反歧视”、“透明”的“算法正义”的愿景。
我们为何需要“算法正义”?这是否因为算法天然具有邪恶的属性?作为古老的工具,算法本身是客观的,但其客观中立在新的时代却在“重复和巩固世界上已经存在的不公正”。同时,科技巨头们的崛起和垄断地位带来的社会种种领域的剧变,让大众开始畏惧起其作为核心的神秘的算法“黑箱”。
一、不那么新,不那么恶:什么是算法
虽然人类踏入信息时代已经快有半个世纪,但“算法”这个词进入大众场域并被热烈的讨论,也不过是近几年的事情:2016年,算法在几秒钟内引发了英镑的大跌;同一年,在社交网络上根据算法创建的机器人,学习并发布了大量涉嫌种族、性别歧视甚至否认大屠杀的帖子。在中文网络世界中,“算法”这个词尤其显得崭新并且邪恶,很多人是在一篇描述外卖骑手如何在系统调度疲于奔命的报道中,第一次了解这个词。
算法(Algorithms),实际上是指“解决问题或完成任务的逐步过程”。这样说来,算法几乎本就存在于万事万物之中。无论是要“烹小鲜”,还是“治大国”,都得逐步完成,而这方法路径即是“算法”。人类社会依靠着“算法”,在千万年的时间长河中组织运作并进化发展。
这也意味着,人类的发展史也正是一部“算法”的进化史。算法的进化则体现在对信息的处理方式的变革之中。这也是为什么当人类进入信息技术时代之后,算法的地位和力量在以一种惊人的速度成长。
在《算法的力量:人类如何共同生存?》(李大白译,北京日报出版社·理想国,2022年2月)一书中,英国学者杰米·萨斯坎德回溯了这样的历史关联。
公元前3500年,苏美尔人使用那个时代最强大的信息处理系统,即楔形文字来记录税收、法律等相关行政文件。这些文字的意义并不在作为记录,而是当文字被发明后,商业和官僚机构的存在才成为可能。正如历史学家们如哈罗德·尼斯所论证的,最古老的那些文明和他们的政治体制,例如埃及的君主制和罗马的城邦制,“本质上都是文字的产物”。现代意义上的算法的真正出现,也建立在人们对社会信息系统的不断升级上。IBM起源于1880年美国人口普查中被发明的“打孔卡”和“制表机”系统,并在一百年后发布了历史上第一台PC,将人类文明带入个人电脑时代。
然而,在信息极度膨胀的大数据时代,算法的力量同样在极度膨胀,并且变得神秘莫测。应用程序和搜索引擎产生了海量的用户数据,大科技公司以数据为资源、以算法为架构成为了庞然巨物。“本质上,当我们谈论强大的科技公司时,我们谈论的的是政治上强大的经济实体。”萨斯坎德强调。很多大科技公司占据着垄断性的经济地位,并“控制着影响我们核心自由之技术”:“审查手段和感知控制”已经影响到人们的日常生活决策,小到购物偏好、大到民主选举(例如“剑桥数据门”)。此外,算法也在摆脱人类的控制,事实上,基于机器学习的算法已经成为了“黑匣子”,人类观察者已经难以理解算法如何通过海量数据计算出的结果背后的逻辑,“机器奴役人类”似乎并不是遥远的科幻恐怖片。人们开始恐惧算法,并将之赋予邪恶的色彩。
可是,作为工具的算法,根本无法如人类特质那样用邪恶和善良来归类。人们将算法视为邪恶的,是因为算法辜负了他们认为计算机能够做到人类无法达到的客观中立的期望。但正如萨斯坎德所言,“中立的规则会重复和巩固世界上已经存在的不公正”。他举出了一个例子:谷歌算法将“为什么女人……”的问题自动补充为“为什么女人说话那么多”,是因为有很多用户曾搜索过这个问题,这显然折射出了人类自身的偏见。
真实世界中少数群体在大数据中的同样“少数”,也导向了从中形成的算法的不公正。科学家们已经承认了“数据偏见”(Data Bias)的存在,这种不公正在一些关乎人命的领域,例如医疗保健领域,会导致毁灭性的后果。例如,一款投资甚多终于开发出来的趋于完美的皮肤癌检测人工智能算法,却被发现无法检测出深色皮肤的人种的癌症,仅仅是因为训练算法的数据来源的州大多数居民是白人。关于“数据偏见”对于少数群体的不公正造成的危害,在《隐形的女人:揭露为男性设计的世界中的数据偏见》一书中有更多的体现。
“像对待所有人一样对待弱势群体,实际上会复制、巩固甚至产生新的不公正。”萨斯坎德写道。他认为,对于算法的评判,不应该在意其“过程中立”,而应在意其产生的结果是否符合相关的正义原则。在这个意义上,编写并维护算法的人,应该为算法结果的“不作恶”付出更多的努力。
二、那么大,那么有力量:当算法属于“巨头”
很多现在已经成为庞然大物的科技公司,往往怀揣着新技术能让世界变得更好的极客初心。“不作恶”(Don't beevil),是谷歌公司最初也最出名的行为准则,这迅速塑造了谷歌的内部精神,并催生了外部世界对科技公司的不明觉厉却认为其值得尊敬的认同感,还影响了后来的众多科技公司。
对于2000年初的一家以搜索引擎为核心业务的小型公司而言,“不作恶”是简单的:搜索服务是开放和免费的,不应当向人们收费;不要让搜索结果的首位被广告商垄断;横幅广告和弹窗广告也不应该占满人们的屏幕。
但对于二十年后,拥有着数百种产品的超大型企业谷歌而言,“不作恶”显然是困难和复杂的要求。
首先,作为公司技术核心的算法“不作恶”就是困难的。正如前文所提到的,谷歌的搜索算法引擎在一定程度上重复和巩固了不正义。巨大的算法力量也在向真实社会的政治、经济乃至社会保障领域渗透。“作恶”能带来的报偿的诱惑同样是巨大的。在政治方面,美国行为研究与技术研究所的心理学家罗伯特·爱泼斯坦在2015年的研究发现了“搜索引擎操纵效应”(the Search Engine Manipulation Effect),人们已经将Google等搜索引擎的算法视为”方便的权威来源”,带有政治偏见的搜索排名可以将未决定选民的投票偏好改变至少 20%。
在经济上,谷歌的垄断性地位和庞大的体量已经让它成为了“巨头”。自从美国在一个多世纪前好不容易通过了《反托拉斯法》扳倒了石油大亨们,成为“巨头”这件事天然地就具有某些邪恶的意味。2020年,美国司法部和几位州检察官对谷歌分别提起了三起反垄断诉讼,指控谷歌正在利用自己在搜索和数字广告技术方面的垄断权在扼杀竞争。更别提,在欧盟对谷歌处以43.4亿欧元的反垄断罚款的2018年,谷歌悄悄地将“不作恶”移到了行为准则的最后,似乎也意识到了“不作恶”不再是轻易的。
在大众眼中,越来越多的西方大科技公司违背了他们许诺的道德愿景,最明显的是对社会保障的冲击上。大量雇佣零工司机的Lyft,认为自己帮助有色人种和城市边缘的人们摆脱了拼车的时代,而人们更愿意讨论的是,零工经济带来了大量失去社会保障兜底的劳动者。同时,算法对社会保障更底层系统的冲击体现在“算法越来越多地被用来确定重要社会产品的分配”,例如,工作名额、贷款额度、住房乃至社会保险。因此,萨斯坎德呼吁我们必须正视算法正在成为一种“新的社会架构”,成为经济和社会生活的真正组织者。这虽不意味着科技公司将会掌权,但国家的角色将被迫迎来改变,萨斯坎德将之称为“增压状态”,国家的预测和监管能力将会发生重大的变化。
显而易见的是,西方现有的针对大科技公司的监管已经濒临失灵,将大科技公司仅仅视为商业“巨头”所进行的市场监管收效甚微。
算法赋予科技公司的权力已经远远超越了市场,更深地涉及社会生活的底层架构,而西方目前基于市场进行的监管和反垄断制度,显然难以“充分监控算法的力量”。在萨斯坎德看来,构建未来监控应对之策的要点在于,人们必须要正视大科技公司不再仅仅是主导人们消费的龙头企业,要在赋予大科技公司相应的权力的基础上,去构思“崭新的、大胆的监管提案”,从而保障人们能够生活在更正义的算法分配系统中。
三、迎接新世界:“哲人工程师”和打开“黑匣子”
在《算法的力量》的序言部分,萨斯坎德讲了一个发生在维多利亚时代的故事,政治家威廉·格拉斯通和科学家迈克尔·法拉第偶遇了。法拉第试图向前者解释自己在电力方面的开创性工作,格拉斯通始终无法理解,反复地问:“这到底有什么用?”法拉第的耐心最终耗尽了,他回答道:“有什么用?先生,您可能很快就要对它征税了。”
和电力一样,算法对于这个时代的大部分政治家和律师而言,有很大的可能不能完全明白。同时,正如我们前文所分析的那样,作为工具途径的算法不能被期望能够天然地实现正义。因此,萨斯坎德表示,通过收集数据、构建系统和应用规则来设计和调试算法的软件工程师们,必须担负起监控和防止算法造成社会生活不公正的“哲人工程师”的巨大责任。毕竟,与其寄希望于监管的介入,在设计算法时把正义作为准则、并尽量规避人类的偏见对不公正的影响是更高效的措施。
“哲人工程师”是萨斯坎德对于万维网发明人蒂姆·伯纳斯-李(Tim Berners Lee)所提出的“哲学工程”(Philosophical Engineering)和柏拉图的“哲人王”的概念的整合。伯纳斯-李认为,当软件工程师每创建一个协议时,实际上在扮演上帝的角色,“定义一种新的哲学”,因此,软件工程师必须对如何定义这种新哲学负起责任。“哲人王”则是柏拉图在《理想国》中众所周知的概念,这里不再赘述。萨斯坎德认为,我们需要一代“哲学工程师”,他们既精通算法,又能够洞悉关乎社会正义的哲学,才能保证“历史发展的弧线弯向正义”。
其他研究社会领域中算法的学者们则认为,尽量打开算法的“黑匣子”,让算法在社会领域中变得更加透明是更重要的。
哲学教授萨米尔·乔普拉(Samir Chopra)在他的著作《自主人工智能的法律理论》中强调,我们需要对算法可理解的社会,在这个社会中,社会大众尽可能地可以去了解算法的输入和输出过程,虽然在机器学习之下,算法变得越加难以理解,即使是设计算法的软件工程师自身,但人们仍旧需要尽量夺回一些控制权。《黑匣子社会:控制金钱和信息的秘密算法》一书的作者,马里兰大学法学教授弗兰克·帕斯夸尔(Frank Pasquale)则将打开“黑匣子”的希望寄于社会中包括程序员在内的专业人士们的通力合作打造出的“算法问责制”:记者与计算机程序员和社会科学家合作,揭露新的侵犯隐私的数据收集、分析和使用技术,并推动监管机构打击最严重的违规者;算法的研究人员和监管机构、档案管理员、开放数据活动家、公共利益律师组成联盟,以为分析研究算法提供一套更加完整和平衡的“原材料”;社会科学家和大众必须携手同进,共同推进和确保算法的生成是公平的。正如帕斯夸尔总结的,这样的“算法问责制”将是个相当巨大的工程,却是一项非常紧迫的全球事业。
但不管是强调软件工程师必须承担起“哲人”责任的萨斯坎德,还是强调要打开算法黑匣子和提高算法对社会的透明性的乔普拉和帕斯夸尔,他们都在强调人类不可推卸自身对于算法的主动性。正如数学家兼科普作家汉娜·弗莱(HannahFry)在她的《你好,世界:如何在机器时代当人类》(Hello World How to be human in the age of the machine)一书中指出的,人类在与算法系统交互时,扮演着“至关重要的角色”,我们必须“质疑算法和大科技公司的决定,审查他们的动机,承认我们的情绪,要求知道谁将从中受益,让他们为自己的错误负责并拒绝自满”。一言以蔽之,正如弗莱所强调的,在任何过去的时代,人类自身从未像在算法时代一样重要。
本文来自微信公众号:经济观察网 (ID:eeojjgcw),作者:李佩珊