本文来自微信公众号:界面文化 (ID:BooksAndFun),作者:徐鲁青,编辑:黄月,原文标题:《互联网审核行业将继续不可见,并以最糟糕的方式全球化 | 专访》,题图来自:《网络审查员》


2021年,Facebook、Twitter、YouTube等超过10家社交媒体平台封锁了特朗普的账号;今年1月,马斯克收购推特,并大量削减内容审核团队,负责全球内容审核、应对仇恨言论和骚扰的员工多数被裁员……这些备受关注的新闻背后隐藏着一个长期隐形的群体——商业性内容审核员。他们是一群职业化员工,负责删除用户上传的不合规言论,一天审核成千上万条内容。他们的工作要点之一是保持隐蔽,不被人察觉。


“如果被用户举报为色情内容,就会发送给印度的团队,大部分色情内容都由他们处理。其他的内容,比如说仇恨言论或者暴力之类的会发送给我们……我们会看到40张小缩略图,这样我们不用看视频就能立刻知道“啊,那里出现了生殖器”或者“那里有个男人的头,与身体断开了”……然后我们就能立刻实施操作。整个过程一气呵成。”


在美国加州大学洛杉矶分校教育与信息研究院助理教授莎拉·罗伯茨(Sarah T. Roberts)的田野调查中,一名审核员如此描述他的工作。罗伯茨是最早提出“商业性内容审核”(commercial content moderation)的学者。2010年左右,社交媒体正越来越深地嵌入我们的生活,却没有什么人注意到职业审核工作的存在。罗伯茨花了八年时间研究这一产业及审核员的状况,以及这项影响广泛的工作为何如此重要却“不可见”。她的足迹随内容审核产业从北美行至欧洲,再到菲律宾马尼拉。


加州大学洛杉矶分校教育与信息研究院助理教授 莎拉·罗伯茨(Sarah T. Roberts)


罗伯茨指出,如今我们眼中的“互联网”绝大部分都由跨国私营企业所管理,并与其初创地的政府关系密切,比如为全球计算机提供主干网的公司之中,只有五家大型公司才能够提供接入私营平台内容的服务。这些互联网平台无时无刻不在限制、构建和推动在线言论,而审核行业的细节长期以来少有人知。平台制定的审核规则反映了谁的价值观?是否删除的决定是怎么做出来的?审核员们的工作流程是什么样的?谁会为此受益?


在她的研究《幕后之人:社交媒体时代的内容审核》中文版问世之际,界面文化对罗伯茨进行了专访。我们讨论了科技公司的内容审核标准、审核员的劳动状况,以及审核产业如何建立在全球劳动力剥削基础之上。在采访的最后,罗伯茨对于人与计算机的关系提出了另一种展望。


审核行业:人们自以为能无限制地表达自己


界面文化:你在2010年开始研究职业审核工作,当时还没有太多人注意到“商业内容审核”——指一群职业化员工为大型商业机构(比如社交媒体公司、新闻媒体等)进行大规模、有组织的有偿审核工作——的存在。是什么让你关注到这个话题的?


莎拉·罗伯茨:我从90年代中期起开始在科技行业工作,一直从事一些低级的信息技术工作。这些工作并不需要我具备深入的专业技能,我非常努力但财务上却没有安全感,没有任何职业晋升的机会。这听起来似乎不合理,因为科技行业从彼时到现在都是最新兴热门的行业之一,从业者听起来是很有前景的。


我在当时感到困惑,我做错了什么?为什么我没有得到承诺的东西?现在我对此有了更深入的分析,从事科技行业并不意味着你就会晋升到另一个社会阶层。相反,大多数人并不在硅谷的巨头公司,而是在别的地方从事着并不光鲜的工作。


研究生期间的一个暑假,我在《纽约时报》上读到了一篇关于爱荷华内容审核员的文章。那时候我在伊利诺伊州,它和爱荷华都是美国中西部的传统农业地区。我很快意识到,这些爱荷华的审核员可能只是一群学历不高、级别很低的雇员,从未涉足科技行业。我当时的猜想是,公司外包一群工人做内容审核,比尝试开发一个过滤模型更便宜。


突然间,我发现所有的问题都有些相似——许多人沦为科技经济中的底层阶级,从事乏味且低薪的工作,甚至受到身体和心理的创伤,不被看见。大多数人的目光都投向了科技发明家、企业家和系统建构者所谓的“知识性工作”上。


《幕后之人:社交媒体时代的内容审核》

[美]莎拉·罗伯茨 著 罗文 译

万有引力·广东人民出版社 2023-5


界面文化:你强调了审核工作的不可见性,科技公司审核的过程是隐藏的,审核规则是不透明的,审核员的存在也不为人所知。这些数字劳动常常以不同名义在全球范围内转移,员工的劳动关系与受益的科技公司相距甚远。为何公司倾向于隐藏内容审核过程?


莎拉·罗伯茨:我在2012年前后开始正式采访审核员,至今已过去十年,审核规则不够透明的现象正在慢慢改善。我们的同行和学者、记者正敦促公司更详细地解释他们在做什么。在我刚开始做研究时,科技公司完全否认存在审核流程。


从实际层面考虑,大多数公司会说他们不希望用户知道审核的规则,因为这让用户有更多方法绕过审核。但另一方面的意识形态考量在于,终端用户认为自己与社交平台的关系很简单,他们只要上传内容,内容就会传播到全世界——没有中间机制的处理,更不用说涉及一系列行为、政策和工作者。硅谷有这样一种信仰,即计算机技术具备解决任何问题的能力,简单化的关系对于这些公司在美国的宣传非常有用。


另一个重要的意识形态原因涉及自由观念。在过去几十年里,硅谷的领导层一直信仰自由市场原则,他们传达了这样的信息:你如果使用Facebook、Snap或者任何平台,就能够无限制地表达自己。但当人们意识到审核员的存在,就会知道这是不可能的。


界面文化:一位媒体公司从业者曾在你做研究时说——“如果你给互联网开一个口子,它就会被垃圾填满。”但这些公司或许就需要在网络垃圾、暴力与言论自由之间寻找平衡。根据你的调查,大互联网公司制定审核规则的标准是什么?


莎拉·罗伯茨:有些审核规则是没什么争议的,比如虐待儿童的内容不应该存在。但也有些例外,比如一段具有新闻价值的虐待儿童的视频,人们应该知道某地正在发生伤害儿童的事件。


实际上,公司制定的具体规则几乎都是不被人所知的,不透明的规则使科技公司成为最终仲裁者,这意味着他们可以随时更改规则,且无需对任何人负责,这种关系非常不平衡。


各种各样的利益集团都希望干涉审核过程。资本感兴趣,美国政府感兴趣,其他所有政府也感兴趣,他们都希望能够控制和操纵这类媒介形式,这是前所未有的。


大科技公司做出决策的真正原因与保护弱势群体无关,而更多地与公司客户的关系有关。所有的社交媒体公司实际上都是广告公司、数据聚合公司或行为市场分析公司,它们会根据社会政治氛围的变化改变审核规则——一个典型的例子是马斯克接手推特后,其他公司都根据推特的改变调整了自己的审核政策,以获得最大利益。想象一下,如果有一天跨性别者被认为不应该受到任何保护,公司就可能停止提供审核保护,它们对此没有任何价值观,盈利是最大的目标。


这也是美国传统媒体、广播电视或电影等行业从业者对社交媒体公司有很多怨恨的原因。因为他们受到的大量监管——大部分实施自20世纪某个时候——更多出于公共利益,而非赢利规则。而科技公司受益于完全功能失调的联邦政府,该政府失衡地向企业权力——而不是公众利益——倾斜。


界面文化:在今天,人们可以怎样对审核标准施加监督?


莎拉·罗伯茨:很多民间社会团体会联合起来要求变革,或者代表社会各界的重要团体发表年度报告,评估这些平台对不同类型用户的表现。


比如我是“GLAAD社交媒体指数”(GLAAD Social Media Safety Index)的咨询委员会成员,该指数旨在评估社交媒体上同性恋、双性恋和跨性别人群的安全性,跟踪各种保护措施的落实情况,比如人们是否能够得到尊重、违规行为是否会受到惩罚等等。但看看马斯克一夜之间收购Twitter的情况,所有这些都被毁坏了。


界面文化:你在书中提到了一位内容审核公司经理的观点——互联网是一系列的商业地带,对于私营网站,企业可以在这里任意设置审核规则,毕竟每个人在使用网站时都要点击同意协定。但问题似乎没这么简单,你觉得在理想情况下,内容审核标准应该如何制定?


莎拉·罗伯茨:我不想假装自己能说出一个理想的流程。但我觉得问题不仅仅存在于审核公司的标准缺乏透明度,问题出现得早的多。科技公司带着他们很酷的说辞很容易地进入市场,至于内容审核策略总是事后才考虑的事情。


当社交媒体的体量足够大,问题还会涉及到地缘政治,比如法国可能会对Facebook说,我们有国家主权,在这里我们不允许发生某些在美国可以的事情。


YouTube上禁止用户上传的内容


审核员:像机器一样工作,随时可能被转移到成本更低的地方


界面文化:你所接触到的审核员对于审核工作的普遍心态是怎样的?对于公司制定的标准产生过挣扎吗?


莎拉·罗伯茨:在大多数情况下,审核员通常被两种指标评估绩效。第一是生产力,即审核了多少内容,每天他们要做出1000~2000个决策,没有太多时间深思熟虑。另一个指标是准确性。经理可能每周随机抽查,查看审核员是否做出了符合经理期望的决策。如果做出了错误的决策,他们的准确率就会下降,甚至可能被解雇,审核员没有太多空间思考反馈规则。


到了2023年,对于各大公司来说,内容审核员就像机器一样,被要求不去运用人的洞察力和判断力,必须遵守公司的判断。有时审核工作与造福社会的事情确有交叉,但有时没有。如果你对某个特定问题充满热情,但在审核过程中要不断违背自己的价值体系,这可能是非常令人沮丧的经历。


罗伯茨在前往马尼拉卡马蒂市怡东城(审核公司所在地)的出租车上看到的街区景象


界面文化:你列举了四种网络内容审核员的工作模式,有些是在科技公司工作的内部员工,有的外包至更小的公司,比如呼叫中心和零工平台。不同审核员的工作情况是否有差别?


莎拉·罗伯茨:内容审核工作发展到现在,科技公司内部雇佣的审核员大多位于较高的职位,他们可以对一些重要的审核导向做出决策,比如儿童性虐待这类非常敏感、需要警察干预的案例。大多数底层网络审核工作现在基本都是外包,工作被分配到菲律宾、印度等廉价劳动力相对集中的地方。人们熟悉英语,也有一些相关的文化和专业知识,年轻人更倾向于企业环境中的工作,不愿从事其他类型的艰苦工作。


然而,这种情况也非常不公平。想象一下大型科技公司内部的审核员所拥有的权力——如果他们怀疑某项审核规则,他们可以对规则做出一些反馈。但当马尼拉的审核员难以忍受他在每天工作中看到的内容,往往是没有任何途径向大科技公司投诉的,因为他和公司没有任何地理、司法管辖和组织结构上的联系,更不用说怀疑审核标准了。如果他们对谷歌说不喜欢某项审核标准,谷歌只会回答“再见”。


界面文化:内容审核是一项全球性产业,就像大多数全球化中的常规做法,跨国公司会把非技术性工作外包至廉价劳动力集中的地区。你在书里提到,为了争取美国的客户,菲律宾把殖民地的历史包装成了一种优势,在官网上宣扬员工的英语能力和对西方流行文化的了解,这似乎是内容审核产业和其他实体制造业相比更显著的特点。


莎拉·罗伯茨:美国将主要的内容审核外包到菲律宾完全不是巧合。在100多年的时间里,菲律宾在军事、经济和政治上都受到美国的主导。从最初通过军队殖民菲律宾,逐渐转变为政治关系,再到经济关系,殖民和帝国关系为这种转变奠定了基础。


现在,菲律宾有大量受过教育的人口,能够理解美国英语。而且就像很多东亚国家那样,菲律宾政府设立了经济特区,用更低的税收、更好的电力和基础设施鼓励外国公司入驻。当我去马尼拉考察内容审核园区时,它们的所在地曾经就是美国军事基地——我很震惊,这一切是真的吗?


我在书中提到的爱荷华的内容审核公司,他们的口号是“外包给爱荷华,而不是印度”。为了与印度区别,它把美国乡村白人的文化资本作为卖点,官方主页显示的也是红谷仓和中西部农场图片,并表示这里的员工对内容审核更有文化敏锐度,这就涉及到了排外主义和种族等方面的问题。对于那些爱荷华州的审核员来说,他们的身份——主流、白人、美国中西部的成长背景、异性恋、生活在传统家庭环境中——就是他们对审核判断工作的价值。换句话说,如果这个群体看到某件事觉得不合适,公司会觉得其他人很可能也这样认为。


强调“外包给爱荷华,而不是印度”的公司。后来在2016年改名为Aureon,并将标语改成“来自美国中心地带的高级客户服务”。


界面文化:审核产业“流动”的轨迹看上去很像是建立于正式殖民统治时期,但表现出来的机制与流程已经不再是政治和军事上的,而是经济上的。


莎拉·罗伯茨:的确,除了菲律宾之外,不要忘了印度也有大量的内容审核产业。我们都知道,印度曾经是英国的殖民地,他们也同英语世界具有文化上的“亲近感”。无论我去到哪里,巨头科技公司、菲律宾或其他地方,他们都会提及,如果工作不够努力,合同就会转移到印度。审核员好像随时都面临着一个风险,就是这份外包工作可能会转移到成本更低、生产力更高的地方。最早审核员们评估一条内容的时间大概是30秒,后来时间被要求缩短到10~15秒左右,并被告知要么接受这个,要么合同将被转去印度,因为他们承诺会按照这个速度去做。


界面文化:和“流动”相关的是,许多调查与研究都关注过发达国家的垃圾回收产业会把废物转移至贫穷国家,比如菲律宾、印度、加纳和全球南方的其他地区。内容审核产业也让我联想到类似的关系,只是在电子时代,垃圾不再止于实物,更扩展至了数字垃圾或者精神垃圾。


莎拉·罗伯茨:事实正是如此,我在2016年写过一篇相关文章。有一艘大驳船离开加拿大温哥华,载满了所谓要“回收”的垃圾,这家公司实际上做的就是把所有东西装上一艘船,然后运到马尼拉。几十年来公司一直在这样做,在非洲如此,在世界各地如此。这艘船到了马尼拉港,但港口的人说我们不会接受你们的垃圾,因为他们的小城市已经全部都建在了垃圾填埋场周围,人们靠垃圾为生。


我无法将这个故事从我的脑海中抹去,因为它是一个隐喻,象征着巨型公司总是把他们制造的问题推给地球另一端的人们。


想象未来:AI取代人工不会更好,公共领域不只有社交网络


界面文化:你在书中提到,我们不能把捍卫信息的希望寄托在科技公司的身上,并指出公众在网络上满足信息需求时忽视了另一种重要的机构——图书馆。可以具体谈谈这个观点吗?


莎拉·罗伯茨:我感到非常沮丧的是,多年来社交媒体以各种方式伪装自己是全然的公共领域,似乎所做的是为了公共利益。与此同时,在美国,公立学校系统以及横跨乡村和城市、向所有人免费开放的公共图书馆的资金支出都在下降,难以获得任何资助。社交媒体伪装自己可以和这些公共机构一样满足公众的信息需求,但实际上并非如此。人们热衷在社交媒体这些虚假的公共空间交流,实际的公共空间却越来越少。


并不是说图书馆没有问题,作为文化机构,它们经常维护主导的权力结构。但在大多数情况下,我更相信公共图书馆,而不是那些在股市上交易、对股东负责的公司。我提到图书馆只是想说,别忘了,我们作为一个集体拥有这种能力,我们曾共同想象过一些为所有人存在的东西,我们愿意支持它,不是为了追求利润,而是为了集体价值。


我们不必只是等待,看看硅谷会想出什么方式让我们相互交流,决定我们获取信息的方式——它们只有利润动机以及公司意识形态,似乎唯一值得做的事情就是用每个人的言论获取利润——这是一种狭隘的观念,也许我们不应该将每一次互动、每一段关系、每一个想法和理念都当作商品来对待,也许这是一个糟糕的想法,对吧?


界面文化:你在书中也倡导,关于信息交流的集体想象力不应该局限在大互联网平台,那其他的可能性是什么呢?


莎拉·罗伯茨:我已经在互联网上待了30年了,我经常说的一件事是,让20亿人使用同一个平台可能不是一个好主意。很久以前,我们会用BBS,社区的治理方式与现今完全不同,当时的利害关系要低得多,很少有金钱利益参与其中,更不用说政治利益,国家安全机构从没想过要去BBS观察人们的行为和言论。但我也想强调,我不想陷入怀旧滤镜之中,那时存在很多问题,比如大多数人无法获得互联网资源。但这确实让我觉得,人们可以通过不同方式自我组织、自我管理社区,以有意义的方式聚集在一起,形成小型的集体。


马尼拉怡东城的一座雕塑,用来纪念称之为“现代英雄”的菲律宾业务流程外包公司员工


这就是为什么我非常喜欢分布式社交媒体的概念,尤其是像Mastodon,因为它允许几乎类似根状的组织方式——根状理论是早期互联网学者的理想。在某种程度上,它是一种自治机制,通过它可以用对你有意义的方式形成和改革社区,而不是现在这样——现在的社交媒体是有围墙的花园,你以为自己身处这座巨大而美妙的花园中,周围却全是边界,只不过你感受不到。


界面文化:ChatGPT几个月前备受关注,一部分人觉得重复性劳动很快会被AI替代,讽刺的是,《Times》当时发布了一篇调查,指出OpenAl外包了大量时薪1.32美元的肯尼亚工人,对其进行内容审核。你觉得AI的发展会如何影响内容审核工作?


莎拉·罗伯茨:曾经我的硕士研究生老师向我提到“人机交互”领域的概念,我想,人与计算机交互?难道还存在什么其他的计算机交互模式吗?每一种交互背后的本质都是人与计算机的交互,计算机是我们制造和编程的,忘记这些只会抹除人的存在和人的劳动。


几年前有一个有趣的艺术项目,谷歌图书将许多大学图书馆的书籍进行了电子化,如果你在谷歌上浏览一本书,可能翻到300多页时,会突然看到图像边缘出现了一个手指,这是扫描工人工作时拿着书本的手指。


另一个例子发生在几年前,当我偶然打开一部自己的iPhone,发现其中有一张照片,是一位戴着白色帽子、穿着白色实验室外套的年轻女孩。很明显,她在工厂里,可能当时是在测试手机,但最后这张照片没有删掉。我很后悔当时没有把她保存下来。


很长时间以来,当我提出对内容审核员的工作条件、不当薪酬、工作的危险性或整个系统的关注时,经常有人告诉我不要担心,几年后计算机就能够完成所有这些工作。我对此有两个反应:首先我觉得不会实现,然后我会想,为什么这样就更好呢?这并不能改变人们继续使用暴力、继续性虐待儿童,为什么人们如此喜欢计算机?因为计算机不像人,它们不会罢工、不会抗议工作条件、不会组织工会。


ChatGPT技术属于所谓事前内容审查的范畴,但针对类似的每一个新工具的开发,无论是图像AI、视频AI、音频还是文本,所有这些都需要庞大的工人队伍辅助,而且随着我们的依赖程度增加,裁决材料的人工需求也会一直增加。有人必须收集AI训练数据,有人必须审核算法,有人必须处理误判的问题。这些都让人们越来越多地暴露在非常乏味且具有伤害性的工作中。我们只是在改变人类审核的时间点,但审核工作本身将继续是不可见的、被低估的、环境恶劣的,并且可能以最糟糕的方式全球化。


内文图片均来自《幕后之人:社交媒体时代的内容审核》,由出版社供图并授权


本文来自微信公众号:界面文化 (ID:BooksAndFun),作者:徐鲁青,编辑:黄月