随着美国、英国和欧盟等地将内容审核岗位转到印度等全球南方国家,观看血腥画面净化网络的工作,造成了审核员的心理创伤。

在南亚信息技术中心——海得拉巴工作的版主,谈及了在审查色情和暴力内容时,甚至有拐卖儿童的内容,他们面临难以承受的精神压力。

从事这个工作后,他们普遍情绪低潮、内心压抑、难以入眠。



01

谋杀、自杀、恋童癖……

来自哥伦比亚的28岁学生路易斯(Luis),通宵达旦地审核TikTok视频。白天他想要补觉,但视频画面不时浮现,难以入眠。

路易斯经常审核的视频包括:“谋杀、自杀、恋童癖、色情内容、意外事故、同类相食。”

一段儿童性侵犯的视频,让前TikTok版主卡洛斯做了噩梦。视频里的小女孩大约五六岁。“她背对着跳舞,离镜头那么近。”他说。

卡洛斯心神不宁,因他自己就是个父亲。暂停视频,他去外面抽了根烟,几分钟后又回到审核队伍。



另一位版主瑞希(Rishi),23岁,专门负责欧盟内容,他说:“关于是否需要禁止变态杀人和假装吃动物尸体的视频,我和主管意见相左。”

确实,这类视频很少出现,但为什么要在客户平台上保留虐待视频呢?除非他们本就想通过此举增加收入。

手机APP,尤其是直播APP需要严格监管。当我们审核内容保护用户心理健康时,我们的心理健康又有谁在意呢?

审核员阿卡什说:“每一次开工,就像进入了刑讯室。”

02

作秀的“心理援助“


Teleperformance制作的精美宣传视频提到过公司的心理援助,伴随着隐隐忧郁的古典乐,背景音说到:“有人说他们是天使,他们是我们的朋友,是我们大家庭的一员。”

然而,几位版主表示,该公司的心理健康援助严重不足。

现任版主克劳迪娅(Claudia)告诉新闻调查局,连续观看人类吃活体动物视频后,她害怕到难以平静。这些避无可避的“热门视频”,导致她的恐惧症爆发。她说:“我会遮住屏幕,等10秒钟再看。”

克劳迪娅通过 Teleperformance 计划申请心理援助,但必须得到主管批准,两个月内,她没有接受到任何心理援助。最后,当公司的心理援助人员总算联系她时,对方表示无法帮助她,让她自行就医。

研究表示,内容审核工作很容易带来精神伤害。这些版主们列举了工作所带来的伤害,包括抑郁、焦虑、孤独、颤抖和失眠。



现年22岁的哈伦,是同意匿名接受卫报访问的八位版主之一。虽然他们表示,公司鼓励压力较大的员工寻求心理援助,但只有一位版主觉得心理援助有用。

健康援助只是一种形式主义,是法律规定这些国际企业需要履行的一项法律条款。哈伦说:"当我们看完一段敏感视频,被负面情绪击溃,公司仅仅只是把我们调到不那么敏感的审核队伍中,直到我们缓过来。”

03

绩效考核


这些版主描述,审核系统有严格的绩效考核。如果没有看完巨量的视频,或是休息后迟到,员工扣除高达四分之一薪水的月度奖金。

这些奖金很容易失去。现任 TikTok 版主(阿尔瓦罗) Álvaro 的每日工作目标是看完 900 个视频,每个视频看 15 秒。从早上 6 点工作到下午 3 点,中间休息2个小时,每月基本工资为 120 万哥伦比亚比索(人民币2227元),仅略高于哥伦比亚最低工资。

阿尔瓦罗说,完成公司的生产力、计时和准确性目标,他会获得300,000 比索(人民币557),但他的收入一般都在基本工资线120万比索(人民币2227元)附近。

一个细小的失误就足矣。他曾经收到一份称为“行动表”处分通知,原因是他在一个班次中仅观看了700个视频,这被认为是“逃避工作”。他说,一旦工人收到行动表,就无法获得当月奖金。



阿尔瓦罗担心纪律处分会影响推荐信,阻碍工作发展。“如果我把这份工作写在简历上,公司会反馈我逃避工作,没有达到指标,是个糟糕的员工。”

他补充道:“我们就像电脑一样,标记违反条例。其他什么都不用说,最好不要上床睡觉,不要去洗手间,不要煮咖啡,什么都不要做。”

与新闻调查局交谈的其他版主每天的视频目标是900-1000 个,而另一位处理一分钟以上的较长视频的版主,目标是每班 200-250 个。

有些人说他们通常会收到奖金,但其他人说他们只收到过一段时间,一位版主说他完全不可能获得奖金了。另外有两人表示,尽管完成了工作目标或是业绩表现最好,不公平的是,他们还是没得到奖金。

04

人工智能VS人类

尽管ChatGPT的母公司OpenAI表示,人工智能可能提高内容审核效率,但数千名社交媒体平台的人类审核员,将依然是内容审核主力。

内容审核人工智能公司 L1ght 的首席营销官(罗伊-卡西)Roi Carthy 说:“审核敏感内容,人脑是最有效的。人工智能可能无法识别新的敏感内容,但人类不会有这个问题。”

“从成本来看,内容审核AI成本远高于每小时1.80美元(人民币13元)。”这是全球南方国家内容审核员的平均工资。卡西说:“如果只关注成本,任何内容审核人工智能公司都无法与之抗衡。”

非营利性信息技术和社会正义组织狐狸草(Foxglove)的负责人玛莎-达克(Martha Dark)说,版主需要得到更好的保护,以免遭受 "改变人生的创伤"。



“内容审核员冒着巨大的风险保护我们,他们每天都在与暴力和虐童的信息洪流作斗争。没有他们就没有社交媒体。”她说。

达克补充道,人工智能“现在不能,而且很可能永远也不能”有效地调节内容。“唯一真正的解决方案是好好培养已经在做这项工作的内容版主。"

但目前而言,审核员们将继续艰苦奋斗,清除互联网上噩梦般的内容。