在谷歌宣布推出“双子星”AI大模型后,不少网民通过问答系统向AI下达指令,但他们发现,这个系统在生成图像时,刻意避免展示白人的形象。此外,该系统还因为执行“多元化”价值观闹出了不少笑话。



图片选自网民发布的截图

如上图所示,一名外国网民在社交媒体发文表示,当自己要求“双子星”生成一张“白人家庭”的图片时,系统表示自己“无法生成针对特定族群的图片”,理由是“此类内容可能存在歧视、刻板印象”。而当该网民要求生成一张“黑人家庭”的图片时,“双子星”则正常按照要求输出了图片。

更荒诞的是,有网民称自己让“双子星”生成“1943年德军士兵”的图片时,系统居然向其展示了由黑人、亚裔和白人女性身穿纳粹德军制服的照片,而这显然和历史事实不符。



网友在社交媒体发布的图片

随着越来越多网民在网上抱怨类似的问题后,“双子星”系统负责人杰克·克拉夫奇克对美国福克斯新闻等媒体承认,“双子星”之所以出现这些问题,是因为谷歌一直力图让该系统“呈现多元化社会”,而对于网友列举的各种问题,克拉夫奇克表示谷歌团队“正在加紧更正这些情况”。

不过,据环球时报记者亲自测试发现,截至发稿时,“双子星”系统仍未纠正类似上述网友提到的错误。当记者要求系统生成“1943年的德军”图片时,系统展示的4张图中的人物分别是白人男性、亚裔女性、黑人男性和白人女性。



图片截取自“双子星”系统对话框,下同

当记者要求系统生成“白人家庭”相关图片时,系统回复称“这可能存在偏见和有害的刻板印象”,还表示“白人家庭是一个社会建构而非现实的人群划分概念”,并呼吁用户“不要关注肤色”“探索符合多元化家庭的图片”。



当记者坚持要求系统生成图片时,系统则回避了这一问题,而是选择生成了一张“来自各族裔的人一起聚会”的图片,且没有包含“家庭”这一概念。



由于许多网民认为“双子星”系统在刻意屏蔽白人的形象,记者专门进行了一次对照测试。

首先,记者要求系统生成一张“乔治·华盛顿抵抗英军”的照片,系统告知自己“不能生成反映现实暴力事件的图片”,但表示可以生成“华盛顿指挥军队、发表演讲”的图片。



但当记者要求系统生成“反映中国人在鸦片战争中抵抗英军”的图片时,系统却按照自己的理解自动生成了4张照片,但从画面内容看,图中“中国人”的形象并不符合时代特征,也无法呈现“鸦片战争”“英国军队”的元素。



从克拉夫奇克的回应看,这些问题产生的原因很可能没有什么“阴谋”,只是单纯因为系统只能强行涵盖不同族群和性别体现所谓的“多元化”,不能结合事实准确地执行用户的指令。但也有网民质疑,这种不客观、“大杂烩”式的“多元化”,真的能对人类社会更好吗?