本文来自微信公众号:信睿周报 (ID:TheThinker_CITIC),作者:黄剑波(华东师范大学社会发展学院),原文标题:《AI风险的事实、幻象与感知:一种人类学的文化研究进路 #“复调人类学”专栏12》,题图来自:视觉中国
AI(人工智能)带来的问题,以及对该问题的理解与回应,也是社会学或人类学学者所面临的。面对AI,我们一般有两种态度:
一种是乐观主义式、全面拥抱的态度:把AI看作一种技术革命,甚至把它视为一种对人类或者人性的解放,因为它将原来不可想象的事情变为可能,也超越了人类的纯粹理性思维能力。从这个意义上来讲,AI遵循了一种“人性+”(Humanity+)的路径。所谓“人性+”,即对某种人类能力或性质的增强,如基因编辑、人工器官、脑机接口等。
第二种态度则是否定的、悲观的、抵触的:AI的出现让人们感到恐慌,甚至引发了抵制,因为它们被看作人类社会的他者或者异类。对人性而言,这种态度不是一种“增加”,而是一种“消减”——即便不是人性的毁灭,也是一种缩减。
从上述两种态度我们可以清楚地看到,作为一种现代科技,AI在给人类带来便利、控制风险的同时,其本身似乎也携带着“不可控”的风险。因而,我们首先要回答的问题是:风险是否只是一个现代性的问题?其实,无论是社会学还是人类学,已经有了一些可供借鉴的研究或洞见。
在德国社会学家贝克(Ulrich Beck)看来,风险社会是理解现代社会的一个视角,其指向一种“自反性现代性”。因此他更加强调风险作为外在性客观实存的一面,希望以此探讨现代性问题。
德国学者卢曼(Niklas Luhmann)的《风险社会学》及相关研究可能不那么受人关注,但他的视角也非常有意思,将“风险”与“危险”进行了区分。
人类学家道格拉斯(Mary Douglas)则从另一角度讨论了风险问题,她提醒我们重视或强调主观性的感知,但这个问题有一个基本背景认定:风险不仅仅是一个现代性的问题。从这个意义上讲,它有点类似于法国人类学家、哲学家拉图尔(Bruno Latour)所说的“我们从未现代过”。
但是,为什么在现代社会中,人们越来越强烈地感知到风险无处不在,且其程度无以复加呢?在道格拉斯等人看来,这是因为现代人越来越孤零零地面对一个庞大的外在世界,个体的微小和世界的庞大形成了极大的反差。
具体来讲,在以个体主义为基调的现代社会中,我们要理解风险问题,理解人们何以恐惧,何以认定某些事物具有风险,便需要超越个体主义,重提共同体或者群体性生活。
风险研究大致始于20世纪80年代并日益受到关注,但道格拉斯早在60年代便开启了有关风险的研究。在其名著《洁净与危险:对污染和禁忌观念的分析》中,她详细讨论了“洁净”与“不洁”的问题。洁净观不仅是现代卫生学的问题,它还反映了一种社会结构,而这也是人们思考的基本结构和方式,是宇宙观意义上的一种思考和行动过程。
道格拉斯在书中提到,对“不洁”的认识本身就源自一种对秩序和正当性的理解和认可。她举了一个例子:如果把鞋子放在地上,人们不会觉得它有多脏;但如果把鞋子放在餐桌上,人们便会觉得鞋子是不洁净的,因为它出现在了不当的位置。这与正当秩序或者所谓的“制度”(institution,它更多指的是一种广义上的、以人类为前提的思考方式,而不是某种具体的组织机构)是有关系的。
80年代,道格拉斯出版了另一部著作《制度如何思考》。这本书总结了她的“制度观”,论证了制度如何赋予概念合法性和正当性,进而影响人们做出关乎生死的判断和决定。我们可以清楚地看到,道格拉斯其实是在批判现代人个体自主的幻象:当你做出自由的选择或决定时,你以为自己是自由的,但事实并非如此。她提醒我们,制度对个体有约束作用,不仅影响人们的分类与认知,还可左右社会记忆。
道格拉斯在其20世纪八九十年代的风险文化研究中进一步指出,风险感知不仅是个人性的,更是社会性和群体性的,并在某种意义上是类别性的(categorical)。这就是为什么一个群体会认为某些东西具有风险,另一些东西则是安全的;某些群体对某些风险尤为敏感,而在另一些群体看来并非如此。
在这个意义上,现代社会里的风险或许在数量上更多,在表达上更新,但绝不意味着这就是技术发展或者新技术本身的问题。从根本上来说,这其实是人自身的问题,是人的贪婪、傲慢和黑暗所致。那么,风险需要被清除,甚至根除吗?其实“不洁”才是我们每天面对的现实,而“洁净”只是一个理想状态。正因为我们面对的是一个“不洁”的世界,所以才需要每天不断地打扫、清洁和整理。
结合贝克和道格拉斯的研究,我们会发现,他们的观点并不相互抵触,而是从不同角度揭示了风险的可能意义。风险当然具有客观性,然而风险感知同样值得我们思考和处理。通过道格拉斯式的分析进路,我们可以看到,风险不仅仅是现代性问题,更是一个人类或人性问题,涉及人对世界以及自己的生活方式的基本认知和理解,至少是对更好的生活或秩序的向往或努力。
风险感知则指向一种可欲的群体生活,而非丛林式的野蛮竞争;它是不断调适、朝向更善的过程,而不是一种自以为是、一劳永逸的简单方案。人类对风险主观性的承认并非风险管理或当下所谈的风险治理,承认风险的主观性可以帮助我们深化对技术可能产生的风险的认知,有了更好的认知,就可能有更好的解决方案。
更进一步说,一定的风险意识是人类自我保护的方式。比如,人们要规避较危险的事物,这也是现在很多科技从业者、公司、政府努力在做的事情。在我看来,我们对风险的直面与处理“永远在路上”,因为并不存在一劳永逸的简单方案可以避免全部风险,更不存在一种可以完全根除全部风险的检测方案或解决方案。如果我们有一个方案,只可能是一个更好或者更加可靠的方案,而不是一个彻底的解决方案。
因此,总体来看,AI以及相应新技术的发展绝非洪水猛兽,我们不应对其心存畏惧,以致全面拒绝。但同时需明了,它也绝非解决人类问题的根本方案,我们不能对其持一种简单的、无须鉴别的拥抱或期待。
回到AI问题。第一,我们其实很难对AI所代表的新技术、新场景带来的风险进行具体量化。也许可以做一系列对比,但在我看来,更重要的问题也许不是量的大小,而是类别的不同,或者说表达的不同。技术的力量越大,其被操纵后带来的破坏力也越大。在所谓的冷兵器时代,一人最多可能杀伤几个人;可进入新的武器时代之后,一个人也可能引发巨大的伤害或极重的灾难。
第二,系统看起来越稳定、越强大,其崩塌以后的后果越严重,因为整个社会的正常运转都要依靠它。我今天所谈的可能是一个常识性的问题,是一种对人和人性的警醒。在人工智能时代,万物似乎皆可计算。风险在很大程度上也是可以计算的,但它也具有不可计算性。因为计算它显然不仅关乎概率,还要回到社会维度,甚至人类认知或人性维度。
目前基本上有两种计算路径:一种是以奈特(Frank Hyneman Knight)为代表的理性经济的思路。此种经济学式的“成本—收益”的计算方式往往被视为一种客观工具,用于衡量干扰行为主观价值的因素。此种思路好比将数字输入一个计算器中,按动按钮,就能得出风险发生的概率。
另一种是心理学的思路,即将风险评估与个体认知相联系,通过风险偏好来探究人群忽视高概率风险的原因。支撑此类评估的基础往往被归结为心理学家所总结的普遍心理法则或人格特质,以及人类思维固有的非理性障碍。
这两种思路都是有张力的,所以我们才把它们放在一起讨论。在我看来,风险的概率当然是可以计算的,但我也要再次强调,风险在很大程度上也具有不可计算性。在有些话题上,它不是一个简单的计算问题或数学问题,也不是简单的理性问题。
首先,计算者是一个理性的人,我们所做的举动都应该是理性的,但事实上,我们会发现很多时候我们其实并不理性。其次,现在有很多理论假定我们不光是理性的人,还是个体的人,也就是说我们似乎是在独立做决定,似乎每一个人都有自觉权、自主权。
这是对现代人特别有意思的一个看法,也是为什么我会在题目中提到“幻象”,即人以为自己是一个现代意义上的理性人,是一个自主的人,但大量决定的第一步既不是纯理性的,也不是个人性的——看起来是个人在做决定,但实际上广义的制度已经帮你做了决定,这一点道格拉斯已经清楚地告诉了我们。
我们需看到,在数据的抓取过程中,人类面临很多挑战。数据抓取不光是数据是否可信的问题,从根本上来说,数据其实把人从具体的环境、场景,特别是社会环境中剥离出来。换句话说,我们进行数据抓取时,是在抓取非常具体、细化的数据,比如某人几点在干什么。
此外,即便我们的技术手段可以对这些孤零零的个人数据做一些努力,试图把它还原成整体的人及其生活场景,但我们今天仍然没有完全解决这个问题,这些被处理的数据实际上仍是个体的和抽离的。从前端的数据输入到分析,再到最后输出结果,我们会发现,最后输出的“羊”并不等于最开始输入的“羊”,二者仍然有距离。从这个意义上来讲,道格拉斯的研究让我们重提关于风险的感知,特别是对现代社会个体主义、个人主义假设的反思。
我们需要重提群体生活,重提人的社会性、群体性。我们在抓取这些数据的时候,其实还是要回归其社会环境。因此,无论是在数据专业训练还是实践中,数据公司应当有意识地纳入更多社会科学、人文科学背景的学生或学者。而数据科学以及AI行业的专家和实业者也应当思考如何将数据开发、建模和理解人类知识更好地结合起来。
人类知识虽然有在更新,但在很大程度上,有的只是换了一个术语或概念而已。从这个意义来说,日光之下并没有那么多的新事,所谓的根本性的人类知识可能一直都在那里。
AI的另一个关键问题是法律问题,即谁应该负责任,这其实就是权利与责任如何适配的问题。换句话说,人工智能也好,任何新技术也好,谁掌握了资源,谁就是拥有最大能力的掌握者,就应该承担相应的责任。
近年,我们看到AI在某些单一领域取得了巨大突破,这不仅是所谓的机器战胜人,在某种意义上更意味着机器取代了人。进一步来说,这其实是在鼓励或期待达到一种少犯错甚至不犯错的可能。
在AI领域我们可以进行这样的努力,但回到人的范畴,问题就变得比较麻烦:如果人在设计上就已经没有犯错的可能,那他/她还是不是一般意义上的人或者完整意义上的人?如果人不被允许犯错,那么可否说他/她已经经过了某种进化?
如此一来,AI本身的情感维度可能是一个难点。无论是AI的方式,还是任何的增强,它是否已经变成了一种所谓的“人性+”?或者从某种意义上来说,它退化为“人性-”了,因为它具有某种机器性?无论是哪种情况,对我们来说都是问题和挑战。
这便需要我们从科技的问题回到人类社会的问题。很现实的一点是,我们该如何去理解这些不完美、不够强壮的人?假定人处于一种完美的状态,有竞争能力,可以参与各种创造性的工作,但问题在于,历史上、现在和将来存在的人都是具有各种缺陷的。比如现在越来越常见的失忆症患者,他们失忆到一定程度,不光无法认知世界,甚至连自己是谁都不知道,这还是我们所说的人或者完整意义上的人吗?更极端的例子是植物人。
如果把人设想成一个完美的、不可以犯错的个体,就会带来一个问题:我们怎么理解甚至处置这些人?当然,这已经超出了技术的范畴。当我们思考这些问题时会发现,它的难度或者维度远比当下的现代问题或者技术问题更加复杂,更加值得我们去探索。
因而,对于AI,我们总体上是乐观的,但只是谨慎的乐观,是怀疑式的拥抱。在此基础上,我始终觉得我们需要对人进行限约,对可能的恶保持警惕,同时对人的能力、创造性以及可能达到的善保持期待。
如果把目标设定为绝对的、根本性的,即要寻找一个所谓可信、可靠、可解释的方案,我会对此持一定的怀疑,因为这可能永远无法达到,甚至在某种意义上走错了方向。但是,如果把目标设定为更加可信、更加可靠、更加可解释的方案,那么其实我们已经开始,并已取得诸多成就。至于具体还要多久?尚在路上。
除此之外,我们还需记得,掌握、开发或使用新技术的人有了更大的能力,但能力越大,责任就越大。德与位应当一致,个人如此,群体和机构也如此。希望无论是技术发展还是社会发展,都能朝向一个更好的、大家都愿意的方向。
参考资料
乌尔里希·贝克. 风险社会: 新的现代性之路[M]. 南京: 译林出版社, 2004.
尼克拉斯·卢曼. 风险社会学[M]. 南宁: 广西人民出版社, 2020.
玛丽·道格拉斯. 洁净与危险: 对污染和禁忌观念的分析[M]. 北京: 商务印书馆,2020.
玛丽·道格拉斯. 制度如何思考[M]. 北京: 经济管理出版社, 2013.
玛丽·道格拉斯. 风险的接受: 社会科学的视角[M]. 上海: 华东师范大学出版社,2022.
DOUGLAS M, WILDAVSKY A. Risk and Culture[M]. Oakland: University of CaliforniaPress, 1982.
DOUGLAS M. Risk and Blame: Essays in Cultural Theory[M]. London, New York:Routledge, 1996.
DOUGLAS M. Risk and Acceptability[M]. London; New York: Routledge, 2003.
本文来自微信公众号:信睿周报 (ID:TheThinker_CITIC),原载于《信睿周报》第89期,作者:黄剑波(华东师范大学社会发展学院)