2月16日,“杭州将在3月1日取消机动车尾号”限行的新闻在网上疯传,这则新闻稿的来源是杭州某小区业主群讨论ChatGPT时,一位业主开玩笑说尝试用它写篇杭州取消限行的新闻稿,随后在群里直播了使用ChatGPT的写作过程,还把文章发在群里;其他业主截图转发,导致错误信息传播。


经证实,该消息不实,当地警方已介入调查。此事印证了公众关于人工智能的“超能力”是否会被用来作恶的猜想,也提醒我们要更加关注ChatGPT这类“聪明技术”背后的伦理问题。


ChatGPT形塑了人机交互新模式,提高了信息传播的效率。但由于其输出内容完全取决于信息源和训练数据,一旦信息源或训练数据失真或有偏差,则可能导致ChatGPT成为虚假信息的制造和传播者,自动生成内容的高速度、高产量也使得舆论场中可以短时间内充斥大量虚假信息或误导性信息。


当ChatGPT被有心人利用,从事信息操纵活动,可能会引发舆论场的对立和极化,造成意识形态风险安全。本文认为,这类“聪明技术”具有这种“类人”乃至“超人”的能力,也因其类人化、商业化而承载着巨大的伦理敏感性,这就要求人们思考算法推荐伦理风险的多样性和复杂性,进而走向“何以展开技术伦理治理,形成负责任算法推荐”的新视阈。


本文来自微信公众号:探索与争鸣杂志 (ID:tansuoyuzhengming),作者:张春美(中共上海市委党校教授),本文原载《探索与争鸣》2022年第12期,原文标题:《ChatGPT写假新闻疯传全网,再次提醒我们关注“聪明技术”的伦理问题|热点》,头图来自:视觉中国


随着机器学习算法、深度学习、大数据和先进机械电子学等的跃迁式发展,越来越多的智能系统被制造出来,并被广泛应用于社会各领域,算法推荐就是其中一个重要代表。算法推荐并非传统意义上的计算工具,而是一种运用人工智能让计算机“教会”自己不断进阶并寻找新数据以作出判断的“聪明技术”(smart technology)


在某种程度上,这种聪明的机器活动,具有无需人类控制的自主能力,这种“类人”乃至“超人”的能力,使算法推荐的伦理敏感性格外突出,并带来了复杂的伦理风险。如何看待算法自主性可能带来的不可预测后果?人与智能系统能否共享控制和共享责任?算法推荐的伦理治理何以体现技术的伦理内嵌?


思考这些问题,能促使算法伦理研究超越“技术行为是否应当”的传统问题域,走向“何以展开技术伦理治理,形成负责任算法推荐”的新视阈。



一、算法推荐的伦理敏感性


在数学和计算机科学中,算法是一种针对特定目标而设计的程序,该程序具有明确性且能在有限步骤中完成运算并达到目标。算法推荐(recommendation algorithm)是利用机器深度学习,分析用户历史行为记录数据,提取用户兴趣偏好,从而向用户实现精准信息推荐的技术。


它表现为“利用应用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息内容”。就技术特性而言,算法推荐是一个物质、信息交融的动态系统,其技术操作依赖于形式模式,每个步骤都以确定语句表达,算法流程和结果具有现实执行性。


基于人工智能的操作结构,算法可以通过学习、交互获得接近甚至超越人类的能力。技术发展与社会多元主体价值选择、商业资本逻辑相交织,使算法推荐具有强烈的伦理敏感性。



首先,算法推荐凸显人工智能的类人自主性,强化了技术脱离人类控制的可能,引发治理的复杂性风险。作为一种自主性技术(autonomous technology)的代表,算法推荐能借助机器深度学习辨识用户信息,展开精准匹配和个性化推送,还能使用生成式对抗网络(generative adversarial network, GAN)输入已知数据,学习并创造一个全新的合成数据。


这种“合成”新数据的“创造”行为机制内蕴着技术自我生产的本质,体现着工具理性操控下技术的自我修正、自我进化、自我优化。就此而言,智能算法虽是人工创造物,但其自我定向和自我选择的“聪明”行为,不再为人理解并真正掌控,技术摆脱人的操控实现自我进化就有了现实可能。


在这种自我进化中,算法推荐形成了一整套智能化“类人”能力。它深深嵌入实体世界,以更强的连接性来增强人与人之间、人与机器之间、机器与机器之间的信息交换,在促进人的数字化生存过程中,以一种全新方式重构世界。“这种重构的速度要快于我们目前重构自己、重构领导力、重构体制机制、重构社会以及道德选择能力。”


其次,算法推荐凸显“从人指向物”的特定关系模式,强化了技术的价值建构复杂性,导致责任追溯困境。算法推荐的起点在人,人的思想、理念规定着算法执行代码的基本逻辑。在储存、分析、使用和再造信息的动态过程中,资本驱动、价值倾向、社会心理、文化意识等以不同方式规定着技术产品的形状及其功能,并预设好了产品制作的工序和步骤。


“为满足我们对最新信息的不断需求,谷歌、雅虎以及其他互联网巨头需要开发出相应的系统,自动跟踪政治变化、足球转会新闻和《美国之声》选手的情况。这些算法要通过阅读报纸、查看维基百科和关注社交媒体来了解新的类比和概念。”在资本逻辑宰制下,数据已成为智能算法展开注意力引诱—捕捉的原料。


算法推荐以数据商品化为基本形式,以生成数据资本权力为主要目标,以对数据商品的占有和盈利为主线,展开资料储存、信息查询、数据分析、信用评定、数据买卖等商业化生产活动。这样,“越来越多的数字算法和数字机器正在不断生成、收集、储存、处理和评估大数据,并作出使人在经济、政治和日常生活中被边缘化的决策”。


在几乎实现算法“全覆盖”的数字化社会里,算法直接控制着人们的消费、思考、娱乐乃至情感活动,人成了资本权力支配的对象。在资本独裁的控制下,“个体不再反思自己,而是沉浸到对不断增多的物品符号的凝视中去,沉浸到社会地位能指秩序中去”。


面对算法深度嵌入人类社会的态势,我们该如何应对资本宰制下技术的异化风险?如何确立权责一致的制度安排,保护人的权益?这就需要剖析技术与社会的关系,建立相应的规范和监管框架,以推动技术公平透明的良性发展。


在技术存在与人的存在、技术本质与人的本质的整合中,算法推荐已深度应用于社会治理和公共服务供给,赋能数智社会的构建,向个人和社会提供了新的可能选项,影响着人们的思想观念、价值取向和行为方式。


同时,也因其类人化、商业化而承载着巨大的伦理敏感性,这就要求人们思考算法推荐伦理风险的多样性和复杂性。


二、认知与规范两个维度的伦理风险


通过伦理敏感性的线索,我们进入算法推荐伦理风险视域当中。具体而言,这些伦理风险关涉认知和规范两个层面。认知层面聚焦技术逻辑本身蕴涵的风险,包括算法安全风险、算法的可解释性风险、算法决策风险等,体现的是因数据不确定、数据难以理解以及数据污染等认知性因素(epistemic factors)而出现的伦理风险。


规范层面关注技术社会应用带来的伦理挑战,分析算法偏见下的社会不公正现象、数据依赖消解人的自主性、信息茧房引发技术权力规训等,这些是算法形塑人的思维、数据主宰人的生活等与规范性要素(normative factors)相关的伦理风险。这两个层面伦理风险具体可感,关涉技术自我进化、社会发展和人类权益,呈现出复杂态势。


1. 与认知性因素相关的伦理风险


第一,数据不可靠导致算法决策困境。数据质量直接影响着算法的可靠准确,不可靠的数据会带来算法结果的不可预见性,形成决策困境。数据质量体现为“数据集”(data set)的及时、完整和准确,它既涉及数据数量与结论可靠的因果性分析,也与技术专家采用什么样的方式进行数据收集有关。


算法使用的数据是否足以支撑结论的获取?大量数据能否得出相关因果解释?更多数据是否必然带来更好结果?对此,一种归纳主义观点认为,如果算法获得足够数据,即使我们无法确定数据与结果的因果联系,技术也能避免不确定性,获得具有因果关联的结果。


但现实表明,这只是一厢情愿的美好设想。算法大多用于处理步骤不明确、输入数据不受限的场景,且在运行中允许算法错误率保持一定弹性,因此,在实际运行过程中,算法的训练数据无法实现应用场景的“全覆盖”。


当算法本身所摄取的数据存在结构性偏差或算法参数遭到恶意修改时,将导致数据关联性逻辑判断出现误差,而这种情形往往难以及时发现并予以纠偏,大大降低了算法的可信赖性,产生算法自动化决策的片面性风险。


第二,数据难以理解导致算法不透明。数据是算法的核心资源。运用机器学习,算法能进行数据的实时反哺与学习,这一过程“犹如一个未知的‘黑箱’,用户并不清楚算法的目标和意图,也无从获悉算法设计者、实际控制者以及机器生成内容的责任归属等信息,更谈不上对其进行评判和监督”。


数据难以理解体现为算法代码及数据结构的复杂性和专业性。算法延展性(algorithmic malleability)要求研发人员不断进行目标检测和分割,实现用户的清晰画像,提高算法的精准度和匹配度,客观上加剧了算法消费者和算法设计者、使用者之间以及人类和机器之间的信息不对称,增加了因数据难以理解而出现的算法不透明现象。


此外,算法推荐与商业逻辑的联结,某种程度上使算法开发、设计、应用等成为受知识产权保护的商业机密,也成为相关商业机构的竞争优势所在。正是基于知识产权保护,“算法未知”隔绝了公众对算法的全面理解。


为了增强人类对算法的安全感、信赖度,算法伦理提出透明性原则,以期缓解这一矛盾。但完全透明既会让身处信息海洋的用户陷入信息噪音而不堪重负,也会带来因算法代码、工作原理等关键信息完全公开而削弱技术创新的动力。


面对算法“黑箱”,迫切需要加强算法的可解释性,使算法的工作状态回归“人类尺度”,增强算法信任,维护数字世界人类知情权益。


第三,数据污染导致算法偏见。算法中的“偏见”意指“偏离标准”,这种偏离可能存在于算法设计、开发和应用等不同阶段,如同“嵌入计算机系统的偏见”一样,算法偏见(algorithm bias)有三种情况:


  • 一是文化驱动的预存性偏见(pre-existing bias),最典型的就是性别歧视、种族歧视、价格歧视等。一些研究者发现,如果在谷歌上搜索一个非洲裔美国人的名字,很可能会看到一个提供犯罪背景调查的网站。如果输入的名字不像非洲裔美国人的名字,该网站就不会弹出。


  • 二是数据驱动的技术性偏见(technical bias),在算法运行过程中,因数据选择不当、数据失效、数据存在偏差以及延续历史偏见等,导致算法歧视固化愈加明显。


  • 三是应用驱动的突生性偏见(emergent bias),它往往存在于算法与人类用户的互动情境里。例如,微软的人工智能聊天机器人Tay,与网友在推特上聊天不到24小时,就被“调教”成一个“种族主义者”。


因数据污染带来算法偏见,给个体“数字人”的身份贴上了固化的标签,带来道德标准固化的伦理风险。


2. 与规范性因素相关的伦理风险


第一,基于信息茧房的数字过滤问题。数字社会环境下,智能算法已能更精确、更广泛地控制人类传递和接受信息行为,从某种程度上控制着人类感受世界的方式。这也表明,“在未来,我们如何感知世界将越来越多地由数字系统向我们揭示或隐藏的东西所决定。当我们只体验到世界的一小部分时,呈现在我们面前的那一部分将起到重大作用。它将决定我们的所知、所感和想要什么,从而影响我们去做什么。”


在技术的操控下,算法过滤器以迎合受众的方式推送特定内容,并根据细节和语境需求为每个人量身定做特定信息环境。当人搜索信息时,数字过滤器就会发挥作用:它决定着什么是你需要知道的,什么是不该知道的。在这一过程中,我们看到了什么,什么被屏蔽了,哪些情感被激发,哪些未被触动,都与算法过滤器紧密相关。


以腾讯新闻客户端为例,用户虽能在平台行使信息选择权、转发分享权来扩大其信息接收面,但也可在客户端中定制娱乐时尚等专属频道,根据偏好自主屏蔽不感兴趣的内容和加入志同道合的社群领域。


算法通过过滤“积极”或“消极”的信息内容来影响人的感受与认知,人也因此陷入信息茧房,形成自我固化的马太效应和搜索信息的思维惰性。在大数据信息的冲击下,人对智能算法产生依赖,关于事物判断的偏见与喜好被固化,这就直接影响着人对异质化信息的主动接受,排斥了人与社会发展的多样性,人成了数字时代“单向度的人”。


第二,基于算法霸权的数字不公正问题。随着数字技术的发展,人类赋予数字系统更多的权力,算法逐渐被用于重要社会资源(就业、保险、医疗、教育等)的分配活动,同时,在法律法规许可的范围内,算法在对人的识别、排序、分类和管理方面的应用日益增多。


于是,社会分配这一社会正义的实质,正被托付给数字代码。这意味着,数字代码可以减少不公正,创造新的正义,但它也会让旧的不正义沉渣泛起,产生新的不公平问题,这包括基于数据的不公平和基于规则的不公平。


一方面,当一种算法应用选择不当、不完整、失效或有偏见的数据时,数字不公平就出现了。如为人脸识别而训练的算法,若其数据主要源自白人时,那么在遇到非白人面孔时,机器就很难识别甚至识别不出来。如果语音识别算法是从包含大量男性声音的数据集中训练出来,那么它将难以辨别女性声音。这也表明,无论算法有多聪明,若给它灌输的是误导性或片面性的数据,它就不会公正对待那些隐藏在其视野之外的人。这就是基于数据的不公正。


另一方面,基于规则的不公正表现为显性不公正和隐性不公正这两种形式,两者都涉及社会分配中的标准确立,不同之处在于隐性不公正表现为间接使某些群体遭受不公正待遇。随着代码范围和职权的不断扩大,传统社会中的歧视意图和表现形式,可能会隐藏在智能算法学习过程和机制之中,以数字家长主义的形式表现出来,挑战社会人伦道德规范。


所以,机器能够“自主学习”,但这并不能免除人类“教导”它们区分正义和非正义的责任算法。当人类赋予更多控制权时,更需要保持清醒和警惕。


第三,基于算法滥用的算法责任问题。社会越智能化,收集和使用个人信息就越便捷,滥用个人信息乃至用个人信息牟利的风险也越大。机器学习和人工智能的发展,使算法技术能更便捷地收集来自个体的“信息碎片”,形成关于个人特征和行为倾向的量化评估,这些生成性信息的分析、评价乃至预测,会描画出个体某个方面的记录及行为可能性,比如是否具有暴力倾向,是否容易罹患某种疾病。


这些与隐私高度相关的敏感数据,又可能存在诸多不当处置:“他们的隐私更容易被强大的机构盗取。他们更容易被人追踪搜寻、被人控制,更容易受到更多的审查。他们对有关自己的决策日益感到困惑不解;他们常常沦为被人操纵的数字客体。他们在泛滥成灾的垃圾邮件里苦苦挣扎。他们容易成为广告商和政治组织猎取的对象。”


所谓大数据“杀熟”或“杀贫”就是突出表现。在资本逻辑的诱导和带动下,算法权力不断扩张,挑战用户心理、身体、社会及信息四重领域的隐私,冲击传统权利义务的对应关系及制度实践。面对这种以剥夺个体权利选择与自由意志为核心的“大数据利维坦”,重建智能算法的行为—责任逻辑链条,控制算法失误和算法失控,让算法保持“善法”的主体性,成为展开负责任算法推荐的重要考量因素。


作为技术发展价值排序和道德决策过程中产生的诸多不确定要素的集合,算法推荐的伦理风险是客观存在与主观认知的结合,是当下与未来的结合,它内生于技术—人—社会的交互关系,外显于其危险性后果的复杂性和不可逆性,与人类在价值上的取向和行为上的选择息息相关。


三、算法推荐的伦理治理


算法推荐伦理治理的兴起是应对各类伦理风险的重要内容。它强调基于技术伦理敏感性及其伦理风险复杂性特质,技术的研发自由不再绝对化,创新全过程应贯穿伦理考量,体现“伦理先行”。同时,社会要确立边界清晰、权责明确的伦理治理建制,持续监督技术伦理风险变化,及时动态调整伦理治理方式,促进算法推荐的负责任创新。


1. 伦理先行:明确算法推荐的伦理规制原则


算法伦理风险往往是一些具体并迫切需要解决的难题,要想解决这些难题,一个基础性工作就是把复杂的技术伦理难题逻辑化、系统化,将其还原为人们可以掌握和解答的问题,以便达到化解冲突、提出有效对策的目的。


在这种情况下,建立原则性、客观性的技术伦理原则,确立开展科技创新活动需要遵循的价值理念和行为规范,就为解决伦理难题提供了一条较为便捷的伦理进路。它意味着,伦理规范不仅是个体展开主观反思的引领,也应成为社会层面具有约束力的行动指南。这正是“伦理先行”的要义。


在宏观层面上,算法推荐的伦理先行着眼于技术整体与社会的关系,由政府、国际组织、企业等来制订符合伦理治理要求的总体框架,包括伦理原则、政策战略、法律法规、技术标准等。如2019年欧盟正式颁布了《可信任人工智能伦理指南》(Ethics Guidelines for Trustworthy AI),意在建立一系列原则性、客观性的伦理规范,推进人工智能技术的“伦理内嵌”。


这一伦理指南强调人工智能伦理规范应从“人为自己立法”的规范性原理中产生,据此立场提出了“尊重人的自主性、预防伤害、公平性和可解释性”等四项伦理准则,描述了实现可信赖人工智能的七个关键要素,即“人的能动性和监督;技术稳健性和安全性;隐私和数据管理;多样性、非歧视性和公平性;社会和环境福祉;透明性与问责制度”。


2022年我国政府颁发《关于加强科技伦理治理的意见》,确立科技伦理五大原则:“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明。”宏观层面的伦理先行,能够借助一些普适性、超越性原则的构建,在价值观念多元化和伦理规范相对性的局面下发挥伦理原则的路标作用。


在微观层面,算法推荐的伦理先行聚焦创新者的责任和义务,确立具体的技术规范要求。从结构角度看,技术规范体现为技术规则、技术法规和技术伦理三大内容:


  • 其中,起基础性作用的是技术规则,它是技术层面上的具体要求。


  • 技术法规是针对专业共同体的外在强制和约束力量。


  • 技术伦理体现为一种软约束,要求把人和社会的伦理规范作为创新前提和基础,规约技术沿着保障人的权益的方向发展,达到技术向善目标。


如我国国家互联网信息办公室等四部门联合发布的《互联网信息服务算法推荐管理规定》于2022年3月1日起正式施行,针对算法推荐的隐蔽性特征,要求增加公开透明度,及时对用户履行相关告知、公示义务等,以法律保障用户知情权。


2022年3月,美国多位参议员提出《2022算法责任法案》强调算法自动化决策系统做出关键决策时,要评估有关偏见、有效性和其他相关因素,建立相关问责制,确保企业使用的自动化决策系统能保持透明度。


构建符合技术伦理规范的可操作性技术规范,有助于在技术设计这一上游层面实现伦理内嵌,发挥伦理软规则对技术建构的作用,为算法推荐的设计伦理或价值选择的预警机制注入人本主义的关怀。


确立智能算法伦理原则规范的核心关切是,算法等数字技术不能损害人类的生存条件和生命健康,要保障人类的切身权益,促进人类社会可持续发展。无论是算法歧视、算法隐私,还是算法霸权、算法鸿沟,最大的挑战就是损害、侵犯人的尊严。增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明,是促进算法推荐负责任发展的伦理铁律。


2. 算法责任:重塑算法推荐的责任主体


伦理原则体现了社会对技术发展基本方向的期待,它们仅为识别和思考算法伦理难题提供了一个分析框架,这种框架较为抽象,亦未能包含足以应对各类算法伦理难题的充足内容。这就需要细化抽象的伦理原则,构建受伦理原则规制的算法责任,使之在现实中转化为真实的行动力。


从表现形式看,算法责任是一种分布式道德责任(distributed moral responsibility),它涉及多种行动,多涉及数据收集、存储、处理和应用等诸多环节,关涉数据生产者、使用者和管理者等多元主体,这种复合式的责任主体构成一种“连环链”,而处于“连环链”的行动者往往难以及时察觉自己正在参与或造成的恶果。


这样,我们既不可能把道德责任归之于技术本身,也难以把道德责任指向用户,因为用户实际上并不知情,甚至还不能理解算法与其行为的相关性。这意味着,“在一个人机和网络互动的复杂性和长期影响呈指数级增长的世界,我们需要升级我们的道德理论来将日益普遍的高度分布式场景纳入其中予以考虑”。


英国学者弗洛里迪(Luciano Floridi)认为,多智能体系统(multi-agent system, MAS)各成员一些道德中立或在道德上微不足道的互动行为是一种分布式道德行为(distributed moral action, DMAs)。分布式道德行为不能归因于系统中某个特定成员,故多智能体系统中的道德责任也应分布于各成员之中,形成所谓分布式道德责任。


这种分布式道德责任也被视为一种无过失责任。不同于过失责任,无过失责任以一种“损失分担”的方式,将实际发生或可能发生的损害分散到各类社会行动者,这就超越传统个体责任视野,建立起一种“普遍连带”的新形式。它以对集体性行为主体的强调,使无数个别行动者融入责任主体链条之中,凸显出技术伦理的集体责任意识。


具体而言,算法责任有三方面要求:


  • 一是强化创新主体的自我规制。通过伦理培训和伦理教育,创新主体把握职业规范和伦理职责,运用伦理理论和伦理原则,克服基于个人利益的道德论证局限性,判断伦理难题,进行伦理论证,找到解决技术伦理难题的方法路径,提升道德论证和伦理应用能力。


  • 二是推进行业内部制定自治规范和技术标准。从专业性角度看,智能算法的技术标准涉及“价值敏感”,要求算法安全可控、数据可理解、算法可追溯、技术应用公平公正等价值要求得到体现。


  • 三是压实技术伦理监管的主体责任。“各地方、相关行业主管部门要细化完善本地方、本系统科技伦理监管框架和制度规范。”基于这一要求,国家科技伦理委员会通过研究制定技术伦理风险清单,展开全流程技术伦理监管,完善科技伦理审查机制,体现管理层面的监督指导力量。


这样,技术生产的主体责任、创新驱动的组织责任以及技术应用的管理责任相交融,形成智能算法的复合性责任,通过考虑技术、伦理道德、法律法规等规制工具的组合使用,提高了透明、准确、参与、可问责等在智能算法中的满足程度,将“负责任创新”的价值要求以编码形式内嵌于智能算法之中,有效纠正了智能算法中的“责任缺失”问题。



3. 敏捷治理:优化算法推荐的伦理治理结构


展开算法推荐的负责任创新,除了伦理规制和算法责任的软约束外,还需要促进算法伦理实践形态的实现和治理效能的提升。这就意味着,我们要优化伦理治理结构,切合当前伦理治理领域多主体、多渠道、多形式的特点,提高对意想不到的变化做出及时应变的能力,展开具有快捷、灵活和协调特性的敏捷治理。


敏捷治理是“一套具有柔韧性、流动性、灵活性或适应性的行动或方法,是一种自适应、以人为本以及具有包容性和可持续的决策过程”。算法推荐的敏捷治理,首先表现为注重源头治理,凸显对新知识、新观点、新角度、新规范的快速响应特征。


其中,采用“客观价值列表”来陈述技术伦理难题清单,是一种重要方式。“为了特定目的, 可能需要采用更具体的清单, 例如反映欧洲价值观、亚洲价值观、保守价值观或基督教价值观的清单。此外,它(客观价值列表)还可以被用来为特定类型的技术开发特定的清单。例如,信息技术清单可能侧重于隐私、安全和问责制等价值观,对于医疗技术,它可以侧重于仁善、非恶、人类尊严和知情同意等价值观”。


以此为基础,面对技术伦理风险的不确定性和复杂性,前瞻性地分析与算法推荐相关的伦理因素,识别出符合技术实际、具有道德研究价值的伦理问题,并根据伦理风险的差异程度确定不同治理应对方式。


比如,对可能引发剧烈社会伦理冲击的重大伦理风险,可运用法律规制方式,设置监管框架,为创新融入社会建立缓冲区。对一般性伦理议题,则根据技术发展水平和使用环境,对智能算法前置性地施加“技术向善”的伦理负载。


这就将算法伦理的认识视域从关注创新的下游环节(后果)转向上游环节(创新),通过对创新产品、流程、目的等风险的预测性分析,将伦理原则全面融入技术设计之中,让“未来”变得可被“描述”,体现了注重预防的敏捷治理要求。


算法推荐的敏捷治理要求采用快速灵活方式去应对技术的伦理挑战,及时动态调整治理方式和伦理规范,推动创新在反馈机制中体现“新”意。这种“新”除了及时制定、修订技术的伦理指南外,还体现为倡导算法的参与式设计(participatory design),有意识地纳入不同利益相关者,从而弥合技术设计与伦理关切的距离。


具体而言,参与式设计蕴涵两个伦理要求:


  • 一是技术的民主参与。它要求创新过程克服专家决策的局限性,及时纠正算法系统的决策错误,其目标“是使研究与创新的过程更加谨慎和民主,使之变为社会学习而非政治上的讨价还价,通过合作反思解决社会冲突。其意在重组利益相关者、重新分配角色和责任,并根据已确定的后果为他们重新定向”。


  • 二是技术设计的人性化。它承载着众多设计议程和一系列不同工具箱,更能让参与者做好三件事,即讲述、制定和实施,将参与者的隐性知识和具体经验带入设计过程之中,提升用户的价值并维护其自主权。


参与式设计致力于维持运作良好的“算法社会契约”,协调算法系统内不同利益相关者的价值观,在促进决策更加客观公正的基础上,将自上而下的公共政策制定与自下而上的公众参与结合起来,加强公众的算法信任,化解冲突,最终达成共识。


反思算法推荐的伦理难题,讨论算法推荐的伦理治理,既是理论议题,也是实践命题。算法推荐的负责任发展需要伦理引领,彰显技术向善的内在本质,伦理原则的落地生根,则需要适当的社会机制来加以维护。


推进算法推荐的伦理治理,有助于在一个参与式、交互性的开放环境中把握技术的本质,建立起算法推荐的风险防御体系,促进技术创新与公众参与的深度融合,实现创新的异质性元素集合,凸显伦理治理的社会赋能作用。


本文来自微信公众号:探索与争鸣杂志 (ID:tansuoyuzhengming),作者:张春美