从创造栩栩如生的艺术到如同真人般的精度模仿人类语言,生成式AI正在改写创新和自动化的规则。AI大模型训练的高耗能、AI对语言情感和伦理道德的把握程度、AI对假消息和公众舆论的操纵、生成式AI在人类创新创造中的角色……在生成式AI加速奔跑的今天,有些问题依然值得我们细细思考。近日,国外一档专门探讨AI发现的栏目《AI Uncovered》总结了生成式AI发展过程中值得重新思考的10个问题,一起来看看。


一、碳足迹


生成式AI大模型的运行会消耗大量电力,从而产生更多的碳足迹(Carbon footprint,也称“温室气体足迹”)。因我们的活动而释放到大气中的温室气体和有害气体,也被视为人类的污染足迹。人工智能大模型的运行所消耗的电力越大,产生的污染就越多,最终给人类的生存家园带来巨大的风险。


根据2019年进行的一项研究,使用GPU训练Transformer模型的过程,耗电量惊人,将会导致约313吨二氧化碳的排放,这一数量相当于55个美国人平均一年电力消耗产生的碳排放量。而这项研究中训练的Transformer模型已经拥有2.13亿个参数。如果模型的参数更多,则需要的电力也更多,产生的碳足迹和环境污染更加难以忽视。


二、虚假信息


生成式AI拥有捏造信息的能力,客观数据的偏差或主观需求的操控都有可能让生成式AI生产出充满迷惑性的虚假信息。这些虚假信息充满迷惑性,让人一眼觉得是真实信息,但事实上是虚构的,这使得区分事实与假消息变得具有挑战性,这是当今社会的一个紧迫问题。信息时代,错误信息和虚假信息像野火一样传播,预先训练的大语言模型,例如ChatGPT,表现出有限的适应性,只能对已有的信息进行总结和判断,无法跟上新出现的信息。


尽管这些人工智能系统的创造力令人印象深刻,但缺乏人类与生俱来的对真相的洞察力。如此发展的后果,就是很容易传播假新闻,制造假视频,并有可能借此操纵公众舆论,弱化我们对在线内容的感知和信任能力。打击人工智能生成的虚假信息,需要拿出切实可行的技术解决方案,并结合事实审查制度、媒介素养培育、批判性思维养成以及优先考虑准确性高、透明度高的人工智能系统开发等。这些都是解决这一挑战的重要组成部分,单一的技术升级无法解决这一复杂的挑战。


三、缺乏语境理解


生成式AI有生成连贯文本的能力,但在真正的理解方面却存在不足。深入了解其生成的内容,会发现这些AI模型仅具有有限的能力来掌握上下文的意思,这就导致有可能出现错误的响应。生成式AI通过学习模式预测序列中的下一个单词,以此来处理庞大的数据集,但它缺乏对人类解释语言的深刻理解,无法真正理解生成话语背后的情感或细微差别,这种限制可能会导致其提供表面上看起来正确但实际上错误的文本。


上下文理解不正确不仅会影响AI做出正确的判断,也会导致使用AI的用户产生反感,极大削弱了用户使用AI的热情。解决AI大模型缺乏语境理解问题是推进人工智能系统研发的一个关键挑战,目前研究人员正致力于改进模型,提高模型的上下文理解能力,使AI交互更加自然、准确,以达到真正理解用户需求的目的。


四、数据依赖


生成式AI的研发和训练通常需要数百GB甚至TB的数据。大模型的研发对数据的质量和数量要求极高,数据的有效性是影响语言模型能否发挥作用的重要因素,数据不足或不相关的数据过多会严重影响大模型运行的效果,例如在基于生成式AI的问答系统中,如果训练数据与手头的特定任务缺乏相关性,则大模型的干预能力会直线下降。比如用不相关或质量差的材料教某人外语,学习过程就变得很艰巨,最终的结果也会受到影响。


这便是生成式AI的数据依赖性对其训练和运行的影响。所以训练人工智能大模型离不开高质量的数据集,必须提前策划如何获取与模型训练相关的数据集,这对模型是否成功而言至关重要。这也凸显了如今生成式AI研究的严峻挑战,确保人工智能系统能够有效地在各种背景和场景中提供准确的响应,需要仔细地选择和准备有效的数据集。


五、潜在的舆论操纵风险


在信息爆炸的今天,假新闻已变得司空见惯,而生成式AI的出现正在加剧这一问题。生成式AI有能力制作让人高度信服的虚假文章,并在社交媒体发布虚假视频,当各种形式的虚假信息充斥网络,这对网络信息的可信程度提出了严峻的挑战,同时任何人都可以获得和使用生成式AI,这也让有恶意动机的个人更容易利用AI传播虚假信息操纵公众舆论,谋取私利。


显然,研究者们开发生成式AI的目的不是为了给犯罪提供便利,而是想协助人类激发他们的创造力,实现生成式AI的个性化发展。但是带有恶意动机的人对生成式AI的错误使用无疑会对数字系统的安全性和完整性构成重大威胁。


六、对人类生存的威胁


一些专家对生成式AI构成的潜在生存威胁表示担忧,他们担心随着生成式AI越来越先进,理论上它们会被利用,去做一些伤害社会和人类的事情,比如出于政治目的操纵公众舆论,制作虚假视频抹黑竞争对手,开发新的武器伤害他人,甚至还有可能因为错误的信息导致AI系统做出损害人类的决策或者给出错误的指导意见,从而达到AI对个人的潜在操控。


我们已经见证了社交媒体对公众舆论的影响,而生成式AI可能会将这种舆论操控升级到前所未有的水平,这会给人类的生存带来威胁,使人类处于危险的生存空间中。


七、专用模型的前景


特定领域的专用模型在某些任务的处理上性能优于GPT-4。AI大模型经常被区分为最大和最强大,但随着AI大模型的不断发展,它的使用者们开始认识到规模并总是等同于优势,尽管通用大模型拥有数十亿甚至数万亿的参数,看起来很强大,但它们对计算资源的无尽需求往往超过了芯片生产或扩展的速度,这给服务器容量带来了沉重的负担,并导致特定业务的模型训练时间过长。


与现在世界广泛应用的通用大模型GPT-4相比,一些小众领域的专用AI模型在特定任务中表现出了卓越的性能,这些专用模型经过微调,可在特定领域表现出色,展示了定制AI大模型的优势和广阔前景。这些专用模型经过广泛的训练,数据集有可能挑战当前各类LLM(语言大模型)的霸主地位,例如OpenAI的GPT-4,Meta的LLama 2或Google的Palm 2。此外,这些专用模型由于规模较小,其实更易于管理,运行效率也更高,还可以在训练期间针对特定用例进行定制。


八、存在偏见


生成式AI有可能放大预先存在的偏见。这些偏见来源有很多,超出公司控制范围的训练数据、训练使用生成式AI的目的等都会造成其存在偏见。有问题的训练数据将某些职业与特定性别联系起来,造成性别偏见,或延续种族刻板印象,产生歧视。训练生成式AI的数据来自算法,而算法本身可能带有偏见,这些带有偏见的数据在使用时自然也影响到了生成式AI发挥作用。


此外,系统可能被故意设计成表现出偏见,例如优先考虑正式写作而不是创意表达或仅迎合某些行业,从而无意中强化了现有偏见,排除了不同的观点。监管不足、社会公正系统失衡或财务激励措施不合理,都有可能导致偏见持续存在,想要解决这种偏见,就需要采取一套全面的方案,包括道德设计、观点多样化和强有力的监督,以此促进公平和公正的AI技术发展。


九、本质上不理解伦理


生成式AI的快速发展引发了人们对伦理问题的担忧。AI与人类互动之间的法律伦理和安全问题成为大家热议的对象。


生成式AI缺乏对伦理问题的内在把握,它们通过学习分析大量数据集、辨别模式和关联来作出判断,发挥作用,在这些过程中都不具备对人类社会内在的道德理解,缺乏这种道德理解,很可能会导致AI模型生成存在道德问题甚至是冒犯性的内容。


在生成式AI的研发和使用中要如何避免出现这种道德问题,关键在于开发者和运营商,需要对他们建立明确的道德准则,并纳入监督和干预机制中,用清晰的规则来约束生成式AI的开发者和运营商,明确道德责任的主体。此外,人类专家的指导也是解决这种道德挑战的有效方式,他们能够做出关键决策来减轻AI生成内容造成的危害。


十、是否会取代人类的创造力


AI可以通过融合现有概念产生新想法的方式来复制人类的创造力,这种方式与人类创新有些类似。相似的创新方法让一些人认为人工智能可以轻易取代人类,但这并不准确。虽然人工智能系统可以从数据中学到内容生产模式,但真正的人类创新,本质是一种综合经验、情感和独特视角的能力。


从目前的研发情况来看,生成式AI的内容生产模式还不能取代人类创新创造,并且开发生成式AI的核心目的是增强人类的创造力而不是取代它,AI只是一个有价值的合租者,协助创意过程并提供灵感。保留艺术和创新中不可替代的人类接触,仍然是生成式AI对创新创造领域发挥有效作用的关键。


本文来自微信公众号:中国企业家杂志(ID:iceo-com-cn),整理:吴莹