自去年11月Open AI的对话式人工智能(ChatGPT3.5)公开发布后,人工智能的话题热度未减,且随着ChatGPT的不断迭代,其强大的功能再次震惊世界。人们对AI的快速发展是既期待又忧虑。今年九月,年届百岁的美国前国务卿基辛格博士访华并在第五届外滩金融峰会外滩全体大会发表讲话。
基辛格认为,人工智能技术的发展必须得到有效的管控,并且中国应该在人工智能领域变得更加开放和透明,让世界了解中国在开展哪些研究,以此增强其他国家对中国的了解。他还表示,美国政府会支持这方面的合作,而且现在已经在某些方面做出了行动。
本文作者的看法与基辛格博士的呼吁一致,认为与气候、公共卫生和核不扩散等议题不同,人工智能将会是中美下一个合作的基础。本文通过分析ChatGPT的技术原理以及潜在法律和伦理风险,来讨论生成式人工智能对我国人工智能监管带来的风险和挑战。作者指出,AI产业发展是我国不容错过的历史机遇,但要注意当前我国AI产业存在监管过度、发展不足、容易陷入“泛安全化陷阱”和与世界AI时代“脱钩”等问题。
类ChatGPT的技术原理和可能带来的法律及伦理风险
ChatGPT的技术原理是依靠深度学习和自然语言处理(NLP)技术而形成的新一代生成式人工智能聊天机器人,它实际上属于人工智能生成内容(Artificial Intelligence Generated Content,简称AIGC)的一种新型商业化应用程序。
而AIGC的技术原理是通过机器学习和NLP等人工智能方法,将大量的文本数据转化为可以通过机器学习并进行训练的数学模型,然后使用这些模型来生成文本内容。也就是说,在使用AIGC技术生成文本时,需要先向模型提供大量的文本数据作为训练集。随着训练的进行和数据的增加,模型的预测能力也将逐渐提高。
从AIGC的生成内容来看,不仅包括常见的文本、图像、音频、视频和代码等,还包括基于大数据训练模型优化生成的策略、剧情、训练数据等具有内在逻辑的内容。其中,文本生成是AIGC最广泛的应用场景。类ChatGPT应用在各个领域的广泛使用,基于AIGC的技术特点和工作原理,因此,对其使用的监管和处理相关数据的合规性变得尤为重要。
AIGC涉及法律与伦理风险。一是数据安全风险。例如,企业和个人使用ChatGPT提问时,可能需要将大量数据上传到云端进行处理,存在数据泄露的风险。再者,ChatGPT在提供服务时,需要获取用户的输入数据,可能涉及用户的个人隐私和敏感信息。
二是伦理道德风险,包括著作权侵犯,歧视性回答等。例如,在教育领域,很多学生或是学者利用ChatGPT完成作业或是写论文。
三是存在误导和虚假信息的风险。随着深度合成技术和机器学习的快速发展,生成式人工智能技术被用于伪造信息,包括音频和视频内容的合成和篡改。同时,由于ChatGPT的生成能力和技术的限制,可能被滥用为传播谣言、虚假新闻等不实信息的工具。
四是通过向类ChatGPT应用输入特定的内容,诱导其输出本不应该出现的违法或恶意内容。例如,通过AIGC输出一些煽动性的文本、图像、音频和视频,被用来组织一些非法或是危及公众和国家安全的网络活动。
对我国数据安全和AI监管带来的问题和风险
第一,个人数据和隐私安全。在人们依靠AI技术等应用程序提供便利性的同时,其收集到的个人数据的数量和私密性呈指数型增长。而这些数据很容易被一些恶意行为体所利用,从而对个人实施监视、操纵和勒索等。例如,通过ChatGPT生成的虚假信息与用户进行交流,获取敏感个人信息,进行身份盗窃或网络钓鱼、网络诈骗,对个人财产和人身安全造成威胁。
第二,经济破坏和投资操纵。利用ChatGPT生成的内容,可以进行虚假的市场预测和投资建议,误导投资者作出错误决策,进而操纵金融市场。例如,通过ChatGPT发布大量看涨或看跌的虚假预测,促使投资者进行错误的交易,导致经济混乱和金融损失。
第三,技术依赖与数据掌控。若中国企业和机构在ChatGPT的应用中过度依赖外部技术提供商,可能导致数据掌控权被他国政府或公司所控制。同时,物联网等技术的发展使得我国很多基础系统互联互通,如果一个行业或是基础系统对外技术依赖过高或是关键数据被外部掌控,一旦发生风险,将波及其他行业。
第四,信息操纵与谣言传播。通过操纵ChatGPT的内容输入和输出,可能对中国的信息环境进行干扰和操纵,影响我国社会稳定和国家安全。具体来说,可能有以下两种情况。
一是虚假舆论传播,恶意利用AI生成的内容,进行大规模传播虚假舆论,制造社会恐慌或引发群体事件。例如,利用ChatGPT在社交媒体上自动发布大量虚假新闻、不实评论,操纵公众舆论倾向,导致社会不稳定。
二是政治操纵,通过操纵生成式AI应用的输出,可以有针对性地捏造信息或传播政治谣言,煽动仇恨、制造分裂,影响政治稳定和社会和谐。例如,在重大政治事件期间,通过ChatGPT生成的大量假新闻和谣言,扭曲事实真相,破坏社会共识,实现自身的政治目的。
AI大模型历史机遇和我国监管现状
虽然生成式人工智能给我国数据安全带来隐患,也给监管带来了巨大挑战,但不容置疑的是,以ChatGPT为例的AI大模型将会是人类发展的重大历史机遇,也是我国不容错过的历史机遇。AI大模型会是未来AI技术的第一赛道,也会是中美和国际竞争的核心。
我国的AI大模型相较美国起步较晚,一方面是算法上我国的技术开发还需要时间,另一方面是算力上我国的关键芯片仍然达不到美国的技术水平。也就是说,算法和算力两个方面都制约了我国AI大模型的发展,而这些都是发展AI大模型的核心技术。
我国及时出台了监管举措,这是非常有必要的。但是,也要注意监管现状很可能导致我国AI技术发展受限,导致我国AI产业与世界AI时代“脱钩”。
在互联网和数据安全方面,我国陆续出台了《网络安全法》《数据安全法》《个人信息保护法》等相关法律法规。针对AIGC,今年4月11日,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》(简称《管理办法》),在这之前,网信办还分别公布了《互联网信息服务算法推荐管理规定》(2022年1月)、《互联网信息服务深度合成管理规定》(2023年1月),以及《数据出境安全评估办法》(2022年7月)。
这些法律法规为我国人工智能和算法等相关产业、行业的发展,以及个人数据隐私保护等提供了法律保障和监管依据,但同时存在很多值得注意的地方。
人工智能作为新兴的产业方向,一些原有的监管模式可能会造成强监管,成为我国AI产业发展的最大障碍,进而与世界AI时代“脱钩”。例如,当前法规对生成式AI服务提供者提出了很高的合规义务要求,且监管的适用范围极广。
这将在两个方面产生负面影响:一方面,对内来说,我国AI监管没有给国内企业提供足够的创新和发展空间;另一方面,对外来说,加强监管带来的保守化和封闭化的趋势将使我国与美国在AI技术方面的差距越来越大。
例如,上述《管理办法》中第二条规定:研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。这也从侧面解释了ChatGPT为什么没有对中国大陆地区提供服务,其原因之一很可能是避免中国法律的监管。同时,这也表明了我国未来在AI领域很可能会出现类似互联网时代的内部或者外部“防火墙”。这种趋势可能不利于我国AI行业跟上世界AI时代发展的步伐。
因此,如何顺应产业发展、平衡好行业发展和必要监管之间的关系、AI监管如何在“对症下药”的同时给发展留下空间,是亟须解决的问题。
如何更好地发展AI产业
第一,安全概念的扩展需适可而止,警惕陷入“泛安全化陷阱”。许多专家和学者已经注意到并提出了当前我国容易陷入“泛安全化陷阱”这一问题[1]。这一现象指的是过度强调安全问题,将各种非传统安全威胁也纳入安全范畴,导致资源和精力分散,影响国家发展的全面性和可持续性。
在网络安全领域,将涉及数据、信息、网络等所有问题普遍安全化的做法已经导致网络安全和数据安全丧失了其应有的清晰度和适用性。也就是说,出于安全的考虑,对于“相对不安全”的过度警惕已经演变成对“绝对安全”的追求。这种将网络安全的相关问题普遍安全化和绝对安全化的做法容易使得我们陷入“泛安全化陷阱”。
对于网络和与之相关的AI监管我们需要知道在什么方面去监管,以及监管到何种程度。这就要求我们对于网络安全和数据安全的边界有更加清晰的界定,不能将安全议程泛化,进而对我国的政治、经济、外交和社会等议程的资源造成挤压。
如果对安全配置过多的资源,超过了其应有的需求,就会挤压发展所需要的资源,进而造成资源的错配和浪费,阻碍其他领域的发展和我国的整体发展。监管可以设置安全底线,在保障基本安全的前提下,我们需要给AI技术提供足够的发展空间。在技术创新和治理监管的平衡问题上,“先创造再监管”是当前我国AI技术发展的可行路径。
第二,平衡好安全和发展的基础和关键是平衡好安全和开放的关系。诸多实践证明,高质量发展只能在高水平开放的条件下进行。只有主动开放才能在国际竞争与合作中掌握主动权,避免被孤立。之所以在美国产生了OpenAI的ChatGPT,恰恰是因为其“Open的AI”,开放的人工智能。也就是说,美国互联网和AI发展的源动力是开放。开放才是发展的基础和前提,没有开放的互联网和开放的AI,我国的AI产业只会走向封闭,和世界互联网“脱钩”。
数据作为互联网的产物,而互联网是美国的产物,这就决定了美国掌握了全世界的数据。以ChatGPT为例,美国的数据集是开放的,是世界级的。实践证明,技术的发展需要包容和开放的环境,而我国当前最需要的是加大在规则、标准和管理方面的开放,避免走向保守化和封闭化。
第三,构建现代和灵活的监管体制以提高监管的科学性和适应性。所谓现代和灵活的监管体制是强调平衡好监管和技术、产业发展的关系。具体来说,可以从以下三点着手。
首先是通过责任共享以分散风险。公共监管部门与企业等私营部门、民间团体和个人代表等协商,重新调整各利益攸关方的责任,继续落实责任共享制以达到分散风险的目的。也就是说,政府监管部门、行业风险管理服务机构、生成式AI服务提供者和终端用户应该共同承担保护数据安全的责任。分级分类划分责任并进行分级分类监管,以保证即使某一层级出现安全风险,也不会造成不可控后果。
其次是关注人工智能新兴的监管工具,加强技术审查与风险评估。例如,可以灵活运用算法风险分级、算法影响评估、算法审计、算法认证等管理方法和监管工具,对生成式AI应用提供者进行技术审查,评估其数据安全风险,并建立相应的风险管理措施。
最后是在制定新的监管法律法规时,监管机构和受监管实体应该进行协商。例如,在《生成式人工智能服务管理办法(征求意见稿)》,征求意见的时间段内,允许企业向监管部门和立法机构提交相关行业实践和建议,举办政府部门和行业代表圆桌会议,相互磋商,以推动和促进法案有效和平稳落地。
第四,加强技术独立性决定话语权。事实证明,规则的制定者一直都是技术的垄断者。如果我国想要参与网络和AI领域的规则制定,避免主动和被动的落后,那就需要加强技术上的独立性和话语权。具体来说可以从以下两点着手:
其一是加大资源投入和调整激励机制,以鼓励自主研发与本土创新。加大网络安全和AI领域的研发投入,鼓励本土企业和研究机构加强自主研发,减少对外部技术依赖,以提高对数据的掌控权。包括但不限于鼓励监管机构通过税率优惠政策等措施来激励企业和各类组织机构在网络安全和AI方面的投资。
其二是重视网络人才队伍建设,打造一批跨领域、多元化的高科技网络人才队伍。网络安全人才是既懂得网络安全专业技术,又懂得网络安全合规风险管理的复合型人才。
第五,加强国际合作,参与国际规则制定。从中美关系的发展形势来看,气候、公共卫生和核不扩散等议题已经难以成为中美对话的基础,而AI可以成为下一个合作基础。对于我国而言,AI更是我国和欧盟等其他国家合作的基础,以避免美国对我国的全面“脱钩”和孤立。
欧盟在互联网和人工智能相关规则制定和立法方面一直走在世界前列,我国应该和欧盟创办一个类似于美国—欧盟贸易和技术委员会(TTC)的论坛,共同探讨AI相关领域的数字安全和监管,还应该积极参与国际合作,推动全球范围内的AIGC监管和数据安全标准的制定与实施,进而避免我国AI产业发展与世界AI时代“脱钩”。
注释:[1]张超、吴白乙:《“泛安全化陷阱”及其跨越》,《国际展望》2022年第2期,第26-27页。
本文来自微信公众号:大湾区评论 (ID:GBA_Review),作者:魏媛媛(香港中文大学(深圳)前海国际事务研究院研究员)