本文来自微信公众号:财经E法 (ID:CAIJINGELAW),作者:杨柳、樊朔,编辑:郭丽琴,头图来自:unsplash
全球科技巨头在AI大模型领域不断推出新品之际,中国监管部门的步伐正迎头赶上。
4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》(下称《管理办法》),并向社会公开征求意见,截止日期为5月10日。
如果《管理办法》获得通过,中国将正式开启对AIGC(人工智能生成式内容)的专门监管。
根据国家网信办发布的通知,制定《管理办法》的目的是促进生成式人工智能技术健康发展和规范应用。整体共分21条,涵盖内容监管、算法监管、数据监管等维度,其中内容安全条款占据篇幅最多。
有知情人士向财经E法透露,《管理办法》自2022年下半年即开始酝酿,但ChatGPT在今年的火爆“出圈”加速了制定进程。
这与全球主要法域的步伐一致。当地时间4月11日,美国商务部就ChatGPT等AI大模型监管措施公开征求意见,其中涉及存在潜在风险的新AI模型在发布前是否要走认证核准程序。根据财经E法此前文章(《意大利封禁加拿大调查,ChatGPT会面临新“禁令”吗?》),一些欧洲国家正采取针对ChatGPT的风险防控措施,欧盟成员也在提议磋商《人工智能法案》有关生成式人工智能的条款。
那么,《管理办法》的推出体现了哪些意图,释放了哪些信号,又会给产业界带来哪些影响?
一、包含诸多“微迭代”内容
随着中国市场上生成式人工智能玩家相继入局,监管时机也逐步成熟。
《管理办法》第2条显示了适用范围和基本定义:适用于“研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的”;“生成式人工智能”,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术
正如财经E法此前文章(《科技巨头抢占ChatGPT风口, 数据安全挑战不可掉以轻心》),今年1月,伴随微软宣布对研发了ChatGPT的OpenAI公司进行的一笔大额投资,ChatGPT爆火出圈,席卷全球。随后,由于ChatGPT上线两个月即达到上亿用户的规模,谷歌也迅速跟随发布类似ChatGPT的聊天机器人项目,带动了全球资本市场对这一领域的持续追捧。与此同时,ChatGPT已经开始冲击全球教育业,并可能带来法律、安全、伦理风险,甚至滋生犯罪。
进入4月,中国互联网公司开始密集推出各自的AI大模型。目前已上线内测的产品除了百度的“文心一言”,还有阿里云的“通义千问”、 商汤科技的“日日新”等。
北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括指出,AIGC等新技术、新应用快速发展,在全社会引起了高度的、广泛的关注和突出的风险关切。他认为,《管理办法》是全球第一款“GPT法”。中国监管部门的介入是现实的,《管理办法》开始征求意见,本身就是一个重大的信号,体现了提前研判、提前介入、提前监管的思路。有助于企业及早构建合规解决方案,提前布局必要的合规机制和工具,有效减少风险;同时也为国外参与者进入中国市场的合规运营提供了明确规范,有助于各方更好地理解中国的监管要求和核心价值诉求,及时调整和适配自身的产品和服务。
吴沈括分析说,现阶段AIGC的中外监管思路的明显区别是,欧美各国侧重从数据安全、数据保护、数据治理的角度来介入和推动监管落地;中国则是一种综合治理的思路,强调权益保护、数据治理、内容治理等多个维度。
对外经济贸易大学数字经济与法律创新研究中心执行主任张欣认为,在ChatGPT热潮带动下,未来的两三年,中国相关技术将会产生大突破,也会出现成熟的商业化应用落地。同时,生成式人工智能也会对互联网内容治理带来较大冲击。
张欣注意到,《管理办法》体现了技术治理上“小而灵”的立法范式。张欣解释说,由于技术发展非常快,不一定要等所有基础条件成熟之后再立法,可以在制度设计上及时进行有针对性的、垂直领域的立法,从而实现新兴科技创新与治理的双轮驱动,避免治理的滞后性。
竞天公诚律师事务所合伙人袁立志也认为,《管理办法》有不少“微迭代”的内容。
袁立志举例说,《管理办法》规定了AIGC服务提供者承担内容生产者责任;服务提供者承担数据处理者责任——应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责;限制数据使用要求——不得根据用户输入信息和使用情况进行画像;AIGC服务提供者承担应急处置义务——对于运行中发现、用户举报的违法违规生成内容,除采取内容过滤等措施外,还应在3个月内通过模型优化训练等方式防止再次生成。
二、部分条款受关注
虽然监管只涉及到“微迭代”,《管理办法》的部分条款仍引发关注。
《管理办法》第4条第4项确立了内容真实性要求:利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
“这项与AIGC固有属性可能存在一定冲突。”袁立志认为,防止虚假信息的重点不应在技术前端直接管死,而应着眼于应用层面,避免生成的虚假信息公开传播误导舆论。
另外,内容责任设置上,《管理办法》仅针对生成式人工智能服务提供者,但未涉及产品的使用者,袁立志认为,这意味着合规责任主要由平台承担。
《管理办法》虽重在监管,但第三条显著凸显鼓励AIGC行业发展的态度:国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。
上海大邦律师事务所高级合伙人游云庭认为,AIGC产业涉及国家竞争力,出台监管办法,是为了应对可能产生的问题,给产业一个引导方向,不代表要把这个产业管死。
为何内容监管条款占据篇幅最多?
袁立志表示,着重强调内容安全,有两方面因素: 一方面,AIGC本身是一款重内容的技术,无论中外,内容合规都是AIGC 监管的重点。另一方面,还与中国一向重视网络内容安全相关。
财经E法注意到,《管理办法》不少条款都可以在《网络安全法》《数据保护法》《个人信息保护法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等法律法规中找到出处。
比如,《管理办法》第9条明确了用户实名制要求,上位法为《网络安全法》第24条;第16条要求服务提供者对生成的图片、视频等内容进行标识,依据是《互联网信息服务深度合成管理规定》第16至18条。
此外,《管理办法》还写入多个算法公平条款。《管理办法》第4条规定,在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视;第21条再次明确,AIGC服务提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。
张欣表示,以往,中国在算法及人工智能相关立法中对于“算法公平”的强调偏弱。2022年3月1日起施行的《互联网信息服务算法推荐管理规定》,在征求意见稿阶段曾经包含以下表述:“不得设置歧视性或者偏见性用户标签。”但最终版本删除了这一表述。
此前,已有金融领域行业协会发布针对ChatGPT等工具的倡议行动。
4月10日,中国支付清算协会明确指出,“ChatGPT这类智能化工具已经暴露出跨境数据泄露等风险。”并发出“谨慎使用ChatGPT等工具”的倡议,该倡议强调支付行业从业人员要提高思想认识,依法依规使用ChatGPT等智能化工具,正确认识相关工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险;倡议支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、不上传非公开的资料及数据、客户资料、支付清算基础设施或系统的核心代码等内容;倡议各会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付行业安全。
本文来自微信公众号:财经E法 (ID:CAIJINGELAW),作者:杨柳、樊朔,编辑:郭丽琴