本文来自微信公众号:澄明则正律师事务所(ID:cmzzlaw),作者:澄明律师,原文标题:《聊(Chat)嗨勿忘合规--类ChatGPT应用的法律合规要点》,头图来自:视觉中国


一、什么是“ChatGPT”


ChatGPT这款由人工智能公司OpenAI开发的语言模型最近火遍全球,一经推出,凭借接近与真人对话般富有逻辑和创造力的回答,引发了广泛关注。


根据OpenAI公司官网的介绍,ChatGPT作为一款语言模型,能以对话方式与用户进行交互,能够回答用户的问题、承认错误、质疑不正确的前提和拒绝不适当的请求,仅用2个月时间就累积了过1亿用户,是有史以来突破亿人用户数最快的消费端互联网产品。


受ChatGPT的刺激,国内不少公司已经传出消息正在快速跟进推出类“ChatGPT”的应用。与ChatGPT背后的AIGC技术(AIGC即AI Generated Content,指利用人工智能技术来生成内容)相关的行业/公司也受到了国内投资者的广泛关注。


ChatGPT的名字里有“聊天”(chat)一词,但其应用不限于聊天软件,在诸多领域和场景都有广泛适用的空间。除了其商业价值外,在当下我国日趋严格的监管环境下,类“ChatGPT”应用在国内的投资和商业落地首先应当高度关注法律合规要求。


二、类“ChatGPT”应用法律合规要点


(一)知识产权风险


类“ChatGPT”应用在研发过程中,势必要基于大量的数据集进行模型的训练,而在该等大量数据集中,将涉及受知识产权保护的各类作品。根据我国《著作权法》的规定,基于模型训练学习使用他人作品,当下并未被明确纳入“合理使用”的范畴。因此,未经著作权人授权,使用他人作品进行模型训练,存在侵犯他人著作权的风险。


类“ChatGPT”应用输出的内容是否受著作权法保护,也是市场较为关心的问题,争议焦点之一在于类“ChatGPT”应用输出的内容并非由“人”直接创造而成,因此,能否构成著作权法意义上的作品并受到著作权法的保护,尚存在一定的不确定性。国内司法实践中法院判决的意见并不一致。


有司法案例认为由于相关内容不是自然人创作的,因此不属于著作权法意义上的作品。也有案例认为虽然内容的生成过程没有人的直接参与,但生成内容的软件的运行方式等体现了相关人员的选择,符合著作权法关于创作的要求,相关内容应当属于著作权法所保护的作品。


尽管该等“内容”是否受著作权法保护存在一定的不确定性,ChatGPT仍在其用户协议中明确了关于相关“内容”的权利归属问题。


根据OpenAI的使用条款,对于用户输入的“内容”,其权利归属于用户所有,而对于输出的“内容”,在遵守相关条款的前提下,OpenAI将输出内容的所有权利、所有权以及利益都转让给对应的用户。同时,在相关条款中,OpenAI也进一步明确了其可以利用“内容”开发和改进自身的服务。该等条款安排在一定程度上也能够避免用户和OpenAI对于“内容”权利归属引发争议。


除了上述问题外,对于国内的开发者而言,其在开发类“ChatGPT”应用的过程中,也应当关注自身的知识产权保护,包括计算机软件的著作权保护以及模型相关的交互/训练方法等专利权保护。


(二)行政监管合规义务


类“ChatGPT”应用应当符合国家网信办、工信部的一系列互联网管理法律规范的合规要求,这其中既有内容生态治理的要求,也有关于人工智能算法、深度合成规范的要求。


1. 内容生态治理义务


国内近年来持续强调网络信息内容治理,类“ChatGPT”应用的运营主体根据具体业务模式也属于“网络信息内容服务平台”的范畴。


类“ChatGPT”应用除了要遵守《互联网信息服务管理办法》和《网络信息内容生态治理规定》,履行信息内容管理主体责任,健全对信息内容的审核管理机制外,还要符合所应用各自领域的关于内容生态治理的义务。


同时,《网络信息内容生态治理规定》也特别强调了“不得利用深度学习、虚拟现实等新技术新应用从事法律、行政法规禁止的活动”。因此,在类“ChatGPT”应用提供服务的过程中,运营主体应当通过技术措施和人工干预履行内容审核管理义务并承担因此产生的法律责任。


2. 深度合成服务管理


类“ChatGPT”作为人工智能的应用,适用《互联网信息服务深度合成管理规定》的相关规定。根据相关定义,深度合成服务是指应用深度合成技术提供的互联网信息服务,深度合成技术包括了篇章生成、问答对话等生成或者编辑文本内容的技术。


类“ChatGPT”应用基于其技术原理,也将适用于深度合成服务管理的规定,从而相应开发者或运营主体,应当履行《互联网信息服务深度合成管理规定》的相关要求,包括但不限于落实信息安全主体责任、加强深度合成内容管理、加强训练数据管理、加强技术管理,定期审核、评估、验证生成合成类算法机制机理等。


同时,提供智能对话等模拟自然人进行文本生成或者编辑服务的,还应当通过显著标识,向公众提示深度合成情况。


3. 算法推荐服务管理


类“ChatGPT”应用根据其具体业务模式,还可能涉及利用生成合成类等算法技术向用户提供互联网信息服务。根据《互联网信息服务算法推荐管理规定》的要求,算法推荐服务提供者应当履行算法安全管理的主体责任、加强信息安全管理、落实用户权益保护等义务,此外还需要关注是否可能存在算法歧视等问题。


《互联网信息服务算法推荐管理规定》要求“具有舆论属性或者社会动员能力的算法推荐服务提供者”应当履行算法备案、安全评估义务。


上述《互联网信息服务深度合成管理规定》中也规定“具有舆论属性或者社会动员能力的深度合成服务提供者”应当按照《互联网信息服务算法推荐管理规定》履行相应的备案手续,深度合成服务技术支持者也应当参照履行备案手续,同时,深度合成服务提供者应当按照有关规定开展安全评估。


因此,如果类“ChatGPT”应用用于社交、媒体等,涉及“舆论属性或者社会动员能力”,则应当按照前述规定履行相应的备案、安全评估义务。


(三)数据合规义务


类“ChatGPT”应用无论在模型研发训练阶段,还是在对外提供服务阶段均涉及大量数据,因此数据安全及个人信息保护问题显得至关重要。


国内近年来以《网络安全法》《数据安全法》和《个人信息保护法》为基础搭建的数据合规体系,对数据/个人信息处理者提出了诸多合规要求。在数据安全保障义务方面,包括了要求合法正当地收集数据,采取相应的技术措施保障数据安全等。


一方面,对于类“ChatGPT”这样的大型语言模型,其在训练阶段自然需要海量数据,开发者应当尤其关注数据来源的合法合规性。如果开发者通过网络爬虫等方式获取数据用于模型训练,建议应当关注是否可能违反爬虫技术运用相关的法律规定和监管要求。


另一方面,对于类“ChatGPT”应用的使用者而言,其可能更多担心在使用类“ChatGPT”应用过程中可能导致的数据泄露等安全问题,因此,数据安全能力和体系也将是各类“ChatGPT”应用在市场中竞争的重要考量因素。


在个人信息保护方面,类“ChatGPT”应用的合规风险点也较多。类“ChatGPT”应用较为重要的个人信息收集使用场景即收集用户对话数据,并可能使用来源于用户的对话数据进行模型的训练,该等用户对话数据中可能包含大量的用户个人信息,甚至是用户的敏感个人信息,因此,其在收集使用用户个人信息方面,应当着重关注并遵守国内个人信息保护的相关规定。


类“ChatGPT” 应用应当严格规范知情同意,在个人信息处理规则或隐私政策中要明确告知可能收集的用户个人信息,如通信信息、日志数据、使用数据等,并明确使用的目的、范围等,比如个人信息可能用于提供、管理、维护、改进和/或分析服务,进行研究等目的。涉及敏感个人信息的,必要情况下应当以弹窗等醒目方式单独告知并获取同意。


此外,在儿童个人信息的保护方面,类“ChatGPT”应用的运营主体也应当多加关注,比如建议可明确提及其提供的服务不针对一定年龄以下的儿童。


如果类“ChatGPT”应用的服务器设在境外,其面向我国境内用户提供服务的过程中,还可能涉及数据出境问题。对于数据跨境,要履行相应的法定程序(如向主管部门申报进行安全评估,在获取批准后方可出境)


(四)应用场景落地资质合规


ChatGPT超预期的能力,让业内也更加期待更多类似于“ChatGPT”的应用在其他场景的落地,如人工智能客服、金融智能投顾等领域。但在其他具体场景落地类“ChatGPT”应用时,还需结合该等业务场景的合规要求。


一方面,类“ChatGPT”应用本身输出的内容如果涉及医疗、金融等特殊领域,在国内监管法规下,作为应用的运营主体,其可能被要求需取得相应领域的资质,方能提供对应的服务。例如,类“ChatGPT”应用输出的内容如果涉及提供证券投资分析建议等,其运营主体可能被要求取得证券投资咨询牌照。如果未取得相应资质的,对于运营主体而言,其将不得不在输出的“内容”上有所取舍。


另一方面,在具体应用场景落地时,对于类“ChatGPT”应用的开发者而言,如果作为供应商的角色,在业务场景中与具备相应资质的主体合作提供服务,其也可能被要求满足该等特定业务领域对“供应商”角色的要求。


例如,如果开发者与银行保险机构合作提供类“ChatGPT”应用服务,其可能被视作银行保险机构的信息科技外包服务商,从而需满足《银行保险机构信息科技外包风险监管办法》对外包服务商诸如技术和行业经验、网络信息安全保障能力、持续经营情况、合规情况等要求。


当然,除上述资质合规问题外,对于类“ChatGPT”应用的提供者和运营者而言,在具体应用中,需要考虑是否可能发生基于对话场景套取他人信息或实施诈骗、或生成恶意软件代码等行为,防范可能引发的潜在刑事法律风险。


(五)错误或者误导性信息引发的法律责任


ChatGPT是基于巨大的文本数据集上的预训练语言模型,但其基于的数据集也仅截止到2021年,这意味着ChatGPT所掌握的信息和知识都是在 2021 年前发生或发布的。


因此,基于算法模型本身的不准确性或者数据集的局限性等原因,可能导致ChatGPT对某些用户的问题作出错误或者误导性的回答,其他类“ChatGPT”应用也面临同样的问题。


而对于如果用户因为信赖类“ChatGPT”应用输出的错误或者误导性信息而遭受损失,服务提供者是否需要承担相应的民事赔偿责任,一定程度上也与该等类“ChatGPT”应用自身的服务定位和具体业务模式相关。


例如,如果类“ChatGPT”应用应用于免费的搜索引擎服务,则其更多承担提供客观、公正、权威的搜索结果的义务,而不应对其苛以过于严格的对内容真实性、准确性的审查责任。但是如果类“ChatGPT”应用提供付费知识服务,则其应当对输出内容的真实性、准确性负责,根据服务的具体类别可能要对用户因信赖该等内容而产生的经济损失等承担相应的民事赔偿责任。


对于类“ChatGPT”应用的服务提供者而言,明确自身业务定位是区分责任的前提,而相应法律条款、风险提示的设置则在一定程度上也能减轻服务提供者的责任。


比如可以设置相应的免责声明和责任限制条款,在用户实际使用过程中,通过弹窗等方式提示用户可能会产生错误或者误导性的信息等,会在一定程度上减轻或免除法律责任,具体如何设计和使用还需要结合具体的适用领域和场景来具体分析。


本文来自微信公众号:澄明则正律师事务所(ID:cmzzlaw),作者:澄明律师