图片由AI生成


欧洲议会于2024年3月13日批准通过了《人工智能法案》,会上523 票赞成、46票反对、49票弃权。这标志着世界上首次全面规范人工智能的法律诞生,同时这也是世界上迄今为止最全面的人工智能立法。《人工智能法案》将于5月在欧盟国家中被正式批准,预计年内一些条款将开始适用。

《人工智能法案》涉及人权、产权以及主权三个领域。据钛媒体APP观察到,该法案内容主要可以归纳为七点。第一点是关于人工智能系统在欧盟的市场投放、服务以及使用的统一规则;第二点是规定对特定人工智能实践的禁止;第三点是规定对高风险人工智能系统的具体要求以及相关经营者的义务;第四点是制定对特定人工智能系统的统一透明度规则;第五点是制定对人工智能模型在市场中的准则,也涉及到管理及创新发展。此外还通过设立AI办公室以及人工智能管理委员会来加以管理,使得参与各国协调共同管理。

《人工智能法案》的发布对其他国家、组织的人工智能立法起到了借鉴和助推作用。IBM 近日表达了对欧盟《人工智能法案》的高度评价,他们称欧盟《人工智能法案》提供了一个亟需的框架,以确保开发和部署人工智能技术过程中的透明度、问责制和人为监督。并且IBM 表示相信该法规将促进人们对人工智能系统的信任和信心,同时促进创新和提高竞争力。

《人工智能法案》的借鉴意义

首先,《人工智能法案》将人工智能系统风险分为不可接受的风险、高风险、有限风险和低风险四大类。法案采用基于风险的分级动态监管模式,并按照风险级别制定相应的监管规则,这保持了行业发展的相对平衡。

其次,通过设立人工智能监管沙盒有助于平衡监管与创新。法案表示监管沙盒向任何符合资格和选择标准的人工智能系统的潜在申请者开放,并且进入监管沙盒的标准是透明和公平的。这一点在确保人工智能发展创新的同时,法案也能继续注重保护人的基本权利及民主等免受高风险人工智能的影响。

此外,《人工智能法案》对跨国人工智能企业也进行了要求,规范了在政策管制程度的不同地区仍能遵循以人为本,进一步降级法律风险。

最后,立法本身就可以在民众心底建立维权意识,这不仅可以带动人工智能整体的健康发展,还能建立起公民对人工智能行业的信任。

《人工智能法案》能否降低当前主要的人工智能风险?


在人工智能高速发展、不断迭代的现阶段,由于监管不到位亦或是钻法律空挡等,致使人工智能伦理事件频发,甚至已经威胁到了人的生命安全。那么作为人类首部人工智能相关立法的《人工智能法案》,能否减少甚至杜绝现阶段社会面临的人工智能事故呢?接下来将选取几个较为经典的人工智能案例,结合《人工智能法案》说明。

(1)未经亲属授权,通过AI复活逝者

生成式AI现阶段已融入到各行各业之中,该技术不光可以对产业赋能增加效率,还可以满足人们的幻想与期盼。前不久,知名音乐人包小柏成功运用AI技术“复活”了已故两年的女儿,在打造的“数字世界”不仅可以进行对话,还可以唱歌跳舞。这本来是积极的一面,代表了AI可以给予人们的正能量。然而,在这之后,越来越多的已故明星被AI技术“复活”,重点是未经亲属授权,在家属不了解的情况下将视频推向短视频平台。这些事件引起了广泛热议并且伤害了部分家属和一些粉丝。利用AI技术“复活”可能是对已故之人的思念,也有可能是制造热点,这一点无法考证。但是确定的是,这已经涉及到伦理风险中的社会性风险,即人工智能使用不合理,包括滥用、误用等,对社会价值等方面产生负面影响的风险。那么在《人工智能法案》中能否在开始就减少或杜绝此类现象呢。

《人工智能法案》中明确提到了将人工智能系统风险分级外,还提出了应被禁止的8种AI系统类型。其中就有禁止使用网络或视频监控进行无目标的人脸收集以创建人脸识别数据库,这一点可以解决AI“复活”的底层逻辑,利用AI“复活”需要先用视频或图片抓取人物,并通过模型后续生成。此外,还禁止了根据人的弱点,达到“严重扭曲”某人的行为目的或效果,造成重大伤害的AI系统。这一点也能尽最大程度避免了利用人的性格弱点,来牟取私利的行为。

(2)通过AI在网络平台抓取民众心里,引导不良走向,甚至干预选举

在2016年美国大选期间,剑桥数据公司通过大数据采集分析脸谱化以及定向推送等相关技术,从FACEBOOK平台上抓取大量用户个人隐私,把生活在屏幕背后的人还原成一个毫无隐私可言的人。因此便有了针对性极强的精准信息投放,在个人不知不觉的时候在后台进行信息过滤,通过计算机建模对数据进行分析,对精确的对象释放个性定制的信息,影响其心智和行为,从而赢得他们的选票。从这一问题上我们也看到该项技术衍生的其他问题,例如部分公司利用此技术引导贷款,亦或是引导至不良方向等。由此看出,不法分子利用AI技术在网络平台引导民众走向不良方向的问题是巨大的,衍生出的结果也是千变万化的。

在《人工智能法案》中,全面禁止了部分AI技术的一些“不可接受”的用途,例如禁止由人工智能驱动的社会评分系统,以及任何用于猜测一个人的种族、政治倾向或性取向的基于生物识别的工具。此外,还有此前我们提到的禁止操纵人类行为或利用人类弱点的AI系统。最后,设立人工智能监管沙盒可以使得进入的企业运行是透明的,这将更有利于监管。

(3)人工智能应用到军事,人道主义能否保障

2023年5月,美国空军上校汉密尔顿在5月举行的未来战争空天能力峰会上称在一次模拟测试中,一架负责执行防空火力压制(SEAD)任务的无人机,杀死了人类操作员。据他称,因为无人机收到了识别并摧毁敌方防空导弹的指令,并且最终开火权在人类操作员的手上。但是由于这架无人机使用的AI系统在进行数据训练时,得到了“摧毁敌方防空系统”为最高优先级。因此,当人类操作员发出不允许攻击的指令时,AI系统认为操作员是在阻扰它执行最优先级命令,进而选择对自己的人类操作员发动了攻击。虽然这是一次测试,但是不可否定的是在应用到军事领域中,人工智能能否与人类兼容。

除此外,利用人工智能技术对其他国家产生主权威胁,以及利用人工智能到军事冲突中加大人员伤亡以及误伤,这样的情形或已经发生或将在未来升级。在《人工智能法案》中其说明了不规定于军事。但是在我国2021年发布的《关于规范人工智能军事应用的立场文件》中,对于这些问题详细的进行了倡议。

例如表明在军事政策上,各国在发展先进武器装备、提高正当国防能力的同时,应铭记人工智能的军事应用不应成为发动战争和追求霸权的工具,反对利用人工智能技术优势危害他国主权和领土安全的行为。

在技术安全上,各国应不断提升人工智能技术的安全性、可靠性和可控性,增强对人工智能技术的安全评估和管控能力,确保有关武器系统永远处于人类控制之下,保障人类可随时中止其运行。

值得一提的是我国也积极表明AI+军事的过程上应该注意人道主义伦理问题,表明各国应确保新武器及其作战手段符合国际人道主义法和其他适用的国际法,努力减少附带伤亡、降低人员财产损失,避免相关武器系统的误用恶用,以及由此引发的滥杀滥伤。

总体来看欧盟的《人工智能法案》不仅为其内部在人工智能领域形成统一的规则和开发方向提供了法律基础,而且在全球范围内推行了人工智能的监管标准,从而掌握规则制定的主动权。随着《人工智能法案》的正式实行,如果严格按照法案,社会上的人工智能伦理问题将大大减少,但是在军事主权上仍需世界各国共同努力。值得注意的是,本文列举案例较少,主要挑选了一些经典案例,不能代表人工智能带来的所有风险。