不知道大伙儿还记不记得,几个月前有个老板 10 分钟被骗走 430 万的 AI 诈骗事件?

因为被诈骗的金额过于大,当时还引起了不小的轰动。



而在那之后,什么 9 秒被骗 245 万, 7 秒视频通话被骗 30 万,类似的 AI 诈骗事件是接二连三。

更可怕的是,利用 AI 换脸、 AI 换声,还衍生出了一条灰色产业链。

今年 3 月,一名女生在地铁被偷拍后又被人换成全裸的照片,一度冲上了热搜。



而像这种一键换脸,或者一键脱衣的违法行为在外网上可谓猖獗,有些人就是靠着贩卖 AI 换脸软件,或是帮助别人把脸换到色情视频里,以此来赚钱。



虽说,咱们现在都知道有 AI 换脸这回事儿,但这东西它防不胜防,即使脸和声音都对得上,也不一定是本人。

这才是 AI 的可怕之处。

现在是有一些用于检测内容是否由 AI 生成的工具,但检测的准确性, emm 多少还是有点一言难尽。

前不久, OpenAI 还下线了自家的 AI 检测工具,理由就是错误率太高了。。。



所以要阻止技术滥用的问题,光靠检测是不够的,还得从根源上找法子。

最近,国外的创意内容平台 Shutterstock 宣称,要用一种叫做 C2PA 的协议,给自家平台上的 AI 生成内容打上标签,用来区分人类创作。

这 C2PA 协议,倒也不是啥新技术。

两年前, Adobe 、微软、 BBC 等几家科技公司和媒体一起合作,成立了一个内容来源和真实性联盟 ( C2PA ) 。

成立的初衷呢也简单,当时受到 AI 等数字技术的影响,媒体发布内容的可信度越来越低,于是这些个巨头就想通过建立 C2PA 协议,打击网络上的一些虚假信息。



具体来看,这个 C2PA 协议是一种类似区块链的加密技术。

就比如说,一张图像里包含了数百万的像素, C2PA 通过数据加密技术给每个像素的来源信息进行编码,它最大的特点就是可以溯源。

简单来理解,有了 C2PA 协议之后,内容是谁创作的,历史的修改记录,这些都会被记录下来。



就相当于给你的图像、视频打上了一层看不见的水印( 文本目前暂时还不适用 )。

这个协议虽说不能防止 AI 作恶,但有了水印之后,至少能反向解决 AI 检测工具准确率不高的问题。

当你看到某段视频的时候,到底是 AI 生成,还是人类创作的,一目了然。

C2PA 协议推出之后,已经有部分企业将其集成到了自家的产品当中。

像微软,就已经在自家的 Bing Image Creator 和 Microsoft Designer 里装上了 C2PA 协议,AI 生成的图像都会被标记,并且还会披露出元数据的来源。



当然了,这种加密方法也存在一定的 bug ,那就是需要有足够多的内容创作者和平台使用这协议,不然也是白搭。

如果想要给平时拍的每一张照片都打上水印,这就需要把协议集成到手机相机里,又或者,你在 PS 上设计的图片,也需要平台集成了这个协议才行。

也就是说,C2PA 协议要生效,需要完整的使用链条。

可惜的是,目前在协议上,整个互联网还没形成统一的共识。

不过最近,来自 MIT 的大佬们,又推出了另外一个叫做 PhotoGuard 的工具。



这跟上边儿的协议还不太一样,如果说 C2PA 只是留下水印,那么 PhotoGuard 的方式就更简单粗暴了,直接切断了 AI 生成内容的生路。

原理很简单,就是利用 PhotoGuard 在原始照片中引入一种干扰的噪声得到免疫图片( immunize images ),但同时这种噪声又很难被察觉出来。



当有人想用图片进行 AI 恶搞时,就会得到一堆马赛克、或者扭曲的照片。

就比如论文中,原始照片是两个男人在看打网球,如果没有加防护,那么就会被随意更改,比如这样。



但 PhotoGuard 可以生成一模一样的免疫照片出来。



如果再有人想用 AI 来恶搞,就会得到一张这样的照片。



一个是打水印,一个是直接把路封死,要真的跟 AI 诈骗打起来,还不是嘎嘎乱杀?

但问题也出在这,技术有,但是还没能大规模用起来。

即使有微软、 Adobe 、 Arm 这些巨头撑腰, C2PA 协议的大面积铺开也还需要些时日,更别提刚出来的 PhotoGuard 了。

不过好在,事情还是朝着乐观的方向在发展。

包括上边儿提到微软的两个工具,还有 Shutterstock 平台,今年陆陆续续都开始用起来了。

照着这势头, C2PA 在不久的将来或许大有可为。



况且, C2PA 协议一直都是开源的,这就方便了很多人把协议集成到应用当中。

毕竟, AI 诈骗、灰产肆意横行的同时,也在反推大家思考如何加快反 AI 诈骗的步伐。

同时呢,像 C2PA 这种打水印的方式,也给 AI 生成内容的版权问题,提供一个解决思路。

对于 AI 生成的内容,大家争论的关键点就是不希望自己的作品献祭给 AI 。

那倘若生成的结果显示数据来源了,作品收入也会根据来源来分成,那是不是也可以算作一种新的商业模式?

当然了,这也只是一种假设。



回到反 AI 诈骗本身,技术的进步固然重要,如果相关法规能适时再添一把火,相信也能好好治一治 AI 带来的这股不良风气。

不管怎么说吧,在规范形成之前,咱还是多留个心眼,以后可能眼见也不一定为实咯。