▲ (视觉中国 / 图)
接下来出现在我们视频里的骗子,就更加底气十足了:看脸、听声音,实在不行给你刷个指纹、手掌认证,你还能不信么?就此,传统的交叉验证手段也面临失灵。那么人类只能退回10年前,凡事别用视频沟通,最好当面谈。
当然,这或许能重塑我们的社会关系。不知有多长时间,哪怕是最亲的朋友家人,都是一个微信电话了事。遇到问题,也是一键支付解决。而当人与人重归线下,见面的频次多了,或许那种久违的“熟人社会”感觉就回来了。
从ChatGPT所代表的生成式AI而起,越来越多的人对于其双刃剑效用感到担忧。如今,这一担忧似乎正被不断出现的案例所验证。
近日,包头警方发布一起利用AI实施电信诈骗的典型案例,福州市某科技公司法定代表人郭先生10分钟内被骗430万元。据悉,郭先生的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。后续郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
值得注意的是,骗子并没有使用一个仿真的好友微信添加郭先生为好友,而是直接用好友微信发起视频聊天,这也是郭先生被骗的原因之一。骗子极有可能通过技术手段盗用了郭先生好友的微信。幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元。
从郭先生的描述来看,骗子对于AI技术的运用之快、运用程度之高令人咋舌,AI换脸、AI换声,拦截微信号,几乎无一不出自AI技术之手。
坦率来说,AI风险近年来确有不断增大之势。比如,“AI换脸”技术已经多次出现,人们只需提供一张照片,经深度合成算法处理,就能秒变视频主人公。当时不少人将其作为消遣和乐趣。如今回想起来,这些人脸信息如果没有得到妥善处理,极易流向未知领域。或许就在明天,你的脸出现在另一个人身上,用于向你的微信好友寻求资金帮助。
或许是一种规律:对于某项新兴技术,骗子基于牟利需求,总是比普通人具有更灵敏的嗅觉。比如,之前比特币出现,大多数人也就是当成聊资。可很快就有犯罪团伙将其用于洗钱。洗钱者在交易所购买比特币,并将带有犯罪资金的比特币发送到另一个比特币地址。然后通过多次转账和分割比特币,使交易链变得复杂,破坏交易记录的可跟踪性。最后,通过将比特币转换为现金,将“清洗”的钱流入正常的经济活动。
再早一些,但凡看过盗版影视作品的人,都应该知道BT种子下载。在BT下载出现之前,人们下载内容都来自服务器,速度受限于服务器的传输能力。
与传统下载不同,用BT下载反而是用户越多,下载越快。BT首先在上传端把一个文件分成了若干个部分,甲在服务器随机下载了第N个部分,乙在服务器随机下载了第M个部分,这样甲的BT就会根据情况到乙的电脑上去下载乙已经下载好的M部分,乙的BT就会根据情况到甲的电脑上去下载甲已经下载好的N部分,不但减轻了服务器端的负荷,也加快了用户方(甲乙)的下载速度。
就此,这一理念先进的共享式技术被高频率用在盗版软件、影视作品下载中,BT下载技术因此被冠以“盗版技术”之名。
再回到如今的“AI诈骗”,有观点认为,“AI换脸”“AI换声”技术展现效果仍有缺陷,仿真度不够高。但这往往需要当事人仔细辨识,对于老人等群体而言,恐怕很容易就上当受骗。
更不要说,中国在各类关系公众生物特征的识别技术应用上,可谓大步超前。从人脸识别(支付)、指纹支付到这两天推出的刷掌支付,如果相关生物特征信息泄露,那么,接下来出现在我们视频里的骗子,就更加底气十足了:看脸、听声音,实在不行给你刷个指纹、手掌认证,你还能不信么?
就此,传统的交叉验证手段也面临失灵。那么人类只能退回10年前,凡事别用视频沟通,最好当面谈。
当然,这或许能重塑我们的社会关系。不知有多长时间,哪怕是最亲的朋友家人,都是一个微信电话了事。遇到问题,也是一键支付解决。而当人与人重归线下,见面的频次多了,或许那种久违的“熟人社会”感觉就回来了。
在多年前,曾经就有关于“技术让人与人的距离更近还是更远”的讨论。技术专家说,技术突破了空间和时间的维度,让人们更方便交流。但也有人认为,这种交流是基于效率层面的,但人际关系的微妙之处在于,很多时候无法以效率量化。越亲近的人,越需要通过传统沟通方式,如定期见面,聊一些哪怕与具体生活诉求无关的“废话”,也能让彼此感受到此时此刻的情感同频。
所以,我们会听说某个企业家大佬,居然拒用智能手机,坚持老掉牙的功能机,不被技术绑住生活。在国人享受一键支付便利之时,许多国家的民众仍偏爱用现金购买物品,更安全,更看得见支付过程。
作为普通人,我们往往是技术变革大潮里的一朵浪花,面对迭代超乎想象的AI技术,有的人正在被AI平替,失去工作岗位;有的人正琢磨利用AI工具掘金,为人生逆袭创造可能;而骗子已经高效地利用了Al,侵入人际关系,用技术加持扮作你的亲友熟人,骗走你的钱财。但凡有新技术出现,骗术就会立马升级,让人无奈啊。
10分钟被骗430万!成功率接近100%的AI诈骗怎么破?
警惕!“AI换脸”新骗局
AI诈骗近日一再登上热搜。据媒体报道,包头警方日前发布一起利用人工智能(AI)实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。另据湖北网警巡查执法消息,AI技术改变诈骗方式,诈骗成功率接近100%。
AI诈骗有哪些特点?该如何防范呢?
AI诈骗来袭,成功率近100%
据“平安包头”的警情通报显示,4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。
基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,分两笔把430万转到了好友朋友的银行卡上。
事后,郭先生拨打好友电话才知道被骗,原来骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
值得注意的是,骗子并没有使用一个仿真的好友微信添加郭先生为好友,而是直接用好友微信发起视频聊天,这也是郭先生被骗的原因之一。
接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移。目前,福建警方与包头警方正在全力追缴资金中。
在此之前,还发生过几起AI诈骗案件。据媒体报道,2022年2月,陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。
2020年,有不法分子利用AI换脸生成某公司领导面孔,要求该公司高管转账,致使该高管被诈骗150万元。
如何防范AI诈骗?
AI诈骗成功率为何如此之高?该怎样预防?
中国互联网协会24日发出最新提示:对于近日发生的多起利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法事件,广大公众需提高警惕,加强防范,做好个人信息安全第一责任人。发现APP过度、强制收集个人信息,请至12321.cn投诉;陌生链接不要点,陌生软件不要下载,陌生好友不要随意添加;对于不常用的APP,建议卸载前注销个人帐号,APP不提供个人帐号注销方式,或为注销帐号设置各类障碍的,请至12321.cn投诉。
中国互联网协会提醒,在AI时代,文字、声音、图像和视频都有可能是深度合成的。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款,无论对方是谁!
随着AI技术的发展,打开AI换脸APP,选择和上传想要使用的图片和自己的脸部,简单操作便能实现AI换脸。新型技术加上低使用门槛,让不法分子发现了“商机”。
北京浩伟律师事务所专职律师赵正彬向中新社国是直通车介绍,AI诈骗具有以下特点:
高度逼真。AI技术可以精准地模拟他人的声音、面孔、表情、动作等细节,让受害者难以分辨真假,从而降低警惕。
针对性强。AI技术可以根据受害者的个人信息、社交关系、消费习惯等进行精准定位,制定出最合适的骗局方案,提高成功率。
手段多样。AI技术可以结合各种诈骗手段,如冒充亲友、领导、客服等要求转账汇款;冒充明星、网红、富豪等诱导交友恋爱;冒充公检法、银行、保险等威胁恐吓等。
如何防范AI诈骗?赵正彬建议,首先要妥善保护个人信息。不轻易提供或公开自己或他人的人脸、指纹、声音等生物信息;不过度分享或转发自己或他人的动图、视频等;不随意点击或下载来历不明的链接或文件。
其次,多渠道核实对方身份。在涉及到转账汇款、交友恋爱等重要事情时,要通过电话、见面等多种沟通渠道核验对方身份;不要轻信对方所说的紧急情况或优惠条件,不要未经核实随意转账汇款。
再次,保留证据报警。如果发现自己可能遭遇了Al诈骗,要及时保护好相关证据,如通话录音、聊天记录、转账截图等,并立即拨打96110报警求助。
AI如何规范化使用?
从防不胜防的AI诈骗,到AI学术造假、游走在法律边缘的AI绘画、AI翻唱、AI换脸直播,AI乱飙让人不得不提高警惕。
行动已经开始。此前,B站对AI换脸类内容标识进行了升级。升级后该类内容上方会出现“该视频疑似使用智能合成技术,请谨慎识别”的显著标识,以便用户甄别,防止产生误解,侵害他人权益。
今年4月,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见,对人工智能服务产品和使用提出了多项明确规定,包括不利用生成内容损害他人形象、名誉以及其他合法权益,尊重知识产权等。该办法还规定,提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。
AI提供者也需承担起该承担的责任。中国政法大学副教授张佳华向中新社国是直通车介绍,如果人工智能提供者对于使用者实施违法犯罪活动是明知的,并且积极提供帮助,可能构成使用者的共犯,或者构成帮助信息网络犯罪活动罪。