此前揭露美国政府大规模监控计划的斯诺登也在推特发声,称苹果会用这一系统,“给全世界带来大规模监控”。
美联社解释说,苹果公司的这一系统名叫“neuralMatch”,它会在图片上传到iCloud(苹果的云端存储服务)之前进行扫描。如果它找到了匹配的图像,将会通知审核人员检查。若确认存在儿童色情内容,那么苹果方面将关闭账户,并通知美国国家失踪和被剥削儿童中心。
路透社:苹果将检测上传iCloud的虐童照片
实际上,这一系统并不能真正“看到”图像,而是采用“数字指纹”(digital fingerprints)的技术,通过辨识图片中的关键信息,与现有的儿童性侵图像数据库内容对比。
美国国家失踪与受剥削儿童中心的首席执行官约翰·克拉克(John Clark)在一份声明中拥护苹果的这项系统:“由于有这么多人在使用苹果产品,这些新的安全措施有可能拯救那些在网上被诱骗的儿童,以及防止儿童性侵图片的传播......事实是,隐私和儿童保护可以共存。”
实际上,多年来微软、谷歌和脸书等科技公司,一直在分享已知的儿童性侵图片数字指纹。此前,苹果也曾利用类似的技术,扫描存储在iCloud中的用户文件和照片,防止儿童色情内容。
但与之前的技术相比,苹果此次计划在照片上传之前就进行扫描,这也引发了外界对隐私权和监控的担忧。
“这绝对是一个可怕的想法,因为它将导致针对我们的手机和笔记本电脑的大量监控。”剑桥大学安全工程教授罗斯·安德森(Ross Anderson)如此评价说。
约翰斯·霍普金斯大学的网络安全教授马修·格林(Matthew Green)说:这将会突破界限,政府会要求每个人都这么做。”
格林还提及另一种可能,即苹果的这一系统可能会被“用来诬蔑无辜的人”,给他们发送看似无害的图片,目的是引发儿童色情匹配。这可能会骗过苹果的算法,并提醒执法部门。“研究人员已经能够很容易地做到这一点。”他谈到欺骗这类系统的能力时说。
此前揭露美国大规模监控“棱镜”计划的斯诺登,也在推特上发声:“不管多么善意,苹果正在用这个对全世界进行大规模监控。毫无疑问:如果他们今天能扫描到儿童色情片,他们明天就能扫描到任何东西。”
但十多年前发明了照片匹配技术“PhotoDNA”的哈尼·法里德(Hany Farid)认为,苹果的系统存在被滥用的可能性,但他表示,与儿童性侵作斗争的必要性远远超过了这一可能性。
称扫描技术是一套新的儿童保护系统的一部分,该系统将“随着时间的推移而发展和扩展”。这些功能将作为iOS 15的一部分推出,预计将于下个月发布。
《金融时报》报道说,该系统将“随着时间的推移而发展和扩展”。这些功能将作为操作系统iOS 15的一部分推出,预计将于下个月发布。
苹果扫描iPhone所有照片,发现问题还要报警:全新保护计划惹众怒
众所周知,iPhone 虽然贵但很好用。人们选择 iPhone 的一大理由就是信息安全:不论是手机上物理存在的「安全飞地」,还是苹果公司面对 FBI 解锁嫌犯手机需求宁愿打官司也不从的态度,这家公司对于个人隐私的保护一直为人称道。
然而就在最近,苹果突然改变态度的消息传出,让人大为惊讶。
《金融时报》等媒体爆出,苹果计划扫描所有存储在 iPhone 和 iCloud 上的照片,以找出儿童色情图片。新系统将能够帮助执法部门进行刑事调查,但可能会导致法律和政府对用户数据的需求增加。
据外媒报道,该系统名为 neuralMatch,一旦检测到非法图像,将主动提醒一组人工审核人员。如果经验证「违法内容」属实,公司将联系执法部门。
neuralMatch 系统使用来自美国国家失踪与受剥削儿童保护中心(National Center for Missing & Exploited Children)的 20 万张图像进行训练。该系统将率先在美国推出,用户存储的照片将被扫描并与已知的儿童虐待图像数据库进行比较。
这还不是全部,苹果还有一个新功能会扫描儿童账号登陆的 iPhone,系统会扫描发送和接收到的所有 iMessage 图像,以查找色情内容,如果儿童年龄在限制以下,则出现违规图像时会通知父母。父母可以选择打开或关闭这个功能。
据介绍,苹果的扫描是全方位的:这些新功能将会在今年晚些时候作为 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的特性在更新时推出,也就是说大概率会在 9 到 10 月份上线。
从 iPhone 本地开始扫描
在今天的金融时报上,苹果的照片扫描计划被正式曝光。
知情人士透露:之后在美国每张上传到 iCloud 的照片都会得到一份「安全凭证」,来说明是否可疑。一旦一定数量的照片被标记为可疑,苹果就会对所有这些可疑的照片进行解密和人工审查,如果涉及违法行为,苹果会将其转交给相关法律部门。
具体来说,苹果扫描照片的方式有点类似于微软的 PhotoDNA,不过苹果的扫描主要是在设备端进行的,处理过的图像会被转换为机器学习所需的参数,在云端与数据集进行匹配,设备端不会知道是否找到了匹配项。这意味着当新功能推出时,NCMEC CSAM 数据库的一个版本将下载到每部 iPhone 中。
不论这套技术中的隐私和安全保护是如何实现的,上传到 iCloud 的所有照片都将被扫描。
苹果的第二个新功能是基于 iMessage 发送或接收的扫描照片的敏感内容通知。为了实现这种功能,其将推出一个设备端机器学习分类器,旨在检测「色情图片」。苹果称这些功能(在发布时)仅限于已注册家庭帐户的 18 岁以下美国用户。在新流程中,如果 13 岁以下儿童持有的帐户希望发送设备上机器学习分类器判定为色情图片的图像,则会弹出通知,告诉父母会接到通知。
如果儿童仍然选择发送内容,则系统将通知家长,且图像将不可撤销地发送至手机的家长控制部分,供家长稍后查看。对于 13 至 17 岁的用户,会弹出类似的警告通知,但没有家长通知。
类似地,如果 13 岁以下儿童收到 iMessage 认为「色情」的图片,在被允许查看照片之前会弹出一个通知,告诉儿童他们的父母将收到通知。如果用户决定接收图像,则会通知父母并将图像保存到手机中。13 至 17 岁的用户同样会收到警告,但不会将有关此操作的通知发送到其父母的设备。
无论是发送还是接收此类内容,未成年用户都可以选择在不通知父母的情况下中断发送或接收。尽管如此,苹果无疑是在监视用户手机内容的道路上向前走了一步。
是安全保护还是隐私侵犯?
霍普金斯大学教授、密码学家 Matthew Green 对这种系统表示担忧。Green 说:「这种工具能够可以帮助查找手机中的儿童色情内容,但想象一下,如果掌握权力的公司或机构获得了这种系统,会发生什么?」
他表示:「即使你认为苹果不会允许这些工具被滥用,仍然有很多值得关注的地方,这些系统依赖于一些可能存在问题的数据库,而普通消费者却无法查看这些数据。」
来自约翰霍普金斯大学教授密码学的计算机科学副教授 Matthew Green 对此事表示了担忧。
此外,有研究人员表示,虽然该系统目前经过训练可以发现儿童性虐待,但它也具备扫描任何其他有针对性的图像和文本的潜力,例如恐怖斩首等暴力场景。苹果的这种行为可能增加其他科技公司使用类似技术的压力。
曾在 Facebook 和 Deliveroo 工作的安全研究员和隐私活动家 Alec Muffett 表示:「苹果这一举动是将让个人隐私领域倒退一大步。」
与其他基于云的照片存储系统和社交网站一样,苹果此前已经根据已知的虐待儿童图像检查了 iCloud 的文件。但当试图访问存储在个人设备上的数据时,这个过程就变得更加复杂了。neuralMatch 的新系统则更加激进,允许机器学习系统对本地存储的数据进行访问
不过也有专家认为,苹果的监控方式已经很大程度上保护了隐私。萨里大学计算机安全教授 Alan Woodward 表示:「苹果系统的侵入性较小,因为筛选是在手机上完成的,并且只有在可疑信息匹配时才会向搜索者发送通知。只有采用这种去中心化方法,才是苹果新系统保护隐私的最佳选择。」
目前尚未有更多关于该系统的细节,不过除了《金融时报》,苹果开启 neuralMatch 计划的消息也已被其他多个消息源证实。知情人士透露:苹果最快可能在本周宣布更多有关该系统的信息。