现代社会,一张裸照能给一个人造成多大的伤害?

我想新闻上那么多血淋淋的例子已经给出了答案。



可惜,就算知道它的危害程度,要想从源头上阻止别人拍裸照也是不可能的。

所以既然阻止不了别人拍,那就把泄露的风险给消除吧~

这也是如今一些科技企业在干的事。



只不过,它们防止裸照泄露的办法有点让人不能接受就是了...

还记得去年苹果那个被骂上天的相册检测功能吗?



简单来说,就是当用户的照片要储存到 iCloud 之前,该功能会自动对照片进行检测,看看是不是儿童色情照片。

如果是的话、且照片还达到了一定数量,那系统就会马上通知苹果官方进行人工确认。

一旦最后发现它们真是儿童色情照片,苹果还会直接封了该用户的账号并通报执法单位,彻底杜绝泄露风险。



虽然它出发点是好的,但这种未经允许检测用户相册的行为还是引来了网友的狂喷...

他们纷纷指责苹果在公然窃取用户的资料,违背了该公司保护用户隐私的原则和教条。



可没想到,苹果这场窥探隐私的风波还没平息多久,扎克伯格的 Meta(原Facebook)又搞了个更离谱的操作——

为了防止你的裸照外泄,它建议你自己先上传!上传地点就是 Meta 所推出的一个AI工具上。

这个工具便会提取出照片的“数字指纹”,然后将其共享到社交平台。

如果以后有人在社交平台上发这些裸照的话,系统就可以马上检测到并做出处理。



至于所谓的“数字指纹”,其实就是指照片的“哈希值”。

这是用算法赋予的一串数字和字母,每一个图像都有唯一的哈希值,无论是被裁切还是从彩色改为黑白,它的哈希值都不会发生变化。



而系统检测照片的过程实际上也只是在比对照片的哈希值是不是跟你之前主动上传的照片一样,根本不会有人看到照片是什么内容。

苹果的相册检测功能也是这个原理。



可以说,虽然听起来这两家公司都像是在窥探用户隐私,但从技术角度看它们确实能做到既不侵犯隐私又能防止裸照泄露。

只不过由于如今App和操作系统窥探用户隐私的事情时有发生,民众早就对它们失去了信任,会质疑也是理所当然~

跟别提 Meta 这种有前科的,连咱们天朝网友都调侃它空手套黄图。



说起来,比起 Meta 和苹果,我觉得更需要小心的是那些技术不够又非要称能帮你防止裸照泄露的企业。

比如日本之前就有企业推出一款手机,主打卖点就是不给你存裸照,一检测到就自动删。



而且从介绍页面来看,这个检测算法还是靠图像识别,啥裸照都先被它看干净了...



 

也不知道这手机现在卖了多少