本文来自微信公众号:量子位(ID:QbitAI),作者:丰色,原文标题:《针孔摄像头屡禁不止?用你手机自带的ToF传感器对付它,检测成功率近90%》,头图来自:视觉中国


不法分子用针孔摄像头违法偷拍的事儿,可以说是过段时间就上个新闻。


导致现在不少人出门住个酒店都要先用网上学来的方法查个遍,才能安心躺下。


然而像什么手机摄像头检测法、某宝上的检测仪等费时费力,主要效果还不一定好……


现在,来自新加坡国立大学的研究员们又开发出了一种新方法,用一部手机加一个智能应用程序,就能实现近90%的精准检测率。



真的吗?来看。


一部手机+机器学习APP揪出针孔摄像头


首先,手机不是普通的手机,是带有ToF (Time of light,飞行时间)传感器的手机。


△ 论文来自ACM Sensys 2021 智能传感系统大会


所谓ToF传感器,就是传感器发出经调制的近红外光,遇物体后反射,然后通过计算光线发射和反射时间差或相位差,获得被拍摄景物的距离,以产生深度信息。


其测量范围可达数米、精度小于2cm,每秒更新频率可达30~60 fps。


可在手机上用于人脸识别、金融支付、摄像时精准抠像/探测景深、AR建模与体感游戏等。


现在有部分手机已经配有ToF传感器,比如iPhone 13、iPhone 12 Pro、Samsung S20+/Ultra、华为P30 Pro、OPPO RX17 Pro等。



没有的也别着急,未来会渐渐成为一种趋势。


进入正题。


我们都知道,相比普通物体的“散射”,光线打在镜头这类物体上会形成强烈的逆反射,就像这样:



一个更形象的比喻:



而ToF传感器正好不仅能告诉你物体离摄像头有多远,还能反映图像中每个像素有多亮。


那就好办了,就比如下图最右,通过适当距离的ToF传感器反射,我们可以发现四个高亮点,而其中一个就是针孔摄像头藏身之处。



但是,问题也来了,四个亮点长得差不多,凭什么说中间那个就是呢?


另外,如果传感器和嫌疑物的距离太近或太远,给出的成像会“糊”就会造成误报,那又不知道嫌疑物到底在哪,怎么选择一个理想位置进行检测呢?



以及目前的ToF传感器空间分辨率都非常低,只有240x320,这就导致一个针孔摄像头的图像可能就占1-2个像素;位深(bit-depth)也低,只能代表8种颜色,检测难度直线上升,误报率居高不下。



最后,嫌疑摄像头反射的光只能在20°的视场角(FoV)范围内可见,操作不当也会导致漏报。



好家伙,问题这么多,怎么解决?


这就得靠搭载了计算机视觉和机器学习的应用程序来帮忙了。


首先,使用手机摄像头对准一些你嫌疑的对象,然后APP通过计算引导你和嫌疑对象保持合适的检测距离(一般是20厘米)



计算依据假定针孔摄像头的直径为1-2mm。



在扫描过程中,ToF传感器的每一帧都给我们提供了激光强度图像和深度图像,程序将两者结合,提取候选区域,然后根据物理知识和机器学习过滤掉形状和距离基本不可能的选项。



接着将过筛的图像通过坐标转换从2D转为3D,再通过FoV过滤器进行视场角过滤。


最终给出是否有针孔摄像头的结论。



说了这么多,看看它的真本事吧。


88.9%的检测率


研究人员一共提供了21件不含和9件含针孔摄像头的物品进行测试。



每件物品用三种检测方法:ToF手机/LAPD APP(也就是他们的方法)+一种叫做K18的市面检测仪+裸眼。


后两者需人为进行可疑摄像头的标注,一共379名志愿者参与。




最终,他们的方法最高获得了88.9%的准确率,以及最低16.7%的误报率。



比K18检测仪高了近30%。


并且,APP在实验用的Samsung S20+可以连续运行2个半小时。


看到这儿,网友都坐不住了,纷纷喊话:什么时候上线应用程序,戳我啊!



好消息是,作者回应了:


代码正在开源。



那么,你觉得这个方法如何?到时发布了你会试试吗?


论文原文:https://dl.acm.org/doi/10.1145/3485730.3485941

参考链接:[1]https://www.youtube.com/watch?v=t4Txdhlji4k[2]https://news.ycombinator.com/item?id=29267168


本文来自微信公众号:量子位(ID:QbitAI),作者:丰色