本文来自微信公众号:墨子沙龙(ID:MiciusSalon),作者:林梅,题图来自:视觉中国


至今仍有很多人(包括一些物理学家)认为,这个世界的因果是一一对应的。对于一个系统,哪怕大到宇宙,只要知道初始状态,还知道它演化过程中所涉及到的所有参数,那它的最终状态就一定可以通过牛顿定律精确地、唯一地计算出来。如果你计算不出来,那只是你的能力还没进化到那个地步。历史上,最坚信这一点的科学家之中恐怕就包括爱因斯坦。如果你也这么认为,那恭喜你,你跟爱因斯坦想得差不多。


其实,如果没有量子力学破空而出,你这么想也是对的。在经典世界里,概率,只是你还不够聪明的妥协之法。比如,最先用到概率论的赌博行业,那只骰子最终的点数,其实在扔出的那一刻,就由它自身和周围物质一起决定了。所以看似随机的赌博,其结果是否也是可以被预测的呢?这种“百因必有果”的理论也被称为“决定论”。


可是,量子力学实验上一次次的成功,逐渐把大部分人拉到了“决定论”的对立面。人们开始不断地问那个问题——上帝也掷骰子吗?换句话说,上帝掷的骰子,其结果可以被预料吗?


在爱因斯坦看来,量子世界也应该和经典世界一样,原因和结果是一一对应的。


爱因斯坦坚信,这个世界是定域的、实在的。就是说,两个在四维时空中的类空事件不能产生什么因果,而且,不管你测量不测量,任何一个可观测的物理量总得有个客观实在值,爱因斯坦坚信这是物理实在的必须要素,也就是大家常说的“你看或不看,月亮也在那儿啊”。而量子力学的随机性却认为,一个物理量,你测量前有可能就是不确定的。


1935年,爱因斯坦和Podolsky、Rosen一起发表了一篇文章,用来从逻辑上证明量子力学理论的不完备。大致意思就是,如果量子力学理论是完备的,那么类空间隔的测量值彼此无关,且都有确定值。大家管这套逻辑叫做EPR佯谬。后来,Bohm根据EPR佯谬,设计出一个电子纠缠的方案,在这套方案里,类空间隔的两个纠缠电子的自旋状态居然不相互独立,而且数值上还不确定,这与爱因斯坦坚持的定域实在论太不相容了,所以,爱因斯坦坚信,量子力学是不完备的。他认为,这种量子力学中测量结果随机塌缩、遥远地点之间诡异的互动,应该跟经典世界里的扔硬币一样,之所以只能给出统计性的结果,只是由于一种隐藏在未知之处的隐变量在起作用。


总之,爱因斯坦坚信的定域实在论和隐变量,令他认为量子力学理论还没有完备。但是你细细一想,就会发现,他坚持的这两点还是没有跳出经典物理的思维藩篱。从他对EPR佯谬的阐述中我们可以感到,他理解的“实在”,意思是说世界能分解成一个个独立存在的具有确定值的实在要素,而一个完备的理论应当可以给出这个实在值。


而同时代的其他物理学家,有些已经开始尝试跳出经典思维的藩篱,他们认为,纠缠粒子即使处于类空间隔,也可能就是不独立的,而且测量的结果是不可预测的,量子力学认为,这就是真随机的。其实,真随机和非局域关联,这两者是紧密联系在一起的,正是因为真随机性,我们无法利用这种非局域的关联来实现超越光速的通信。从这个角度来看,量子力学和狭义相对论还是和谐共处的!


理论学家总这么争吵下去也没个结果。那么,实验上到底怎么验证量子力学的随机是真还是假呢?1964年,一个叫Bell的人想出了一个绝妙的主意,被称为Bell测量。当时,Bell不满足于总停留在哲学思辨的层面去讨论定域实在论和隐变量的正确与否,他提出了一个实验上可以验证的不等式,用来研究A、B两处测量之间的关联。


Bell假定定域实在论和隐变量假设是正确的,也就是,假设对一对纠缠粒子的测量结果是确定的,只不过由于某种隐藏的自由度而表现出貌似随机。然后对这样的纠缠进行很多很多次测量,考察测量的统计结果,用适当的关联函数进行判断。


我们可以做一个类比大致理解这个测量是怎样的思路:我们把纠缠现象看作是一对双胞胎之间的心灵感应,它们俩貌似即使身处两处,也总能对某些问话做出同样的回答。在量子力学理论中,认为他俩存在一种心灵感应;而爱因斯坦认为,他俩一定产生过其他联系,是串通好的,也就有个隐变量藏在背后使手段。而BELL测量,就是将一对双胞胎分别放在相距很远的两个地方,然后分别去询问他们一些特定的问题,这些问题的答案只能是“是”或“否”,然后将两个人的答案放到一起进行统计,用Bell发明的关联函数不等式来进行判断,看是否存在某种关联。


根据爱因斯坦的信念,这个世界是符合因果律的,如果统计结果显示双胞胎的答案存在关联,那么有且仅有三个可能的原因,一是双胞胎互相通信协商了答案,二是双胞胎在很早之前就有预谋,对未来的回答策略进行了协商,三是存在某种尚未可知的因素影响了双胞胎的答案,使其产生了关联,这种尚未可知的因素被称为“隐变量”。如果排除了这三种可能后,双胞胎的答案仍然存在关联,那只能说存在着如“心灵感应”一般的诡异现象了,而这就是爱因斯坦无法接受的“遥远距离的诡异互动”——纠缠。如果两人存在什么串通手段,则不等式成立,如果没有,则不等式很容易就会不成立(称为不等式“破坏”或“破缺”)。


实验上科学点的描述就是:如果真的如爱因斯坦所说,量子世界的随机是可以预测的,是一个我们还不知道的隐变量决定的,那么不等式就会成立,如果量子力学是完备的,不存在什么隐变量,那不等式很容易打破(并不是必然打破)


人们用光子、离子、原子做了各种实验,无一例外的指向了爱因斯坦观点的反面——量子力学本身是正确的,不存在什么我们不知道的隐变量,我们猜不中上帝投出的骰子,不是我们无能,而是因为上帝的骰子真的就是随机的,是无法被预测的。


可是,为什么文章开头我说“至今仍有一些物理学家固执地站在决定论的一边”呢?因为,尽管所有实验支持量子世界的正确性,可是严格意义上来说,实验都是有漏洞的,我们还没有办法完美地排除掉那三个可能的原因,因为总可以有人跳出来说“这个世界的一切都在宇宙诞生的那一刻就被决定了,双胞胎的答案在那一刻就已经预谋好了”,事实上,科学家们一直在努力地排除这些原因。目前,我国科学家已经完成了11光年以外星光随机数的贝尔测量,也和世界各国科学家一起,完成了以人类自由意志为随机数输入的大贝尔实验,越来越多的科学家相信,量子的确是真随机,是不可预测的随机。


实际上,我们现在普遍接受,测量过程中,量子系统的随机性来源于被测系统与测量仪器之间的相互作用产生的退相干,这是一种不可逆的、随机塌缩的、切断相干性的过程。


那么我们姑且相信量子的真随机。接下来,我们可以用这个真随机数做什么呢?


最近,有一款APP比较火爆,叫做宇宙分裂器,它号称能利用位于瑞士的一台机器中光子通过分束器之后随机塌缩到的路径,决定你处于哪个宇宙。帮助选择困难症患者做出决定。它的卖点就在于,它的随机性与扔硬币不同,它是量子真随机。


实际上,除了选择困难需要帮助以外,我们的生活中离不开随机数,我们的电脑也要用到随机数生成器,只不过,这种随机数本质上还是经典的、可预测的。此外,在一些关乎国计民生和国家安全的关键领域,真随机数的产生就更为重要。比如信息安全、保密通信、抽样检测等,只有用上真正的随机数,才能保证它的不可预测性。


那么,是不是说,我们只要用一个量子系统,就一定能得到真随机数了呢?答案并没有那么简单。我们的测量,一定是通过实际的设备进行的,设备如果被对手做了手脚,结果会不会受影响呢?2018年,我国科学家针对这一问题,首次在世界上实现了测量设备无关的抗量子攻击的量子随机数产生器(DIRNG)。所谓测量设备无关,意思是,引入与设备无关的协议,不需要对设备进行任何的假设,而抗量子攻击指的是,哪怕你用量子的手段攻击设备,都不会对结果的真随机性产生影响。


但是,这个工作,只能说接近实用,还不能完全投入应用,因为,DIRNG的过程也是一个类似于“拷问双胞胎”的BELL测量的过程,在拷问的过程中,需要随机选择问题进行提问,也就是说需要消耗一部分的随机数。而在2018年的工作中,随机数的生成量小于随机数消耗,而出于安全的需要,输入的随机数只能用一次,是不可以反复用的,否则就有信息泄露、被攻击的风险。


所以科学家要追求的,是随机数的净产生比较大的量子随机数产生器,也就是说,输入一串比较短的随机数,产生一串比较长的随机数,产生的能弥补消耗的,才能让这台机器可以持续工作,还不引入安全隐患。这样,才能被派上实际用途。这项任务叫做与设备无关的量子随机数扩展(DIQRE)


这是一个升级版难度的BELL测量,不仅要求无漏洞(仅“无漏洞”这一项,就包括不能给双胞胎“串供”的机会、不能有太多漏掉的没探测到的数据等等各项严苛的要求),还要与测量设备无关。在此基础上,还要保证产生的随机数量大于消耗的。因此,实验要求就变得十分得高。探测效率要足够高,单位时间内事件数要足够多,系统要足够稳定等等。综合考虑,科学家这次选择了用光子来帮助我们实现。


除了量子光学实验技术上的要求,理论协议也需要更新和突破。


近日,中国科学技术大学潘建伟、张强团队分别和两组合作者展开合作,用两种不同的理论方法,在量子光学平台上实现了设备无关的量子随机数扩展。输出的随机数均实现了10的8次方净输出的量级。


总的来说,这两种协议都是利用很多很多次拷问双胞胎的方法,得到需要的随机数序列。一种是叫做量子概率估计(QPE)的方法,另一种是被叫做熵累积(EAT)的思想。两者都是通过各自的方式,计算出一个满足随机性扩展的下限。两者的区别在于,量子概率估计(QPE)的方法是直接通过很多次“拷问”的结果估计一个下限,而熵累积(EAT)的方法是根据违背贝尔不等式的程度进行估计。两种方法都可以让系统抵御对手恶意的攻击,甚至源和测量设备都可以被攻击者控制,但只要结果达到这个下限,我们就可以说得到的是真随机数,提取出不可预测的随机数了。


当然,设备无关的量子随机数扩展的过程中还需要两个必要的假设,其一是输入的随机数是可信的(理论上可能只有你脑子里的自由意志能达到这个要求),其二是后处理程序也应当是可信的。这两个假设非常必要,因为系统设备已经被坏人控制了,如果初始的随机输入也是不可信的,或者最终的数据处理以及呈现也由坏人操控,那最终产生的随机数将绝无安全性可言。



利用QPE方法,实验上实现了个的近似均匀的随机存储,而用EAT方法,实现了个净比特。均完全实现并远远超过了“扩展”的要求。如果后期进一步严格估计下限,实验效率会更高。


解决了由少到多的问题,科学家瞄准了下一个问题——由坏变好。我们现在的随机数扩展,假设的是输入的随机数是完美的、与器件无关的、不会被攻击的。目前能完全满足这个要求的,可能只有类似人类意志、远处的星光这种,才能保证是随机的。可是如果是现实中的随机种子呢?如果攻击者对你输入的随机数下手呢?这就需要我们可以利用不那么完美的随机数,得到真正完美的随机数,还依然要保证器件无关,这也就是“随机性放大”。器件无关的随机性放大的挑战会远远大于随机数扩展,比如,它要求对贝尔不等式的违反可不只一点点。科学家能完成这个地狱难度吗?我们拭目以待吧。


本文来自微信公众号:墨子沙龙(ID:MiciusSalon),作者:林梅