英国科学家新奇言论:几百年后,网络数据将超过地球原子总数

最近几百年来,人类的科技水平呈指数级发展,地球发生着日新月异的变化。
这里我们说的日新月异,既包括正面的变化,也包括负面的改变。我们都知道,由于环境保护力度跟不上人类工业发展的步伐,我们为此付出了巨大的代价:空气污染、温室效应、气候恶化……
从环保的角度来说,我们只能做预后的弥补工作,通过开发新能源、节能减排等手段来挽救地球环境。与此同时,也有科学家预见到了另一项可能出现的危机——信息灾难。幸运的是,我们的信息发展速度还没有快到超过地球的承受能力,因此目前还没有导致危机;更幸运的是,我们已经提前预见到了可能出现的危机,现在也能够冷静地思考如何去预防危机的出现。
说到信息危机,我们就要追溯回上个世纪60年代。德裔美国物理学家罗夫·兰道尔(Rolf Landauer)所提出的一个著名理论——兰道尔理论
所谓的兰道尔理论,实际上是指出了计算理论的能耗下限。它是基于热力学第二定律的一个理论,告诉我们:不论是写入还是删除一个比特的信息,都会导致系统的熵有k·T·ln2的改变,其中k是玻尔兹曼常数,T是系统的热力学温度,ln是自然对数。
正是因为受到了兰道尔理论的启发,英国朴茨茅斯大学的研究员梅尔文·沃普森联想到了今天的信息技术发展,并产生了对信息灾难的担忧。由于人类信息技术的爆炸式发展,我们正在一点点消耗着地球的质量。“我们真的是在无意识中一点点改变着地球,这是一次看不见的危机。”他说。
他在去年的时候,就提出了质量-能量-信息等价原理。在这个理论中他指出:数字信息不仅仅具有物理性质,甚至还有可量化的质量属性。也就是说,信息数据也具有一定的质量。
根据他的理论分析,当一个数据存储设备增加哪怕1个比特的信息时,也会比没有这个比特的信息所需要的质量多一点点。虽然这个质量的增加小得似乎微不足道,但仍是可以测量的,而且在庞大的基数之下,会导致戏剧性的变化。
不过,他的这个质量-能量-信息等价原理,目前还没有得到完全的确认。即便如此,他依然对自己的理论非常有信心,并且在去年的研究基础上进一步分析:如果他的理论成立,未来我们将会面临怎样的危机(以下所有推导都是在假设这个理论成立的前提下计算的)。
首先,他参考了IBM的数据。根据该公司的估算,世界上每天会新增250亿亿字节的数据,相当于每年增加7.3*10^21比特量级的数据(注意,这已经不是最新的数据了)。
按照人类制造的数据每年增长20%来计算,这个指数级的增长随着时间的推移将变得越来越惊人。如果质量-能量-信息等价原理真的成立,那么大约在350年后,人类创造的比特数甚至将要超过地球所有原子的数量!
显然,如果按照现在的情况来看,人类是坚持不到350年后的。因为要维持这些数据,我们是要消耗电力的。因此,早在人类把地球的全部原子都转化到为数据服务之前,人类的电力系统恐怕就已经崩溃了。
而能量的消耗还不是最值得担心的,真正让人感到焦虑的,是质量问题。
假设现在每年新增的数据量为Nb,n年后新增数据量为Nbits(n),f为每年相较前一天多增加的比例,则有如下公式:
沃普森首先做了一个非常保守的估算:假设人类的网络数据增量为每年1%(f=0.01),那么人类创造第一公斤数据信息质量用了大概3150年的时间。接下来的计算非常惊人,大约在8800年后,人类创造的所有数据所需消耗的质量将会达到地球总质量的一半。
显然,这个增速的确是十分保守。当他将这个增长的速率修改为5%、20%以至于50%的时候,最终得到的结果就变得非常极端。我们夸张地采用50%的数据来分析,如果我们真的有这样的数据增长速度,那么仅仅225年后,其所占据的质量就会达到地球的一半。
(图片说明:沃普森预测的数据信息质量增加模型)
当然了,所有这些推论,都是建立在他的那个质量-能量-信息等价原理成立的情况下。这里面所提到的一些抽象概念,也未必就会完全像方程式中那样与现实世界相对应。
至少沃普森本人对这个理论还是比较有信心的。“既然狭义相对论和兰道尔原理都已经被证明是正确的了,所以这个新的原理最终被证实的可能性非常高,尽管它目前仍然还只停留在理论上。”
除了希望自己的理论被证实之外,沃普森还希望这些研究能够吸引更多人的关注,参与到这方面的研究中来。在这个领域,可能还有巨大的秘密等着人类去发现。
不管怎么样,能够注意到科技发展可能带来的副作用是好的。当然,我们不可能真的为了数据信息就消耗掉地球大部分质量,但是也许当资源紧缺的时候,我们就会陷入资源枯竭的危机。不过,到那个时候,如果真的出现了这个情况,我们只能寄希望于对其他星球资源的开发。
谁能想到,未来我们如果真的开发戴森球,可能是为了获取质量来承载更多数据信息!
(0)

相关推荐