为什么计算机的时间是从1970年1月1开始?
问题的来源当我们用js输入一下代码时:let date = new Date()console.log(date.getTime()) //1488159428585会发现终端打印出一个很大的整数(1488159428585),那么这个数字代表什么呢?经过查阅,我才知道这个整数代表着如今的时间与1970年1月1日0时0分0秒的时间差(以秒为单位),也就是说从1970年1月1日0时0分0秒到现在已经过了1488159428585毫秒了.那么问题来了,为什么要从1970年1月1日0时0分0秒开始呢?Epoch Time (UNIX纪元)
EpochEpoch Time 指一个特定的时间:1970-01-01 00:00:00 UTC。而UNIX系统认为Epoch Time便是时间纪元,也就是说在UNIX系统中,一切的时间会以1970年1月1日0时0分0秒为一个基点,然后通过经过秒数再来计算现如今的时间.那 1970 年发生了什么,以至于 Unix 系统以它作 “纪元”。原来 Unix 就是在那个时代产生的,1969 年发布的雏形,最早是基于硬件 60Hz 的时间计数。1971年底出版的《Unix Programmer's Manual》里定义的 Unix Time 是以 1971年1月1日00:00:00 作为起始时间,每秒增长 60。考虑到 32 位整数的范围,如果每秒 60 个数字,则两年半就会循环一轮,于是改成以秒为计数单位。循环周期有136年之长,就不在乎起始时间是 1970 还是 1971 年,遂改成人工记忆、计算比较方便的1970年。于是Unix 的世界开启了 “纪元”,Unix 时间戳也就成为了一个专有名称。Unix 时间戳是一种时间表示方式,定义为从格林尼治时间 1970年01月01日 00时00分00秒 起至现在的总秒数,不考虑闰秒。时间回归问题问题起源最初计算机操作系统是32位,而时间也是用32位表示.int在java中是4字节,32位.并且第一位是符号位,所以其能表示的最大值是2147483647.(2^31-1).另外1年365天的总秒数是 31536000,2147483647/31536000 = 68.1,也就是说32位能表示的最长时间是68年,从1970年开始的话,加上68.1,实际最终到2038年01月19日03时14分07秒,便会到达最大时间,过了这个时间点,所有32位操作系统时间便会变为10000000 00000000 00000000 00000000,计算后(根据补码计算)也就是1901年12月13日20时45分52秒,这样便会出现时间回归的现象,很多软件便会运行异常了。解决办法至于时间回归的现象随着64为操作系统的产生逐渐得到解决,因为用64位操作系统可以表示到 292,277,026,596年12月4日15时30分08秒,相信我们的N代子孙,哪怕地球毁灭那天都不用愁不够用了,因为这个时间已经是千亿年以后了。
time