科学家如何测定宇宙最快的速度—光速?

光速是物理学中的一个最基本常数,也是物质运动的速度上限,那么科学家是如何来测定光速的呢?

实际上,科学家不测量光速(这里总是指光在真空中的速度),而是科学家知道光的速度是多少。光速c = 299,792,458米每秒。这个数值绝对是100%精确,没有任何测量误差。之所以科学家知道这个数值就是光的速度,其原因就是科学家把光速定义成了这个数值。

然后科学家定义了一秒的长度,即在铯-133的超精跃迁中辐射一定数量周期的持续时间。从中,科学家定义了一米的长度。所以,科学家真正要测量的一米有多少。

惯性系中的光速恒定是科学观测出的事实,物理学家使用光速作为一个恒定速度,从中所有观察者可以定义自己的长度标尺。

要测量光的速度将需要有一个对于一米是多少的外部定义,而自20世纪70年代以来,就全部取消了。

而如果真想使用这个外部距离参照来测量光速,那很容易测试:只要在t = 0时刻向一面镜子发射一个光脉冲,然后测量返回到起点的时间,就能算出光速。

以下是一些背景:

米最初是在法国大革命之后定义的,大约在1799年。它被定义为赤道和极点之间距离的1/10,000,000。

然后在1889年,根据天文学家制作的铂质米原器对米进行了正式定义,该米原器保存在巴黎国际计量局的地下室中。

米原器

从米的这个定义出发,科学家利用镜像定时方法或基于天文观测的方法测得光速约为299,792,458米每秒(后面还有小数位),与定义值已非常接近。

最终,科学家意识到,利用某事物来对米进行定义会带来诸多问题,比如定义米的事物自身并不稳定,会对标准米的测量造成误差。因此,科学家尝试以任何人都可以复制的方式来定义光速,而不必引用“标准物体”。

因此,米利用光速被重新定义。

今天对米的正式定义是:光在真空中行进1/299,792,458秒的距离。因此,这完全等效于光速的定义。

科学家之所以选择了299,792,458这个数字(而不是一个更方便的数字300,000,000),是因为这个数字只改变了一标准米的小数点之后的精度,与最初的定义相差非常小,不然的话很多数据就都要更改了。

使用这个定义的结果是任何测量光速的尝试都是循环性的,在某种程度上必须要使用“米”来测量它,而这又取决于光速。

因此,当“测量”光速(在真空中)时,实际上就是在测量所使用的测量仪器有多精确。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();