斯蒂芬霍金新书大胆预测:超人接管地球,可以进行种族的自我设计

已故的物理学家和作家斯蒂芬霍金做出了大胆的预测,一群超人会接管地球,他们利用基因工程来超越现有的人类。

本周二即将出版斯蒂芬霍金的一本新书《关于大问题的简要回答》,《星期日泰晤士报》周日进行了节选发表,霍金毫不客气地对诸如智能机器接管、地球上最大的威胁、以及太空智能生命的可能性等课题进行了惊人预测。

霍金认为,地球面临的第一个威胁是小行星撞击,这个威胁人类无法防御。第二个威胁是气候变化,海洋温度升高,二氧化碳释放。而霍金认为核聚变是最好的应对方法,可以为我们提供清洁能源,不会导致污染和全球变暖。

关于基因编辑、超人和地球黯淡的未来,霍金的说法非常大胆:在接下来的一千年中的某个时刻,核战争或环境灾难将削弱地球,然而到那时,“人类作为独创性的种族将找到一种方法来消除地球的束缚,并因此生存下来。但是地球的其他物种可能没法躲避灾难”。

“一旦这样的超人出现,未经改良的人类将面临重大的问题,现有人类将无法参与竞争。据推测现有人类会死亡,或变得不重要。相反,会有一群自我设计的生物以不断增长的速度提高自己。如果人类种族设法重新设计自己,人类文明可能会扩散到其他行行星和恒星并且进行殖民”。

霍金的说法引起了轩然大波,这意味着也许一个新的超人种族可能会从选择编辑DNA的富人中发展出来。文中这样说,“没有时间等待达尔文进化论让我们变地更聪明、更善良。我们现在正进入一个称为自我设计进化的新阶段,我们将能够改变和改良我们的DNA。我们现在已经绘制了DNA,这意味着我们已经阅读了“生命之书”,因此我们可以开始编辑更正。”

“起初这些变化将局限于遗传缺陷的修复 - 例如囊性纤维化和肌营养不良,这些缺陷由单个基因控制,因此相当容易识别和纠正。其他特性,如智力等,可能受到大量基因的控制,找到它们并发现它们彼此之间的关系会更加困难。尽管如此,我相信在本世纪,人们会发现如何改变智商和人性本能(如侵略性,贪婪等)。法律可能会反对人类的基因工程。但是有些人无法抗拒改善人类特质的诱惑,例如记忆力,抗病能力和生命长度。”

关于人工智能的重要性,霍金同样发出警告,并指出“未来人工智能可以发展自己的意志,这种意志与我们人类的意愿相冲突。应该停止对自主武器的军备竞赛”,

简而言之,超级人工智能的出现将是人类有史以来最好或最坏的事情。人工智能的真正风险不是恶意,而是能力。超级聪明的AI将非常善于实现其目标,如果这些目标与我们的目标不一致,我们就会陷入困境。人类踩到蚂蚁并非出于恶意,但如果你负责一个水电绿色能源项目,那么蚁丘将会被洪水淹没,对蚂蚁来说太糟糕了。超级人工智能可能将人类置于那些蚂蚁的位置。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();