霍金最后著作对未来饱含忧思:人工智能或有自己意志

图片来源:美国石英财经网站

《重大问题简答》封面。图片来自网络

10 月 16 日,已故著名物理学家斯蒂芬・霍金最后的著作《重大问题简答》一书出版,涉及他对科学与社会所面临的最大问题的思考,包括 " 人类是否会一直在地球上生存下去?(可能不会)"" 时间旅行是否可能?(仍无法排除可能性)" 等;还有对诸如地球面临的最严重威胁、" 超人 " 种群以及外太空是否存在智慧生命、如何开拓太空殖民地等问题进行的最后预测,这些预测饱含了霍金对人类未来深深的忧思。

据美国石英财经网站 15 日报道,霍金在书中称,未来人工智能可能形成自己的意志――与我们人类相冲突的意志;一种利用基因工程超越同伴的 " 超人 " 种群将占据主导地位,这可能毁灭人类。

人类的进化没有边界

石英财经网站 16 日报道,在整本书中,霍金对人类在地球上的未来持悲观态度。政治不稳定、气候变化以及核暴力的可能性,使人类在地球上发展的持续性变得难以为继。

霍金认为,地球面临的头号威胁是小行星碰撞,类似那种导致恐龙灭绝的碰撞。他写道:" 可是,我们(对此)无法防御。"

更直接的威胁是气候变化。" 海洋温度上升将融化掉冰冠,释放出大量二氧化碳。双重效应可能导致我们的气候类似于金星,气温达到 250 ℃。"

霍金认为,核聚变发电会赋予我们清洁能源,不排放污染,不引起全球变暖。

在 " 我们如何塑造未来 " 章节中,霍金不同意人类处于 " 进化巅峰 " 这一观念。在他看来,人类的进化和努力没有边界。

他认为人类未来有两种选择:首先,探索其他可供人类居住的替代星球,他在不止一章中提倡太空殖民,包括殖民月球、火星或星际行星等;其次,积极利用人工智能来改善我们的世界。

人工智能将形成自己的意志

霍金还强调了规范管理人工智能的重要性。他指出," 未来人工智能可能形成自己的意志,与我们人类相冲突的意志 "。应当制止可能出现的自动武器军备竞赛,如果发生类似于 2010 年股市闪电崩盘那样的武器崩盘,后果将不堪设想。

他在书中写道:" 对人类来说,超级智慧的人工智能的出现不是福就是祸,二之必居其一。人工智能的真正危险并非在于恶意,而在于能力。超级智慧的人工智能终将极其擅长实现目标。如果这些目标与我们的目标不一致,那我们就麻烦了。"

他主张政策制定者、科技行业和普通大众认真研究人工智能的道德影响。

" 超人 " 种群将占据主导地位

据英国《星期日泰晤士报》15 日报道,霍金最大的担忧是,富人不久将能够编辑自己及其子女的 DNA,提高记忆和疾病免疫力。

石英财经网站报道,霍金认为,未来 1000 年的某个时刻,核战争或环境灾难将 " 严重破坏地球 "。而到那时," 我们的天才种族可能已经找到了摆脱地球束缚的方法,因此能够战胜灾难 "。不过,地球上的其他物种可能做不到。

这些成功逃离地球的人很可能是新的 " 超人 ",他们利用诸如 CRISPR(俗称 " 基因剪刀 ")这样的基因编辑技术超过其他人,科学家可利用此类基因编辑技术修复有害基因,并加入其他基因。

霍金还表示,即使政治家设法用法律禁止这一做法,但这批人会不顾禁止基因工程的法律约束,提高自己的记忆力、疾病抵抗力和预期寿命,这将对世界其他人群构成危机。

在《星期日泰晤士报》15 日发表的文章节选中,霍金称:" 我敢肯定,本世纪之内人们将找到修改智力和天资的办法。政治家可能会制定禁止人类基因工程的法律,但肯定有人抵挡不了改进人类特征――比如记忆力、疾病抵抗力和寿命的诱惑。"

他指出:" 一旦出现这种超人,未能通过基因改造来提高自身的人必将遇到重大政治问题,他们无力竞争,也许会变得可有可无,甚至会绝种。不过,未来将出现一种不断加速改进的自我设计人类,如果这种人类种族能不断设法重新设计自己,很可能扩散开来,殖民其他行星和星球。"

有关为何尚未发现智慧生命或是智慧生命没有造访地球这类问题,霍金承认有各种各样的说法,他对此持谨慎乐观的态度,但他首选的解释是:人类 " 忽视了 " 外太空智慧生命的形式。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();