霍金曾表示:AI高速发展之后,普通人类并不好过

英国剑桥大学著名物理学家斯蒂芬·威廉·霍金(Stephen William Hawking)今年3月14日去世,享年76岁,去世前他在英国《泰晤士报》上刊载了一系列关于未来预测的文章,最近经整理编辑成就了《对大问题的简明回答》这本遗作,这本书定于本月16日发售。《星期日泰晤士报》日前透露著作内容,其中关于未来超级AI的发展可能会毁灭人类,富人通过编辑改变自己及子女基因变成“超人”做出了预测。

斯蒂芬·威廉·霍金

斯蒂芬·威廉·霍金,1942年1月8日出生于英国牛津,于今年3月14日逝世,是英国剑桥大学著名物理学家,现代最伟大的物理学家之一、20世纪享有国际盛誉的伟人之一。在书中,霍金说出了他的担心。

超级AI的发展可能会毁灭人类

书中霍金对火热的人工智能提出了强烈警告,霍金多次表示,“彻底开发人工智能可能导致人类灭亡。”他写道:“超智能人工智能的出现将成为人类有史以来最好或最坏的事情。”他认为人工智能的最大的风险并非恶意,而是能力,一个超级聪明的AI将非常善于实现其目标,如果这些目标与我们的目标不一致,我们就会陷入困境。

电影人物“终结者”

按照霍金的说法,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。科学界把这种人工智能超越人类智慧的转折点命名为“奇点”。

机器人Atlas

不光是霍金,美国Space X首席执行官埃隆·马斯克,微软创始人兼慈善家比尔·盖茨,也都警告过要注意人工智能的“危害”。去年来上海参加“主动进化 造就未来大会”时,希伯来大学历史系教授尤瓦尔·赫拉利在《未来简史》中就有说过,未来“99%的人类将变成无用之人”。由于人工智能和自动化的发展,今后大部分的工作,机器都可以做得比人类更好。这些无用的人,他们不具备经济价值,也不具备政治势力,因为他们做任何事情都比不过计算机和人工智能。

其实现在除了这些著名的科学家、教授、学者和智能领域的研发者知道,我们普通民众其实也或多或少的明白超级AI未来会怎样,但是人类对科技的探索和对欲望的不满足,还是会促进AI领域的不断发展,可一旦超出了控制,就会变成可怕的灾难了。早在中国数千年前的就有伟人表示过,子曰:“过犹不及。”

富人变“超人”,普通人失去竞争力

在预测基因领域的未来发展也是霍金的一个担心重点,他在书中暗示,富人不久可以选择编辑他们自己和孩子的DNA,让自己和孩子变成拥有更强记忆力、抗病力、智力和更长寿命的“超人”。

电影人物“美国队长”

“法律可能会禁止对人类做基因改造,但是一些人可能抵挡不住改善记忆、抗病力、寿命等人类特征的诱惑。”霍金写道。他预计人类本世纪就能发现通过改造基因提高智力的技术。

霍金担心,一旦出现基因改造而成的“超人”,“没得到改造的人类”可能无法竞争,逐渐绝迹,或者变得“不重要”,人类会展开“自我设计”的竞争。

法国学者雅克·阿塔利在《未来简史》中也曾预言:富豪和有权者会享受到基因编辑技术改变自己的基因,并且与机器融为一体,成为永生和进化的“神人”。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();