
随着人工智能技术的高速发展,其安全性也日益受到全世界的高度关注。一些学者认为,对人工智能技术不加约束地开发,会让机器获得超越人类智力水平的智能,并引发一些难以控制的安全隐患。美国《外交事务》杂志2019年7/8月刊发表学者肯尼思·库克耶(Kenneth Cukier)的文章《我们准备好迎接机器人了吗?如何思考人工智能的未来》(Ready for Robots? How to Think About the Future of AI),探讨了人工智能的安全性问题。
维纳的警告:深度学习唤起恐惧
维纳是人工智能领域的创始人之一,他是个神童,14岁大学毕业,四年后在哈佛大学获得哲学博士学位。为了描述他关于动物和机器如何依赖反馈机制来进行控制和交流的研究,维纳选择了“控制论”(cybernetics)这个词。1948年,他将自己的著作命名为《控制论》。在该书出人意料地成为畅销书之后,其他研究人员开始用这个词来形容他们让电脑像人脑那样处理信息的尝试。

自从《控制论》出版以来,维纳就开始考虑这项技术的社会、政治和伦理方面的问题,他得出了一些令人灰心的结论。他担心由真空管组成但具有复杂逻辑的弗兰肯斯坦怪物有一天可能会攻击它们的创造者。他在1950年写道:“留给我们的时间不多了,我们必须在正义与邪恶之间作出选择。”“我们必须停止亲吻鞭打我们的鞭子。”
从20世纪50年代到90年代,大多数人工智能都是用手工编码的规则编写计算机程序。相比之下,统计方法使用数据根据概率做出推断。换句话说,人工智能从试图描述猫的所有特征以便计算机能够识别图像中的猫,到向算法输入数万张猫的图像,以便计算机能够自己找出相关的模式。这种“机器学习”技术可以追溯到20世纪50年代,但当时只在有限的情况下有效。由于计算机处理技术的飞速发展和数据的爆炸式增长,如今更为复杂的版本——深度学习——已经取得了长足进步。
深度学习的成功再次唤起了维纳对电脑怪兽横行的恐惧,如今人工智能领域最大的争论围绕着安全展开。微软创始人比尔·盖茨和已故宇宙学家斯蒂芬·霍金对这个问题的担忧是出了名的。在2014年的一次会议上,科技企业家埃隆·马斯克(Elon Musk)将人工智能描述为“召唤恶魔”。其他人,如人工智能研究人员斯图尔特·拉塞尔(Stuart Russell)和马克斯·泰格马克(Max Tegmark),以及工程师扬·塔林(Jaan Tallinn),认为人工智能对人类构成了严重威胁,需要立即关注。
维纳后来放弃了他最悲观的警告。但今天,随着人工智能开始侵入发达社会生活的几乎每个方面,许多思想家又回到了维纳半个多世纪前开始提出的问题上。社会如何权衡谨慎与创新的速度、准确性与可解释性、隐私与性能之间的关系,将决定人类与智能机器之间发展出何种关系。人类面临的风险很高,但如果不妥善处理这些关系,人工智能将难以向前发展。(via社会科学报 点击“了解更多”获取全文)
"| 留言与评论(共有 0 条评论) |