机器人向我们展示我们是谁

——可以从具有想象力和文化的机器中学到什么?

2016年,艾伦·温菲尔德(Alan Winfield)在世界经济论坛上发表了关于建造道德机器人的“IdeasLab”演讲。“我们能建造一台道德机器吗?”温菲尔德问他的听众。在他身后,在一台平板电视上,是温菲尔德在他的实验中使用的机器人之一 —— 一个简短,可爱,白色和蓝色相间的类似人类的机器。

他说,就在几年前,他还认为这是不可能的:你不能制造一个能够根据道德规则行事的机器人。但那是在他意识到如果机器人有想象力,或者不那么宏伟的“后果引擎”,一个模拟自身和外部世界的内部模型,你可以让机器人做什么。

机器人伦理学教授:艾伦·温菲尔德(Alan Winfield)

温菲尔德是布里斯托尔西英格兰大学的机器人伦理学教授。他共同创立了布里斯托尔机器人实验室,这是英国最大的此类实验室,并且是《机器人:非常简短的介绍》一书的作者。他专门研究认知机器人技术——机器如何思考和想象。在2016年的谷歌演讲中,温菲尔德解释了机器人如何实现自己的心智和自我意识理论。

最近,他接受了采访。

问:埃隆·马斯克(Elon Musk)将特斯拉描述为最大的机器人公司,因为他们的汽车本质上是轮子上的机器人。您如何看待特斯拉实现自动驾驶的努力?

艾伦·温菲尔德: 毫无疑问,他们制造了非常漂亮的汽车。我对自动驾驶技术更加怀疑。我们依靠制造商的保证,他们是安全的。我在英国标准协会和电气和电子工程师协会标准协会做了很多工作。这些标准尚未为无人驾驶汽车自动驾驶仪编写。如果您没有标准,则很难测试此类系统的安全性。出于这个原因,我非常批评这样一个事实,即您基本上可以自行承担风险下载自动驾驶仪。如果你不注意,自动驾驶仪失败了,如果你非常不幸,你可能会付出你的生命。

我认为我们应该能够制造出具有人工意识的机器。

问:你有没有和任何特斯拉车主谈过?

艾伦·温菲尔德: 我认识几个有特斯拉汽车的人。几年前,我和其中一个人讨论,当英格兰高速公路上发生一些事情时,他非常幸运能够注意,他不得不做出规避的动作来避免严重的车祸。这就是无人驾驶汽车的悖论——保险公司要求司机保持警惕和注意,但他们必须做出反应的时间却短得不合理。自动驾驶汽车只有在足够先进和复杂,甚至没有方向盘时才有意义。而这在未来还有很长的路要走。一条漫长的道路。

问:您如何看待特斯拉训练其自动驾驶技术的方式?

艾伦·温菲尔德: 他们基本上使用人类作为测试对象作为他们发展计划的一部分。从某种意义上说,其他道路使用者在不知不觉中是这一过程的一部分。这在原则上听起来是合理的,但我认为安全影响是非常不明智的。

问:您正在使用的讲故事的机器人将模仿和文化交流提升到一个新的水平。您能给我们讲讲这方面的情况吗?

艾伦·温菲尔德: 直到最近,在过去的几年里,苏·布莱克莫尔(Sue Blackmore)和我意识到,我们可以将人工文化的故事,复制机器人的工作,扩展到故事机器人,在那里故事机器人将真正地互相讲述故事。这是下一步。我们对此感到非常兴奋。如果不是大流行,我们本来会取得一些结果,大流行关闭了实验室一年或更长时间。他们建立在我大约五六年的另一个工作线程上,在机器人上工作,模拟自己内心。这在技术上很难做到,特别是如果你想实时运行机器人并根据机器人的想象更新机器人的行为。

问:你有一天想看到人形机器人有自己的文化吗?

艾伦·温菲尔德: 这纯粹是一个科学项目。我对制造具有文化的机器人并不特别感兴趣。这只是模拟关于动物和人类文化出现的有趣问题。我不否认,在未来的某个时候,机器人可能会有一些新兴的文化。你可以想象一些未来一代的机器人人类学家正在研究这个问题,试图理解它。

问:是什么让机器人成为了解我们自己的有用工具?

艾伦·温菲尔德: 机器人和我们一样有身体。机器人从自己的第一人称视角看世界。他们对自己所处的世界的看法是有缺陷的,不完美的。因此,从某种意义上说,这个模型有足够多的相似性是合理的——当然,前提是你不会问超出机器人能力的问题。鉴于机器人的局限性,设计实验并提出可以合理测试的研究假设,是这项工作乐趣的一部分。

问:我们怎么知道我们已经建造了一个有意识的机器?

艾伦·温菲尔德: 我记得我问过我的一位老朋友欧文·霍兰德(Owen Holland),我认为他是英国有史以来第一个获得资助的人之一,如果不是在世界上,他来研究机器意识,“好吧,你怎么知道你是否已经建造了它?”他的回答是,“好吧,我们没有,但我们可能会在路上学到一些有趣的东西。这总是正确的。

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章