请不要对AI撒谎

建立对AI的信任

目录

在AI中灌输人类价值观

创造透明度

合作促进人工智能的推进常是我们的口袋里。随着技术不断扩展其在我们生活中的作用,出现了一个重要问题:我们在这些AI系统中可以 - 而且应该放置什么样的信任?

为了探索这个问题,我们采访了30位AI科学家和领导思想家。他们告诉我们,将需要付出巨大的努力才能在其中灌输道德感,以完全透明的方式运作,并提供有关为企业和消费者创造机会的教育。而且,他们说,这项工作必须在科学学科,行业和政府之间进行协作。

"

在AI中灌输人类价值观

随着人工智能变得越来越普遍,对我们如何相信它反映人类价值观的关注也是如此。一个经常被引用的例子表明,这可能是一个自主汽车可能必须做出的道德决定,以避免碰撞:假设有一辆公共汽车驶向司机,他必须转向以避免受到重创和严重受伤; 然而,如果它向左转弯,汽车会撞到一个婴儿,如果它转向正确,那么这个老人会怎么样 - 自动驾驶汽车应该做什么?

"如果没有对编程人工智能系统进行适当的关注,你可能会让程序员的偏见在决定结果方面发挥作用。我们必须开发框架来思考这些类型的问题。这是一个非常非常复杂的话题,我们正在与其他技术组织合作开始讨论这个话题,"混合云高级副总裁兼IBM研究总监Arvind Krishna说道,他指的是由IBM组建的和其他几个科技巨头。

已有的机器表现出偏见。人工智能技术人员亲身体验了这会如何侵蚀人工智能系统的信任,他们在识别和减轻偏见的起源方面取得了一些进展。

"机器变得有偏见,因为他们所提供的培训数据可能无法完全代表你所教授的内容,"IBM认知计算首席科学官Guru Banavar说。"而且,由于缺乏选择合适的训练数据集的谨慎,这可能不仅是无意的偏见,而且还是由恶意攻击者造成的故意偏见,他们侵入训练数据集,而某人正在构建以使其偏见。"

"人工智能可以用于社会福利。但它也可以用于其他类型的社会影响,其中一个人的好处是另一个人的邪恶。我们必须意识到这一点。"

- 伦斯勒理工学院数据探索与应用研究所所长James Hendler

正如Affectiva产品战略和营销负责人Gabi Zijderveld所解释的那样,防止数据集中的偏见主要是手工操作。在她的组织中,使用面部识别来衡量消费者对营销材料的反应,他们从超过75个国家/地区中选择一组文化多样的图像来训练他们的AI系统以识别面部情绪。虽然情绪表达在很大程度上是普遍的,但它们有时会因文化而异 例如,在一种文化中看起来不太明显的微笑实际上可能传达与另一种文化中的微笑相同的幸福水平。她的组织还手工标记所有图像及其相应的情感,并测试每个AI算法以验证其准确性。

为了进一步复杂化在人工智能系统中灌输道德的努力,没有普遍接受的人工智能道德体系。"这引出了一个问题,'我们使用它们的价值观吗?'"IBM首席沃森科学家Grady Booch说。"我认为,今天,整个人工智能社区都有一种自我选择的偏见,因为建立这种系统的人仍然主要是白人,年轻人和男性。我认为我们需要超越它,但现实是我们还没有必要这样做。"

也许计算机的价值体系实际上应该与人类的价值体系完全不同,IBM智能计算大卫科诺普尼奇的研究经理也是如此。"当我们与人们互动时,互动的道德规范通常是明确的。例如,当你去商店时,你经常会有一个推销员试图说服你通过玩你的情感来购买东西。从社会的角度来看,我们经常接受它 - 它已经发生了数千年。问题是,当推销员是电脑时会发生什么?人们从计算机中找到合适与否的东西可能与人们从人类接受的东西不同。"

"道德概念对于一台不关心它或它周围的机器是否仍然存在的机器意味着什么,这种机器无法感受到,不能承受,不知道什么是基本权利?"

- IBM合规解决方案首席科学家Vijay Saraswat

更进一步,IBM首席科学家合规解决方案Vijay Saraswat指出,即使机器配备了一个明确定义的,普遍接受的价值体系,他们无法真正感受到像人类一样的情感层面的后果,可能会使他们不完美道德演员。

"人工智能将是一种不同的思维形式 - 一种不同的存在形式,存在,"萨拉斯瓦特说。"在道德空间中,道德概念对于一台不关心它或周围的机器是否仍然存在的机器意味着什么,那些不能感受到,不能受苦的机器,不知道什么是基本权利?在我们的计算系统的纤维中没有固有的,不可分割的这种概念,那么当人类道德建立的基础缺失时,他们将如何产生道德行为感呢?"

AI科学家正在尝试使用一些技术来向人工智能系统灌输道德原则。显示出一些希望的是反强化学习。IBM杰出研究员Murray Campbell解释说,这种培训AI系统的方法涉及让系统观察人们在各种情况下的行为,并弄清楚人们的实际价值,使系统能够根据我们的基本道德原则做出决策。

创造透明度

人工智能领导者也注意到透明度是关键。为了信任计算机决策,无论是道德还是其他方面,人们需要知道AI系统如何得出结论和建议。目前,深度学习在这方面做得很差,但是一些人工智能系统可以在他们得出结论的知识库中提供文本文件的段落。然而,AI专家同意,这还远远不够。

IBM人类代理协作研究经理Rachel Bellamy表示:"我们将在未来五年内达到一个目标,即人工智能系统可以更好地解释为什么它会告诉你做它推荐的事情。" "我们需要在所有使用AI的领域,特别是在商业领域。届时,我们将对该技术获得更高的信任度。"

AI应用程序开发人员还必须透明系统在与我们交互时所做的事情。是从各个地方收集关于我们的信息吗?是通过网络摄像头"看"我们的脸来阅读我们的表情吗?而且,专家们说,人们应该有能力随时关闭其中的一些功能。

"现在类似的平行是人们愿意与应用程序分享他们的位置信息。在某些情况下,它有明显的好处,而在另一些情况下,它们可能不想分享,因为它们的利益不够大,"Affectiva的首席科学家兼应用AI主任Jay Turcot说。"关键是如何使用信息并提供用户控制的透明度 - 我认为该模型将是一个很好的前进。从隐私的角度来看,我认为它总是在效用和隐私之间进行权衡,每个用户都应该能够为自己做出这样的选择。"

通过教育实现透明度

提供透明度的另一个有效方法是通过教育。关于人工智能可以做什么和不能做什么的误解,削弱了他们对自己拥有的能力的信任。而且,也许最重要的是,人工智能可能影响的工作缺乏明确性,会对技术造成额外的不信任。人工智能认为,领导者普遍认为,教育人们可能发生中断的地方以及教授人工智能将在未来创造新工作所需的技能至关重要。

在大多数工作领域,专家们认为仍然需要人力投入,并且往往会提供最有价值的部分。"有一些类型的建议问题,我们不需要花费宝贵的时间,"密歇根大学人工智能实验室主任Satinder Singh说。"我们可以在一个自动化系统中处理这些问题,并为教师留出真正具有挑战性的心理问题的时间,例如,有人在睡眠或健康或心理健康方面遇到困难,或者在大学环境中造成困难的任何事情。"

在工作确实遭遇破坏的地方,许多技术资深人士说历史提供了技术如何经常孕育新的,难以想象的工作的例子。"我对就业的乐观情绪在于历史。事情每年逐渐增加1%,这几乎是看不见的,除非它积累并且回顾性地看待," 说。"过去,我们经历了巨大的破坏和生计革命,最后一个是许多农民失业的农业时代。取代它们的工作对150年前的农民来说是不可想象的 - 他们的后代成为网页设计师,抵押贷款经纪人。"

"没有银弹,"凯利说。"但我认为记住这不是一个技术问题也很重要。我们知道如何重新培训人员。市场不能单独做到这一点。它也需要政府。我们应该开始在我们的学校教授它 - 学习如何学习,学习如何重新学习和成为终身学习者的基本技术 - 文学技能。"

"我对就业的乐观情绪在于历史。"

- 凯文凯利,连线的联合创始人和畅销书The Inevitable的作者

合作促进人工智能的推进

人工智能的社会效益和影响是巨大的。以负责任的方式开发和部署技术需要同等比例的努力,这意味着一个或甚至少数几个为此目的而努力的组织是不够的。学术界,工业界和政府内部和之间需要开展重要的合作,以应对挑战,并最终在消费者中建立信任,使他们的最大利益真正成为核心。

通过其独特的组合,既扩展了人类的能力,又经常从人类大脑的结构中获得其非常的架构,来简单地提高其实用性。"我们需要以多学科的方式处理AI,因为大脑本身是一系列相互依存的元素,支持在许多不同层面上可描述的思维和行为。为加速我们对人类认知的理解,神经科学家,语言学家,心理学家,哲学家,人类学家,深度学习专家和其他人需要走到一起,"苏格兰大学认知科学系的创始人兼Leverhulme未来中心的顾问玛格丽特博登说。智力

"我们需要以多学科的方式处理AI,因为大脑本身就是一系列相互依存的元素。"

- 苏塞克斯大学认知科学研究教授Margaret Boden

Affectiva的Zijderveld认为将AI带入其最有用的状态将需要技术人员聚集在一起,为AI建立共同的标准和平台。"作为一名消费者,我不会想要通过箍来让我的手机与我的车交谈,对吗?这些系统应该能够相互通信,从我们在业务中使用的企业应用程序到我们的移动设备。然而,没有互操作性标准。我相信一个行业联盟必须齐心协力解决这个问题,跨行业和跨用途案例。"

即使我们推动透明,道德的人工智能的发展,仍然有一个必要的信任成分,不能制造时间。

"我们如何获得我们可以信赖的AI系统?最终,它将通过让我们的AI系统在与人类共享的环境中与世界进行交互,并肩作为我们的助手,"IBM的Saraswat说。"随着时间的推移,我们将了解AI系统如何在不同的环境中运行。如果他们能够可靠且可预测地运作,我们就会开始相信AI,就像我们对人类的信任。"

AI值得信任吗? (单选) 00% 值得:AI是人类设计的,听话的很 00% 不值得 00% AI是啥东东? 00% 关注、点赞,求支持

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();