新的人机大战将要来临,未来的人工智能将会给我们带来什么?

科学家最近试图回答一个类似的问题,因为人们一直担心人工智能对许多人来说可能是不透明和令人沮丧的,可能无助于战场决策。加利福尼亚Playa Vista ARL West的RDECOM陆军研究实验室、陆军企业研究实验室( ARL )的科学家詹姆斯·谢弗博士表示:“美国陆军继续推进其部队的现代化,做出了显著努力,包括开发关于智能手机的实时信息传递性软件,如Android战术突击工具包,并花费大量资金用于于研究新的AI人工智能和深度机器学习这一领域,用来更好的指挥人员。”。

根据Schaffer的说法,尽管取得了这些进步,尽管在人工智能的使用领域中仍然存在很大的差距,并且不知道人工智能的哪些因素可以帮助军事决策过程。大学和有些公司的研究在解决电影和餐馆推荐等应用这一问题上取得了很大的进展,但这些发现并没有真正转化为军事领域。Schaffer说:“像许多研究和A/B测试,如Amazon所做的研究和A / B测试,都尝试了不同形式的说服、论证和用户显示风格,以确定能够移动最多产品或激发最多信任的获胜组合。”。“不幸的是,这些领域和军事实践之间存在很大差距。”

研究人员构建了一个类似于迭代囚徒困境的抽象游戏,玩家必须在每一轮中选择与他们的合作者合作或对抗他们的合作者,以便控制所有相关因素。迭代囚徒困境已经被用于解决一些现实世界的问题,如军事军备竞赛、公共资源共享和国际政治。这款游戏的在线版本是由研究团队开发的,玩家通过在每一轮中做出正确的选择来得到分数。

人工智能被用来在每一轮中产生建议,显示在游戏界面旁边,并对玩家应该做出的决定提出建议。研究人员有机会设计一种AI人工智能,它总是推荐最佳的行动方案。然而,就像在现实生活中一样,玩家被要求手动访问人工智能的建议,就像你必须手动打开GPS一样,并且可以自由接受或忽略它的建议。

研究人员还展示了这种人工智能的不同版本——有些是故意不准确的,有些要求手动输入游戏信息,有些则用合理的论据来证明他们的建议是正确的。观察这些人工智能处理的所有变化,以便研究人工智能配置之间的相互作用效应。人们被邀请在网上玩这个游戏,研究人员收集了每个玩家的资料并监控他们的行为。对于每个玩家,研究人员询问他们对游戏的熟悉程度,同时也测量他们的真实能力。此外,在游戏进行到一半的时候,进行了一项测试,测试了玩家对游戏元素的感知。

“所发现的可能会困扰一些人工智能的拥护者,三分之二的人类决定不同意人工智能,不管建议中有多少错误,”Schaffer说。玩家事先估计他们对游戏的熟悉程度越高,人工智能的使用越少,这种效果在控制人工智能的准确性时仍然可以观察到。这意味着提高系统的准确性将无法增加系统在这一人群中的采用。Schaffer说:“如果这些玩家真的做得更好,这可能是一个无害的结果,但事实上他们的表现比他们的同龄人要差得多,因为他们事先对游戏了解较少。”。“当人工智能试图向报告对游戏非常熟悉的玩家证明其建议的合理性时,人们发现对游戏元素的认识降低是过度信任和自满的症状。”尽管有这些发现,但没有观察到与人工智能建议一致的相应增加。Schaffer说,这给系统设计者带来了一个难题:不称职的用户最需要人工智能,但最不容易被合理的理由所左右。不称职的用户也最有可能说他们信任人工智能,这是通过赛后问卷调查研究的。“这与他们观察到的对人工智能建议的忽视形成了鲜明对比,表明人们并不总是诚实的,或者可能并不总是意识到自己的行为,”Schaffer说。

对于Schaffer和他的团队来说,这项研究强调了复杂、不透明系统(如AI )可用性方面的持续问题,尽管在准确性、健壮性和速度方面不断进步。Schaffer说:“理性的争论已经被证明对某些人无效,因此设计者在为这些系统设计界面时可能需要更具创造性。”。

Schaffer说,这可以通过吸引情感或竞争力来实现,甚至可以通过从AI中移除存在,这样用户就不会注册它的存在,因此不会依赖于自己的能力。“尽管人机交互面临挑战,类似AI人工智能的领域将成为未来五年陆军战略的一个组成部分,”Schaffer说。“今天军事行动面临的主要挑战之一是游击队对手的快速反应,他们的指挥链通常较短,因此行动和反应比美国武装部队更快。能够对不断变化的环境做出快速反应并加快信息流的复杂系统可以缩短反应时间,并有助于保持快速反应,但前提是用户给予足够的信任。”

研究小组继续对人工智能系统的不同接口进行实验,以便所有类型的人都能从日益有效的自动化知识中受益。项研究将出现在ACM 2019年智能用户界面会议记录中。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();