当Google机器人涉及人工智能(AI)和武器时,技术世界需要哲学家。硅谷继续与其发明的道德含义搏斗 - 往往被公众对它们的反应所掩盖:Google最近因其在“Maven项目”上的工作而受到批评,该项目是五角大楼开发人工智能的工作,将用于军用无人机,能够区分在无人机监控录像中捕获的不同物体。该公司可能已经预见到,这项技术的潜在最终用途将是完全自主的武器 - 所谓的“杀手机器人” - 各种学者,AI开拓者和其自己的许多员工口头反对。在压力下 - 包括该项目违反其前任公司座右铭“不要变成恶魔”的告诫 - 谷歌表示,它不会在明年到期时续签Maven项目合同。
为了平息有关这个问题的争议,谷歌上周宣布了一套旨在指导其开发人工智能的道德准则。其原则之一是:公司不会“设计或部署人工智能”用于“主要目的或实施导致或直接促进对人身伤害的武器或其他技术”。这是一个令人放心的承诺。更困难的是要弄清楚,向前,在哪里画线 - 以确定究竟是什么,“原因”和“直接促进”的意思,以及这些限制如何适用于Google项目。为了找到答案,谷歌和其他技术行业应该关注几千年来一直在解决这些问题的哲学家。随着时间的推移,哲学家的结论将有助于硅谷发现其伦理思想中可能存在的漏洞。
认识到我们不能完美地对道德规范进行编纂至少可以追溯到亚里士多德,但我们在日常的道德经验中也很熟悉它。我们知道我们不应该撒谎,但如果这是为了保护某人的感情呢?我们知道杀人是错误的,但如果这是为了自卫而做的呢?当我们的语言和概念应用于我们多元化的道德体验时,看起来毫无希望的Procrustean。我们评估技术使用的方式也是如此。当Google机器人涉及人工智能(AI)和武器时,技术世界需要哲学家就Maven项目或武器技术而言,一般情况下,我们如何判断人工智能是否有助于伤害或防止伤害?
五角大楼与Google签订合同的目的是开发人工智能来分类无人机视频中的物体。从理论上讲,至少,这项技术可以用来减少无人机袭击造成的平民伤亡。但目前尚不清楚这是否违反Google的指导方针。例如,想象一下,人工智能将由无人机视频捕获的对象分类为人类或非人类,然后将这些信息传递给作出决定发起罢工的操作员。将人类与非人类目标区分开来的AI是否“有助于伤害”?或者是由操作员拉动触发器引起的无人机撞击造成的伤害吗?
一方面,无人驾驶飞机操作员增强了视觉识别人类的能力,并可能避免瞄准他们,这可能意味着人工智能的功能是防止伤害,因此它符合公司的新道德准则。另一方面,人工智能是用来攻击包括人类在内的目标的整体武器系统的一个组成部分,这可能意味着该技术最终被用来促成伤害,因此其发展违反了Google的指导方针。
对这样的因果链进行排序,对于哲学家来说是具有挑战性的,并且可以引导我们跳过深奥的形而上学的箍。但是这个练习很重要,因为它强制我们使用的语言是精确的,在这种情况下,要确定某人或某事是否被正确地描述为伤害的直接或间接原因。谷歌似乎理解这一点,其关注因果关系是恰当的,但它对这个话题的看法并不完整。
其准则没有充分解决的一个问题是存在所谓的“双重用途”技术,可以用于民用或军事目的。像无人驾驶飞机的自动驾驶系统一样,可用于记录沿着山峰滑行的滑雪板这样的无害任务,或者可以使用相同的技术使游荡的弹药悬停在战场上方,同时其操作员仔细检查下方的目标区域。其中哪些是“主要目的”?
一套更为严格的道德准则将清楚地表明企业如何处理表面上看起来无害的技术的发展,这些技术可能会被用于“邪恶”用途。虽然Google的指导方针声明:“我们将努力限制潜在的有害或滥用应用程序”,但看到关于公司如何评估潜在危害或滥用的更强有力的解释以及它如何将技术的主要用途与它的其他用途,因为发明的使用往往很晚才清楚。在互联网监控方面,谷歌新的指导方针对公司收集的数据设置了约束条件,称它将避免“收集或使用信息的技术违反国际公认的规范。”但“接受的规范”并不足够 - 所有这些,因为在一些国家,监视每个人,所有的时间都是公认的做法。
当Google机器人涉及人工智能(AI)和武器时,技术世界需要哲学家事实上,它在哲学中提出了一个典型的问题:你不能通过指出其他人在做什么来证明行动。必须有一种方法来确定人们做什么和他们应该做什么之间的区别 - 否则,从来没有人做错事。谷歌的指导不足,因为它依赖于一个相对模糊的概念 - “规范” - 而不是公司价值观的表达。对于像谷歌这样的原则声明来说,公司必须知道他们自己的价值观并致力于这些原则,然后将这些问题与技术开发流程相结合,但这不能由开发过程来完成单独。现在谷歌已经是一个开始:它提供了哲学家称之为必要条件的东西。它明确表示,公司至少应该避免开发违反国际规范的技术。但是这仍然留下了太多的摆动空间,因为广泛的数据收集通常在国际上进行 - 因此可以说是公认的准则 - 但也被公民自由主义者普遍认为是有害的。
科学家寻找答案,但是,正如南卡罗来纳大学的贾斯汀温伯格(Justin Weinberg)所做的工作所表明的那样,哲学家对决策过程的贡献很难被发现,因为哲学的价值往往包括发现更多的问题。关于技术道德应用的问题似乎与开发新技术和创新技术相关,但由于技术的价值在其应用中,像谷歌这样的公司对其技术的应用价值很高,所以对这些技术进行拆包哲学问题 - 以及道德准则的有意义的增强 - 为技术增加价值。因此,识别公司道德推理中的含糊不清对于受技术和公司底线影响的社会都是有利的。
作为一家领先的科技公司,Google塑造影响数十亿人的技术,并致力于回答这些哲学问题,为硅谷其他企业树立了舞台 - 作为一家公司,它可以在道德原则科技公司承诺自己。用谷歌的话来说,“做到这一点”并不仅仅意味着制定使命宣言。这意味着制定对歧义敏感的道德政策。这意味着考虑对因果关系,伤害和道德理由的不同理解。这意味着确保指导公司的道德核心满足构建人工智能的技术挑战。所有这一切意味着纳入哲学家的投入。
Jenkins是哲学的助理教授,加利福尼亚理工大学伦理+新兴科学组的高级研究员,以及WhiteFox Defense Technologies,Inc.道德与政策主任。
| 留言与评论(共有 0 条评论) |