AI分不清黑人与大猩猩?研究发现人工智能也歧视

近年,人工智能技术飞速发展,然而相关的人工智能治理准则仍有待进一步完善。6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《治理原则》),提出了人工智能治理的框架和行动指南。

据不完全统计,目前,政府参与制定的人工智能治理准则或建议共有9份,其中涉及国家共50个,涉及国际组织或论坛共3个。AI前哨站对这些准则或建议进行文本分析后发现,“数据偏见” 是各国各地区最为担心的问题。

AI前哨站结合各文件的文本分析发现,准则中特别指出的负面问题共有15类。其中,数据偏见、不公平等问题提及次数最多,其次是隐私安全和AI故障、错误决策等问题。当然,这些问题之间并不是割裂的,比如,数据垄断导致获许更多数据的一方占据优势,也会导致不公平现象;数据和训练质量差也会导致偏见、不公平等问题。其中,多有提到的“影响人类自主性”指,AI可能会被用于塑造和影响人类行为,也可能会被误用去操控他人的决策,这是极其危险的。

9份准则提及负面问题。

人工智能也有偏见?过去,人们大概不会想到,一向以准确、客观、没有感情倾向著称的计算机系统,也会跟人类一样具有偏见。英国对这一问题进行了完整地阐述:一方面,技术人员使用不准确、不完整的数据训练人工智能系统,或是在训练中出现了错误,都可能导致偏见。比如,谷歌的视觉识别算法难以分辨出黑猩猩和黑种人,该问题被发现后的近三年,仍然没有得到解决,谷歌只是简单地在谷歌相册等产品中禁止了搜索黑猩猩的功能。另一方面,数据本身可能就暗含了社会中的固有偏见(一个典型的例子是,在弗吉尼亚大学的一项研究中,人工智能总是把厨房中的男人认成女人)。

如果研发人员压根不知道数据里有隐藏的偏见,就会出现问题。更麻烦的是,许多人工智能系统使用多层神经网络进行决策,研发人员无法知晓人工智能的决策过程,也就难以准确掌握造成偏见的原因。要在“算法黑箱”中排查问题、修正偏见,难度可想而知。

此外,新加坡提到了消费者可能遭遇的偏见,有些类似此前在国内引发高度关注的“大数据杀熟”,比如两名消费者在同一地点、时间使用打车软件,前往相同地点,却发现两人的打车费不同,消费者是无法了解到打车费是如何得出,且为何不同的。另外,文件指出,对于一些可能对消费者产生重大影响的决策,消费者有权知晓人工智能是怎么参与的、决策是如何作出的。尤其是在医疗领域,如果人工智能做了错误的诊断,其后果显然比推荐了错误的商品严重得多。

在隐私安全方面,各国政府与国际组织都提到了人工智能可能侵犯隐私的问题。欧盟提出,隐私和数据保护必须在人工智能系统生命周期的所有阶段得到保证。日本内阁府提出,人工智能使用个人数据时应该有确保准确性和合法性的机制,并使个人数据主体能够充分参与管理自己的隐私数据。中国则提出,应完善个人数据授权撤销机制,反对任何窃取、篡改、泄露和其他非法收集利用个人信息的行为。

备受大众关注的“人工智能是否会导致人类失业”的问题,在英国、经合组织和G20的文件中都有提及。经合组织和G20提醒,人工智能发展可能导致劳动力市场转型,各国政府应做好应对准备,确保那些被替代的人类劳动者也能经历平稳过渡。政府可以提供培训支持,帮助失业人士获得新的工作机会。

在英国的文件中,有研究者声称,人工智能的应用可能会像上个世纪的工业化、自动化浪潮一样,导致部分工作消失的同时,也创造一些新的工作机会。不过,也有研究者指出,过去的自动化往往是将一项原有工作分解,人类可以围绕着新技术重组工作,这一模式在未来的高度自动化时代不一定能延续。有研究者认为,蓝领、白领受到的冲击将会更大,工作机会减少的趋势已在客服、话务员等行业出现。

据此,文件写道,随着人工智能的进入,劳动力市场正发生巨大变化,由于这是一个全新的未知领域,任何预测都具有“投机性”。英国建议政府持续评估人工智能的发展情况,并作出政策回应,其中,在技能和培训方面增加投入,是一项不可或缺的举措。

值得注意的是,英国和欧盟的文件中还都分析了人工智能军事化的问题,主要是“致命的自主武器系统(LAWS)”。英国文件指出,目前各国“自主武器”的内涵并不一致,英国将“自主”描述为“能够理解高水平的意图与指导”过于宽泛,可能导致LAWS的发展缺乏限制。欧盟文件则指出,将人工智能应用于 LAWS带来了基本的伦理问题,可能导致前所未有的军备竞赛,与此同时,高度自主化的武器也有脱离人类控制的风险。

除了整体的负面问题分析,AI前哨站也对9份文件的正文主体进行了词频分析。

此份建议的最高频词汇是“组织”,强调使用AI的组织主体,其次有“数据”、“决定”、“偏见”和“风险”,注重数据收集、处理和训练过程中是否出现偏见等问题。比如,建议中写到:

“最小化内在的歧视,即人工智能模型框架需要注意数据集的内在歧视,这可能会导致不理想的效果,比如无意识的歧视决策。”

G20的《人工智能准则》借鉴了经合组织的《人工智能建议》,两份文件都是多国政府间协商推出的建议,强调行动主体,包括“政府”、“行动者”和“利益相关方”,同时强调AI系统必须是值得信赖的、负责任的、适合的。

从高频词汇“要求”、“评估”以及结合文本的分析过程中,AI前哨站发现,欧盟在对AI系统和数据提出原则建议的基础上,提供了目前为止,在政府推出的AI准则中,最具体、可落地的要求和评估,比如明确了组织中各部门的AI治理职责。

在“隐私和数据治理”一节,具体问题有11个,包括“你是否考虑过一些方法,可以在不使用或最少使用敏感个人数据的情况下开发AI系统或训练模型?”,“你是否通过加密、匿名化等措施来增强隐私保护?”“你如何验证数据没有遭到危害和入侵?”,等等。其次是新加坡、迪拜和英国的建议文件,有涉及落地办法,比如新加坡提供了从严重性和可能性两方面,评估“AI决策过程是否需要人类参与”的模型,迪拜提供了实际的例子和解决办法的参考,而日本、中国、经合组织和G20的文件偏重原则阐述。

此份治理原则的最高频词汇是“发展”,结合文本发现,中国强调人工智能的健康发展、协调发展、绿色发展和共享发展等方面。另外,还强调人工智能对“人类”和“社会”的影响,需要“尊重隐私”、“尊重人类权益等”。中国政策文件中的高频词“和谐”、“文明”、“公正”等词汇也有所出现。

注:词频分析选择的文本主体不包括序言、介绍等文本,词频分析去除“to”, “and”, “of”, “model”, “framework”等无效词汇。

采写:南都见习记者陈志芳 记者冯群星

制图:尼加 黄绍红 陈志芳

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();