还不努力么?AI都开始嫌贫爱富了

▲图片来源:网络

人工智能偏见不仅会重现国家内部的不平等,还会重现国家之间的不平等。

1、人工智能识别低收入家庭物品表现更差

最近,由Facebook人工智能实验室进行的一项新研究结果表明,人工智能在识别来自低收入国家的物品时表现得更差。

在这项研究中,研究人员测试了五种流行的现成对象识别算法,包括微软Azure、Clarifai、谷歌Cloud Vision、亚马逊reko和IBM Watson,以此来了解每个程序识别从全球数据集中收集家庭物品的能力。

▲图片来源:网络

整个数据集包括鞋子、肥皂和沙发等117个类别,家庭收入样本包括了从布隆迪一个月收入27美元的家庭到乌克兰一个月收入1090美元的家庭。

最终,研究人员发现,与月收入超过3500美元的家庭相比,当被要求识别月收入50美元的家庭物品时,物体识别算法的出错率要高出10%左右。

同时,与索马里和布基纳法索的项目相比,物体识别算法在识别来自美国的项目方面准确率要高出15%-20%。

因此,研究人员得出结论,人工智能在识别来自低收入国家的物品时表现的更差。他们认为原因可能有两个,一个是用于创建系统的训练数据受地理限制,另一个是这类算法可能无法识别文化差异。

2、人工智能的偏见从何而来?

实际上,存在人工智能偏见的例子并不少,最著名的例子之一就是面部识别算法,这种算法在识别女性时往往表现的更差,尤其是有色人种的女性。

对此,一些人工智能专家表示,这和视觉算法采集的数据样本有关。

面部识别算法的训练数据主要来自欧洲和北美,而在人口众多的非洲、印度、中国以及东南亚,采集的样本数量是严重不足的。

因此,在有色人种面前,视觉算法的准确率就会受到影响。

基于这种思路,就能明白为什么人工智能在识别来自低收入家庭的物品时表现会更差了。

▲图片来源:网络

上述参与研究的人工智能技术多是来自美国等相对发达的国家,他们在对人工智能进行样本数据训练的时候,收集的都是一些较其他国家来说收入更高的家庭,在碰到对于算法来说相对陌生的低收入家庭样本时,准确性自然会受到影响。

这两个例子其实反映了一个“残酷”的事实:人工智能正在带来更多偏见。

这种偏见可能涉及多个方面。我们以美国白人男性作为参考范本,可以列举出包括肤色、收入水平、受教育程度、家庭情况等在内的多个变量,当工程师在进行算法创建的时候,多是以自己所代表的圈子进行样本数据收集的,这样得出的算法势必是存在偏见的。

最近几年,人工智能发展的很快。科技公司在宣传自己的人工智能产品的时候,往往都会说人人平等、人人可得,但是实际情况却是,他们仍旧在按照自己的形象来定义和塑造世界。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();