“刷脸时代”已经来了!你敢来试试吗?

手机用户101756037287 2018-07-21

据《南华早报》报道,北京新机场不得不采用人脸识别技术取代人工安全系统。该系统用于将乘客现场的照片与身份证进行比较,然后将比较值提供给安全人员。安全检查人员可以通过价值,然后根据自己的比较。确定乘客是否为同一人等同于增加安全保障。

人脸识别安全系统是安全、方便、智能、高效的。它不仅方便了旅客检查,而且解决了在突发情况下查询速度快、检查效率低、劳动强度高、人工成本高的问题。

“刷脸”的一个优点是它可以在很远的距离收集生物特征数据。这种交互方式因其简单、快捷等特点,广泛应用于门识别、交易支付、公安跟踪等领域。

然而,越来越多的人担心“刷脸”在今天越来越流行,我们的隐私也被不知不觉地侵蚀掉,我们的“脸部数据”越来越容易被滥用。

就像脸谱网可以让人们访问一个信息点,然后利用人脸识别技术在自己的网站上找到这些人,发送他们旅行广告,人们的脸数据往往是无意收集和记录。即使技术公司获取这些数据并不容易,国家也很容易得到这些数据。

今天,执法机关拥有强有力的武器追踪罪犯,但这可能会对公民的隐私造成极大的伤害。

人脸识别的应用离不开边界和底线

最近,几家硅谷巨头因与政府签订涉及人脸识别软件的合同而受到广泛批评。其中之一是人工智能“大家伙”微软公司。

在内部和外部阻力下,微软最终选择了与美国政府决裂的面孔识别计划。微软公司说,他们会更加仔细地考虑合同,并敦促立法者规范使用这种人工智能技术来防止滥用。

上星期五,微软总裁兼首席司法官Brad Smith(Brad Smith)发表了一篇博客文章并写道:

“考虑到滥用这项技术的可能性和广泛的社会影响,政府关于面子的立法似乎特别重要。”换句话说,“没有严格的技术方案,政府将依赖于错误的或有偏见的技术。”它决定哪些人去追求、调查和逮捕。”

微软是第一个公开挑战面部识别的硅谷巨人,但不是第一个受到质疑的科技公司。

今年5月,亚马逊被推到了嘴边,因为它为政府和警察出售了名为Amazon Rekgnnices的产品,受到公民自由、雇员和许多学者的强烈谴责。

Amazon RekGoNeNew技术可以实时识别、跟踪和分析人,并在单个图像中识别多达100人。它还可以快速扫描收集到的信息,并与数据库中的数以百万计的人脸进行比较。这消息立即引起了一阵恐慌。美国公民自由联盟组织了30多个民权组织,共同抗议亚马逊和政府的合作,并要求亚马逊首席执行官贝斯停止向政府出售责任。

大多数抗议者认为,如果政府能够使用准确的面部识别,它将使用该系统跟踪和监视人们,个人隐私将不受公共权力的侵犯。认知技术的广泛使用会给有色人种、非法移民和抗议自由带来可怕的后果。

亚马逊的100多名员工向CEO杰夫·贝佐斯提交了一封公开信,要求该公司停止向Rice和其他执法机构出售RekGoNeon面部识别技术。在安全方面应该与警察密切合作,我们不应该支持那些监督和边缘化群众的公共权威。”

如果没有没有偏见的技术,执法当局可以使用这些有偏见的算法或技术缺陷的方法来确定哪些人要遵循,调查,甚至逮捕,并作出不公正的结论。

但是科技公司是否会因为面对各方的抵制而停止与政府和军方在面子识别方面的合作?恐怕不行。

亚马逊的AI首席执行官Matt Wood在抗议博客上写道:“新技术的能力一直处于危险之中,以后也会如此。每一个选择使用技术的组织都必须采取负责任的行动,否则将面临法律惩罚和公众谴责的风险。AWS将认真对待其责任。但我们不认为禁止这些技术的发展是错误的,因为一些技术可能会在未来被滥用。

相反,与五角大楼合作发起Maven项目的谷歌仍然落后于人工智能的7项原则,称它将继续与美国政府和军方在网络安全、培训、退伍军人医疗、搜索和救援等方面合作。D军事招募。网络巨人正在为国防部门办公室和云服务合同争取两百亿美元的资金。

人脸识别的缺陷与缺陷

虽然人脸识别已成为人工智能领域应用最广泛的技术之一,但在普及过程中仍存在争议。

事实上,早在2016,美国联邦调查局开发了一个个人面部识别系统,其中有41亿1000万张照片的数据库。

通过与18个州的交流与合作,联邦调查局在签证、护照、国防生物统计数据库、驾驶执照等方面获得了照片,并记录了3000万份犯罪记录。

联邦调查局也为这个数据库取了“下一代标识”的名字。

然而,据英国《卫报》报道,FBI的人脸识别算法只有85%的准确率,经常有两个错误:一个是不匹配的,不公正的无辜平民;另一个是误报,即一个错误地离开出境或入境的罪犯。识别系统比黑人更容易识别黑人,也就是说,黑人在执法中更容易被判错。

这暴露了人脸识别系统通常具有较高的错误率,特别是对于不能区分和区分较深皮肤的人。

麻省理工学院实验室,一个名为“性别阴影”的研究项目,发现人脸识别软件中不同性别和肤色的人会有偏见。浅肤色男性的错误率为0.8%,深色皮肤女性的错误率为34.7%。研究人员已经把这种偏见“算法偏见”。

Joy Buolamwini,一位黑人研究者,选择了三个脸部识别API,微软,IBM和Frase++,来测试性别决定的人脸识别功能。但她发现只有两个平台能认出她的脸,这两个平台都误解了她的性别。

为了证明她不是一个特例,Buolamwini试图分析这些人脸识别技术识别不同种族和性别的准确性。结果表明,这些人脸识别系统对肤色较深的女性具有较高的分类错误率。

她解释说,这种“算法偏倚”的主要原因是缺乏训练图像和基准数据集的多样性,其次是在深色中难以提取人脸特征,这也会影响人脸识别技术的准确性。

人工智能在很大程度上依赖于训练数据,人工智能训练的数据将在很大程度上决定人工智能的智能。因此,如果训练AI模型的数据集,白人男性比黑人女性拥有更多的数据,系统比前者更不能够识别后者。

Joy Buolamwini指出,如果这些人脸识别技术被用于移民案件管理或贷款评估,不可靠的结果会使很多人受到不公平对待。

KAIROS(脸谱识别和AI技术初创公司)首席执行官Brian Brackeen发表了一篇文章反对在执法中应用人脸识别。在美国的种族歧视中,非白人受到更多的审查,而承认面孔只会加剧“不平等”。现在数据库不够完善,对识别犯罪人的技术来说是极不负责任的。乔治城大学法学院隐私与科学中心的研究表明,近一亿二千万的美国人已经成为美国政府脸部识别技术的对象。这个数据在中国更大。

鉴于人脸识别技术还不成熟,如果完全不受监督,该技术可能会威胁到公民的平等和人身安全。

敏感隐私:面孔识别会成为明天的利维坦吗?

微软总裁兼首席司法官Brad Smith在他的博客中写道:

就像每个工具都有两面,即使它是扫帚,我们也可以用它扫地,或者敲别人的头去惩罚别人。人脸识别技术可以帮助家庭找到失散多年的亲人,并帮助警方在茫茫人海中寻找恐怖分子准备发动攻击。这些都是我们可以利用的好处。但同时,人脸识别技术也带来了隐私权和自由表达权的根本性讨论,如果被公共权力或企业滥用或使用,这是非常可怕的。

人脸识别是目前人工智能领域应用最广泛的技术之一,但隐私问题也十分严重。

乔治城大学隐私与技术中心的助理Clare Garvie也表达了她对面孔识别对言论自由的影响是潜在的但不可忽视的担忧。如果警察使用脸部识别技术来监视那些挑战公共权力的人,就好像是在示威游行中使用,就像警察正在穿过团队并要求在场的每个人展示他们的身份一样。在争取政治权利和亚马逊在科学技术领域的影响力的过程中,所有的人都将有更多的执法机构愿意参与。

微软的事件引起了人们的注意,因为微软的人工智能技术是用来将非法移民和他们的孩子在墨西哥边境上个月分开的。事件曝光后,微软在网站上删除了与移民和海关执法局签署的文章,但仍受到广泛批评。

此外,人脸不仅可以表示身份,还可以显示许多其他信息,也可以由机器读取。斯坦福大学的研究人员表明,当面对同性恋和异性恋的照片时,性取向的准确率可以达到81%。人类只能达到61%。在同性恋是犯罪的国家,一个能从脸上推断性取向的软件是令人恐惧的。

今年5月,美国公民自由组织呼吁科技公司停止向政府提供面部识别服务,这是侵犯公民权利的行为。公司已经对合同进行了更加审慎的考虑,并敦促立法者规范使用人工智能技术,以避免通过执法手段滥用这些技术。

在欧洲联盟,新的GDPR数据保护法,在5月推出,已禁止收集面部识别所需的生物特征数据,而未经用户的具体同意。

许多文章和问题表明人脸识别问题被滥用。政府必须发挥立法者的作用,科技公司不能忽视伦理问题。现在是时候考虑道德和人权的影响以及他们开发的技术的使用。风险在过程中。

莱维坦是圣经故事中的一个大水怪。因为他没有被控制,他依靠他巨大的体魄一个接一个地吃掉人类。

人脸识别,或更广泛的人工智能技术,有助于提高我们的生活质量,而不是提高我们的生活质量,如果没有完美的法律约束来使用这种技术的应用,以确保它们被用于法律和ET。典型情景。过一种更安全、更舒适的生活。

因此,明日的人脸识别技术不仅要追求准确的“高度”,而且要保持公民权利的“底线”。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();