如果有一天我们能提前预知犯罪,该怎么处理那些即将犯罪的人?等他们犯罪之后再抓捕他们?还是在犯罪前就给他们带上镣铐?如今我们可能真的到了该思考这个问题的时候,因为美科学家研发了一项新技术——AI算法预测犯罪。

提前一周预测犯罪,准确率超过90%
近日,美科学家宣布研发了一种新的AI算法,通过对暴力和经济犯罪建立数据模型,从而达到预测犯罪的目的。据线管部门透露,这一模型能够提前一周预测即将发生的犯罪活动,准确率超过90%,目前这一研究已经登上了《自然·人类行为》杂志,未来可能会成为降低犯罪率的一种手段。
该不该尊重少数派
看到这一报道,很多人第一时间就想到《少数派报告》这部电影。影片中讲述了人类在2054年发明了3个“先知”,他们通过侦查人们的异常脑电波,预知即将会发生的凶杀事件。其会将罪犯的名字刻在小球上,预测结果甚至精准到犯罪方式,其中红色小球代表冲动杀人,棕色小球代表预谋杀人。

通过先知的精准预测,警方能够在犯罪行为发生前,将即将行凶者抓捕归案。有了这项技术的帮助,某地区在很多年内犯罪率骤降,这看上去是一项极其梦幻的技术,却存在一个比较致命的缺陷,那就是预测并非100%精准。
三位“先知”的意见并不能达成完全统一,有些案件中会出现“两位先知预测凶手会作案,但是一位先知预测凶手不一定作案”,这个时候专家们会本着“宁可错杀一千,也不放过一个”的原则,决定执行少数服从多数的原则,将“罪犯”抓起来,而那些先知们的“少数派意见”也会被偷偷藏起来。这也是片名“少数派报告”的由来。

我们该不该尊重小概率事件?
受这部影片的启发,很多人反对相关部门研究这项技术,因为它根本就没有实用性。因为预测根本没法做到100%,这也就意味着只要这项技术被执行,就一定会有人因此被冤枉。
即使真如专家宣称的那样,预测准确率达到了90%,有这项技术抓住的90个犯罪嫌疑人里,或许有10个根本就没打算作案。更严重的是,由于大家都没有作案成功,根本就没有办法分别到底哪些人是被冤枉的。

我们不妨做一个大胆的假设?一个人预谋作案,选择好了作案对象,准备好了作案工具,准备好了逃跑路线,她就一定会行凶吗?人都有悔过之心,不到悲剧确实发生,我们都不能百分百确定一个人最终会做出什么样的选择。一个人在这种关键时刻,内心活动是非常复杂的,任何一点外界因素的影响,都有可能会导致一个人做出不同的决定。

用科技揣测人性是一种傲慢
用科技去揣测人性是一种傲慢的举动,它的傲慢在于把人类彻底物化,认为某个人一定会按照某些轨迹进行活动,这就忽略了人性中“神性”的一方面。
事实上,人类特有的情感例如责任感、羞耻心等一系列特殊的情感,会把一些人从犯罪的边缘拉回来,而这些又怎么能是科技所能预测的呢?
所以尽管我们生而为人,但有时我们对人性的了解非常局限,因为每个人大多时间都被封锁在自己的小世界里,对于他人的世界,我们相纸甚少。(霍浩)

本文图片均来源于网络,如有侵权请联系作者删除!
| 留言与评论(共有 0 条评论) “” |