#对话何宝宏解读人工智能# 对技术的讨论,至少可以分为两个阶段,第一阶段是谈美好愿景,第二阶段把技术的硬币反过来,谈可能的负面的影响,AI伦理就属于这个第二阶段。AI伦理的讨论必然会陷入僵局,因为我们

#对话何宝宏解读人工智能# 对技术的讨论,至少可以分为两个阶段,第一阶段是谈美好愿景,第二阶段把技术的硬币反过来,谈可能的负面的影响,AI伦理就属于这个第二阶段。AI伦理的讨论必然会陷入僵局,因为我们试图将人类千年来遇到的的一些伦理难题,比如电车难题,转嫁给AI去处理。在现实世界中无法处理的伦理问题,在AI世界也一样。当然,对AI进行监管是必须的,比如算法必须符合相关的法律法规,符合已经很明确的社会道德要求等,这类在人类社会已经答案明确的问题,AI是有可能处理的。一是数据的透明度。虽然深度学习方法是公开透明的,但训练用的数据集往往是不透明的,在利益方的诱导下容易出现“数据改变信仰”的情况。二是数据攻击。输入数据的细微抖动就可能导致算法的失效,如果发起对抗性样本攻击,系统就直接被“洗脑”了。三是还是监督学习。深度学习需要的海量大数据,需要打上标签做监督学习,而对实时、海量的大数据打上标签几乎不可能。
发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();