服务粉丝

我们一直在努力
当前位置:首页 > 情感 > 故事 >

科技伦理审查确保人工智能向善发展

日期: 来源:达州市数字经济局收集编辑:达州市数字经济局

近日,科技部会同教育部、工业和信息化部、国家卫健委等十部门联合印发《科技伦理审查办法(试行)》(以下简称《审查办法》)。《审查办法》体现了科技向善的总体愿景,特别强调“遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明”,反映出了科技促进人类繁荣的理念。

人工智能赋能人类繁荣与社会发展,涉及到人的科技活动是人工智能伦理审查的重点。《审查办法》指出,涉及以人为研究参与者的科技活动,包括以人为测试、调查、观察等研究活动的对象,以及利用人类生物样本、个人信息数据等的科技活动,都需要按照《审查办法》给出的指引进行科技伦理审查,以确保人的基本权利,个人信息得到充分保护,在必要情况下以知情同意为基础合法合规地收集、分析与使用。《审查办法》指出,在生命健康、生态环境、公共秩序、可持续发展等方面,可能带来伦理风险挑战的科技活动也需要进行科技伦理审查,这些领域正是人工智能赋能社会发展的核心及关键领域,需要秉承促进人类、社会、生态可持续发展的理念避免风险,促进创新。

科技伦理审查由一般程序、简易程序、专家复核构成相对完善的科技伦理审查体系。在一般程序、简易程序的基础上,专家复核相关领域可能存在科技伦理风险,因此需重点关注。

针对需要开展专家复核的科技活动,《审查办法》拉出清单,对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发需要进行专家复核。人机融合系统是人类智能与人工智能融合的复合智能体。其构建目的一般是为了辅助和增强人类智能。人机融合系统虽然有辅助或增强人类执行认知任务的能力,但是也可能影响人类的自主性,从而影响到人类主观行为,伦理审查中要特别关注人机融合系统对人类能动性、主观行为产生的负面影响。人机融合系统还有可能对人类心理造成负面影响,例如影响人类情绪,使人产生对系统的依赖等。针对脑机接口等融合智能系统,伦理审查特别要注意其对人的心理或身体造成严重不良影响的可能性,如侵入式脑机接口技术的物理安全风险,对脑组织的潜在负面影响等。此外,受限于目前人工智能模型的能力,侵入式、非侵入式脑机接口难以完全避免编解码错误;模型涉及的个人数据安全、可解释性、可靠性;对人类能动性与自由意志的负面影响;应用层面是否会对社会公平带来挑战等伦理风险均需在专家复核阶段开展进一步审查。

该清单同时指出,具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发需进行专家复核。原因在于具有舆论社会动员能力和社会意识引导能力的算法模型与服务可能会被用于歪曲或形成负面价值导向,扰乱社会安全与社会秩序,带来不良社会影响。这类研发任务需要按照国家互联网信息办公室等四部门联合发布的《互联网信息服务算法推荐管理规定》等相关要求实施分级分类安全管理,特别是需要防止相关算法、应用程序与系统在没有合理安全监管情况下的扩散和潜在滥用与恶意使用。

针对人工智能领域,该清单同时指出,面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发需要进行专家复核。具有高度自主能力的自动化决策系统指基本或完全不需要人类干预的自动化智能决策系统。由于目前的人工智能系统仍然是看似智能的信息处理系统,并不具备人类水平的理解能力,因此在关键和高风险等领域不能代替人类决策,且必须确保充分、有效的人类控制,人类是最终的责任主体,这是国际共识。如联合国教科文组织发布的《人工智能伦理建议书》中规定,在某些情况下,出于效率性的考虑,人类有时选择依赖人工智能系统,但是否在有限情形下出让控制权依然要由人类来决定,这是由于人类在决策和行动上可以借助人工智能系统,但人工智能系统无法取代人类承担最终责任。总体而言,涉及生死抉择的情况,不应任由人工智能系统决定。脱离充分和有效人类控制的高度自主、自动化决策系统既导致人类失去决策自主性,又剥夺了人机协同系统中人类应当承担的责任与义务,最终极有可能对人类身心健康乃至生命造成重大伤害,此类风险都是要在专家复核阶段进行严格审查与研判的。对于可能给身心健康、生命带来安全隐患的高度自主人工智能系统应不予通过并明令禁止。

人工智能科技伦理审查,相关法律是底线,《审查办法》是指导原则和依据。然而,随着人工智能技术的发展,有可能在科技伦理方面出现新情况、新挑战。相关管理、审查部门、执行部门应与科研工作者等相关方深度协同,与时俱进,适时完善《审查办法》,真正实现人工智能科学与技术的可持续、向善发展,打造以人为本,负责任的、对人类和生态有益的人工智能。

(作者曾毅 系中国科学院自动化研究所人工智能伦理与治理中心主任、中国科学院科技伦理委员会信息技术与人工智能分委会主任)

相关阅读

  • 南京:探索人工智能“云”未来

  • 11月18日,由江苏省人工智能学会和南京晓庄学院主办的计算机视觉与人工智能国际会议在南京晓庄学院方山校区顺利召开,国内外近50所知名高校、科研院所、企事业单位的知名专家学
  • 第十五届智慧城市论坛成功举办

  • 11月18日,第十五届智慧城市论坛在北京市沙河唯实国际文化交流中心举行。本届论坛由北京通信信息协会主办,北京未来科学城管理委员会支持。北京邮电大学党委书记续梅出席开幕式
  • “AI界大戏”凸显两派理念之争

  • 本报记者 丁雅栀 陈子帅围绕OpenAI的“大戏”于北京时间20日下午落下帷幕。微软公司CEO、董事长萨提亚·纳德拉在社交媒体发文称,OpenAI创始人奥特曼、布洛克曼及其同事将加
  • 德法意就人工智能监管达成一致

  • 本报驻德国特约记者 青 木德新社20日报道称,德国联邦政府当日公布了一份由德国、法国和意大利三国达成的关于人工智能监管的文件。在这份文件中,德法意三国政府主张欧盟相关企
  • 纳德拉宣布阿尔特曼与布罗克曼将加入微软

  • 今天下午,微软公司CEO、董事长萨蒂亚·纳德拉宣布,Sam Altman与Greg Brockman将加入微软,并领导一个新的高级人工智能研究团队。纳德拉在推文中称,我们仍然致力于与OpenAI的伙伴
  • 后图灵时代的人工智能可以像人类一样思考吗?

  • 2023年3月14日,具备多模态能力的GPT-4发布。据报道,GPT-4通过了许多人类专业测试,比如律师考试,也通过了一些经典心理学测验,体现出相当于9岁儿童的心智水平。终于,那个问题开始在
  • 人工智能特色未来学校,武清签约!

  • “我们把气象站和照明系统布置在一起,利用了光感传感器和温度传感器……”“非常好的想法!大家的场景各有不同,请继续完善吧!”雍阳中学的人工智能实验室内,一堂生动的在线数字气

热门文章

最新文章

  • 科技伦理审查确保人工智能向善发展

  • 近日,科技部会同教育部、工业和信息化部、国家卫健委等十部门联合印发《科技伦理审查办法(试行)》(以下简称《审查办法》)。《审查办法》体现了科技向善的总体愿景,特别强调“遵循
  • 元故事 377期│书店人的雅集

  • 11月17日,第二十四届读书月创新策划的首届“书·城市·生活”书店人大会在深圳举办,邀请了书店文化专家学者与全国60家优秀实体书店主理人共聚鹏城,打造书店人深度交流和表达自
  • 2024年报名参军,你准备好了吗?

  • 2024年上半年征兵工作即将展开按照往年的时间安排距离2024年应征报名时间已不足一个月了义务兵征集实行一年两次征兵两次退役上半年征兵报名时间一般在前一年的12月至当年的
  • 聚光灯 337期 | 不惧韩潮

  • 气氛有点不一样。“中韩大战”一触即发,赛前关于两队交战前的各种动态、话题,频频登上热搜。这场焦点对决,吸引了来自全国各地近200家媒体的记者们前来深圳跟踪报道。当然,也有