“硬”监管与“软”治理

在科威特哈瓦利省举行的机器人和人工智能节上,孩子们与现场的机器人互动。新华社发

近期以来,美国和欧盟先后发布人工智能技术发展的监管政策,预示着人工智能(AI)将迎来监管时代。但美欧监管路径大相径庭,欧盟的“硬”监管模式意在加强监管以强化个人权利保护,美国的“软”治理模式则极力限制监管范围以促进创新与发展。尤其值得关注的是,欧盟人工智能监管框架延续了其《通用数据保护条例》(GDPR)的长臂管辖理念,意图通过欧盟立法为全球数字监管树立标准,将来可能波及中国科技公司。

欧盟:呼吁对“高风险”AI应用加强监管

2月19日,欧盟委员会发布了新的数字战略,这是继2015年5月启动单一数字市场战略之后,欧盟面向数字化转型的又一纲领性战略。与之一道发布的还有“人工智能白皮书”和“数据战略”。欧盟出台数字战略,不仅意在增强欧盟的技术主权、产业领导力和经济竞争力,而且期望像《通用数据保护条例》(GDPR)那样,通过欧盟立法为全球数字监管树立标准,给全球数字经济发展带来持续性影响。

人工智能白皮书在2018年4月出台的欧盟人工智能战略的基础上,提出了投资和监管并举的思路,一方面将持续加强对芯片、算法、量子计算等技术和产业的投资;另一方面将通过建立监管框架来防范自动化决策不透明、算法歧视、隐私侵犯、犯罪行为等AI应用相关风险。旨在加强技术主权,确保技术信任,使各种风险和潜在损害最小化,同时避免过度监管。主要包括以下方面。

一是采取分类监管方式,并非所有的AI应用都会受到监管,监管只针对“高风险”AI应用。但“高风险”的判断标准(即“很有可能/有可能出现重大风险”)高度概括,非常模糊,存在很大解释空间,赋予监管较大的自由度,不排除将来出现监管泛化。具体可能涵盖哪些领域和使用场景,有待将来出台监管名单,来穷尽列举,并可定期评估、修订,白皮书也列举了医疗、交通、能源等领域。此外还有一个兜底规定,即不论是否在受监管的领域,只要AI系统被认为具有高风险,就应当受到监管,这会进一步扩大监管的范围。例如,当前广泛使用的AI人脸识别和AI招聘都是“高风险”应用,而这两种AI应用都被指责造成了种族或性别等社会歧视。

二是高风险系统需要遵守严格的强制性要求。这些要求涵盖训练数据、数据记录、信息提供与透明度、安全可靠与准确无误、人类监督和干预等五个方面。值得一提的是人类干预,存在方式和程度上的差异:有些决定(如社会福利申请)只能由人类做出,不能交给AI系统来决定;有些决定(如信用卡申请)虽然可以由AI系统处理,但之后可以向人类提出申请;有些AI系统需要具备关闭功能,如自动驾驶汽车的关闭按钮,AI系统超出设计的运行条件时应自动停止运行。此外,相比之前泄露出来的文件考虑在3-5年内禁止在公共场所使用人脸识别技术,白皮书并未禁止人脸识别的使用,但将限定使用情形并要求采取安全措施。而对于在公共场所使用人脸识别技术,欧盟委员会后续将讨论确定正当的使用场景以及共同的安全措施。

三是延续长臂管辖思路,可能影响他国科技公司。新的监管框架延续了《通用数据保护条例》(GDPR)建立的长臂管辖规则,即在欧盟境内提供AI相关产品或服务的所有相关主体都需要受到监管,遵守强制性要求,无论其是否在欧盟境内设有营业场所。这意味着欧盟以外的科技公司可能受到监管,中国科技公司也不例外。

四是建立涵盖事前、事中、事后各个环节的全面监管机制。事前,为了确保高风险AI应用遵守强制性要求,由监管部门对其进行合规认证评估,包括测试、监测和认证程序,以及对在研发阶段使用的算法和数据集进行检查。事中和事后,加强执法,包括监测合规与否,监管部门或第三方机构对AI应用进行测试。

五是不在监管范围之内的AI应用,不需要遵守这些强制性要求。但针对不受监管的AI应用建立自愿认证机制,即如果不受监管的AI应用自愿遵守强制性要求或者特别为自愿机制建立的类似要求,则可以被授予质量标签,表明该AI系统是可信的。自愿标签机制将激励行业主动合规,可能进一步扩大监管范围。

美国:强调审慎监管以促创新发展

无独有偶,今年1月,在出台美国国家AI战略满一年之际,美国政府发布了《人工智能应用监管指南》。《指南》提出了十大监管原则,涵盖公众对AI的信任、公众参与、科研操守和信息质量、风险评估与管理、成本效益分析、灵活性、公平无歧视、披露与透明度、安全可靠、联邦机构间协调等层面。主要呈现出以下三个特点。

强调监管应有助于创新与发展。美国AI政策的根本目的在于,增强美国在AI的科学、技术、经济等方面的全球领导地位。AI监管也需要服务于这一根本目的。就AI监管的目的而言,与维护技术、经济和国家安全、隐私、自由、法治、知识产权等美国价值同等重要的是,促进稳健的创新生态系统,减少、移除AI技术发展和应用面临的不必要障碍,持续促进技术和创新的进步。所以《指南》要求充分评估监管对AI创新和发展的影响,避免采取阻碍AI创新和发展的监管、非监管措施,以及可能给AI系统施加过高标准的预防性路径。

强调监管的科学性、灵活性。AI的监管、非监管措施需要充分考虑AI相关的科学、技术信息和程序,避免不切实际的拍脑袋立法。监管需要采取风险路径来评估哪些风险可被接受,哪些风险可能导致不被接受的损害,或者带来的损害超出了带来的益处。这意味着AI监管的目的不是要消除所有的风险,也不可能消除所有风险,而是对风险进行管理,将风险控制在最小的或者社会可接受的限度。所以需要采取成本效益分析,在对AI进行监管之前,充分考虑AI发展应用的社会成本、益处、影响等,以权衡AI活动的利弊并衡量风险大小。此外,监管、非监管措施要具有足够的灵活性和弹性,适应技术快速变化和AI应用迭代,僵硬的、规制技术细节的立法是不切实际的,无效的。

强调不监管和非监管措施。可以说,对于AI应用,美国是以不监管为出发点的。如果既有的监管是充分的,或者新的监管不符合成本效益分析,此时理想的路径就是不再加强,或者采取非监管的措施来应对特定AI应用的风险。可以预见,美国将更侧重不具有法律强制性的非监管措施,包括细分领域的政策指南或框架,试点项目和实验,行业内自愿的共识标准等。

谁更胜一筹?

美国和欧盟先后出台监管政策,表明人工智能将正式迎来监管时代。监管政策将成为美国和欧盟各自加强“科技主权”的重要工具。人工智能白皮书的出台,表明欧盟的人工智能监管立场已经有所缓和,但是与美国相比,存在根本性差异。去年全球AI初创公司总共融资270亿美元,其中美国占了170亿美元,远超其他国家,美国活跃的创新生态在某种程度上表征着美欧监管差异。

首先,监管目的和初衷存在显著差异。欧盟人工智能监管框架延续了GDPR的立法初衷,过分强调隐私等个人权利保护和AI应用的负面影响。相反,美国则更加强调对AI创新与发展的促进,所以把为AI应用创设“安全港”、监管例外、监管豁免等提到了很高的地位。“安全港”制度是美国在互联网时代一骑绝尘的制胜法宝,美国希望在AI领域复制这一成功经验。

其次,从监管标准看,欧盟低门槛监管,美国高门槛监管。高度模糊的标准意味着,欧盟为AI应用进入监管领域设置了较低的门槛。监管要求具体入微,监管和执法覆盖全过程,AI发展应用将面临更大范围和更大程度的监管压力,技术和产业影响不容小觑。相反,美国所倡导的科学审慎监管、风险评估与管理、成本效益分析、灵活敏捷等理念,不仅会很大程度压缩监管的空间,而且不会使监管要求僵化,对技术和产业发展更加友好。

从监管特点分析,欧盟属于“硬”监管,美国则是“软”治理。欧盟的监管路径旨在将新技术相关的任何可能风险降到最低,而非通过创造技术友好的政策环境来降低AI应用的门槛,所以过度强调监管的迫切性、必要性和重要性,希望通过政府认证和许可来强化对“高风险”AI应用的监管。相反,美国压缩监管空间,不意味着毫不作为,而是给技术和行业友好型的非监管措施和“软法”治理留出更大空间,避免监管影响新技术红利的最大化释放。

全球来看,放眼整个数字经济领域,美国和中国是领头羊,联合国2019年的数字经济报告显示,全球最大的70个数字平台公司的总市值中美占了90%,区块链相关专利中美占了75%,全球物联网支出中美占了50%,全球云计算市场份额中美占了75%。而美国之所以能够在互联网时代领先于全球,很大程度上得益于行业自律为主的轻监管,而欧盟对互联网的强监管使欧盟错失了互联网时代的机遇。如今,欧盟对人工智能技术的强监管苗头一方面具有限制美国等外国技术和产业力量以便迂回打造自己的“技术主权”的考虑,另一方面却可能事与愿违,让欧盟错失AI时代的机遇。而美国倡导的AI治理的“软法”路径则追求监管的灵活性,避免过度监管,或许更值得借鉴。

对我国人工智能产业发展的启示

第一,要持续加强突破性技术领域的研发投入和人才培养。在推进监管的同时,美欧继续加强科技研发投入,例如,美国计划在未来两年内使投资于人工智能和量子计算的研发投入翻倍并打造全球首个量子互联网,欧盟也将显著地加强对AI、量子计算、5G和6G、区块链等突破性技术的研发投入,这表明美欧对下一代数字技术和产业的竞争日趋加剧。我国在基础研究、芯片、核心算法、人才培养等方面尚存短板,需要持续加大对人工智能、量子计算等突破性技术的支持和投入力度。

第二,在全球“技术主权”竞争背景下,需要包容审慎监管AI应用。数字时代,全球“技术主权”竞争趋于激烈,监管政策是重要的工具,例如美国近年来加大对AI等前沿数字技术的投资和出口管制,就是出于这一目的。因此美欧的AI监管虽然存在差异,差异的存在是因为产业发展状况不同,但殊途同归,最终都是为了打造技术和产业竞争力。在这样的背景下,美国的AI监管政策样本更契合我国的技术和产业实际,需要遵循包容审慎的理念,通过多方参与、风险评估、成本效益分析等机制,确保立法和监管的科学化、精细化、灵活化,并可考虑设立“安全港”规则或者监管例外来鼓励AI应用,同时依靠监管之外的多元化措施,如标准、指南、试点等,来共同促进我国的技术创新和产业发展。

第三,必须切实加强国际合作,积极推动国际AI标准设定。除了面向国内的政策举措,美欧也在积极建立相关的国际联盟、“数据俱乐部”等,希冀主导数据流动、数字税收以及AI技术、伦理、治理等方面的国际标准。我国也需要加强相关国际合作,积极倡导我们的人工智能发展理念。

(作者:曹建峰,系腾讯研究院高级研究员)

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章