深度合成治理的逻辑更新与体系迭代
——ChatGPT等生成型人工智能治理的中国路径
/
/
/
作者:张凌寒(中国政法大学数据法治研究院 教授)
来源:《法律科学》2023年第3期,全文转载自“法律科学”微信公众平台。
目次
一、引言
二、深度合成的概念与治理挑战
三、深度合成的治理逻辑与更新趋势
四、深度合成治理的体系迭代与未来发展
五、结语
摘要:以Deepfake、ChatGPT、元宇宙等为代表的深度合成技术与应用场景,极大地改变了信息获取、人机交互的方式,并成为未来数字空间的基础性技术。我国的深度合成治理已经走在世界前列,但仍主要停留在算法治理衍生出的信息安全层面,偏重服务应用监管而底层技术治理不足,偏重监管服务提供者但监管技术提供者尚不充分,数据与场景分级分类标准繁杂但并未形成有机体系。深度合成治理应在算法治理基础上延伸迭代,将深度合成作为人工智能治理的专门领域,同时通过顶层设计推进基础性人工智能立法,既保障急用先行,又可探索并形成通用人工智能立法的经验。既应发挥中国既有的深度合成治理优势,根据生成型人工智能技术特点更新监管逻辑,基于生成型人工智能技术的通用性实施全链条治理;同时还需立足现行法规中分级分类治理架构,结合技术、产业和应用建立有机体系和设置具体规则,以形成在全球更具影响力的深度合成治理法律制度体系。
关键词:深度合成;生成型人工智能;ChatGPT;分级分类标准;技术治理
一、引言
二、深度合成的概念与治理挑战
三、深度合成的治理逻辑与更新趋势
四、深度合成治理的体系迭代与未来发展
我国的深度合成治理应在现有算法治理基础上做出制度延伸,将其作为人工智能专门领域予以治理,形成“算法治理—深度合成治理—人工智能治理”的迭代路径,为我国未来通用人工智能立法做准备。面对深度合成中的生成型人工智能等具有一定通用性质的新型人工智能技术,应及时调整治理方案,抢抓规则制定权,防范国际规则博弈中欧盟等有意识的制度输出,推动我国在该领域的本土化制度建设和制度引领。
(一) 深度合成治理的体系迭代
深度合成治理应在现有算法治理的基础上做出制度延伸与体系迭代。ChatGPT等生成型人工智能的爆发,是推动深度合成成为人工智能治理专门领域的有利契机。将深度合成纳入专门化的人工智能治理领域予以治理,既可以为我国人工智能基础性立法做出有益探索,又可避免欧盟、美国现有立法中人工智能范围定义过宽的弊端,发挥我国人工智能立法的制度引领作用。
第一, 深度合成治理需要在算法治理基础上做出延伸和迭代。尽管我国深度合成的治理已经在算法治理基础上进行了创新,但治理体系仍需进一步优化。我国的算法治理体系将算法定位为“互联网信息服务算法”和“算法推荐服务”,尽管在算法监管制度中已经创新性地提出了针对特征库、用户标签、算法机制机理等技术规范措施,但其重点聚焦于算法安全价值导向下的信息服务规范和用户权益保护。《深度合成管理规定》在征求意见的讨论后将服务和技术列为并重的调整对象,将“数据和技术管理规范”专章单列,并将监管对象延伸至深度合成技术支持者,都是对技术发展的因应性制度调整。我国深度合成治理超越了算法治理制度,相较欧盟、美国等制度更具有引领性。国外研究也认为《深度合成管理规定》调整的范围全面,将大大改变14亿人的人工智能生成内容的制作方式;在具体制度的评价中,研究者也认同我国现有监管为深度合成的每个阶段制定了规则,从创作到标注再到传播,为未来控制有机生成内容也留下了空间,在2023年可能影响到其他国家深度合成法规的发展。但是,算法监管的一些具体措施显然很难适用于深度合成项下的生成型人工智能等技术。如算法机制机理的备案说明、特征库和标签制度等,应结合深度合成的新技术发展与应用场景做出相应调整和改进。
第二, 深度合成治理应成为人工智能治理的专门领域,并在此基础上推进我国人工智能基础性立法。我国现有的算法规制体系在实践中承担起了人工智能治理的任务。从2017年国务院《新一代人工智能发展规划》到2022年的《最高人民法院关于规范和加强人工智能司法应用的意见》,我国人工智能治理各级文件中均提出了“安全可控”的治理目标,具体制度均提到了建立公开透明的制度体系、建立相应问责机制、技术和应用全流程监管等。而这些具体制度的落地则是由算法透明度,算法问责,算法设计、输出与结果监管,以及算法推荐服务结果公平等规定保障实现的。国外的研究一般也认为中国针对算法设计的系统法规,包括对算法系统的设计、使用和数据种类的要求和标准,是中国人工智能的治理制度。
应以ChatGPT为代表的生成型人工智能发展为契机,推动深度合成治理成为人工智能治理的专门领域。(1)保障急用先行一向是我国立法的一条重要经验。短期内,继续采用垂直和领域性人工智能监管能够有效将可能的风险控制在最小范围,延伸深度合成现有制度是治理效率最高的方式。不过从长远来看,加强深度合成治理专门立法是必然趋势。在拟出台全盘人工智能治理方案的欧洲,也在讨论对人工智能立法的部分定义和监管类型进行修订,以增强对“大型生成式AI模型”部署者和用户进行直接监管。(2)深度合成的治理等待全盘人工智能治理的立法出台,会面临针对性、可用性不强的制度困境。生成型人工智能具有一定通用性,是否延续传统对人工智能的分级分类方式进行治理?目前欧盟就面临着这个问题。2022年5月《人工智能法案》第4a-4c的修正案成了监管生成型人工智能的核心条款。任何可用于任何高风险应用的“通用人工智能系统”,如就业、医疗、信用评分、行政、执法都必须初步遵守《人工智能法》对高风险系统规定的全部义务。一个全盘的人工智能治理方案极可能受到技术发展的冲击。因此也有欧洲学者建议欧盟应将其所设想的全盘人工智能法案监管转向具体的监管职责和内容治理。(3)在对深度合成治理做出专门性制度探索的基础上,推进人工智能基础性立法,解决人工智能领域的通用问题。一是算法、算力与数据的规制制度必须在人工智能治理的框架下统筹协调。如欧盟立法面临着《人工智能法》《通用数据保护条例》《数字服务法》等法规协调的问题。预训练大模型需要海量的算力,如何统筹全国范围内的算力使用,也是法律层面立法才能解决的问题。二是法律层面上统筹,方可保证较高的效力位阶将我国现行的有关数据、算法和人工智能问题的探索,统一纳入未来人工智能基础性立法。
2023年被认为是全世界的人工智能监管新格局的开创之年。虽然不同的法律辖区正在采取不同的监管路径,但欧盟《人工智能法案》的加快推进,意味着全盘管理人工智能未来将可能成为全球立法模式。按照“算法治理—深度合成治理—人工智能基础性立法”的思路,深度合成治理立法一方面承接算法治理,另一方面也可以为未来通用人工智能的立法做出有益尝试。
(二) 内容监管与全链条治理
深度合成的治理,一是需要保障生成内容安全的基础法益,二是应依据生成型人工智能改进监管框架实施全链条治理,三是需要适应技术的进一步发展,完成深度合成监管工具的升级。
第一, 深度合成的生成内容监管。深度合成的前期治理聚焦生成合成的虚假信息是全球共识,欧盟、美国均有相关立法尝试与监管举措。我国的深度合成治理中有关信息内容安全的监管措施应严格执行,继续要求AIGC技术与服务提供者在相关的人工智能自动生成内容中履行添加可识别水印或有效警示信息的义务,在源头上实现人工智能自动生成内容的可识别性。不过,AIGC(人工智能生成内容)的标识要求需要进一步提高。如对ChatGPT或类似软件生成“以某人风格”生成文本或图像视频等内容时,应当在生成内容的合理位置做出显著标识,以避免公众产生混淆或误认。生成内容型的人工智能必然会发生内容安全问题,尽管目前ChatGPT对基于恶意目的的使用提出了一些限制,但是有技巧的使用者仍然可以采取调整措施的请求来绕开这些限制。因此AIGC(人工智能生成内容)不仅仍需配备人工过滤审核机制,而且需要在下游督促网络平台采取措施减少违法信息的产出。深度合成监管中的辟谣机制和举报机制同样适用于ChatGPT等生成型人工智能。对于已经或者准备在网络中传播不实信息和可能危害公共秩序的内容,平台有义务停止传输,并且对于频繁发布此类信息的用户主体通过黑名单或其他机制加以限制和处罚。尤其是在AIGC(人工智能生成内容)与机器人账号结合可能带来更大信息内容安全风险时,应在我国现有账号管理机制中强化对机器人账号的身份识别监管和对权威账号的特殊认定,减少机器人批量推送AIGC(人工智能生成内容)。中国已经在内容监管领域积累了较多经验并取得先机,监管人工智能生成内容也成为制定全球规范和标准的一种重要方式。
第二,深度合成的法律担责链条。深度合成中生成型人工智能技术链条的参与者包括:开发者建模并预训练大模型;部署者根据应用需求,或单独或与开发者合作进行参数微调;用户最终与生成型人工智能互动,并决定生成型人工智能的具体用途。在生成型人工智能的技术产出链条上,技术开发者是关键,因而深度合成合规责任在技术链上进行可行性的责任分配显得尤为重要。鉴此,我国的深度合成监管应围绕服务提供者设计制度:一是在生成型人工智能的治理中,应对技术开发者提出更严格的要求,如训练数据的标注、文件记录和保存、保障技术透明度等。面对Open AI、Stability这样的大型技术开发者,在开发阶段仅有伦理要求是无法满足监管目标的。可以考虑通过对技术的获利者征收庇古税平衡技术获利与风险行为。监管者对深度合成的审计,可通过定期随机抽取方式进行,并依据审计结果对深度合成技术的获利者征税。二是对生成型人工智能的部署者应结合其应用场景设置义务,该义务的结构安排制度必须使部署者和使用者能够有合理预期,包括必要的技术调整和合规成本。否则,过于强调绝对的信息内容安全,会阻碍深度合成产业的发展。三是在用户层面进一步细化管理。对于使用AIGC(人工智能生成内容)为他人提供服务的专业用户,如使用ChatGPT撰写法律文书,用AI绘画提供设计装饰服务,使用生成型人工智能编码或提供教育服务等经营活动,应承担人工智能生成内容的标识义务。对于普通的深度合成用户,应进一步通过技术手段等强化其义务。如我国现有的深度合成监管中,要求上传照片生成换脸视频的用户必须取得当事人的同意,但实践中尚缺少有效的落地机制和制约手段。在用户与生成型人工智能明文互动的情况下,如何通过技术加强对用户行为的合法性约束,是下一步技术开发和制度设计应认真对待的问题。
第三, 深度合成的监管工具升级。(1)算法歧视的传统监管工具,在面对生成型人工智能时会遇到挑战。既往人工智能公平性治理中采取的通用性应对措施,如过滤器和模型调整,定量偏差评估和基准测试等,在ChatGPT这类预训练模型系统治理中会遇到挑战。不过技术界仍在不断尝试,如斯坦福大学以人为本人工智能研究院基础模型研究中心推出大型语言模型(LLM)的整体评估,评估包括准确性、校准、鲁棒性、公平性、偏差、毒性和效率等模型完备的各个关键要素,旨在提高语言模型透明度,帮助公众理解大型语言模型。(2)深度合成的数据和隐私安全同样需要新的技术支撑和保障。在深度合成营造的数字虚拟生存场景中,用户需要头盔和手持器等VR设备实现沉浸式互动。VR中数据收集的范围和规模超出了目前网络平台的能力,攻击者可通过几分钟的数据流轻松识别VR用户,或通过在虚拟环境中植入制品诱导用户透漏个人信息。这都需要网络安全技术、监管技术的全面升级以更好地加强监管。
(三) 分级分类标准的有机体系化
深度合成对多元的分级分类标准提出了巨大挑战。一是深度合成应用覆盖范围广泛,既包括信息内容安全,也包括数字人、数字虚拟场景、数字孪生等应用模式,继续适用“具有舆论属性或者社会动员能力”的算法分类标准,已难以适应生成合成类算法的分级治理。二是深度合成中的生成型人工智能具有一定通用性。按照全盘人工智能的治理模式,如欧盟《人工智能法案》,要求识别和分析所有最可能对健康、安全和基本权利产生的已知和可预见的风险,按此模式进行监管,则一旦生成型人工智能被用于一个高风险用途,整个预训练大模型都会落入高风险的规制范围,需要进行性能、稳健性和网络安全测试。而生成型人工智能需要巨额投资,高企的合规成本显然不利于企业投资和研发。三是深度合成的生成型人工智能需要海量数据进行训练,而数据的汇聚和量级本身就被认定为具有较高风险。如达到一定量级的个人信息处理如果发生重大网络安全事件,在我国法律体系中被列为与重要数据安全事件同等级别的事件,《关键信息基础设施条例》明确将二者并列。与此类似,《网络安全审查办法》也将重要数据、关键信息基础设施与大量个人信息的风险并列。由此可见,深度合成监管的分级分类标准设计,既需要统筹技术、产业和应用的不同分层,也需要消解数据分级分类中的量级考量因素,有机协调做出针对性制度安排。从产业链角度看,技术底层的大模型与数据集成为真正意义上的“信息基础设施”。AIGC(人工智能生成内容)产业需要生成型人工智能支持,提供垂直化、场景化的工具和模型———作为幕后产业链的上游,需要后端基建如渲染公司、底层架构如引擎公司等支撑;应用层面的内容生成应用属于产业链下游,需要面向各行业的内容与场景等技术支撑。在数据、算法、主体等分级分类方法难以适用于生成型人工智能的背景下,应在产业链条层面首先纵向划分深度合成的技术、产业和应用层,再对技术研发、产业落地和技术应用分级分类设计管理制度。
第一, 不宜将深度合成尤其是生成型人工智能一概纳入高风险治理框架,而应根据生成型人工智能的预训练大模型、海量数据等特征单独设计监管制度。在深度合成领域,应回避欧盟有意识的法律输出,坚持符合中国本土的治理路径。欧盟《人工智能法》《数字市场法》《数字服务法》三部协同立法影响巨大,其目的是为了确保公司不会滥用人工智能并承担相应责任,避免可能的伤害;但每项立法都要求对符合特定标准的公司进行独立审计、安全评估或者第三方审计,给产业发展造成了沉重负担,可谓“数字经济的幼儿,数据监管的巨匠”。我国在信息内容安全领域已经具备相较于其他国家更多的实践经验,坚持分层治理,尤其是加强生成内容的专门化治理,可避免合规成本过高阻碍深度合成产业的发展。
第二, 区分技术、产业和应用层面分级分类设计制度,在技术与产业层面加大扶持力度,在应用层面参考现有分级分类标准完善监管制度。鉴于深度合成发展需要大量资源、开展技术竞赛,集中力量发展技术、产业将成为我国的必然选择,因此需针对某些特定企业和信息基础设施加强人工智能伦理监管、网络安全和数据安全保障。如我国《新型数据中心发展三年行动计划(2021-2023年)》提出新型数据中心应具备高技术、高算力、高能效、高安全等特征。在深度合成应用层面,可参考现有的分级分类标准,依据其舆论属性或者社会动员能力、内容类别、用户规模、对用户行为的干预程度等实施分级分类管理。因为在现阶段通过一部法律来协调对所有人工智能系统的监管,显然很难保证立法的高度适用性。
第三, 应建立敏捷治理体系,并留足前瞻性制度发展空间,以保障技术的长远发展。对于一个调整范围广泛、潜在的变革性立法框架来说,过于宽泛和固定的人工智能立法并不适当。人工智能专家和非专业公民之间的认识不对称可能促使风险监管严重依赖专家的判断。深度合成的发展正在迅速催生多个产业和价值生产模式,合成数据、数字孪生、数字人、元宇宙等未来的制度发展都需要治理的敏捷应对。正如专家调查了欧盟现有的治理方案之后得出的结论:“人工智能将重新需要一个灵活和反应迅速的治理框架,以最大限度地提高其重新应对不断变化的风险和问题的能力。”
五、结语