服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

如何阻止针对AI模型的对抗性攻击

日期: 来源:安全牛收集编辑:aqniu

人工智能(AI)技术的进步已对人类社会产生了重大影响,但也引起了研究人员的担忧,因为随着AI技术的深入应用,与之相应的对抗性攻击也变得越来越普遍。这些攻击可能会对AI系统的安全性和可靠性造成威胁,甚至产生破坏性的后果。本文将对AI模型应用中的对抗性攻击及其威胁进行分析,并探讨一些有效的防御方法。


对抗性攻击的类型


对抗性攻击是指利用AI模型中的不足和漏洞,破坏AI模型用来学习的数据,并生成能够欺骗模型的对抗样本。这些样本看起来与正常数据非常相似,但是却能够导致模型产生错误的输出结果。目前,对抗性攻击已经成为了人工智能技术应用领域中一个非常重要的研究方向。


在对抗性攻击中,攻击者会用多种方法生成对抗样本,例如快速梯度符号方法(FGSM)、基于梯度的优化方法(BIM)、投影算法攻击(PGD)等。这些方法都是通过对原始数据进行扰动,从而欺骗AI模型。根据威胁分子了解AI模型的不同方式,我们可以将AI对抗性攻击分为以下两类:


1.白盒攻击


在白盒攻击中,威胁分子已经充分了解AI模型的内部工作原理,知道其规格、训练数据、处理技术和详细参数,能够设计专门针对该模型的对抗性攻击。

白盒攻击的第一步是改变原始训练数据,修改后的数据仍将与原始数据非常相似,但足以导致AI模型生成不准确的结果。在攻击之后,威胁分子还会通过为模型反馈对抗性示例(旨在导致模型出错的失真输入)来评估模型的有效性,并分析输出。结果越不准确,攻击就越成功。


2. 黑盒攻击


如果攻击者只能获取AI模型的输入和输出,无法获取其内部结构和参数,就会使用黑盒攻击方法。在这种攻击场景下,攻击者需要使用一些基于元模型或迁移学习的技术来生成对抗性样本。黑盒攻击的第一步是选择AI模型的输入目标。然后,通过为数据添加精心设计的干扰信号来生成恶意输入,这些干扰信号是人眼看不见的,却能导致AI模型功能失灵。模型生成的结果可以帮助攻击者不断修改版本,直到模型会反馈他们希望实现的对抗性结果。


对抗性攻击的手段


恶意攻击者可以使用不同的技术来执行对抗性攻击,主要包括:


1.  投毒


攻击者可以操纵(毒化)AI模型的一小部分输入数据,以破坏其训练数据集和准确性。最常见的投毒形式是后门投毒,即使极少一部分训练数据受到影响。在很长时间里,AI模型仍然可以继续给出高度准确的结果,直到它在接触特定的触发器时被“激活”而功能失灵。


2. 逃避


这种技术的攻击危害较大,因为它可以通过规避AI的安全系统来避免被发现。大多数AI模型配备了异常检测系统。而逃避技术充分利用了针对这些系统的对抗性实例。对自动驾驶汽车或医疗诊断模型等应用领域,使用逃避攻击带来的不准确结果可能会酿成严重后果。


3. 传递


使用这种技术的威胁分子不需要事先了解AI模型的参数。他们使用在过去成功攻陷的模型来发起对抗性攻击。如果一个AI系统被训练用于处理对抗性样本,那么它可能会将正常数据也误分类为对抗性样本。这种情况下,一个已经被攻破的模型可能会成为其他模型的威胁。


4. 代理


攻击者也可以使用代理模式来规避AI模型的安全防护系统。通过使用这种技术,威胁分子可以创建与目标模型非常相似的版本,即代理模型。代理模型的结果、参数和行为与被复制的原始模型高度相似。这种攻击多被用于针对原始目标AI模型。


阻止对抗性攻击的方法


解决对抗性攻击问题是非常必要的。研究人员提出了一些技术性方法来提高模型的鲁棒性。同时,也需要加强安全意识和技术防范措施,在实际应用中保障AI系统的安全和可靠性。


1.对抗性训练


对抗性训练是指使用对抗性示例来训练AI模型,提高了模型的稳健性,让模型能够适应各种恶意输入。对抗训练是目前应用最广泛的一种防护方法。在对抗训练中,模型会被迫学习如何处理对抗性样本,从而提高其鲁棒性。但是,对抗训练也存在一些问题,例如需要大量的计算资源和时间,并且可能会导致模型过度拟合等。


2.定期安全审计


通过定期检查AI模型异常检测系统,可以有效识别和过滤对抗性样本。这需要有意为模型馈送对抗性示例,并密切关注模型面对恶意输入时的行为。此外,开展安全审计通常需要额外的检测工具和模块,可能会影响系统效率。


3.数据净化/干扰


这个方法指使用输入验证来识别模型中的恶意输入。当识别恶意软件后,必须立即清除。使用输入验证来识别。同时,也可以在输入数据中添加一些随机噪声或扰动,以增加攻击者生成对抗性样本的难度。


4.模型融合


可以将多个深度学习模型进行融合,以提高整体系统的鲁棒性和安全性。不过在多个AI模型的融合过程中,可能会增加系统的复杂度和计算成本。


5.安全更新


实施高效的安全更新管理和补丁更新也很重要,不是防火墙、反恶意软件程序、入侵检测防御系统,这类多层安全措施有助于阻止攻击者对AI模型应用造成外部干扰。


参考链接:

https://www.makeuseof.com/what-are-adversarial-attacks-ai-models-and-how-to-stop-them/


相关阅读

将AI技术嵌入数字风险防护与安全运营迫在眉睫

比GPT-4更强大的AI模型训练应该被暂停吗?


合作电话:18311333376
合作微信:aqniu001
投稿邮箱:editor@aqniu.com


相关阅读

  • 360智脑首发上手实测,到底是个啥水平?

  • “ 周鸿祎为什么总爱聊 GPT ? ” 这是上个月底,周鸿祎在展示自家新的大语言模型产品上亲自问的问题。这也是人们第一次知道,一个主打安全服务的 360 公司,居然也在默不作声地
  • 商汤加入AI大模型混战,更看重模型能力而非规模

  • 商汤不仅有自己的大模型,也在为行业内其他公司的大模型提供基础设施服务位于上海临港,商汤人工智能计算中心是亚洲最大的人工智能计算中心之一文|施然4月10日,AI公司商汤科技公
  • 如何在辅导中做到因材施教:这里有一套完整攻略

  • 辅导与知识管理,是培训体系落地及培训项目落地的重要保证,也是管理者必备的领导力。在721人才发展模型中,辅导在20%的向他人学习中,具有举足轻重的作用。并且,在70%的实践中,辅导

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四
  • 美国对华2000亿关税清单,到底影响有多大?

  • 1 今天A股大跌,上证最大跌幅超过2%。直接导火索是美国证实计划对华2000亿美元产品加征25%关税。 听起来,2000亿美元数目巨大,我们来算笔账。 2000亿美元,按现在人民币汇率

最新文章

  • 如何阻止针对AI模型的对抗性攻击

  • 人工智能(AI)技术的进步已对人类社会产生了重大影响,但也引起了研究人员的担忧,因为随着AI技术的深入应用,与之相应的对抗性攻击也变得越来越普遍。这些攻击可能会对AI系统的安全
  • 提前泄密上海车展,没想到全是黑幕。。。

  • 就在明天,两年一度的上海车展就要开幕了。今天脖子哥拉着差评君,提前一天去到了展馆,本想着赶在大部队报道之前给大家整点一手的猛料。(PS:文末有视频哦~)去了以后才发现,车展现场
  • 360智脑首发上手实测,到底是个啥水平?

  • “ 周鸿祎为什么总爱聊 GPT ? ” 这是上个月底,周鸿祎在展示自家新的大语言模型产品上亲自问的问题。这也是人们第一次知道,一个主打安全服务的 360 公司,居然也在默不作声地