5熊猫网

 找回密码
 免费注册

QQ登录

只需一步,快速开始

开启左侧
查看: 103|回复: 0
 豚鹿 发表于: 2021-12-29 08:59:00|显示全部楼层|阅读模式

[2021年] AAAI 2022 | 无注意力+PatchOut,复旦大学提出面向视觉transformer的迁移攻击方法

 [复制链接]
源自:机器之心Pro
  机器之心专栏
⊙作者:复旦大学以人为本人工智能研究中心

  本文中,来自复旦大学以人为本人工智能研究中心和马里兰大学的研究者提出了一种双重攻击框架,以提高不同 ViT 模型之间,甚至 ViT 与 CNN 之间对抗样本的迁移性。
  与卷积神经网络(CNN)相比,Vision transformers(ViTs)在一系列计算机视觉任务中表现出惊人的性能。然而,ViTs 容易受到来自对抗样本的攻击。在人的视角中,对抗样本与干净样本几乎没有区别,但其包含可以导致错误预测的对抗噪声。此外,对抗样本的迁移性允许在可完全访问的模型(白盒模型)上生成对抗样本来攻击结构等信息未知的模型(黑盒模型)。
  目前,对抗样本的迁移性在 CNNs 中得到了较为详尽的研究。这些工作利用数据增强或更优的梯度计算来防止对抗样本过拟合白盒模型,以此提高针对黑盒模型的攻击成功率。但关于 ViTs 中对抗样本迁移性的研究较少,且由于 CNNs 和 ViTs 间结构存在较大差异,在 CNNs 中表现良好的方法很难迁移到 ViTs 中来。
  针对 ViTs 结构中的图像块(patch)输入和多头自注意力(Multi-headed Self-Attention,MSA)模块,来自复旦大学以人为本人工智能研究中心和马里兰大学的研究人员提出了双重攻击框架,包含无注意力(Pay No Attention,PNA)攻击和 PatchOut 攻击,来提高不同 ViT 模型之间甚至 ViT 与 CNN 之间对抗样本的迁移性。研究论文已被 AAAI 2022 接收。
3502-f56294e8b1800332239072f5b045ebc9.png
论文链接:https://arxiv.org/pdf/2109.04176.pdf
  代码链接:https://github.com/zhipeng-wei/PNA-PatchOut
  无注意力攻击
  ViTs 中的 MSA 模块通过映射来自多头的拼接输出,整合来自不同表示子空间的信息。而研究人员发现在梯度反向传播过程中跳过注意力路径(如下图(a)所示),可以有效提升对抗样本的迁移性。为了验证这一假设,研究人员将 ViT-B/16 模型中的 12 层 MSA 模块划分为 3 个部分:MSA 1-4,MSA 5-8 和 MSA 9-12。通过包含或删除每一部分的注意力路径,可获得 8 条不同的梯度反向传播路径。
  这里使用 BIM(Basic Iterative Method)方法沿着 8 条不同梯度反向传播路径生成对抗样本,并评估在其他黑盒 ViTs 模型上的攻击成功率。该结果如下图(b)所示,红色路径表示梯度反向传播路径经过所有 MSA 模块,绿色路径表示跳过所有 MSA 模块中的注意力路径。结果显示通过在梯度反向传播中跳过注意力路径可以将迁移攻击成功率由 29.92% 提高至 42.47%。
  PNA 攻击允许每个 patch 关注自身,而不是依赖于复杂的 patch 间的相互作用。而在 Interaction-Reduced(IR)攻击中表明对抗迁移性与 patch 间的相互作用负相关。因此,PNA 攻击可降低 patch 间相互作用,从而提升对抗迁移性。这是 PNA 可提升对抗迁移性的一个原因。
c77c-ae5bbf8b18746be5185e32df4ceb38e7.png
PNA 攻击的示意图和验证性实验
  使用
42cd-8c610f4e8f62e6d70fa88c06cbdd86d1.png
表示输入的 patch embedding,其中N为 patch 的数目,D为 patch 的特征大小;使用
ffc3-c72ae3c337fc9f78efffcdf39706c624.png
分别表示 query、key 和 value 的权重,那么注意力图可以表示为:
861f-d8e4b693514df88f5a054fe3fa1ed1f6.png
得到的注意力图
ee6d-2c86c35ffdb33e978dccb4a0d9b3b6fd.png
,那么该 MSA 模块的输出则为:
9753-729ad07f83a395aeb5ac69bfe1ebdc8b.png
此时,Z关于输入Z的梯度信息可以表示为:
5363-a3e9e57425fd97e64c323dc26ace72f2.png
其中
5119-98186d6e4737b8392d545d752f238e75.png
表示 Kronecker 积。由于 PNA 攻击在梯度反向传播过程中跳过了注意力路径,则
22f1-3806cbab5f253bf66f84421f4ed23179.png
,那么梯度信息将变为:
f335-37d2af1e1982481d7af135171f3cfb2b.png
通过以上方式,PNA 攻击强迫白盒 ViTs 模型不利用高度模型特异的注意力信息,而挖掘 patch 自身的特征表达,以此生成具有高迁移性的对抗样本。
  PatchOut 攻击
  ViTs 将输入图像划分为多个 patch 来作为输入。根据这一特性,PatchOut 攻击在每次迭代攻击中随机选择部分 patch 来生成对抗样本。该操作类似于在 patch 中执行 dropout 操作来减轻过拟合。此外,还类似于 Diversity Input(DI)攻击,采取多样性的输入来提升对抗样本的迁移性。为了验证 PatchOut 的有效性,研究人员随机选择 10 个 patch 作为一个输入模式,称之为“ten-patches”。下图展示了不同 ten-patches 数目下单独优化和整体优化对于迁移攻击成功率的影响。可以看出,叠加单独优化的 ten-patches 噪声比整体优化的相同的 ten-patches 噪声具有更高的迁移性。这一结果说明通过叠加来自不同输入模式的噪声可以提高对抗样本的迁移性。
bf7c-c0292dc4df5fdcb0537113442c7f0e78.png
不同 ten-patches 数目下的攻击成功率对比
  由于迭代攻击次数的限制,PatchOut 攻击选择在每次迭代中随机选取部分 patch 来生成对抗噪声。这里,使用
bcfc-ec2f57eddfb7ab3bb71f7c10a469dfc8.png
表示输入图像,
0579-0ff79c034b8e4940b547a8512975c895.png
表示其对应真实标签,其中H,W,C分别表示图像的高度,宽度和通道数,K表示类别数目。使用
5eb3-9b78ed959e5ffcc6d2b936978ebc2873.png
表示 patch,其中表示x的第i个 patch,(P,P)表示的分辨率,
f0af-c3ffa119419da3f567c32ca02f3bc7c8.png
为 patch 的数目。使用
b9fd-29f3df2ce70afd277384cfbc39a976f8.png
表示模型对于输入的预测结果。定义为对抗噪声,那么攻击目标可以定义为
1c49-4782024996697aabdd7794ce72eee21c.png
,其中
b29c-6b9c15f882b5cb5bf34a0a5c3828b943.png
,且限制
e1be-f53f51bab32498d7c61823ba5e8000fd.png
。定义
eaae-174c3621aa4ee449505977a43efcf914.png
为损失函数。使用来控制在每次迭代中 patch 的数目,并且使用
e0ed-de2e09159c3fe9a42d0723df00f5501e.png
来表示选择到的 patch。那么攻击掩码
542e-7f965469d52a54147019b39d5520e659.png
可定义为:
71e7-fbb57db301725e0b055051ee2f48708b.png
其中
dccd-e8f96b4565bccdd68e647d6d8590b97f.png
为所对应的掩码。结合最大化 L2 距离后,PatchOut 攻击的目标函数可以定义为:
fd26-1c322748edccd4af032f0386f262af52.png
其中
  表示逐元素相乘,损失中的第二项鼓励对抗样本远离x,λ为控制 L2 项和损失项间平衡的超参数。
  双重攻击框架的整体算法如下,其中
c5a9-5a30216b6b86fdcfe958a025d3f7828c.png
用来限制生成的对抗噪声满足
1818-5802a51b51436240ff84a6d3283e897c.png
a74c-be8c2aeda5bb09f94579bd77e2fec37a.png
结果讨论与分析
  为了探究 PNA 和 PatchOut 攻击的性能,研究人员在 ImageNet 数据集上,针对 8 个 ViTs 模型:ViT-B/16、DeiT-B、TNT-S、LeViT-256、PiT-B、CaiT-S-24、ConViT-B、和 Visformer-S,4 个 CNNs 模型:Inception v3、Inception v4、Inception Resnet v2 和 Resnet v2-152,3 个经过对抗训练的 CNNs 模型:Inception v3_ens3、Inception v3_ens4、Inception Resnet v2_ens 进行实验。其中,分别选取 ViT-B/16、PiT-B、CaiT-S-24、Visformer-S 作为白盒模型来生成对抗样本,使用剩余的模型作为黑盒模型,并计算攻击成功率(Attack Success Rate,ASR)来评估对抗样本的迁移性。
  研究人员首先在不同的 ViTs 中评估了双重攻击框架的性能,如下表所示。首先 TI 和 ATA 作为在 CNNs 上有效的迁移性方法,却在 ViTs 中表现不佳。这是由于 ViTs 的模型结构具有较 CNNs 更少的图像特异的归纳偏差。其次,受限于类别词元(class tokens)的数目,专门为 ViTs 设计的 SE 方法的性能也较差。而研究人员提出的双重攻击方法取得了最好的性能,可平均达到 58.67% ASR。该实验结果验证了所提出双重攻击框架在不同 ViTs 模型间的有效性。
bf73-5f82fb7731b8118f72a47217efc46367.png
不同攻击方法在 ViTs 上的攻击成功率结果对比
  研究人员进一步利用 ViTs 上生成的对抗样本攻击 CNNs 模型,其结果如下表所示。首先,所有方法的 ASR 发生了显著地下降,这意味着对抗样本在同结构模型中更易迁移。其次,与其他方法相比,所提出的双重攻击框架仍旧实现了更好的性能。该结果表示使用 ViTs 来攻击经过对抗训练的 CNNs 是可行的。
5775-72cdb4cf9169017b7539db235dcbd4be.png
不同攻击方法在 CNNs 上的攻击成功率结果对比
  所提出的双重攻击框架还可以与其他现有方法相结合,以进一步提升对抗样本的迁移性。其结果如下表所示。可以看出,结合现有方法后可在 ViTs,CNNs 和经过对抗训练的 CNNs 上都取得更好的性能。结果证明了双重攻击方法的易拓展性。
4b80-035bbcba4e72856a3773ccdd180e4044.png
结合现有方法的平均 ASR 结果对比
  此外,研究人员还针对双重攻击框架中的多个组件进行了消融实验,如下表所示。可以看到,任何一个组件都可以在 ViTs 和 CNNs 上带来性能提升,其中 PNA 攻击方法提升最明显。且当组合三个组件时达到了最佳结果,表明三个组件以互补的方式提高了对抗样本的迁移性。
c4ab-2bf5494eda3ecb52ab8a056d8d3242c8.png
不同组件的性能对比结果
  研究人员还对使用 patch 的数目T和超参数λ进行了调节。当T=N时,PatchOut 方法退化为 BIM 方法。而当T过于小时,PatchOut 无法在有限的迭代次数里生成更强的对抗样本,因此对于参数T取值的研究是十分有必要的。下图(a)展示了不同T的 ASR,可以看出当T=130时,PatchOut 攻击可取得最优的结果。此外,图(b)对不同取值的超参数进行了研究。当λ=0.1时,PatchOut 取得最好的结果。
c7a2-4477086e1221f5fcde21a8a3c2c2aa5b.png
使用不同(a)或(b)下 ASR 的变化情况
『 5熊猫网 』提醒,在使用本论坛之前您必须仔细阅读并同意下列条款:
  1. 遵守《全国人大常委会关于维护互联网安全的决定》及中华人民共和国其他各项有关法律法规,并遵守您在会员注册时已同意的《『 5熊猫网 』管理办法》;
  2. 严禁发表危害国家安全、破坏民族团结、破坏国家宗教政策、破坏社会稳定、侮辱、诽谤、教唆、淫秽等内容;
  3. 本帖子由 豚鹿 发表,享有版权和著作权(转帖除外),如需转载或引用本帖子中的图片和文字等内容时,必须事前征得 豚鹿 的书面同意;
  4. 本帖子由 豚鹿 发表,仅代表用户本人所为和观点,与『 5熊猫网 』的立场无关,豚鹿 承担一切因您的行为而直接或间接导致的民事或刑事法律责任。
  5. 本帖子由 豚鹿 发表,帖子内容(可能)转载自其它媒体,但并不代表『 5熊猫网 』赞同其观点和对其真实性负责。
  6. 本帖子由 豚鹿 发表,如违规、或侵犯到任何版权问题,请立即举报,本论坛将及时删除并致歉。
  7. 『 5熊猫网 』管理员和版主有权不事先通知发帖者而删除其所发的帖子。
您需要登录后才可以回帖 登录 | 免费注册

本版积分规则

© 2002-2025, 蜀ICP备12031014号, Powered by 5Panda
GMT+8, 2025-5-5 05:05, Processed in 0.140400 second(s), 9 queries, Gzip On, MemCache On
快速回复 返回顶部 返回列表