iFormer融合卷积和最大池化的全新架构

摘要

最近的研究表明,Transformer 具有很强的构建远程相关性的能力,但在捕获传递局部信息的高频信息方面表现较差。为了解决这个问题,作者提出了一种新型的通用 Inception Transformer,简称 iFormer,它可以有效地学习视觉数据中的高频和低频信息的综合特征。


具体而言,作者设计了一个 Inception mixer,以移植卷积和最大池化的优点,将高频信息捕获到 Transformer。与最近的混合框架不同,Inception mixer 通过通道分裂机制带来了更高的效率,采用并行卷积/最大池化路径和自注意路径作为高频和低频混频器,同时能够灵活地建模分散在较宽频率范围内的鉴别信息。


考虑到底层在捕捉高频细节方面的作用更大,而顶层在建模低频全局信息方面的作用更大,作者进一步引入了一种频率渐变结构,即逐渐减小馈送到高频混频器的尺寸,增加馈送到低频混频器的尺寸,它可以有效地在不同层之间权衡高频和低频分量。


作者在一系列视觉任务中对 iFormer 进行了基准测试,并展示了它在图像分类、COCO 检测和 ADE20K 分割方面取得的惊人的性能。例如,iFormer-S 在 ImageNet-1K 上达到了83.4% 的 Top-1 精度,比 DeiT-S 高出了 3.6%,甚至比更大的 Swin-B(83.3%)略好,只有 1/4 的参数和 1/3 的 FLOPs.


iFormer融合卷积和最大池化的全新架构


论文和代码地址


论文标题:


Inception Transformer


论文地址:


https://arxiv.org/abs/2205.12956


代码地址:


https://github.com/sail-sg/iFormer


bd2324e1c9e069e8da8e3b25472d78f8.png


Motivation


Transformer 在自然语言处理(NLP)领域掀起了高潮,在许多 NLP 任务中取得了不错的高性能,例如机器翻译和问答。这在很大程度上归功于它具有强大的能力,能够利用自注意机制对数据中的长期依赖关系进行建模。它的成功使研究人员研究了它对计算机视觉领域的适应性,视觉 Transformer(ViT)是一个先驱工作,该结构直接继承自 NLP,但应用于以原始图像块作为输入的图像分类。后来,开发了许多 ViT 变体,以提高性能或扩展到更广泛的视觉任务,例如,目标检测和分割。


ViT 及其变体能够捕获视觉数据中的低频率信息,主要包括场景或对象的全局形状和结构,但对于学习高频率(主要包括局部边缘和纹理)的能力不是很强。这可以直观地解释:ViTs 中用于在非重叠 patch token 之间交换信息的主要操作 self-attention 是一种全局操作,比起局部信息(低频),它更适合捕获全局信息(高频)


iFormer融合卷积和最大池化的全新架构


如图 1(a)和 1(b)所示,傅里叶频谱和傅里叶的相对对数振幅表明,ViT倾向于很好地捕捉低频信号,但很少捕捉高频信号。这表明ViT呈现出低通滤波器的特征。这种低频偏好性会损害 VIT 的性能,因为:1)所有层中的低频信息填充可能会恶化高频成分,例如局部纹理,并削弱 VIT 的建模能力;2) 高频信息也是有区别的,可以帮助完成许多任务,例如(细粒度)分类。


实际上,人类视觉系统以不同的频率提取视觉基本特征:低频率提供有关视觉刺激的全局信息,高频率传达图像中的局部空间变化(例如,局部边缘/纹理)。因此,有必要开发一种新的ViT结构,用于捕获视觉数据中的高频和低频。


CNN 是一般视觉任务最基本的支柱。与 VIT 不同,它们通过感受野内的局部卷积覆盖更多的局部信息,从而有效地提取高频表示。最近的研究考虑到 CNN 和 VIT 的互补优势,将其整合在一起。一些方法以串行方式堆叠卷积和注意层,以将局部信息注入全局上下文。


不幸的是,这种串行方式仅在一个层中对一种类型的依赖项(全局或局部)进行建模,并在局部建模期间丢弃全局信息,反之亦然。其他的工作采用平行注意和卷积来同时学习输入的全局和局部依赖性。然而,一部分通道用于处理局部信息,另一部分用于全局建模,这意味着如果处理每个分支中的所有通道,则当前的并行结构具有信息冗余。


为了解决这个问题,作者提出了一种简单有效的 Inception Transformer(iFormer),它将 CNN 捕捉高频的优点移植到 ViT 上。iFormer 中的关键组件是 Inception token mixer。该 Inception mixer 旨在通过捕获数据中的高频和低频来增强 VIT 在频谱中的感知能力。


为此,Inception mixer 首先沿通道维度拆分输入特征,然后将拆分后的分量分别送入高频混频器和低频混频器。在这里,高频混频器由最大池化操作和并行卷积操作组成,而低频混频器由 ViTs 中的自注意力实现。通过这种方式,本文的 iFormer 可以有效地捕获相应通道上的特定频率信息,从而在较宽的频率范围内学习比 ViT 更全面的特征。


此外,作者发现,较低层通常需要更多的局部信息,而较高层需要更多的全局信息。这是因为,与人类视觉系统一样,高频成分中的细节有助于较低层捕捉视觉基本特征,并逐渐收集局部信息,以便对输入进行全局理解。受此启发,作者设计了一种频率斜坡结构(frequency ramp structure)。具体来说,从低层到高层,作者逐渐将更多的通道尺寸馈送到低频混频器和更少的通道送入到高频混频器。这种结构可以在所有层之间权衡高频和低频分量。


实验结果表明,iFormer 在图像分类、目标检测和分割等多项视觉任务上均优于 SOTA 的 ViTs 和 CNN。例如,如图 1(c)所示,在不同的模型尺寸下,iFormer 对 ImageNet-1K 上流行的框架进行了一致的性能提升,例如 DeiT、Swin 和 ConvNeXt。同时,iFormer 在 COCO 检测和 ADE20K 分割方面优于最近的框架。

方法


3.1 Revisit Vision Transformer


对于视觉任务,Transformers 首先将输入图像分割为一系列 token,每个 patch token 被投影到一个隐藏的表示向量中,该向量具有一个更精简的层,表示为 或 ,其中 N 是 patch token 的数量,C 表示特征的维度。然后,将所有 token 与位置嵌入相结合,并馈送到包含多头自注意(MSA)和前馈网络(FFN)的 Transformer 层。


iFormer融合卷积和最大池化的全新架构


在 MSA 中,基于注意力的混合器在所有 patch token 之间交换信息,因此它将重点放在聚合所有层的全局依赖关系上。然而,全局信息的过度传播将加强低频表示。


从图 1(a)中傅里叶频谱的可视化可以看出,低频信息主导ViT的表示。但这实际上会损害ViT的性能,因为它可能会恶化高频成分,例如局部纹理,并削弱ViTs的建模能力。在视觉数据中,高频信息也是有区别的,可以帮助完成许多任务。因此,为了解决这个问题,作者提出了一种简单有效的 Inception Transformer,如上图所示,具有两个关键的新颖之处,即 Inception mixer 和频率斜坡结构。


3.2 Inception token mixer


iFormer融合卷积和最大池化的全新架构


作者提出了一种 Inception mixer,将 CNN 提取高频表示的强大功能移植到 Transformer 中。其详细架构如上图所示。Inception mixer 不是直接将图像 token 输入 MSA 混频器,而是首先沿通道维度拆分输入特征,然后分别将拆分后的分量输入高频混频器和低频混频器。这里,高频混频器由最大池化操作和并行卷积操作组成,而低频混频器由自注意力实现。


从技术上讲,给定输入特征映射 ,将 沿着通道维度分解为 和 ,其中 。然后, 和 分别分配给高频混频器和低频混频器。

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章