Involution-Convolution 电玩女神 2022-09-04 11:40 6阅读 0赞 # 卷积(Convolution) # 卷积神经网络一直都是计算机视觉任务的标配。卷积有两个基本的性质: * 空间不变性(spatial-agnostic) 空间不变性使得卷积能够在所有位置共享参数,并充分利用视觉特征的“平移等变性”。 * 通道特异性(channel-specific) 通道特异性使得卷积能够充分建模通道之间的关系,提高模型的学习能力。 ## 卷积过程 ## * Standard Convolution ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70] 设 X ∈ R H × W × C i X \\in R^\{H \\times W \\times C\_i\} X∈RH×W×Ci是输入的特征图像, H , W H,W H,W是特征图的高度和宽度, C i C\_i Ci是输入的通道数。在特征向量 X X X的立方体内部,位于图像点阵单元中的每个特征向量 X i , j ∈ R C i X\_\{i,j\} \\in R^\{C\_i\} Xi,j∈RCi认为是代表某些高级语义模式的像素。 一组固定核大小为 K × K K \\times K K×K的 C 0 C\_0 C0卷积滤波器表示为 F ∈ R C 0 × C i × K × K F \\in R ^\{C\_0 \\times C\_i \\times K \\times K\} F∈RC0×Ci×K×K, 其中每个滤波器 F k ∈ R C i × K × K , k = 1 , 2 , . . . , C 0 F\_k \\in R ^\{C\_i \\times K \\times K\}, k=1,2,...,C\_0 Fk∈RCi×K×K,k=1,2,...,C0,包含 C i C\_i Ci卷积核 F k , c ∈ R K × K , c = 1 , 2 , . . . , C i F\_\{k,c\} \\in R ^\{K \\times K\}, c=1, 2, ..., C\_i Fk,c∈RK×K,c=1,2,...,Ci。并以滑动窗口的方式对输入特征图执行乘加运算以产生输出特征图 Y ∈ R H × W × C 0 Y \\in R^\{H \\times W \\times C\_0\} Y∈RH×W×C0 ![在这里插入图片描述][fc311b0b80324bdf9a4886793261bf10.png] 其中, Δ K ∈ Z 2 \\Delta K \\in Z^2 ΔK∈Z2是指考虑在中心像素上进行卷积的邻域中的一组偏移量, × \\times ×表示笛卡尔积。 ![在这里插入图片描述][f0101463f1dd4266b15246c3ae22adef.png] * Depthwise Convolution ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 1] 不同于常规卷积操作,Depthwise Convolution的一个卷积核负责一个通道,一个通道只被一个卷积核卷积。常规卷积每个卷积核是同时操作输入图片的每个通道。Depthwise Convolution完成后的Feature map数量与输入层的通道数相同,无法扩展Feature map。而且这种运算对输入层的每个通道独立进行卷积运算,没有有效的利用不同通道在相同空间位置上的feature信息。因此需要Pointwise Convolution来将这些Feature map进行组合生成新的Feature map。即Depthwise层,只改变feature map的大小,不改变通道数。 深度卷积将组卷积 的公式推到了极致,其中每个过滤器(实际上退化为单个内核) G k ∈ R K × K , k = 1 , 2 , ⋅ ⋅ ⋅ , C o G\_k \\in R^\{K×K\}, k = 1, 2, · · · ,Co Gk∈RK×K,k=1,2,⋅⋅⋅,Co,对由 k k k 索引的单个特征通道严格执行卷积,因此在假设输出通道数等于输入通道数的情况下,从 F k F\_k Fk 中消除第一维以形成 G k G\_k Gk。 就目前而言,卷积运算变为 ![在这里插入图片描述][b15fe0726eb44a6694052f9645f96420.png] 请注意,从通道的角度来看,内核 G k G\_k Gk 特定于第 k k k 个特征切片 X ⋅ , ⋅ , k X·,·,k X⋅,⋅,k,并在该切片内的所有空间位置之间共享。 * Pointwise Convolution ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 2] Pointwise Convolution的运算与常规卷积运算非常相似,它的卷积核的尺寸为 1×1×M,M为上一层的通道数。所以这里的卷积运算会将上一步的map在深度方向上进行加权组合,生成新的Feature map。有几个卷积核就有几个输出Feature map。即Pointwise层只改变通道数,不改变大小。 * Depthwise Separable Convolution depthwise层,只改变feature map的大小,不改变通道数。而Pointwise 层则相反,只改变通道数,不改变大小。这样将常规卷积的做法(改变大小和通道数)拆分成两步走。是将一个完整的卷积运算分解为两步进行,即Depthwise Convolution与Pointwise Convolution。 ## 卷积分类 ## 二维卷积有full卷积、same卷积核valid卷积。例如:3x3的二维张量 x x x和2x2的二维张量 K K K进行卷积。 ![在这里插入图片描述][a5ba7a23f52b4e039296d40b90a99ab4.png] * full卷积 full卷积的计算过程是: K K K沿着 x x x从左到右,从上到下移动,每移动一个固定位置,对应位置的值相乘再求和,计算过程如下: ![watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70_pic_center][] ![303c733b7fbb46d181b1af98541dd144.png_pic_center][] * same卷积 假设卷积核的长度为FL,如果FL为奇数,锚点位置在 ( F L − 1 ) / 2 (FL-1)/2 (FL−1)/2处,如果FL为偶数,锚点位置在 ( F L − 2 ) / 2 (FL-2)/2 (FL−2)/2处。 ![在这里插入图片描述][c8fa2775fdaa4c3282f6603d4a02719d.png] 卷积核K都有一个锚点,然后将锚点从左到右,从上到下移动到张量想的每一个位置处,对应位置相乘再求和,计算过程如下: ![watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70_pic_center 1][] ![de30c5122f054fe5b6320270ceb2ebf3.png_pic_center][] * valid卷积 对于full卷积,如果K靠近x,就会有部分延伸到x之外,valid卷积值考虑x能完全覆盖K的情况,即K在x的内部移动的情况,计算过程如下: ![watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70_pic_center 2][] ![7de4e0080df84287aa78dec6d2cf643f.png_pic_center][] * 三种卷积类型的关系 ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 3] * 具有深度的二维卷积 比如x是一个长度为3、宽度为3、深度为2的张量,卷积核K是一个长度为2、宽度为2、深度为2的张量. ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 4] 其valid卷积过程如下,卷积核K的锚点在张量x范围内从左到右,从上到下移动,输入张量的深度和卷积核的深度是相等的。 ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 5] * 具备深度的张量与多个卷积核的卷积 1个3行3列2深度的x 与 3个2行2列2深度的卷积核卷积: ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 6] # Involution # CVPR’21|Involution:超越Convolution和Self-Attention的神经网络新算子是作者和SENet的作者胡杰一起完成的,分享了作者对网络结构设计(CNN和Transformer)的理解。 主要贡献: * 提出了一种新的神经网络算子(operator或op)称为Involution,它比Convolution更轻量更高效,形式上比Self-Attention更加简洁,可以用在各种视觉任务的模型上取得精度和效率的双重提升。 * 通过Involution的结构设计,能够以统一的视角来理解经典的卷积操作和近来流行的自注意力操作。 ## Motivation与Convolution的反对称性 ## 普通convolution的kernel享有空间不变性(spatial-agnostic)和通道特异性(channel-specific)两大基本特性;而involution则恰恰相反,具有通道不变性(channel-agnostic)和空间特异性(spatial-specific)。 ### Convolution ### ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 7] * 空间不变性 ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 8] * 通道特异性 ![在这里插入图片描述][38aa5eb34927432ba5a535723fc7e5d9.png] ### Involution ### ![4a23d51e2ba949dbacf46ef461805ad3.png_pic_center][] ![707b27bca8524bb7b35d28fc36fdf045.png_pic_center][] ![f5f25a66e5f14f76bdd20f51758ede3f.png_pic_center][] ![6010855406f14de588559834360feacd.png_pic_center][] ![9e191071721c4249bb00b38a47f1778f.png_pic_center][] ![e79f552d04f646c7a050104d893b5cd8.png_pic_center][] ![5b62acea131c403ba2bf5819ccca6ccc.png_pic_center][] ![3b3e2d8a63414672892955021c97a054.png_pic_center][] ## Discussion与Self-Attention的相关性 ## ### Self-Attention ### ![51b9f27d866048f99eb762bf5275e658.png_pic_center][] ![6bdf755b830a476bb1792843ca352682.png_pic_center][] ![b043e1dc0c444a04bba78b8ed63b677e.png_pic_center][] ### Vision Transformer ### ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 9] ## 实验结果 ## 总体来讲: * 参数量、计算量降低,性能反而提升。 * 能加在各种模型的不同位置替换Convolution,比如backbone,neck和head,一般来讲替换的部分越多,模型性价比越高。 ### ImageNet图像分类 ### ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 10] 我们使用involution替换ResNet bottleneck block中的3x3 convolution得到了一族新的骨干网络RedNet,性能和效率优于ResNet和其他self-attention做op的SOTA模型。 ### COCO目标检测和实例分割 ### ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 11] 其中fully involution-based detectors(involution用在backbone,neck和head)在保证性能略有提升或不变的前提下,能够将计算复杂度减至~40%。 ### Cityscapes语义分割 ### ![在这里插入图片描述][511c1d6e91a943da8e084f7c5c949694.png] COCO检测任务中针对大物体的指标 A P L AP\_L APL提升最多(3%-4%),Cityscapes分割任务中也是大物体(比如墙,卡车,公交车等)的单类别IoU提升最明显(高达10%甚至20%以上),这也验证了我们在之前分析中所提到的involution相比于convolution在空间上具有动态建模长距离关系的显著优势。 # Convolution和Involution总结 # Convolution更加关注于通道进行的交互,所以在空间维度上进行参数共享;Involution更加关注于空间维度上的信息建模,所以在通道维度上进行了参数共享。但是在实际应用中很可能是通道信息和空间信息都是非常重要的,所以如果能够在空间和通道维度上都基于一定的偏置进行必要的参数共享,达到更好的speed-accuracy trade off。 **参考资料** [Involution:Inverting the Inherence of Convoution for Visual Recognition(2021)][Involution_Inverting the Inherence of Convoution for Visual Recognition_2021] [d-li14/involution][d-li14_involution] [Involution(附对Involution的思考):港科大、字节跳动、北大提出“内卷”神经网络算子,在CV三大任务上提点明显][Involution_Involution_CV] [深度学习面试题10:二维卷积(Full卷积、Same卷积、Valid卷积、带深度的二维卷积)][10_Full_Same_Valid] [Depthwise Convolution与普通卷积的区别以及其他卷积方法][Depthwise Convolution] [CVPR’21 | involution:超越convolution和self-attention的神经网络新算子][CVPR_21 _ involution_convolution_self-attention] [Involution=Inverse-Convolution,反着来的卷积?内卷?][Involution_Inverse-Convolution] [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70]: /images/20220829/038fe4a7ed024f78bc17dbd045307cfa.png [fc311b0b80324bdf9a4886793261bf10.png]: /images/20220829/f6efbd282f5e43ffadcc5a034a704413.png [f0101463f1dd4266b15246c3ae22adef.png]: /images/20220829/912932f592d44f108942ff761bc055af.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 1]: /images/20220829/dfc90505a2b34456888cf75c37dab182.png [b15fe0726eb44a6694052f9645f96420.png]: /images/20220829/c1f583454c7348208a9d3583586cd365.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 2]: /images/20220829/cdf96df82a7440ecbe6709d7891ae492.png [a5ba7a23f52b4e039296d40b90a99ab4.png]: /images/20220829/ad0bdfda0d3c44da99d5ad240d218593.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70_pic_center]: https://img-blog.csdnimg.cn/e5e8ed7268ca4526bf1338f7832d5abd.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ==,size_16,color_FFFFFF,t_70#pic_center [303c733b7fbb46d181b1af98541dd144.png_pic_center]: /images/20220829/6b642b5a6f194e1f95543b3b2828f30e.png [c8fa2775fdaa4c3282f6603d4a02719d.png]: /images/20220829/233ceb6bf5cc4f0894b6fc3050caedfc.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70_pic_center 1]: https://img-blog.csdnimg.cn/0ee9f08e9cb64274ad4a06143960df6b.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ==,size_16,color_FFFFFF,t_70#pic_center [de30c5122f054fe5b6320270ceb2ebf3.png_pic_center]: /images/20220829/4bf5786c009a48ea9191924846e3b178.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70_pic_center 2]: https://img-blog.csdnimg.cn/cd58e0d048bc4972ad383681bba61210.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ==,size_16,color_FFFFFF,t_70#pic_center [7de4e0080df84287aa78dec6d2cf643f.png_pic_center]: /images/20220829/e1144701f8a3473c834d3d7a6490bd08.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 3]: /images/20220829/aea58ff141244074a15fa12b57866978.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 4]: /images/20220829/c652700c640c4af684797a81ff445a58.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 5]: /images/20220829/db124bccc3fd407881fe9df0aa0a8f37.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 6]: /images/20220829/83936079cdb54e82a124662038379925.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 7]: /images/20220829/7b924eca803f42a2be97fb66fb4da187.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 8]: /images/20220829/da0dd1af9437416b84585fac7e6f550a.png [38aa5eb34927432ba5a535723fc7e5d9.png]: /images/20220829/4bf5a1a7a01748b1b4abf2a6daeda4c4.png [4a23d51e2ba949dbacf46ef461805ad3.png_pic_center]: https://img-blog.csdnimg.cn/4a23d51e2ba949dbacf46ef461805ad3.png#pic_center [707b27bca8524bb7b35d28fc36fdf045.png_pic_center]: https://img-blog.csdnimg.cn/707b27bca8524bb7b35d28fc36fdf045.png#pic_center [f5f25a66e5f14f76bdd20f51758ede3f.png_pic_center]: https://img-blog.csdnimg.cn/f5f25a66e5f14f76bdd20f51758ede3f.png#pic_center [6010855406f14de588559834360feacd.png_pic_center]: https://img-blog.csdnimg.cn/6010855406f14de588559834360feacd.png#pic_center [9e191071721c4249bb00b38a47f1778f.png_pic_center]: https://img-blog.csdnimg.cn/9e191071721c4249bb00b38a47f1778f.png#pic_center [e79f552d04f646c7a050104d893b5cd8.png_pic_center]: https://img-blog.csdnimg.cn/e79f552d04f646c7a050104d893b5cd8.png#pic_center [5b62acea131c403ba2bf5819ccca6ccc.png_pic_center]: https://img-blog.csdnimg.cn/5b62acea131c403ba2bf5819ccca6ccc.png#pic_center [3b3e2d8a63414672892955021c97a054.png_pic_center]: /images/20220829/e34dc4596c8e42558988326a68718a83.png [51b9f27d866048f99eb762bf5275e658.png_pic_center]: https://img-blog.csdnimg.cn/51b9f27d866048f99eb762bf5275e658.png#pic_center [6bdf755b830a476bb1792843ca352682.png_pic_center]: https://img-blog.csdnimg.cn/6bdf755b830a476bb1792843ca352682.png#pic_center [b043e1dc0c444a04bba78b8ed63b677e.png_pic_center]: /images/20220829/778b08238c96469ea2a8ecc1dd5e2ac4.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 9]: /images/20220829/624eb92289d34770afa717f315fe62ef.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 10]: /images/20220829/a4e3e63de6e54ccfb5351e13c7da461a.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3N0dWR5ZWJveQ_size_16_color_FFFFFF_t_70 11]: /images/20220829/d9572194b02b42ee890b681597083a80.png [511c1d6e91a943da8e084f7c5c949694.png]: /images/20220829/8f120430c8514def93a9771f385ebfa9.png [Involution_Inverting the Inherence of Convoution for Visual Recognition_2021]: https://arxiv.org/pdf/2103.06255.pdf [d-li14_involution]: https://github.com/d-li14/involution [Involution_Involution_CV]: https://zhuanlan.zhihu.com/p/395950242 [10_Full_Same_Valid]: https://www.cnblogs.com/itmorn/p/11179448.html [Depthwise Convolution]: https://zhuanlan.zhihu.com/p/339835983 [CVPR_21 _ involution_convolution_self-attention]: https://mp.weixin.qq.com/s/Kn7QJdldLhyBfYS1KiCdcA [Involution_Inverse-Convolution]: https://zhuanlan.zhihu.com/p/366044651
还没有评论,来说两句吧...