论文笔记:Group Equivariant Convolutional Networks
Group Equivariant Convolutional Networks
1、四个问题
要解决什么问题?
- 对卷积神经网络进行扩展,并提出一个在特定的变换(旋转、平移等,也可表示为一个特殊的群)下具有等变性的网络。
用了什么方法解决?
- 提出了一种新的卷积神经网络结构——群等变卷积神经网络(Group equivariant Convolutional Neural Network),简写为G-CNN。
- G-CNN中采用了群卷积(Group Convolution,简写为G-convolution)。
效果如何?
- 作者在带有旋转变换的MNIST和CIFAR数据上进行了实验,证实旋转群CNN能较好地抗旋转。
还存在什么问题?
- 实验不够充分,MNIST和CIFAR都是相对简单的数据集,基本上准确率不会太低。
- 文中定义的旋转群只是针对二维图像,如果定义的旋转群扩展到三维会怎么样?
2、论文概述
2.1、简介
- 尽管现阶段的神经网络还缺少理论支撑,但是许多经验及实验都验证了:卷积权值共享(convolutional weight sharing)和网络深度(depth)对于神经网络的效果起到了重要作用。
- 卷积权值共享的有效性依赖于其在大多数感知任务中都具有平移不变性:预测标签的函数和数据分布对于平移变换都近似于不变。
- 得益于平移不变性,共享权重的卷积核可以从图像的局部区域提取特征,并且参数量远少于全连接网络,同时能够学习更多有效的变换信息。
**平移不变性(translation equivariant)**的定义:
- 将图片平移后再送入若干卷积层得到的结果,与将原图直接送入相同卷积层得到结果后再对特征图进行平移所得到的结果一样。
- CNN中已经具有了平移不变性,这篇论文的工作是将神经网络拓展到更大的群上,引入更多的对称性,如旋转(rotation)和反射(reflection)。
2.2、结构化和等变特征表示
- 感觉这一段用原文更好理解:
- We construct representations that have the structure of a linear G-space, for some chosen group G. This means that each vector in the representation space has a pose associated with it, which can be transformed by the elements of some group of transformations G. This additional structure allows us to model data more efficiently: A filter in a G-CNN detects co-occurrences of features that have the preferred relative pose, and can match such a feature constellation in every global pose through an operation called the G-convolution.
对于一个网络或是网络的一层 Φ \Phi Φ,将输入特征映射到输出特征,应该保留结构信息(structure preserving)。对于G空间上来说, Φ \Phi Φ具有等变性的定义如下:
- Φ ( T g x ) = T g ′ Φ ( x ) \Phi\left(T_{g} x\right)=T_{g}^{\prime} \Phi(x) Φ(Tgx)=Tg′Φ(x)
- 对输入 x x x进行变换 g g g,用公式表示就是: T g x T_g x Tgx,然后将其送入函数 Φ \Phi Φ中输出结果 Φ ( T g x ) \Phi\left(T_{g} x\right) Φ(Tgx)。
- 先将输入 x x x送入函数 Φ \Phi Φ中,然后对其输出的特征图进行变换 g g g,输出的结构是 T g ′ Φ ( x ) T_{g}^{\prime} \Phi(x) Tg′Φ(x)。
- 等变性(Equivariance)就意味着上述两种变换是相等的。
- 变换操作 T T T和 T ′ T^{\prime} T′不需要完全相同,只需要它们对于任意两种变换 g g g和 h h h来说都满足: T ( g h ) = T ( g ) T ( h ) T(g h)=T(g) T(h) T(gh)=T(g)T(h)。( T ′ T^{\prime} T′同理)
- 在深度学习中,通常来说,等变性(equivariance)比不变性(invariance)更重要,因为我们无法根据不变特征判断其空间关系(比如人脸的眼睛、鼻子、嘴巴的空间关系)。
2.3、数学框架
2.3.1、对称群
对于一个对象来说,对称性指的是,在一次变换前后,对象不变。
- 对于图像上采样的网格 Z 2 \mathbb{Z}^{2} Z2来说,对其进行翻转得到: − Z 2 = { ( − n , − m ) ∣ ( n , m ) ∈ Z 2 } = Z 2 -\mathbb{Z}^{2} = \left\{(-n,-m) |(n, m) \in \mathbb{Z}^{2}\right\}=\mathbb{Z}^{2} −Z2={ (−n,−m)∣(n,m)∈Z2}=Z2。。
- 所以翻转对于采样的网格来说是对称的。
有以下性质的变换的集合被称为对称群(symmetry group):
- 如果有两个对称变换(symmetry transformations) g g g和 h h h,将他们组合起来得到的结果 g h gh gh也是一个对称变换。
- 逆变换 g − 1 g^{-1} g−1也是一个对称变换,将其与变换 g g g组合起来,得到的是恒等变换。
一个简单的例子就是2D图片上的整数平移群, Z 2 \mathbb{Z}^{2} Z2。
- 群操作为平移。
- ( n , m ) + ( p , q ) = ( n + p , m + q ) (n, m) + (p, q) = (n+p, m+q) (n,m)+(p,q)=(n+p,m+q)
- 两个平移变换之和依然是一个平移变换,对平移变换取逆也是一个平移变换,所以这是一个群。
2.3.2、 p 4 p4 p4群
- p 4 p4 p4群是由绕方形网格的中心以90度角进行旋转和平移变换组成的群。
这个群的元素至少采用三个整数 r r r, u u u, v v v定义:
- g ( r , u , v ) = [ cos ( r π / 2 ) − sin ( r π / 2 ) u sin ( r π / 2 ) cos ( r π / 2 ) v 0 0 1 ] g(r, u, v)=\left[\begin{array}{ccc}{\cos (r \pi / 2)} & {-\sin (r \pi / 2)} & {u} \\ {\sin (r \pi / 2)} & {\cos (r \pi / 2)} & {v} \\ {0} & {0} & {1}\end{array}\right] g(r,u,v)=⎣⎡cos(rπ/2)sin(rπ/2)0−sin(rπ/2)cos(rπ/2)0uv1⎦⎤
- 其中 0 ≤ r < 4 0 \leq r < 4 0≤r<4,并且 ( u , v ) ∈ Z 2 (u, v) \in \mathbb{Z}^2 (u,v)∈Z2。
- 这个群上的二元操作由矩阵乘法给出。
p 4 p4 p4群作用在$ \mathbb{Z}^2 上 的 点 , 等 于 将 矩 阵 上的点,等于将矩阵 上的点,等于将矩阵g(r, u, v) 与 其 次 坐 标 特 征 向 量 与其次坐标特征向量 与其次坐标特征向量x\left(u^{\prime}, v^{\prime}\right)$相乘:
- g x ≃ [ cos ( r π / 2 ) − sin ( r π / 2 ) u sin ( r π / 2 ) cos ( r π / 2 ) v 0 0 1 ] [ u ′ v ′ 1 ] g x \simeq\left[\begin{array}{ccc}{\cos (r \pi / 2)} & {-\sin (r \pi / 2)} & {u} \\ {\sin (r \pi / 2)} & {\cos (r \pi / 2)} & {v} \\ {0} & {0} & {1}\end{array}\right]\left[\begin{array}{l}{u^{\prime}} \\ {v^{\prime}} \\ {1}\end{array}\right] gx≃⎣⎡cos(rπ/2)sin(rπ/2)0−sin(rπ/2)cos(rπ/2)0uv1⎦⎤⎣⎡u′v′1⎦⎤
2.3.3、 p 4 m p4m p4m群
- p 4 m p4m p4m群由以下操作组成:绕中心点的90度旋转,镜像,平移。
与 p 4 p4 p4群一样,可以表示为矩阵形式:
- g ( m , r , u , v ) = [ ( − 1 ) m cos ( r π 2 ) − ( − 1 ) m sin ( r π 2 ) u sin ( r π 2 ) cos ( r π 2 ) v 0 0 1 ] g(m, r, u, v)=\left[\begin{array}{ccc}{(-1)^{m} \cos \left(\frac{r \pi}{2}\right)} & {-(-1)^{m} \sin \left(\frac{r \pi}{2}\right)} & {u} \\ {\sin \left(\frac{r \pi}{2}\right)} & {\cos \left(\frac{r \pi}{2}\right)} & {v} \\ {0} & {0} & {1}\end{array}\right] g(m,r,u,v)=⎣⎡(−1)mcos(2rπ)sin(2rπ)0−(−1)msin(2rπ)cos(2rπ)0uv1⎦⎤
- 其中 m ∈ { 0 , 1 } m \in \{ 0, 1 \} m∈{ 0,1}, 0 ≤ r < 4 0 \leq r < 4 0≤r<4,并且 ( u , v ) ∈ Z 2 (u, v) \in \mathbb{Z}^2 (u,v)∈Z2。
2.3.4、群上的函数
- 在CNN中的函数 f : Z 2 → R K f : \mathbb{Z}^{2} \rightarrow \mathbb{R}^{K} f:Z2→RK通常是定义在一个有界域上(图像–矩形域)。每一个像素坐标 ( p , q ) ∈ Z 2 (p, q) \in \mathbb{Z}^{2} (p,q)∈Z2,对应着函数 f f f返回的特征图上的一个 K K K维特征向量 f ( p , q ) f(p, q) f(p,q)。
定义在特征图上的一种变换为 g g g:
- [ L g f ] ( x ) = [ f ∘ g − 1 ] ( x ) = f ( g − 1 x ) \left[L_{g} f\right](x)=\left[f \circ g^{-1}\right](x)=f\left(g^{-1} x\right) [Lgf](x)=[f∘g−1](x)=f(g−1x)
- L g L_g Lg表示对特征图进行 g g g变换。
- 这个公式的意思是,要得到进行 g g g变换后的特征图 L g f L_gf Lgf上 x x x位置处的值,我们需要到原特征图 f f f上的 g − 1 x g^{-1}x g−1x位置上找值。
- 根据之前的定义, L g L_g Lg还需要满足: L g L h = L g h L_{g} L_{h}=L_{g h} LgLh=Lgh。
- 如果变换 g g g表示的是图像上的平移变换 t = ( u , v ) ∈ Z 2 t=(u, v) \in \mathbb{Z}^{2} t=(u,v)∈Z2,那么 g − 1 x g^{-1} x g−1x就等于 x − t x - t x−t。
如下图所示,展示了 p 4 p4 p4群上的滤波器:
- r r r表示旋转90度,总共有4种旋转的结果,红线表示了变换关系。
如下图所示,展示了 p 4 m p4m p4m群上的滤波器:
- r r r依然表示旋转90度,红线表示旋转变换关系。 m m m表示镜像翻转,用蓝线表示。
- 定义特征图的对合函数(involution): f ∗ ( g ) = f ( g − 1 ) f^{*}(g)=f\left(g^{-1}\right) f∗(g)=f(g−1)。在后面会用到。
2.4、CNN上的等变性
- 首先对传统CNN的等变性进行分析。
在CNN的每一层 l l l上,输入是一些特征图 f : Z 2 → R K l f : \mathbb{Z}^{2} \rightarrow \mathbb{R}^{K^{l}} f:Z2→RKl,然后使用 K l + 1 K^{l+1} Kl+1个卷积核 ψ i : Z 2 → R K l \psi^{i} : \mathbb{Z}^{2} \rightarrow \mathbb{R}^{K^{l}} ψi:Z2→RKl对特征图做卷积(convolve)或是相关(corelate):
卷积:
- [ f ∗ ψ i ] ( x ) = ∑ y ∈ Z 2 ∑ k = 1 K l f k ( y ) ψ k i ( x − y ) \left[f * \psi^{i}\right](x)=\sum_{y \in \mathbb{Z}^{2}} \sum_{k=1}^{K^{l}} f_{k}(y) \psi_{k}^{i}(x-y) [f∗ψi](x)=∑y∈Z2∑k=1Klfk(y)ψki(x−y)
相关:
- [ f ⋆ ψ i ] ( x ) = ∑ y ∈ Z 2 ∑ k = 1 K l f k ( y ) ψ k i ( y − x ) \left[f \star \psi^{i}\right](x)=\sum_{y \in \mathbb{Z}^{2}} \sum_{k=1}^{K^{l}} f_{k}(y) \psi_{k}^{i}(y-x) [f⋆ψi](x)=∑y∈Z2∑k=1Klfk(y)ψki(y−x)
- 后续讨论以相关为主,默认将两种操作都称作是卷积。
将 y → y + t y \rightarrow y+t y→y+t做替换,忽略特征图上最后求和的那一步,我们可以证明相关对平移具有等变性:
- [ [ L t f ] ⋆ ψ ] ( x ) = ∑ y f ( y − t ) ψ ( y − x ) = ∑ y f ( y ) ψ ( y + t − x ) = ∑ y f ( y ) ψ ( y − ( x − t ) ) = [ L t [ f ⋆ ψ ] ] ( x ) \begin{aligned}\left[\left[L_{t} f\right] \star \psi\right](x) &=\sum_{y} f(y-t) \psi(y-x) \\ &=\sum_{y} f(y) \psi(y+t-x) \\ &=\sum_{y} f(y) \psi(y-(x-t)) \\ &=\left[L_{t}[f \star \psi]\right](x) \end{aligned} [[Ltf]⋆ψ](x)=y∑f(y−t)ψ(y−x)=y∑f(y)ψ(y+t−x)=y∑f(y)ψ(y−(x−t))=[Lt[f⋆ψ]](x)
于是我们可以说,“相关是平移群上的等变映射”;
- 原论文中的说法:correlation is an equivariant map for the translation group;或者说,correlation and translation commute。
- 以此类推,可以得到卷积也对平移具有等变性: [ L t f ] ∗ ψ = L t [ f ∗ ψ ] \left[L_{t} f\right] * \psi=L_{t}[f * \psi] [Ltf]∗ψ=Lt[f∗ψ]。
- 尽管卷积对于平移具有等变性,但是卷积对于旋转不具有等变性: [ [ L r f ] ⋆ ψ ] ( x ) = L r [ f ⋆ [ L r − 1 ψ ] ] ( x ) \left[\left[L_{r} f\right] \star \psi\right](x)=L_{r}\left[f \star\left[L_{r^{-1}} \psi\right]\right](x) [[Lrf]⋆ψ](x)=Lr[f⋆[Lr−1ψ]](x)。
2.5、群等变网络
- 群等变网络(Group Equivariant Network)由三种层组成:群卷积、群池化和非线性单元。
2.5.1、群等变相关(G-Equivariant correlation)
对于2D图片上来说,相关就是通过平移滤波器,然后不断计算滤波器与特征图的点乘。
- [ f ⋆ ψ ] ( g ) = ∑ y ∈ Z 2 ∑ k f k ( y ) ψ k ( g − 1 y ) [f \star \psi](g)=\sum_{y \in \mathbb{Z}^{2}} \sum_{k} f_{k}(y) \psi_{k}\left(g^{-1} y\right) [f⋆ψ](g)=∑y∈Z2∑kfk(y)ψk(g−1y)
- 输入图像是 f f f,滤波器是 ψ \psi ψ,他们都是位于平面 Z 2 \mathbb{Z}^2 Z2上的函数,但是输出的特征图 f ⋆ ψ f \star \psi f⋆ψ是离散群 G G G上的一个函数。平移群是这里的离散 G G G的一个子群。
将相关操作推广到整个离散群 G G G上:
- [ f ⋆ ψ ] ( g ) = ∑ h ∈ G ∑ k f k ( h ) ψ k ( g − 1 h ) [f \star \psi](g)=\sum_{h \in G} \sum_{k} f_{k}(h) \psi_{k}\left(g^{-1} h\right) [f⋆ψ](g)=∑h∈G∑kfk(h)ψk(g−1h)
类似地,可以做替换 h → u h h \rightarrow u h h→uh,等变性证明如下:
- [ [ L u f ] ⋆ ψ ] ( g ) = ∑ h ∈ G ∑ k f k ( u − 1 h ) ψ ( g − 1 h ) = ∑ h ∈ G ∑ k f ( h ) ψ ( g − 1 u h ) = ∑ h ∈ G ∑ k f ( h ) ψ ( ( u − 1 g ) − 1 h ) = [ L u [ f ⋆ ψ ] ] ( g ) \begin{aligned}\left[\left[L_{u} f\right] \star \psi\right](g) &=\sum_{h \in G} \sum_{k} f_{k}\left(u^{-1} h\right) \psi\left(g^{-1} h\right) \\ &=\sum_{h \in G} \sum_{k} f(h) \psi\left(g^{-1} u h\right) \\ &=\sum_{h \in G} \sum_{k} f(h) \psi\left(\left(u^{-1} g\right)^{-1} h\right) \\ &=\left[L_{u}[f \star \psi]\right](g) \end{aligned} [[Luf]⋆ψ](g)=h∈G∑k∑fk(u−1h)ψ(g−1h)=h∈G∑k∑f(h)ψ(g−1uh)=h∈G∑k∑f(h)ψ((u−1g)−1h)=[Lu[f⋆ψ]](g)
- 注:在第一层相关层上(文中称为first-layer G-correlation), f f f和 ψ \psi ψ是平面 Z 2 \mathbb{Z}^2 Z2上的函数, L u f L_u f Luf也表示在 Z 2 \mathbb{Z}^2 Z2上的函数的变换。 在之后的相关层上(文中称为full G-correlation),这些函数都是在群 G G G上。
群 G G G是不可交换的,对于G-卷积核和G-相关来说同理。但是特征图之间存在对合关系(involution):
- f ⋆ ψ = ( ψ ⋆ f ) ∗ f \star \psi=(\psi \star f)^{*} f⋆ψ=(ψ⋆f)∗
- 因为对合(involution)是可逆的,所以 f ⋆ ψ f \star \psi f⋆ψ和 ψ ⋆ f \psi \star f ψ⋆f中的信息内容是相同的。
- 我们通常还习惯给卷积层的特征图加上一个偏差项。在G-卷积层上也可以这么做。
- 两个具有在群 G G G上的等变性的特征图之和依然具有等变性,因此G-conv层可以被用在很多经典的神经网络结构中。
2.5.2、非线性单元
我们可以把特征图看做群 G G G上的一个函数。在特征图使用非线性单元 ν : R → R \nu : \mathbb{R} \rightarrow \mathbb{R} ν:R→R,相当于多个函数的组合。定义组合操作子如下:
- C ν f ( g ) = [ ν ∘ f ] ( g ) = ν ( f ( g ) ) C_{\nu} f(g)=[\nu \circ f](g)=\nu(f(g)) Cνf(g)=[ν∘f](g)=ν(f(g))
- C ν C_{\nu} Cν是对函数 f ( g ) f(g) f(g)的post-composing。
因为前面提到的变换操作子 L L L是pre-composition,所以 C C C和 L L L可交换。
- C ν L h f = ν ∘ [ f ∘ h − 1 ] = [ ν ∘ f ] ∘ h − 1 = L h C ν f C_{\nu} L_{h} f=\nu \circ\left[f \circ h^{-1}\right]=[\nu \circ f] \circ h^{-1}=L_{h} C_{\nu} f CνLhf=ν∘[f∘h−1]=[ν∘f]∘h−1=LhCνf
- 因此使用非线性单元(比如ReLU)处理后的特征图依然可以继承前一层的变换性质。
2.5.3、池化
- 为简化分析,将池化分为两步:不带步长的池化和下采样。
定义不考虑步长的最大池化操作为 P P P,其作用在特征图 f : G → R f : G \rightarrow \mathbb{R} f:G→R上:
- P f ( g ) = max k ∈ g U f ( k ) P f(g)=\max _{k \in g U} f(k) Pf(g)=maxk∈gUf(k)
- g U = { g u ∣ u ∈ U } g U=\{g u | u \in U\} gU={ gu∣u∈U}是池化域 U ⊂ G U \subset G U⊂G上的 g g g变换。这里的池化域的简单的理解就是邻域。
- 在一个普通的卷积神经网络中, U U U通常是一个 2 × 2 2 \times 2 2×2或 3 × 3 3 \times 3 3×3的方形区域, g g g是平移变换。
池化操作与 L h L_h Lh是可交换的:
- P L h = L h P P L_{h}=L_{h} P PLh=LhP
- 池化的作用是减少特征图中的方差,同时对于下采样也是很有效的,换句话说,就是带有步长的池化。
- 在G-CNN中,步长的概念就表示一个下采样群 H ⊂ G H \subset G H⊂G。因此下采样后的特征图只对 H H H等变,而不对 G G G等变。
- 在一个标准的卷积神经网络架构中,步长为2的池化等价于先做池化然后下采样。
- 如果是在之前说到的 p 4 p4 p4群上,子群 H H H包含所有4个旋转方向还有平移2的倍数的像素,池化就相当于在这个子群 H H H上做下采样。
- 要保证池化在群 G G G上的等变性,我们需要选择一个合适的池化域 U U U,这个池化域要是 G G G的子群 H ⊂ G H \subset G H⊂G。
2.6、具体实现
- 离散群上的G-convolution的计算无非就是算术上的索引和矩阵内积,所以它可以直接使用GPU来并行实现。
- 定义一个平面对称群 G G G。
如果在这个群 G G G上的变换 g ∈ G g \in G g∈G可以分解为一个平移 t ∈ Z 2 t \in \mathbb{Z}^{2} t∈Z2和变换 s s s,就称为可划分的(论文中称为split)。
- 对于群 p 4 p4 p4,变换 g = t s g=ts g=ts可以分解为平移 t t t和绕原点的旋转 s s s。
- 对于群 p 4 m p4m p4m,变换则可分解为平移和旋转还有翻转。
定义G-correlation操作如下:
- f ⋆ ψ ( t s ) = ∑ h ∈ X ∑ k f k ( h ) L t [ L s ψ k ( h ) ] f \star \psi(t s)=\sum_{h \in X} \sum_{k} f_{k}(h) L_{t}\left[L_{s} \psi_{k}(h)\right] f⋆ψ(ts)=∑h∈X∑kfk(h)Lt[Lsψk(h)]
- 在第一层上 X = Z 2 X=\mathbb{Z}^{2} X=Z2,之后的层上 X = G X=G X=G。
- 实际计算时,要算群 p 4 p4 p4或者群 p 4 m p4m p4m上的相关 f ⋆ ψ f \star \psi f⋆ψ,我们要先计算四个旋转角度下(或是加上翻转的8种情况下)滤波器的变换 L s ψ L_{s} \psi Lsψ。因为相比于整幅图像,对滤波器做变换的计算开销更小。之后再在 f f f上做快速平面相关(卷积)即可。
2.6.1、滤波器变换
滤波器的维度为: K l × K l − 1 × S l − 1 × n × n K^{l} \times K^{l-1} \times S^{l-1} \times n \times n Kl×Kl−1×Sl−1×n×n。
- 其中 K l K^l Kl是第 l l l层的通道数。
- S l − 1 S^{l-1} Sl−1表示群 G G G上的变换种类对于。 Z 2 \mathbb{Z}^2 Z2、 p 4 p4 p4和 p 4 m p4m p4m群来说,分别是1、4、8。
- n n n是滤波器的空间分辨率,换句话说就是平移群上的变换种类数。
- 对于2D图像来说, S 1 = 1 S^1=1 S1=1;对于 p 4 p4 p4群来说, S l = 4 S^l=4 Sl=4;对于 p 4 m p4m p4m群来说, S l = 8 S^l = 8 Sl=8。
滤波器变换 L S L_S LS实际上相当于对整个 K l × K l − 1 K^{l} \times K^{l-1} Kl×Kl−1的标量滤波器的输入做了置换。
- 换句话说,因为群卷积是等变的,各个角度下的特征也是等变的。以旋转为例,如果输入就旋转了90度,那么群卷积的输出也都旋转了90度,但是 p 4 p4 p4旋转群上的旋转是封闭的,旋转(360+90)度的结果与旋转90度相同,实际不同的旋转就相当于让对应的输出特征的顺序按照一定规则交换了一下。
- 如果对每个滤波器使用 S l S^l Sl种变换,那么输出 F + F^{+} F+就是: K l × S l × K l − 1 × S l − 1 × n × n K^{l} \times S^{l} \times K^{l-1} \times S^{l-1} \times n \times n Kl×Sl×Kl−1×Sl−1×n×n。
- 论文中还给出了详细的在编程上的实现描述,感兴趣的可以参考论文。
2.6.2、平面卷积
- G-convolution的第二部分就是使用之前计算好的扩展滤波器 F + F^{+} F+进行平面卷积计算。
- 主要是套用G-convolution的公式做矩阵点乘,与常规卷积一样。
- 但是求和时有所不同,因为是定义在 p 4 p4 p4群和 p 4 m p4m p4m群上,所以还额外要在 S l S^{l} Sl上进行求和。将 F + F^{+} F+的维度 K l × S l × K l − 1 × S l − 1 × n × n K^{l} \times S^{l} \times K^{l-1} \times S^{l-1} \times n \times n Kl×Sl×Kl−1×Sl−1×n×nreshape为 S l K l × S l − 1 K l − 1 × n × n S^{l} K^{l} \times S^{l-1} K^{l-1} \times n \times n SlKl×Sl−1Kl−1×n×n。这一步操作就类似与经典的卷积神经网络中输入通道数为 S l − 1 K l − 1 S^{l-1} K^{l-1} Sl−1Kl−1,输出通道数为 S l K l S^{l} K^{l} SlKl的情况。
2.7、实验
3、参考资料
- Group Equivariant Convolutional Networks
还没有评论,来说两句吧...