橦言无忌

一个不想改变世界的程序媛

Fourier Transformer

前言

文章:Transformer with Fourier Integral Attentions

essay link

无参数核估计,Fourier积分原理等跟Transformer关联的文章,似懂非懂啊,老天爷!

摘要

多头注意力赋予了Transformer最近的成功,这些最先进的模型在序列建模及其他方面效果显著。这些注意力机制计算q和k之间的成对点积,使用未归一化的Gaussian核并假设q遵循混合Gaussian分布,但实践中并不能保证这个假设成立。

相对应的,本文首先将 Transformer 中的注意力解释为非参数核回归,然后提出了FourierFormer,一类将点积内核用新颖的广义Fourier积分内核取代的新Transformer。与点积核需要选择一个好的协方差矩阵来捕捉数据特征的依赖性不同,广义Fourier积分核可以自动捕捉这种依赖性,无需调试协方差矩阵。我们从理论上证明了本文提出的Fourier积分核可以有效地逼近任何k和q的分布。

与具有点积注意力的传统Transformer相比,FourierFormers 获得了更好的精度并减少了注意力头之间的冗余。我们经验性地证实了 FourierFormers 在包括语言建模和图像分类在内的各种实际应用中优于基线Transformer的优势。

1,介绍

Transformers是强大的神经网络,在机器学习的许多领域都取得了巨大的成功并成为跨领域广泛应用的最先进模型,视频,点云,以及蛋白质序列。除了在监督学习任务上的出色表现外,Transformer 还可以有效地将学习到的知识从预训练任务转移到有限制或无监督的新任务。Transformers 的核心是点积自注意力,它主要是导致 Transformer 模型成功的原因。

这种点积自注意力通过估计给定标记相对于所有其他标记的相对重要性来学习输入序列中标记之间的自我对齐,然后它将每个标记转换为其他标记的特征表示的加权平均值,其中权重与每对标记之间的重要性分数成正比。 自注意力中的重要性分数使一个标记能够关注序列中的其他标记,从而捕获上下文表示。

1.1 自注意力

给定输入序列$\mathbf{X}:=[x_1,\cdots x_N]^T\in \mathbb{R}^{N\times D_x} $是$\mathbf{N}$维特征向量,自注意力计算$\mathbf{X}$给定下的$\mathbf{H}$输出序列。

Step 1将输入序列映射到不同子空间
输入序列是$\mathbf{X}$,会通过三个线性变换转换为查询矩阵$\mathbf{Q}$,关键矩阵$\mathbf{K}$和值矩阵$\mathbf{V}$,也就是:

其中,$\mathbf{W}_Q , \mathbf{W}_K \in \mathbb{R}^{D\times D_x} $,有 $\mathbf{W}_V \in\mathbb{R}^{D_v\times D_x} $ 是权重矩阵。相应的$q,k,v$的矩阵表示如下:

Step 2 用加权平均计算输出
输出$\mathbf{H}:=[h_1,\cdots h_N]^T $可以表示为:

其中,softmax函数是作用在矩阵$(\mathbf{Q}\mathbf{K}^T)/\sqrt{D} $的每一行,对每一个查询向量$q_i,\; i=1,\cdots N $,方程(1)可以写成如下的向量形式来求每个输出向量$h_i$:

矩阵$\mathbf{A} \in\mathbb{R}^{N\times N},\; a_{ij}\in\mathbf{A}\; i,j=1\cdots N$分别为注意力矩阵和主力已分值。

自注意力就是用方程(1)和方程(2)来计算的,也叫点乘注意力或者softmax注意力。在本文中,将使用这种注意力的Transformer称为具有点积注意力或点积Transformer的基线Transformer。 训练后的注意力矩阵 $\mathbf{A}$ 的结构决定了自注意力捕获每个标记的上下文表示能力。

多头注意力
每个输出序列 $\mathbf{H}$ 形成一个注意力头,多头注意力连接多个头来计算最终输出。令 $H$ 为头的数量,$\mathbf{W}^O \in \mathbb{R}^{HD_v \times HD_v}$ 为输出的投影矩阵。 多头注意力定义为:

注意力机制的容量和学习不同句法和语义关系的能力决定了transformer的成功。然而,方程(1)和(2)意味着点积注意力会假设特征$q_i$和$k_j$是独立的。因此,点积注意力无法捕捉这些特征之间的相关性,从而限制了其表示能力并抑制了Transformer在实际任务中的性能,因为无法保证可以从复杂数据中学习到彼此独立的特征。捕获特征 $q_i$ 和 $k_j$ 之间相关性的一种解决方案是将协方差矩阵引入点积注意力的公式中,代价是计算复杂度显著增加,此外,选择好的协方差矩阵也很困难。

1.2 贡献

在本文中,我们首先建立了自注意力和非参数核回归之间的对应关系。 在这种自注意力的新视角下,我们解释了点积自注意力的局限性,即它可能无法捕获查询向量与关键向量之间的相关性特征。

然后,我们利用广义Fourier积分定理,它可以自动捕捉这些相关性,并为非参数回归问题推导出广义Fourier积分估计量。 使用这种新的密度估计器,我们提出了 FourierFormer,这是一种新型的Transformer,可以捕获自注意力中$q$和$k$的相关性。 总之,我们的贡献是三方面的:

  • 1, 我们从解决非参数核回归问题中推导出了自注意力的公式,从而为研究和进一步发展自注意力提供了非参数回归解释。
  • 2, 我们为非参数回归问题开发了广义Fourier积分估计器,并为这些估计器提供了理论支持。
  • 3, 我们提出了 FourierFormer,它的注意力使用广义Fourier积分估计器来更有效地捕获$q$和$k$的相关性。

最后,我们凭经验证明,在包括 WikiText 语言建模和 ImageNet 图像分类在内的各种任务上,FourierFormer 比点积注意力的基线Transformer获得了明显更好的准确度。 我们还在实验中证明 FourierFormer 有助于减少注意力头之间的冗余。

组织
我们将本文的结构如下:在Section2中,我们提出了自我注意和非参数核回归之间的对应关系。 在 Section3中,我们讨论了广义Fourier积分估计器并定义了 FourierFormer。 我们在 Section4中验证并实证分析了 FourierFormer 的优势。 我们在 Section5中讨论相关工作。 论文以Section6的总结来结束。 附录中提供了技术证明和更多实验细节。

记号
对于任何 $\mathbf{N} \in \mathbb{N}$,我们表示 $[N] = \{1, 2, \ldots, N\}$。 对于任何 $D \geq 1$,我们用$\mathbb{L}_1(\mathbb{R}^D) $ 来表示 $ \mathbb{R}^D $ 上实值函数空间中的全体可积函数。

对于任意两个序列 $\{a_N\}_{N \geq 1},\{ b_N \}_{N \geq 1} $, 我们用 $a_N = \mathcal{O}(b_N)$ 表示在所有 $N \geq 1$ 的情况下,都有 $a_{N} \leq C b_N$ ,其中 $C$ 是一些通用常数。

2,自注意力的无参数回归解释

在本节中,我们建立了自注意力和无参数核回归之间的联系。 特别是,我们将方程(2)中的自注意力推导为非参数核回归,其中向量 $k_j$ 和向量 $v_j$ 分别是训练输入和训练目标 , 而查询向量 $q_i$ 和输出向量 $h_i$ 形成了一组新的输入及其对应的待估计目标,且有 $i,j=1,\cdots,N$。 一般来说,我们将训练集 $\{ k_j, v_j\}$ for $j \in [N]$ 视为来自以下非参数回归模型:

其中 $\varepsilon_1,\cdots,\varepsilon_N$ 是独立的噪声,使得 $\mathbb{E}(\varepsilon_j) = 0$。 此外,我们考虑一个随机设计,其中$k$向量 $k_1,k_2,\cdots ,k_N$ 是来自 $p$ 为密度函数分布的采样。 通过混用符号,我们还将 $p$ 表示为联合密度,其中$k$和$v$向量 $(v_1, k_1), \cdots, (v_N, k_N)$ 也是来自 $p$ 为联合密度函数分布的采样。 在这里,$f$ 是一个真实但未知的函数,我们需要估计它。

Nadaraya-Watson 验证
我们估计函数 $f$ 的方法是基于 Nadaraya–Watson 的非参数核回归方法。 特别是,从非参数回归模型,对于所有 $ j \in [N]$,我们有 $\mathbb{E}[v_j|k_j] = f(k_j)$ 。 因此,在给定$k$向量的情况下,估计$v$向量的条件分布就足够了。 给定$k$向量的密度函数 $p$ 以及$k$和$v$向量的联合密度 $p$,对于任何从模型生成的向量对 $(v, k)$ 我们有:

条件期望的公式表明,只要我们能够估计联合密度函数$p(v, k)$和边际密度函数$p(v)$,我们就能够获得条件期望的估计,从而获得函数$f$。 这种方法被广泛称为 Nadaraya-Watson 的非参数核回归方法。

核密度估计
为了估计 $p(v, k)$ 和 $p(k)$,我们采用核密度估计方法。 特别是,通过使用带宽为 $\sigma$ 的各向同性Gaussian核,我们有以下 $p(v, k)$ 和 $p(k)$ 的估计量:

其中 $\varphi_\sigma(.)$ 是对角协方差矩阵 $\sigma^2 I_D$ 的各向同性多元Gaussian密度函数。 给定核密度估计器,我们得到函数 $f$ 的以下估计:

自注意力和无参数回归的关系
通过将查询向量 $ q_i $ 代入方程(6) 中的函数 $\widehat{f}_\sigma $,我们得到

如果我们进一步假设 $k_j$ 向量被归一化,通常在实践中这样做是为了稳定transformers的训练,方程(7)中$\hat{f}_\sigma (q_i)$的值为:

当我们选择 $\sigma^2 = \sqrt{D}$,其中 $D$ 是 $q_i$ 和 $k_j$ 的维数,方程(8)和方程(2)中的自注意力等价,即$\widehat{f}_\sigma (q_i) = h_i$。 因此,我们已经证明自注意力使用各向同性Gaussian核执行非参数回归。

注意1
$k_j$ 被归一化的假设是为了恢复Transformer中成对点积的注意力。 一般来说,这个假设是不必要的。 事实上,方程(7)中的各向同性Gaussian核比成对点积注意力的方程(8)中的点积核更可取,因为前者是 Lipschitz 而后者不是。 Lipschitz约束有助于提高模型的鲁棒性并稳定模型训练。

自注意力局限
根据我们非参数回归的解释,自注意力源自使用各向同性Gaussian核进行核密度估计和非参数回归估计,这可能无法捕捉 $q_i$ 和 $k_j$中$D$维特征的复杂关联。 使用具有密集协方差矩阵的多元Gaussian核有助于捕捉这种相关性,然而,选择好的协方差矩阵具有挑战性且效率低下。 在下一节中,我们将讨论Fourier积分估计器及其作为计算自注意力的内核以克服这些限制。

3,FourierForm:广义Fourier积分原理的Transformer

在下文中,我们介绍了能够捕捉$q$和$k$之间复杂特征关系的广义积分定理。 然后,我们将这些定理应用于密度估计和非参数回归问题,我们还建立了这些估计器的收敛速度。 鉴于这些密度估计器,我们引入了一个名为 FourierFormer 的新型Transformer家族,它将广义Fourier积分定理集成到标准Transformer的点积注意力步骤中。

3.1 广义Fourier积分方法和应用

Fourier积分定理是数学中一个漂亮的结果,最近被用于非参数模式聚类、反卷积问题和生成建模,它是Fourier变换和Fourier逆变换的组合。 特别是,对于任何函数 $p \in \mathbb{L}_{1}(\mathbb{R}^{D})$,Fourier积分定理由下式给出:

其中,$k=(k_1,\cdots k_D), y=(y_1,\cdots y_D) $,上式表明:

$p_{\mathrm{R}}(k)$可用于估计函数$p$。

用Gaussian核做Fourier积分的优点
估计器 $p_R$ 有两个重要的好处:(i)即使 $p$ 是非常复杂和高维的函数,它也可以自动保留 $p$ 内的相关结构。与基于多元Gaussian核构建的标准核估计器形成鲜明对比,我们需要在多元Gaussian核中选择好的协方差矩阵来保证这样的估计器工作良好。我们注意到,由于标准的 softmax Transformer 是基于多元Gaussian核构建的,因此在点积Transformer中选择好的协方差矩阵的问题是不可避免的; (ii) 当 $R \to \infty$ 时,估计器 $p_{R}$ 中 sinc 核的乘积不会衰减到点质量,它与多元Gaussian核估计量截然不同,后者在协方差矩阵变为 0 时收敛到一个点质量,这表明 $p_R$ 是函数 $p$ 的非平凡估计量。最后,在密度估计和非参数回归问题中Fourier积分优于Gaussian核的这些好处的详细说明,也是我们刚刚证明这些好处与Transformer中的自注意力有关,可以在第 8 节中找到。

广义Fourier积分估计
借用Fourier积分估计器 $p_R$ 的上述优点,在本文中,我们想考虑该估计器的泛化,命名为广义Fourier积分估计器,由下式给出:

其中 $A : = \int_{\mathbb{R}} \phi \left(\frac{\sin(z)}{z}\right) dz$ 和 $\phi: \mathbb{R} \to \mathbb {R}$ 是给定的函数。 当 $\phi(k) = k$ 对所有 $k \in \mathbb{R}^D$ 时,广义Fourier积分估计量 $p_{R}^{\phi}$ 变为Fourier积分估计器 $p_R$。 在函数 $\phi$ 的适当条件下,估计器$p_R^{\phi}$收敛到真函数$p$,即,

我们将上述极限命名为广义Fourier积分定理。 此外,估计器 $p_R^{\phi}$ 也继承了Fourier积分估计器 $p_R$ 的类似优点。 因此,我们将使用广义Fourier积分定理作为构建密度估计器和非参数回归估计器的构建块,这对于开发 Section3.2 中的 FourierFormer 至关重要。

3.1.1 用广义Fourier积分原理估计密度

我们首先将广义Fourier积分定理应用于密度估计问题。 为了简化表示,我们假设 $k_1, k_2, \ldots, k_N \in \mathbb{R}^D$ 是来自一个分布的样本,其密度函数为 $p$,其中 $D \geq 1$ 是维度。 受广义Fourier积分定理的启发,我们得到以下$p$的广义Fourier密度估计$p_{N,R}^{\phi}$如下:

其中 $A = \int_{\mathbb{R}} \phi \left(\frac{\sin(z)}{z}\right) dz$ 和 $k_i = (k_{i1}, \ ldots, k_{iD})$ 对于所有 $i \in [N]$。 为了量化广义Fourier密度估计 $p_{n,R}^{\phi}$ 和真实密度 $p$ 之间的误差,我们利用均方积分平方误差 MISE,给出如下表达式:

我们从 $p_{n,R}^{\phi}$ 和 $p$ 之间的 MISE 的以下界限开始。

定理1
假设 $\int_{\mathbb{R}} \phi(\sin(z)/z)z^j dz = 0$ 对于所有 $j \in [m]$ 以及 $\int_{\mathbb{ R}} |\phi(\sin(z)/z)| |z|^{m + 1} dz < \infty$ 对于一些 $m \in \mathbb{N}$。 然后,存在取决于 $d$ 和 $A$ 的通用常数 $C$ 和 $C^{‘}$,使得:

定理1证明见附录B.1,且以下论述是有序的。 首先,通过选择 $R$ 来平衡定理1中 MISE 边界的偏差和方差,我们得到最优 $R$ 为 $R = \mathcal{O}(N^{1 /(D + m + 1)})$,选择 $R$,$p_{N, R}^{\phi}$ 的 MISE 率为 $\mathcal{O}(N^{-(m+1)/(D + m + 1) })$。 其次,当 $l \geq 4$ 和 $z \in \mathbb{R}$ 的 $\phi(z) = z^{l}$ 时,定理1中的假设满足 $m = 1$。 在这种情况下,$p_{N,R}^{\phi}$ 的 MISE 率为 $\mathcal{O}(N^{-2/(D+2)})$。 但是,当 $\phi(z) = z^{l}$ 和 $l \in \{1,2,3\}$ 时,这些假设不满足,这是由于当前定理1证明技术的限制,是基于估计量 $p_{n,R}^{\phi}$ 的Taylor展开。

为了解决Taylor展开技术的局限性,我们利用Fourier分析中的 Plancherel 定理来建立当 $\phi(z) = z^{l}$ 和 $l \in \{1,2,3\}$时 $p_{N,R}^{\phi}$ 的 MISE 率。 这种设置的理论分析细节在附录A中。

3.2 FourierFormer:Transformer带Fourier注意力

受广义Fourier积分定理中函数相关结构的保留以及密度估计器的理论保证的启发,在本节中,我们采用了Section2中自注意力的非参数回归解释并在 Section3.2.1 中提出广义Fourier非参数回归估计器,我们还建立了该估计器的收敛特性。 然后,基于广义Fourier非参数回归估计器,我们在 Section3.2.2 中开发了 Fourier 注意力及其对应的 FourierFormer。

3.2.1 广义Fourier积分原理的非参数化回归

我们现在讨论广义Fourier积分定理在非参数回归设置中的应用,即我们假设 $(v_1, k_1), \ldots, (v_N, k_N)$ 是来自以下非参数回归模型的样本:

其中 $\varepsilon_1, \ldots, \varepsilon_N$ 是独立的噪声,使得 $\mathbb{E}(\varepsilon_j) = 0$ 和$k$向量 $k_1, k_2、\ldots、k_N$ 来自密度函数为 $p$ 的样本。 给定广义Fourier密度估计器,根据第2节中的参数,基于广义Fourier密度估计器的函数 $f$ 的 Nadaraya-Watson 估计器为:

方程(14)中的广义Fourier非参数回归估计器$f_{N,R}$与方程(6)中估计器$\widehat{f}_{\sigma}$ 的主要区别是估计器 $f_{N,R}$ 利用广义Fourier密度估计器来估计给定$k$和$v$向量的条件分布,而不是如 $\widehat{f}_{\sigma}$ 中的各向同性Gaussian核密度估计器 。

正如我们在 Section3 中强调的那样,广义Fourier密度估计器的一个重要好处是它可以捕获$k$和$v$向量特征的复杂依赖关系,而Gaussian核需要具有良好的协方差矩阵来做到这一点,这在实践中计算成本很高。

我们现在有以下结果,建立了 $f_{N,R}$ 的均方误差 (MSE)。

定理2
假设 $\int_{\mathbb{R}} \phi \left(\frac{\sin(z)}{z}\right) z^j dz = 0$ 对于所有 $1 \leq j \leq m $,且 $\int_{\mathbb{R}} \left|\phi \left(\frac{\sin(z)}{z}\right)\right| |z|^j dz < \infty$ 对于任何 $m + 1 \leq j \leq 2m + 2$ 对于一些 $m \in \mathbb{N}$ 成立。 那么,对于任何 $k \in \mathbb{R}^D$,存在一般常数 $C_1, C_2, C_3, C_4$ 使得以下成立 :

其中 $J(R) = 1 - \frac{1}{p^2(k)} ( \frac{C_3}{R^{2(m+1)}} + \frac{ C_4 R^d \log (N R)}{N}) $。 这里,外部期望是关于$k$向量 $k_1,\ldots,k_N$ 和噪声 $\varepsilon_1,\ldots,\varepsilon_N$ 的。

定理2证明见附录B.3,且关于定理2的一些评论是有序的。 首先,通过选择 $R$ 来平衡非参数广义Fourier估计器 $f_{N,R}$ 的 MSE 范围内的偏差和方差,我们得到最优半径 $R$ 为 $R = \mathcal{O}(N^{\frac{1}{2(m + 1) + D}})$。 选择最优半径 $R$,$f_{N,R}$ 的比率为 $\mathcal{O}(N^{-\frac{2(m+1)}{D + 2(m +1)}})$。 其次,当 $\phi(z) = z^{l}$ 对 $l \geq 6$ 时,定理2的函数 $\phi$ 的假设满足 $m = 1$。 在这种情况下,$f_{N,R}$ 的比率变为 $\mathcal{O}(N^{-\frac{4}{D + 4}})$。 在附录A中,我们还提供了当 $\phi(z) = z^l$ 对于某些 $l \leq 5$ 时的 $f_{N,R}$ 的比率,其中包括原始Fourier积分定理。

3.2.2 FourierFormer

给定方程(14)中的广义Fourier非参数回归估计器 $f_{N,R}$,通过将$q$值 $q_1,\ldots,q_N$ 插入该函数 ,我们得到Fourier注意力的以下定义:

定义1(Fourier注意力)
Fourier注意力是一种多头注意力,它使用广义Fourier非参数回归估计器 $f_{N,R}$ 进行非参数回归。 Fourier注意力的输出 $\hat{h}_i$计算公式为

给定定义1中的 Fourier注意力,我们接着给出 FourierFormer 的定义如下。

定义2(FourierFormer)
FourierFormer 是一种Transformer,它使用Fourier注意力来捕获输入序列中,标记之间的依赖关系,以及每个标记中特征之间的相关性。

注意2 Fourier核的非负性
通过第3.1.1节中的广义Fourier积分定理进行的密度估计不需要广义Fourier密度估计器是非负的。 然而,根据经验,我们观察到负密度估计器会导致训练FourierFormer的不稳定。 因此,在 FourierFormer 中,我们选择函数 $\phi$ 作为非负函数,以强制密度估计为非负。 特别是,我们选择 $\phi$ 为 $\phi(x) = x^{2m}$ 形式的幂函数,其中 $m$ 是一个正整数。 请注意,当 $m=2$ 和 $m=4$ 时,我们的广义Fourier积分估计器中的核是著名的 Fejer-de la Vallee Poussin 和 Jackson-de la Vallee Poussin 核。

3.3 Fourier注意力的高效实现

Fourier内核在 Pytorch 开发的 C++/CUDA 扩展中高效实现。 这个想法类似于函数 cdist ,它计算两个行向量集合中每对之间的 p 范数距离。 在我们的例子中,我们的目标是计算在定义1中代表Fourier注意力的核函数。 这个实现的核心是下面的Fourier度量函数$d_f$:

我们直接将 $d_f$ 实现为 torch.autograd.Function,其中我们提供了一种计算前向和后向函数的有效方法($d_f$ 和 $d_f$ 的梯度)。 虽然前向函数的实现是直截了当的,但后向函数更加棘手,因为我们需要优化代码来一次计算与变量 $q$、$k$ 和 $R$ 的所有梯度有关的 $d_f$。 我们可以通过利用 GPU 架构和利用缩减技术来开发具有高度并行计算的后向函数。 计算时间与函数 cdist 相当; 因此,我们的 FourierFormer 实现在计算上是高效的。

4,实验结果

在本节中,我们在数值上证明了 FourierFormer 在两个大规模任务上优于基线点积Transformer的优势:WikiText-103 上的语言建模和 ImageNet 上的图像分类。 我们的目标是证明:(i) FourierFormer 在具有不同数据模式的各种实际任务中实现比基线 Transformer 更好的精度,并且 (ii) FourierFormer 与基线 Transformer 相比有助于减少头部冗余。

在本章节,我们将 FourierFormers 与相同配置的基线点积Transformer进行比较。 在所有实验中,我们将Fourier注意力中的常数 $R$ 设为可学习的标量,并设置选择函数 $\phi(x) = x^4 $。 我们所有的结果都是使用不同种子进行 5 次运行的平均值。 附录C中提供了有关模型和训练的更多详细信息。 我们还在附录D中提供了额外的实验结果。

4.1 WikiText-103的语言建模

WikiText-103 是来自 Wikipedia 的文章集合,它们具有长期的上下文依赖关系。 训练集由大约 28K 数量的文章组成,其中包含 1.03M 的运行词;这对应于大约 3600 个单词的文本块。 验证集和测试集分别有 $218K$ 和 $246K$ 的运行词。 每篇文章都包含 60 篇文章和大约 268K 数量的单词。 我们的实验遵循标准设置并将训练数据拆分为$L$-word 独立的长片段。 为了评估,我们使用批量大小为 1,并使用大小为 $L$ 的滑动窗口处理文本序列。 最后一个位置用于计算除了第一段的困惑度(PPL),所有位置都参与评估。

模型和基线
我们的实现基于 schlag2021linear 的公共代码,我们在实验中使用他们的中小模型。 特别是对于小模型,key、value和query维度设置为128,训练和评估上下文长度设置为256。对于中模型,key、value和query维度设置为256,并且训练和评估上下文长度设置为 384。在两种配置中,head 的数量都是 8,前馈层维度是 2048,层数是 16。

结果
我们在 Table1 中报告了 FourierFormer 与带点积注意力的基线Transformer的验证和测试困惑度 (PPL)。 FourierFormers 在中小模型配置中都比基线获得了更好的 PPL。对于小模型配置,FourierFormer 相对于基线的改进是验证中的 1.29 PPL 和测试中的 1.44 PPL。对于中模型配置,这些改进是验证中的 1.39 PPL 和测试中的 1.59 PPL。这些结果表明,FourierFormer 相对于基线点积Transformer的优势随着模型的大小而增长。这符合我们的预期,因为更大的模型具有更大的$q$和$k$维度,例如本实验中配置中等的语言模型的$q$和$k$的维度为 256,而配置较小的语言模型为 128。由于 FourierFormer 的优势来自于 FourierFormer 可以捕获$q$和$k$之间的特征相关性,因此$q$和$k$维度越大,FourierFormer 的优势就越大。

4.2 ImageNet上的图像分类任务

数据集和指标
ImageNet 数据集包含 1.28M 的训练图像和 50K 的验证图像。 对于这个基准,模型学习在 1000 个类别中预测输入图像的类别。 报告了前 1 和前 5 的分类精度。

模型和基线
我们使用 DeiT-tiny 模型,有 12 个transformer 层,每层 4 个注意力头,模型维度为 192。为了训练模型,我们遵循与基线相同的设置和配置。

结果
我们在 Table2 中总结了我们的结果。 与语言建模实验相同,对于这个图像分类任务,配备 FourierFormer 的 Deit 模型在 top-1 和 top-5 精度上都显着优于基线 Deit 点积Transformer。 该结果表明 FourierFormer 优于基线点积Transformer的优势适用于不同的数据模式。

4.3 FourierFormer帮助减少多头冗余

为了研究注意力头之间的多样性,给定 WikiText-103 语言建模任务训练的模型,我们计算每层头之间的平均 $\mathcal{L}_2$ 距离。 我们在 Table3 中显示了头部之间距离的层平均均值和方差。 Table3 中的结果表明,FourierFormer 在注意力头之间获得了比具有点积注意力的基线Transformer更大的 $\mathcal{L}_2$ 距离,因此有助于减少头冗余。
请注意,我们对两个模型都使用了 Section4.1 中指定的小模型配置。

5,相关工作

Transformer中的注意力机制理解
最近的工作试图从不同的角度了解Transformer的注意力。tsai2019transformer 认为注意力是在输入上用内核平滑,扩展这种内核方法,katharopoulos2020transformers,choromanski2021rethinking, wang2020linformer 线性化了点积注意力中的 softmax 核,并提出了一系列具有线性计算和内存复杂度的高效Transformer。cao2021choose 然后表明这些线性Transformer与 Petrov-Galerkin投影相当,表明点积注意力中的 softmax 归一化是足够的,但不是必需的。

其他作品通过常/偏微分方程提供了对Transformer注意力的理解,包括 lu2019understanding, sander2022sinkformers。此外,tang2021probabilistic等将Transformer中的注意力与Gaussian混合模型联系起来。一些工作还将注意力机制与图形模型中的图结构学习和消息传递联系起来,如wang2018non。我们的工作重点是推导自注意力和非参数核回归之间的联系,并探索更好的回归估计器,例如广义Fourier非参数回归估计器,以提高Transformer的性能。

Transformer中的冗余
dalvi2020analyzing等表明预训练Transformer中的神经元和注意力头是冗余的,并且可以在应用于下游任务时移除。 通过研究预训练网络中的上下文嵌入,已经证明从这些冗余模型中学习到的表示是高度各向异性的。 此外,sanh2019distilbert 等采用知识蒸馏和稀疏近似来提高Transformer的效率。 我们的 FourierFormer 是对这些方法的补充,可以与它们结合使用。

6,结论

在本文中,我们建立了非参数核回归与 Transformer 中的自注意力之间的对应关系。然后,我们开发了广义Fourier积分估计器并提出了 FourierFormer,这是一类新的Transformer,它使用广义Fourier积分估计器来构建它们的注意力,以有效地捕获$q$和$k$向量中的特征之间的相关性。我们从理论上证明了广义Fourier积分估计器的近似保证,并在精度和头部冗余减少方面通过点积注意验证了 FourierFormer 相对于基线Transformer的优势。将鲁棒内核合并到 FourierFormer 的非参数回归框架中以增强模型在数据扰动和对抗性攻击下的鲁棒性是很有趣的。

FourierFormer 的一个限制是它仍然具有与具有点积注意力的基线Transformer相同的二次计算和内存复杂性。我们将实现线性计算和内存复杂性的 FourierFormer 线性版本的开发留作未来的工作。值得注意的是,FourierFormer 没有潜在的负面社会影响。

// 代码折叠