橦言无忌

一个不想改变世界的程序媛

Training Neural Networks by Lifted Proximal Operator Machines

前言

title: Training Neural Networks by Lifted Proximal Operator Machines

论文百度云盘链接:https://pan.baidu.com/s/14x2KrlBVhfdWWy8oQBjROw?pwd=axgn

提升近端算子机对前馈神经网络的训练问题~

摘要

我们提出了提升近端算子机 (LPOM) 来训练完全连接的前馈神经网络。 LPOM 将激活函数表示为等效的近端算子,并将近端算子作为惩罚添加到网络的目标函数中。 LPOM 在所有层级权重和激活中都是块多凸的。 这使我们能够开发一种新的具有收敛保证的块坐标下降(BCD)方法来解决它。 由于新颖的公式和求解方法,LPOM 仅使用激活函数本身,不需要任何梯度步骤。 因此,它避免了梯度消失或爆炸问题,这些问题通常归咎于基于梯度的方法。 此外,它还可以处理各种非递减 Lipschitz 连续激活函数。 此外,LPOM 几乎与随机梯度下降一样具有内存效率,并且其参数调整相对容易。 我们进一步实现和分析了 LPOM 的并行解决方案。 我们首先提出了一种具有收敛保证的通用异步并行 BCD 方法。 然后我们用它来解决 LPOM,从而得到异步并行 LPOM。 为了更快的速度,我们开发了同步并行 LPOM。 我们验证了 LPOM 在各种网络架构和数据集上的优势。 我们还将同步并行 LPOM 应用于自动编码器训练,并展示了其快速收敛和卓越的性能。

一,介绍

神经网络 (NN) 是强大的模型,在许多应用中取得了巨大成功,包括图像识别 [1]、语音识别 [2]、自然语言理解 [3] 和构建围棋游戏学习系统 [4] . 然而,由于它们的目标函数是高度非凸的,NN 的训练仍然是一个挑战,其中包括病态的 Hessian 和许多鞍点和局部最小值的存在 [5]。

作为 NN 训练中的主要方法,基于梯度的方法主要包括 vanilla 【?】随机梯度下降 (SGD) [6] 和具有自适应学习率和动量项的 SGD,如 Nesterov momentum [7]、AdaGrad [8]、RMSProp [9] ]、Adam [10] 和 AMSGrad [11]。 SGD 及其变体使用小批量训练样本来估计全批量梯度,所以每一步的权重更新都很简单,此外估计的梯度也有噪声,这有助于避开鞍点 [12]。 尽管基于梯度的方法取得了巨大成功,但它们也有几个严重的缺点。 主要缺陷是它们遭受梯度消失或爆炸问题的困扰,这会减慢或破坏训练的稳定性。 已经开发了一些方法来缓解这样的问题,例如,引入整流线性单元 (ReLU)、批量归一化 (BN) [13] 或残差网络 (ResNets) [14]。 然而,嵌套计算目标函数梯度的问题仍然存在,而且它们的参数调整很困难,例如设置学习率和停止标准 [15]。 此外,它们不能直接处理不可微分的激活函数(例如,二值化神经网络 [16]),也不能并行更新跨层的权重 [15]。 有关 SGD 局限性的更多详细信息,请读者参考 [17] 和 [15]。

由于上面讨论的 SGD 的局限性,在为神经网络开发新的训练方法方面有非常活跃的研究。 一种值得注意的方法是引入与网络激活相关的辅助变量,并将 NN 的训练制定为等式约束优化问题 [18],这种方法用标准优化方法解决了产生的约束问题。 这种方法的另一个优点是它可以并行实现,因此可以解决分布式大规模问题。 已经提出了这种方向的几种方法,它们在如何放松约束和向目标函数添加惩罚方面有所不同。

Carreira-Perpinan 和 Wang [18] 使用二次惩罚来近似执行等式约束并解决了一系列无约束最小化问题。 zeng等[19] 也使用二次惩罚来近似强制执行等式约束,但为每一层引入了更多的辅助变量块。 受乘法器交替方向法 (ADMM) [20] 的启发,Taylor 等人[17] 和zhang等人[21]采用增广拉格朗日方法获得满足非线性等式约束的序列。 然而,引入的拉格朗日乘数需要更多的内存,而且 ADMM 不是为处理非线性等式约束而设计的。 Zhang 和 Brand [22] 以及 Askari 等人[23] 使用激活函数的等效表示,消除了非线性约束,然而[22]中的方法仅限于 ReLU 激活函数,虽然 [23] 中的公式可以处理一般的激活函数,但其求解方法需要针对每个激活函数进行调整,并且所提出的求解方法仅适用于 ReLU,而且这两种方法在速度或错误率方面无法与 SGD 竞争。 此外,在测试阶段,他们需要解决优化问题以预测新样本的标签,这在计算上是负担不起的。 相比之下,SGD 使用前馈传递来预测标签,即将激活从输入层传播到输出层并使用输出层的激活进行预测。 最近,Gu等人[24] 介绍了 [23] 的后续工作,他们的公式(见[24]中的(4)和(9))等同于我们的(见(19)或(20)),然而,他们的解决方法不如我们的方法有效和通用(见第 4.1 节的最后一段)。

本文的主要贡献可归纳如下。

  • 我们开发了一种新的优化方法来训练完全连接的前馈神经网络,我们称之为提升近端算子机 (LPOM),LPOM 允许我们使用简单的前馈传递来推断新样本,这与 SGD 相同。 此外,LPOM 是块多凸的,即在保持剩余权重和激活固定的前提下,对当前层的权重或者激活来说它是凸。 相比之下,大多数现有的 NN 训练方法不具有此属性。 这对神经网络的训练非常有利。
  • 相应地,我们提出了一种新的块坐标下降(BCD)方法来求解 LPOM 并证明其收敛性。 我们的BCD求解方法只用到了激活函数本身的映射,没有用到它的导数。 因此它避免了梯度消失或爆炸问题,这在基于梯度的方法中是众所周知的。 同时,LPOM 适用于各种非递减 Lipschitz 连续激活函数,它们可以是饱和的(例如,sigmoid 和 tanh),也可以是不可微的(例如,ReLU 和 leaky ReLU)。 此外,LPOM 不需要比分层激活更多的辅助变量,因此它的内存占用与 SGD 几乎相同,它还存储所有用于梯度计算的激活,而且在 LPOM 中调整惩罚参数很容易。
  • 我们以异步和同步方式实现和分析了 LPOM 的并行解决方案。 我们首先提出了一种通用的异步并行 BCD 方法。 我们证明了它的收敛性并用它来解决 LPOM,从而得到异步并行 LPOM,得到的结论也是同步并行LPOM的基础。 然后我们提出了同步并行 LPOM,并表明它在串行 LPOM 上实现了令人满意的加速,而不会降低性能。

由于 SGD 是常用的 NN 训练方法,我们将其作为我们的主要竞争对手。 如表 1 所示,与 SGD 相比,LPOM 表现出一些有利的特性。 目前,我们仅在全连接 NN 上实施 LPOM,卷积神经网络 (CNN) 是最流行的前馈网络。 然而,由于我们还没有解释 pooling operators 和 skip-connections,我们将来会在 CNNs 上实现 LPOM。 我们注意到,大多数现有的基于非梯度的方法也首先关注完全连接的神经网络 [17]、[18]、[19]、[21]、[22]、[23]。

二,相关工作

在本节中,我们将回顾一些与我们的工作最相关的、基于无梯度的 NN 训练方法,在表 2 中总结了整篇论文中使用的主要符号。

考虑监督学习中的 $N$ 层标准前馈神经网络,其中第一层是输入层,第 $N$ 层是输出层,令 $X^1\in \mathbb R^{n_1\times m}$ 为一批训练样本,其中 $n_1$ 是训练样本的维数,也是输入层神经元的数量,$m$ 是批量大小。 设 $D\in \mathbb R^{c\times m} $ 是 $X^1$ 的标签,其中 $c$ 是类数。 设 $W^i$ 为第 $i$ 层和第 $i + 1$ 层之间的权重矩阵,其中我们将额外的一列堆叠到 $W^i$ 并将全行堆叠到 $X^i$ 并省略相应的偏差。 令 $\phi(\cdot)$ 为逐元素激活函数(例如,sigmoid、tanh 和 ReLU)。 让 $\ell(\cdot,\cdot)$ 成为损失函数(例如,均方误差 (MSE) 或交叉熵)。 借助这些符号,NN 的批量训练问题可以表示为以下最小化问题:

在上面的公式中,NN 的目标函数是嵌套的,其中第 $i$ 层的输出是第 $i+1$ 层的输入。问题 (1) 可以通过 SGD 求解,它计算 $\{W^i\}^{n-1}_{i=1}$ 传播的梯度,然后通过梯度下降更新 $\{W\}^{n-1}_{i=1}$。

为了使问题 (1) 在计算上更易于处理,最常见的方法是将每一层的激活作为辅助变量块引入。 那么问题(1)可以等效地改写为以下等式约束最小化问题[18]:

其中 $X^i$ 是第 $i$ 层的激活值,$X^n$ 是神经网络的输出,其他符号同(1)。 与问题(1)相比,问题(2)的目标函数没有嵌套,所以我们可能会使用更优雅的优化方法来解决它。 我们要注意,在使用 SGD 解决问题 (1) 时,还需要记录激活值 $\{X^i\}^n_{i=2}$ 以计算梯度。

Carreira-Perpinan 和 Wang [18] 提出了辅助坐标(MAC)的方法来近似解决问题(2)。 MAC 不是直接求解 (2),而是通过使用二次惩罚来放宽等式约束并求解以下形式的无约束问题

随着迭代逐渐增加,其中 $\mu > 0$。为了解耦非线性激活并获得更有效的子问题求解方法,Zeng 等人[19] 为问题(2)的每一层引入了一个新的辅助变量块,并提出了以下问题:

按照MAC的方法,他们没有直接解决上面的问题,而是优化了如下形式的问题

泰勒等[17] 也试图优化问题 (4),受 ADMM[20] 的启发,他们只在输出层的约束中添加了一个拉格朗日乘子,而不是在每个等式约束中添加了一个拉格朗日乘子,从而得到

其中 $M$ 是拉格朗日乘数,$\beta > 0$ 和 $\mu > 0$ 是常数,请注意,输出层使用线性激活函数(即 $\phi(x)=x$),所以他们只是试探性地使用了 ADMM。 同样受到 ADMM 的启发,Zhang 等人[21] 使用了另一种变量拆分方案:

与 ADMM 一样,他们为 (7) 中的每个约束添加了拉格朗日乘子,那么增广拉格朗日问题就变成了

其中 $A^i$ 和 $B^i$ 是拉格朗日乘数,然而,问题(7)包含非线性等式约束,ADMM 旨在处理线性约束问题。

Zhang 和 Brand [22] 开发了一种新方法,仅使用 ReLU 激活函数来解决问题 (2)。 最值得注意的是,他们将 ReLU 激活函数表示为凸最小化问题。 即,他们使用 ReLU 激活函数将问题 (2) 中的等式约束重新解释为以下问题:

其中 $max$ 是基于元素的最大值运算符。 根据解释,他们使用 ReLU 激活函数对问题 (2) 进行了近似,如下所示:

与基于 MAC 和 ADMM 的方法不同,这种松弛不包括非线性等式约束,此外,问题(10)是分块多凸的,即当其余块固定时,每个变量块它是凸的。 他们提出了一种新的 BCD 方法来求解。 然而,测试时,他们必须在固定 $\{W^i \}^{n-1}_{i=1}$ 情况下求解问题(10)或者在输出层重新训练 $W^{n-1} $。 Askari i1⁄41 等人[23] 遵循了 Zhang 和 Brand [22] 提出的想法,他们演示了如何将更一般的激活函数转换为凸最小化问题。 然而,他们训练的权重只能用于初始化 SGD 的前馈神经网络。 顾等[24] 介绍了 [23] 的后续工作,它们的公式等同于 LPOM。 然而,他们的解决方法需要解决更新基于层的激活函数约束问题,效率不高。 另外,他们的求解方法需要针对每个激活函数进行裁剪,所以不具有通用性。 值得注意的是,基于卷积和平均池化的组合也是线性的这一事实,他们结合了一个经验技巧来扩展他们的公式以直接处理卷积和平均池化。

三,LPOM

在本节中,我们介绍了 LPOM 的概念,并讨论了它相对于现有 NN 训练方法的优势。

3.1 近端算子重构

LPOM旨在解决问题(2),基本思想如下,考虑只有一个约束的问题 (2) 的简化版本

其中 $x$ 和 $y$ 是单变量,我们首先构造一个函数 $h(x,y)$,使得 $x=\phi(y)=\mathop{argmin}_xh(x,y)$。 那么我们将问题(11)放宽为以下问题:

其中 $\mu > 0$ 是惩罚参数。

我们首先描述问题 (11) 中 $h(x,y)$ 的构造,近端算子[26]

这是优化算法中更新变量的基本操作,所以我们考虑用它来构造 $h(x,y)$。 这里我们假设激活函数 $\phi$ 是非递减的,那么 $\phi^{-1}(x)=\{y|x=\phi(y)\}$ 是一个凸集,$\phi^{-1}(x)$ 是单例,当且仅当 $\phi$ 在 $\phi(y)$ 处严格递增。 定义如下所示 $f(x)$

请注意,如果允许取 $+\infty $ ,那么$f(x)$ 是适定的,即使 $\phi^{-1}(y)$ 对于 $0$ 和 $x$ 之间的某些 y 是非唯一的。 无论如何,我们没有在计算中明确使用 $\phi^{-1}、f$ 和 $g$(稍后定义)。 很容易证明(13)的最优性条件是 $0\in(\phi^{-1}(x)-x)+(x-y)$,所以(13)的解正好是 $x=\phi(y)$。 因此,我们可以选择 $h(x,y)=f(x)+\frac{1}{2}(x,y)^2$,其中 $f(x)$ 是单变量函数。

下面我们考虑原问题(2), 我们首先扩展上面的 $h(x,y)$ 到矩阵形式 $h(X,Y)$,其中 $X$ 和 $Y$ 是大小相同的矩阵。 因为我们已经有了 $h(x,y)$,逐元素函数 $h(X,Y)$ 是最需要的,让下标 $kl$ 指代矩阵的第 $(k,l)$ 项。 我们定义 $h(x,y)=\sum_k\sum_l h(X_{kl},Y_{kl})$。 为了得到更紧凑的 $h(X,Y)$ 表示,对于矩阵 $X=(X_{kl})$,我们定义 $f(x)=(f(X_{kl}))$,即,矩阵 $X$ 是由 $X_{kl}$ 表示的条目数组。 $f(X)$ 是 $X$ 上的逐元素函数,即它是一个与 $X$ 大小相同的矩阵,第 $(k,l)$ 项是 $f(X_{kl})$。 然后我们有

因此,(13)中的近端算子的矩阵形式对于问题 (2) 变为

其中 $X^i$ 和 $W^{i-1}X^{i-1}$ 分别扮演 (13) 中的 $x$ 和 $y$ 的角色。 类似地,我们可以证明问题(14)对于 $X^i$ 的最优性条件是

其中 $\phi^{-1}(X^i)$ 也是按元素定义的, 所以(14)的最优解是 $X^i=\phi(W^{i-1}X^{i-1})$,这正是问题(2)中的约束条件。 因此我们可以自然地放松问题(2)为:

然而,由于(2)中的递归约束不是独立的,问题(11)和问题(2)之间存在根本区别。 即对于 $i=2…n-1$,$X^i$ 出现在 $X^i=\phi(W^{i-1}X^{i-1})$ 和 $X^{i+1}=\phi(W^iX^i)$ 中。 所以它也出现在 $h(X^i,W^{i-1}X^{i-1})$ 和 $h(X^{i+1},W^iX^i)$ 中。 为了正确逼近问题(2),$X^i=\phi(W^{i-1}X^{i-1})$ 和 $X^{i+1}=\phi(W^iX^i)$ 都应满足最优条件

对于 $X^i$,如下所示:

这也是问题 (16) 中关于 $X^i$ 的最优条件。

不幸的是,我们可以看到 $X^i=\phi(W^{i-1}X^{i-1})$ 和 $X^{i+1}=\phi(W^iX^i)$ 并不都满足上述条件!

为了使 $X^i=\phi(W^{i-1}X^{i-1})$ 和 $X^{i+1}=\phi(W^iX^i)$ 都满足松弛问题的最优条件,我们需要将 (17) 修改为

这对应于以下问题:

其中

类似地,$g(X)$ 是矩阵 $X$ 的逐元素函数,问题 (19) 是 LPOM 的最终公式。 请注意,(2) 中的递归约束确保 $\{X^i\}^n_{i=2}$ 匹配网络的前馈传递 $g$ 的引入诱导出正确的再表述,还允许我们使用简单的前馈过程来推断新样本。 我们要强调的是,这是不平凡且不明显的,在表 3 中给出了一些代表性激活函数的 $f(x)$ 和 $g(x)$.

3.2 LPOM优势

我们将 $F(W,X)$ 表示为 (19) 中 LPOM 的目标函数,那么我们有下面的定理

定理1

假设 $\ell(X^n,D) $ 在 $X^n$ 中是凸的并且 $f$ 是非递减的。 然后 $F(W,X)$ 是块多凸的,即在保持其他变量块固定时,它在每个 $X^i$ 和 $W^i$ 中都是凸的。

证明

$F(W,X)$ 可以等效地重写为

其中 $\tilde{f}(X)=\int^x_0\phi^{-1}(y)dy $,且 $\tilde{g}(x)\int^x_0\phi(y)dy $。由于 $\phi$ 和 $\phi^{-1}$ 都是非递减的,所以 $\tilde{f}(X)$ 和 $\tilde{g}(x)$ 都是凸的。 易证 $\pmb 1^\top\tilde{g}(W^{i-1}X^{i-1})\pmb 1$ 在 $W^{i-1}$ 固定时在$X^{i-1}$ 中是凸的,在 $X^{i-1}$ 固定时在 $W^{i-1}$ 中是凸的。 当其他两个块固定时,$F(W,X)$ 中的项 $\langle X^i,W^{i-1}X^{i-1}\rangle$ 在一个块中是线性的。 证明完成。

上述定理允许我们使用 BCD 方法来求解 LPOM。 由于每个子问题都是凸的,我们可以获得更新 $X_i$ 和 $W_i$ 的最优解。 相比之下,惩罚子问题和基于 ADMM 的方法都是非凸的。

与基于 ADMM 的方法 [17]、[21] 相比,LPOM 不包含拉格朗日乘数,并且不需要比 $\{X^i\}^n_{i=2}$ 更多的辅助变量。 此外,我们的 LPOM 求解方法不需要额外的辅助变量(见第 4 节),所以 LPOM 比基于 ADMM 的方法具有更少的变量,因此需要更少的内存。 实际上,由于 SGD 需要保存 $\{X^i\}^n_{i=2}$ ,因此 LPOM 的内存成本与 SGD 几乎相同。与惩罚方法 [18]、[19] 相比,LPOM 的最优条件更简单。 例如,LPOM 中 $\{X^i\}^{n-1}_{i=2}$ 和 $\{W^i\}^n_{i=2}$ 的最优条件是 (18) 和

而用于 MAC 的是

我们可以看到 MAC 的最优条件有一个额外的 $\phi’(W^iX^i)$,它是非线性的。 [19] 的最优条件可以在补充材料的附录 A 中找到, 他们还有一个额外的 $\phi’(U^i) $。 这可能意味着 MAC 和 [19] 的解集比 LPOM 的解集更复杂,所以 LPOM 可能更容易找到好的解决方案。

与激活函数方法 [22]、[23] 的等效表示相比,LPOM 的公式和求解方法可以处理比 [22] 和 [23] 更通用的激活函数。 请注意,求解方法是通用的意味着它对于所有可行的激活函数都是相同的。 此外,当训练网络的权重时,在 LPOM 中引入 $g$ 使我们能够应用前馈过程来预测测试样本的标签。 相比之下,Zhang 和 Brand [22] 只考虑了 ReLU 激活函数,为了获得测试样本的潜在标签,他们必须解决优化问题或重新训练输出层。 尽管 [23] 中的公式适用于一般激活函数,但其求解方法并不通用,所提出的求解方法仅适用于 ReLU。 此外,Askari 等人的表述[23] 是不正确的,因为它对 $\{X^i\}^{n-1}_{i=2} $ 和 $\{W^i\}_{i=2}^{n-1} $ 的最优条件分别是

可以看出,式(2)中的递归等式约束不满足上述条件。 此外,不知何故 Askari 等人[23] 对于任何激活函数,都添加了额外的约束 $X^i\geq 0$, 所以他们的公式不能很好地逼近原始问题(2),这可以解释为什么 Askari 等人的结果[23] 不好。 实际上,他们只能用 SGD 的 ReLU 激活来初始化前馈神经网络的权重。

与基于梯度的方法(例如 SGD)相比,LPOM 可以处理任何非递减 Lipschitz 连续激活函数而没有计算困难,包括饱和(例如,sigmoid 和 tanh)和不可微分(例如,ReLU 和 leaky ReLU)并且可以并行更新分层权重和激活(参见第 5 节)。 相比之下,基于梯度的方法只能处理有限的激活函数(例如 ReLU、leaky ReLU 和 softplus),以避免梯度消失或爆炸问题,并且在计算梯度时它们不容易跨层并行化和激活。 此外,基于梯度的方法需要很多参数调整,这并不容易[15],而 LPOM 中惩罚参数 $\mu$ 的调整要简单得多。

四,求解LPOM

块多凸性(定理 1)启发了 BCD 方法来解决 LPOM。 即,我们通过固定所有其他变量块来更新 $X^i$ 或 $W^i$。 我们在算法 1 中总结了整个求解过程,其中使用一小批训练样本执行优化。 我们可以证明算法 1.3 的收敛性 下面我们给出算法的细节,它是串行的。

4.1 更新 $\{X^i\}^n_{i=2}$

我们首先描述 $\{X^i\}^n_{i=2} $ 的更新。 我们将 $\{X^i\}^n_{i=2} $ 从 $i=2$ 连续更新到 $n$,就像神经网络的前馈过程一样。 对于 $i=2,…n-1$,固定 $\{W^i\}^{n-1}_{i=1} $ 和其他 $\{X^j\}^n_{j=2,j\neq i} $,问题 (19) 简化为

优化条件是:

基于定点迭代[27],为了避免使用 $\phi^{-1}$,我们可以通过迭代更新 $X^i$

直到收敛,其中上标 $t$ 为迭代次数。 收敛分析如下:

定理2

假设 $\phi$ 是可微的且 $|\phi’(x)|\leq \kappa$。 如果 $\rho < 1$,则迭代收敛且收敛率是线性的,其中,$\rho=\frac{\mu_{i+1}}{\mu_i}\kappa^2\sqrt{\bigg||(W^i)^\top||W^i| \bigg|_1\bigg||(W^i)^\top||W^i| \bigg|_{\infty}}$

请注意,上述定理中 $\rho $ 的选择是相当保守的,所以在我们的实验中,只要迭代收敛,我们就不用服从选择。
当考虑 $X^n$ 时,问题 (19) 简化为

假设 $\ell(X^n,D)$ 是可微的。 那么最优条件是:

同样通过定点迭代,我们可以通过迭代更新 $X^n$ 的公式为:

直到收敛。 收敛分析如下:

定理3

假设 $\phi(x)$ 是可微的,$|\phi’(x)|\leq \kappa$,而且 $\bigg||(\frac{\partial^2\ell(X,D)}{\partial X_{kl}\partial X_{pq}})| \bigg|_1\leq \eta$,如果有 $\tau<1$,那么迭代是收敛的,收敛速度是线性的,其中 $\tau=\frac{\kappa\eta}{\mu_n}$.

如果 $\ell(X^n,D)$ 是 MSE 损失函数,也就是 $\ell(X^n,D)=\frac{1}{2}|X^n-D |^2_F $,那么 $\bigg||(\frac{\partial^2\ell(X,D)}{\partial X_{kl}\partial X_{pq}})| \bigg|_1=1$,所以有 $\mu_n>\kappa$.

值得注意的是,(19)中的 $f$ 和 $g$ 是积分,它们的表达式非常复杂,可能无法解析(见表 3)。 所以最好在计算中使用他们的导数而不是他们自己。 然而,$f$ 的导数包括 $\phi^{-1}$ (见(25)和(28)),我们认为在更新 $\{X^i\}^n_{i=2}$ 时最好避免使用 $\phi^{-1}$。 原因如下,对于常用的激活函数 $\phi$,$\phi^{-1}$ 的定义域(或等价于 $\phi$ 的范围)通常不是 $(-\infty,+\infty)$。 所以我们需要在计算中约束 $\phi^{-1}$ 的输入,这导致受约束的问题无法像不受约束的问题那样有效地解决。 使用 $\phi^{-1}$ 的另一大缺点是它可能不是单值的(见表 3),这会给计算和确保收敛带来很大困难。 此外,不同的 $\phi^{-1}$ 可以具有不同的域,由于必须为每个 $\phi^{-1}$ 调整 $\{X^i\}^n_{i=2}$ 的更新,因此整个求解方法不能适用于一般的激活函数,这就是为什么 [23] 和 [24] 中的求解方法需要针对每个激活函数进行调整的原因。 由于我们只使用 $\phi$ 而没有使用 $\phi^{-1}$,我们的方法没有这样的限制。 所以我们的求解方法比[23]和[24]中的方法更实用。

4.2 更新$\{W^i\}^{n-1}_{i=1}$

$\{W^i\}^{n-1}_{i=1}$ 的更新是完全并行的。 当 $\{X^i\}^n_{i=2}$ 固定,问题(19)减少到:

上述求解 $W^i$ 的问题独立于 $\{W^j\}^{n-1}_{j=1,j\neq i}$ 的其他问题,所以可以并行解决,我们将 (30) 重写为

其中 $\tilde g(x)=\int^x_0\phi(y)dy$,如前所述,假设 $\phi(x)$ 是 $\beta-Lipschitz$ 连续的,这对于几乎所有使用的激活函数都是正确的。 则 $\tilde g(x)$ 是 $\beta-$ 光滑的

我们借用 APG [28] 中通过局部线性化 $\hat g(W)=\tilde{g}(WX) $ 来解决问题 (31)。 然而,由于 $\hat g(W)$ 梯度的 $Lipschitz$ 常数 $\beta|x|^2_2$ 可能非常大,收敛速度可能很慢。 因此,我们开发了一种 APG 变体,专为更有效地解决 (31) 问题而设计。

从优化的角度来看,问题(31)可以更一般地表示为

其中,$\varphi(y)$ 和 $\psi(x)$ 都是凸的,$\varphi(y)$ 是 $L_{\varphi}-$ 光滑的,也就是有:$|\nabla \varphi(x)-\nabla\varphi(y)|\leq L_{\varphi}|x-y|,\;\forall x,y$。假设有如下的最小化问题:

对于任何给定的 $y_k$ 很容易求解,我们提出算法 2 来解决 (33),这是从其收敛定理的证明推导出来的。

定理4

如果我们用算法2来解决问题(33),那么收敛速度至少为 $O(k^{-2})$

其中,$z_k=A[\theta_{k-1}x_{k-1}-x_k+(1-\theta_{k-1})x^\ast]$,$x^\ast$ 是问题(33)的最优解。

当我们考虑解决问题(31)时,子问题(34)的实例化为:

这是一个最小二乘问题,它的解是

其中 $Y^{i,t}$ 在算法 2 中扮演 $y_k$ 的角色。

五,LPOM的并行

上一节介绍的求解方法是串行的,在本节中,我们研究了 LPOM 的并行解决方案。

5.1 异步并行 LPOM

如第 4 节所述,求解 LPOM 的原始方法是 BCD。 因此很自然地使用异步-并行 BCD(async-BCD)[29]、[30] 来并行求解 LPOM。 然而,现有的 async-BCD 主要使用梯度下降来仅一次更新每个块,而在 LPOM 中,梯度 ( $X^i$) 涉及激活函数的逆函数,这就是 LPOM 使用定点迭代来代替的原因(参见(26)和(29))。 所以现有的async-BCD实际上并不适用,在下文中,我们提出了一种新的异步 BCD 方法。

假设优化问题是

我们的 async-BCD 执行如下:如果 $z_i$ 被选为更新,更新为

其中 $z_j,j\neq i$,取 $z_i$ 可用的最新值。 请注意,由于通信延迟等原因,$z_j$ 的此类值可能比正在计算的 $z_j$ 的实际 $j$ 个最新值更旧。 近端项 $\frac{\gamma}{2}|z_i-z_i^k|^2$ 是保证我们的异步 BCD 收敛所必需的。

为了分析我们的异步 BCD 的收敛性,我们做出以下假设。

假设1

$F(z)\equiv F(z_1,…z_n) $ 具有坐标 $Lipschitz$ 连续梯度,即对于所有 $i\in\{1,…n\}$,我们有

假设2

信息的陈旧性(有效性?)是有界的,即

其中 $\tau^i_j(k)$ 是可用于在时间 $k$ 更新 $z_i$ 的 $z_j$ 时间

我们注意到这两个假设都是分析异步算法的标准 [29]、[30],现在我们要求我们的异步 BCD 的收敛保证。

定理5

假设 $F(z)$ 是分块多凸的。 在假设 1 和 2 下,通过设置(38)中的逼近参数 $\gamma$ 使 $\frac{\gamma}{2}+\frac{L^2}{2\gamma}(\Delta+1)-\frac{L^2}{2\gamma}(\Delta+1)^2>0 $,其中 $L=max\{L_i\}$,那么有 $|\Delta_i F(z^k)|\to 0,\forall i \in \{1,…n\}$

由于 $\gamma>0$,根据上述定理,我们有 $\gamma>L\sqrt{\Delta(\Delta+1)}$。 因此 $\gamma$ 的选择取决于 $\Delta$ 和 $L$ 的估计。我们的异步 BCD 可用于求解 LPOM,从而得到异步 LPOM,对于 async-LPOM,我们可以将 $\Delta$ 设置为 CPU 核心数。 假设 $\phi(x)$ 是 $\beta-Lipschitz$ 连续的(在(32)中定义),我们可以将 $L$ 设置为 $L=\beta max\{|W^2|^2_2,…|W^{n-1}|^2_2,|X^1|^2_2,…|X^{n-1}|^2_2 \} $。 $\gamma$ 的理论估计值非常大,在实践中,我们通过逐渐增加其值来选择 $\gamma$,直到 async-LPOM 收敛。 然而,async-LPOM 并没有完全利用问题 (19) 的属性,即每个 $X^i$ 仅与 $X^{i-1}$ 相关,并且 $X^i$ 和 $\{W^i\}^{n-1}_{i=1}$ 可以完全并行更新。 所以 async-LPOM 并没有我们预期的那么快。 这促使我们考虑开发同步并行 LPOM (sync-LPOM),它可以更好地利用 LPOM 的特性。

5.2 同步并行 LPOM

我们首先分析算法 1 中的串行 LPOM。当 $\{X^i\}_{i=2}^n$ 固定时,每个 $W^i$ 的更新独立于其他 $W^j,j \neq i$(见(30))。 因此算法 1 中的步骤 c 可以完全并行化完成。 我们生成 $n-1$ 个线程,每个线程独立地求解每个 $W^ i$ 。 在 $\{W^i\}^{n-1}_{i=1} $ 固定的情况下,$X^i (i\in\{2,…n-1\})$ 的更新与 $X^{i-1}$ 和 $X^{i+1}$ 有关(参见 (26)),而 $X^n$ 的更新与 $X^{n-1}$ 有关 (见(29))。 所以我们只需要同步并行化步骤 a 和 b 。

我们将 $X^i$ 的更新并行化如下,我们创建了 $n-1$ 个线程。 每个线程迭代方程(26)或方程(29) 来更新 $X^i$, 该步骤由每个线程独立且同时执行。 当所有线程完成该步骤时,我们重复该过程多次,直到达到最大时间。 然而,我们注意到更新相邻 $X^i$ 时的耦合(参见 (26) 和 (29), 解耦块有助于并行算法的收敛,最大化并行度也是并行算法所追求的。 那么更新 $X^i$ 的奇偶交替方案是唯一可以同时具有最大并行度和最小耦合度的选择。 即,我们首先同步更新奇数子序列 $\{X^3,X^5,…\}$,然后使用更新的 $\{X^3,X^5,…\}$,我们同步更新偶数子序列 $\{X^2,X^4,…\}$。 此外,受 SGD 中使用的动量的启发,我们考虑了每个 $X^i$ 的先前值,导致更新后的 $X^i$ 序列的移动平均值,sync-LPOM 的整个算法在算法 3 中进行了总结。请注意,sync-LPOM 是 async-LPOM 的特例,其中允许更新块的顺序是非随机的。 所以定理 5 的结论也适用于 sync-LPOM。

六,实验

在本节中,我们对所提出的 LPOM 和 sync-LPOM 进行了广泛的实验评估。 我们首先评估 LPOM 在图像分类任务上的性能,也进行了消融研究来分析 LPOM。 然后,我们研究了 sync-LPOM 在自动编码器训练任务上的计算效率和性能。

我们在自动编码器训练任务上测试 sync-LPOM 的原因有如下几个:首先,目前 LPOM 和 sync-LPOM 仅适用于全连接前馈神经网络。 其次,我们的主要目标是评估 sync-LPOM 的加速。 但是,如果存在具有主导计算的层,则无法加速 sync-LPOM, 比如784-10-10-10网络,$X^2$ 的更新比 $X^3$ 和 $X^4$ 慢16倍,串行 LPOM 和同步 LPOM 都将以更新 $X^2$ 为主,因此同步 LPOM 不会比串行 LPOM 有加速。 因此,sync-LPOM 有利于等宽网络,这在分类网络中并不常见。 这促使我们选择自动编码器。 最后,深度自动编码器具有挑战性,因为它们必须在一层非常低维的约束下重建输入,困难主要来自网络架构而不是使用的数据集,在基准数据集上训练自动编码器被认为是评估前馈神经网络优化方法的标准问题 [18],[32]。 出于上述原因,我们使用各种自动编码器架构和数据集测试 sync-LPOM。

6.1 LPOM结果

我们通过与三种具有代表性的基于梯度的方法(SGD、Adam [10] 和 AMSGrad [11])和三种基于非梯度的方法 [17]、[23]、[24] 进行比较来测试 LPOM。 其他基于非梯度的方法不训练用于分类任务的完全连接的前馈神经网络(例如,使用跳跃连接 [22]、训练自动编码器 [18] 和哈希学习 [21])。 所以我们不跟他们比较。 为简单起见,我们使用 MSE 损失函数。 由于几种方法[23],[24]只给出了ReLU的求解方法,我们也使用了ReLU激活函数。 与 [23] 和 [24] 不同,我们不对权重 $\{W^i \}^{n-1}_{i=1}$ 使用任何正则化,因为它通常无助于减少训练损失。 我们使用相同的输入和随机初始化运行 LPOM 和三种基于梯度的方法 [33]。 我们使用 MATLAB 实现 LPOM、SGD、Adam 和 AMSGrad。 对于 LPOM,我们在 (19) 中为所有网络设置 $\mu_i=2$。 对于 SGD,学习率设置为最大可行值,并在总 epoch 的一半和四分之三处乘以 $0.1$。 对于 Adam 和 AMSGrad,我们仔细调整参数以达到最佳性能。 对于 [23] 和 [24],我们使用作者提供的具有默认参数设置的源代码。 对于 [17],我们阅读了论文图 1b 中的结果。

6.1.1 与基于梯度的方法比较

我们在 MNIST [34]、CIFAR-10 [35] 和 ImageNet [36] 数据集上进行实验。 MNIST 数据集有 60,000 个训练图像和 10,000 个测试图像,这些图像与来自 10 个类别的标签相关联。 我们使用 $28\times 28=784$ 个原始像素作为输入,不使用任何预处理或数据增强。 对于所有比较的方法,在每个时期,整个训练样本都经过一次。 网络架构可能会影响性能。 由于过度参数化在训练 [37]、[38] 时极大地促进了基于梯度的方法,因此我们与过度参数化网络进行了比较。 在 [19] 之后,我们使用 784-2048-2048-2048-10 前馈网络。 我们以固定的批量大小 100 运行 100 个 epoch 的所有方法。训练和测试精度如图 1 和 2 所示。 1a 和 1b。 我们可以看到所有方法的最终训练准确率都大约等于 100%。 然而,LPOM 的测试精度与 Adam、AMSGrad 和 SGD 的测试精度相当或略好。 最终的测试准确率是:Adam $98.1%$,AMSGrad $98.5%$,SGD $98.5%$,LPOM $98.6%$。

CIFAR-10 数据集有 50,000 个训练图像和 10,000 个测试彩色图像,与来自 10 个类别的标签相关联。 我们使用 32 32 31⁄43072 个原始像素作为输入。 与 [19] 中一样,我们使用 3072-4000-1000-4000-10 前馈网络。 我们通过分别减去训练数据集的红色、绿色和蓝色通道的均值来标准化每个彩色图像。 我们不使用任何数据扩充。 我们以固定的批量大小 100 运行 100 个 epoch 的所有方法。训练和测试精度如图 1 和 2 所示。 1c 和 1d。 我们可以看到只有 LPOM 的训练准确率大约等于 $100%$。 基于梯度的方法没有实现零训练损失。 这可能是因为使用的网络具有低维隐藏层,难以优化。 在比较测试精度时,我们可以看到 LPOM 能够匹配或击败其他方法。 最终的测试准确率是:Adam $53.5%$,AMSGrad $54.7%$,SGD $54.7%$,LPOM $54.7%$。 请注意,LPOM 获得了近乎完美的训练精度,但测试精度与其他训练精度低得多的方法相当。 我们要注意,这种情况不是过度拟合的问题。 首先,过度拟合用于评估可训练模型的性能而不是优化方法。 所以过拟合的定义不适用。 其次,如果一个模型达到了相当或更好的训练精度,但测试精度比其他模型差得多,我们可能会认为它过度拟合了训练数据集。 虽然 LPOM 训练的网络具有更好的训练精度,但其测试精度与其他方法训练的网络相当或略好。 所以过拟合现象不适用于这种情况。 第三,LPOM 是一种神经网络优化方法。 所以它的主要目标是拟合训练数据集。 测试准确性在很大程度上取决于训练期间使用的权重正则化的类型和数量,这是实践中的一个重要问题。 由于我们专注于优化,因此权重正则化不在我们的讨论范围之内。

ImageNet 数据集包含来自 1,000 个类别的 1,281,167 张训练图像和 50,000 张验证图像。 ImageNet 数据集中的图像通常为 $224\times 224\times 3$ 像素。 为了进行快速实验,我们改用 ImageNet32x32 数据集 [39],该数据集可以从 ImageNet 项目的官方网站下载。ImageNet32x32 数据集保留了原始 ImageNet 数据集的复杂性,在自动化机器学习 (AutoML) 中被广泛采用 . 它是 ImageNet 数据集的下采样版本,大小为 $32\times 32\times 3$ 像素。 它具有与 ImageNet 数据集相同数量的图像和类别。 我们将所有验证图像作为测试集。 我们对每个图像使用与 CIFAR-10 图像相同的预处理。 我们使用原始像素作为输入,不使用任何数据增强。 我们以固定批量大小 100 运行 100 个 epoch 的所有方法。我们使用 3072-1024-1024-1024-1000 前馈网络。 训练和测试精度如图 2 所示。我们可以看到 LPOM 达到了最好的训练和测试精度。 最终的训练精度为:Adam $0.102%$、AMSGrad $0.611%$、SGD $1.112%$ 和 LPOM $17.916%$。 最终测试精度为:Adam $0.100%$、AMSGrad $0.318%$、SGD $0.596%$ 和 LPOM $2.064%$。 与文献中报道的精度相比,这些精度非常低。 原因如下。 首先,我们使用全连接 NN 而不是 CNN。 其次,较低的图像分辨率会使分类任务变得更加困难。 第三,找到适合 ImageNet32x32 的全连接神经网络的最佳深度和隐藏层宽度需要付出很多努力,这不是我们论文的目标,我们在文献中没有找到这样的参考,所以我们只选择一个相对 简单的一个。 第四,我们不使用数据扩充来提高测试性能。 第五,我们没有对所有比较方法使用额外的学习技巧,例如权重正则化、BN 和动量。

6.1.2 与其他不基于梯度的方法比较

我们首先在 MNIST 数据集上使用相同的架构与 [23] 和 [24] 进行比较。 与 [23] 中一样,我们使用固定批大小 100 运行 17 个 epoch 的所有方法。我们不使用任何预处理或数据扩充。 表 4 总结了三种方法的测试精度,其中最佳值以粗体显示。 由于 [24] 中的公式等同于 LPOM 的公式,我们可以看到 [24] 和具有 ReLU 激活函数的 LPOM 比 [23] 表现得更好。 这符合我们在第 3.2 节中的分析。 尽管使用等效公式,LPOM 仍然优于 [24],这证明了我们求解方法的优越性。
按照 [17] 中的数据集和网络架构设置,我们在街景门牌号 (SVHN) 数据集 [40] 上测试 LPOM。 表 5 总结了 SGD、[17]、[23]、[24] 和 LPOM 的测试精度,其中最佳值以粗体显示。 我们可以看到 LPOM 实现了最佳性能。 这进一步证明了LPOM的优势。

6.1.3 LPOM 的消融研究

我们对 LPOM 进行消融研究,以评估 (19) 中的惩罚参数 $\mu_i$ 和所用激活函数的影响。 我们使用 MSE 损失函数和 MNIST 数据集,而不使用任何预处理或数据扩充。 我们使用 784-400-200-100-50-10 前馈网络,这是 [23] 中最深的网络。 对于所有情况,我们使用相同的源代码和随机初始化 [33]。 对于每种情况,我们运行 LPOM 20 个周期,固定批大小为 100。

我们使用表 3 中显示的所有激活函数测试 LPOM。我们分别为 leaky ReLU 和 ELU 激活函数设置 $\alpha=0.01$ 和 $\alpha=1$。 对于 (19) 中的惩罚参数 $\mu_i$,我们为每个激活函数设置 $\mu_i=\mu$,其中 $\mu\in\{2, 5, 10, 20, 50, 100\}$。 我们不调整不同 $\mu_i$ 的原因将在后面给出。 表 6 显示了具有各种 $\mu$ 和激活函数的 LPOM 的最终训练和测试精度。 我们可以看到,具有每个激活函数的 LPOM 在相当大的 $\mu$ 范围内保持稳定。 这进一步证实了LPOM的参数设置是非常容易的。 对于分类任务,当 $\mu \leq 50$ 时,具有 sigmoid、tanh、ReLU 或 leaky ReLU 激活函数的 LPOM 的性能优于其余两个函数。在图 3 中,我们将 LPOM 的行为与 $\mu_i=5$ 进行比较 不同的激活函数。 可以看出,具有 ReLU 或 leaky ReLU 激活函数的 LPOM 收敛得更快。

我们对 LPOM 的经验参数设置(即在 (19) 中设置 $\mu_i =\mu$)实际上具有理论依据。 顾等。 [24] 开发了一种可变缩放策略来证明我们对 LPOM 的参数设置在理论上保证了 ReLU 激活函数。 也就是说,理论上我们可以将(19)中的惩罚参数 $\mu_i$ 减少到 ReLU 的一个参数 $\mu$。 实际上,变量缩放策略仅适用于正齐次函数。 即,$\phi(\lambda x)=\lambda\phi(x) $ 对于所有 $\lambda\geq 0$. 这样的函数可以写成

其中 $\alpha > 0$ 和 $\beta \geq 0$. 我们在补充材料的附录 G 中提供证明,可在线获取。 (39) 中的形式包括线性、ReLU 和 leaky ReLU 激活函数。 我们在 (19) 中的经验设置 $\mu_i = \mu$ 尚未在理论上证明适用于所有可行的激活函数,例如 ELU、softplus、sigmoid 和 tanh。 然而,我们要注意,正齐次激活函数在实践中是最流行的。 ELU 和 softplus 激活函数是正齐次对应函数的平滑近似。 所以使用单一参数 $\mu$ 也大致适用于 ELU 和 softplus。 至于 sigmoid 和 tanh 激活函数,我们可以从表 6 中看出,当在 (19) 中将 $\mu_i=\mu$ 时,它们也能很好地工作。 因此,我们认为在 LPOM 中使用单个惩罚参数应该足以满足大多数常用激活函数的需求。 最后,我们要强调的是,定理 3 为选择 $\mu_n$ 提供了理论参考。 例如,在使用MSE损失函数和tanh激活函数时,我们应该为LPOM设置 $\mu_n > 1$。 总的来说,我们可以得出结论,LPOM 中惩罚参数的调整非常简单。

6.2 同步 LPOM 的结果

我们在 C++ 中实现了串行 LPOM、sync-LPOM、SGD、Adam 和 AMSGrad。 没有对权重 $\{W^i\}^{n-1}_{i=1} $ 使用正则化。 我们使用 MSE 损失函数和 ReLU 激活函数。 较小的训练或测试损失值表示更好的性能。 对于所有方法,我们使用相同的输入、随机初始化 [33] 和批量大小(此处为 100)。 对于 sync-LPOM,我们使用 POSIX 线程作为并行编程框架。 对于 LPOM 和 sync-LPOM,我们设置 $\mu_i = 20$。对于 SGD,学习率设置为最大可行值,并在总 epoch 的一半和四分之三处乘以 $0.1$。 对于 Adam 和 AMSGrad,我们调整参数以获得最佳性能。 所有实验均在一台 Intel(R) Core(TM) i7-8700 CPU 3.20 GHz 12 核计算机上进行。 与 [32] 一样,我们在三个灰度图像数据集上进行测试,总结在表 7 中。Curves 数据集由合成曲线组成,MNIST 数据集包含手写数字,Faces 数据集是增强的 Oli - vetti 人脸数据集。

6.2.1 CPU 的计算效率

所有方法的编码和解码时间都相等。 所以我们只比较训练中的时间成本。 我们在 MNIST 数据集上进行了三组实验。

为了编程方便,我们将每一层分配给一个 CPU 内核,这样可以减少不同层更新之间的干扰,从而可以更好地比较加速性能。 因此,对于 sync-LPOM,理想的核心数等于网络层数。 我们首先在各种等宽自动编码器(此处维度为 784)上测试具有理想 CPU 内核的 sync-LPOM 的加速。 层加速比定义为

训练时间和层加速比如图 1 和 2 所示。 分别为 4a 和 4b。 我们可以看到,随着隐藏层的增加,sync-LPOM 的训练时间比串行 LPOM 增加得更慢,并且层加速比几乎是线性的。
然后使用固定深度和宽度(这里是 784)的自动编码器,我们测试了具有不同数量 CPU 内核的同步 LPOM 的加速。 这里的核心加速比定义为

结果示于图1和2中。 4c 和 4d, 令 n 为层数。 当$d\leq n/2$ 时,我们可以看到所有核心加速比都随着CPU 核心的增加而线性增长。 当 $d > n/2$ 时,核心加速比变为常数(见图 4d)。 理由如下。 由于sync-LPOM更新Xi的奇偶交替方案,我们只需要 $n/2$ 个核来同步更新 $X^i$。 同步更新 $W^i$ 需要 $n -1$ 个核。 然而,更新 $X^i$ 比更新 $W^i$ 更昂贵。 因此,$n/2$ 内核的内核加速比与 $n$ 内核具有竞争力。

在图 4e 中,我们使用自动编码器 784-1024-500-1024-784 [41] 绘制了 Adam、AMSGrad、SGD、LPOM 和 sync-LPOM 的训练损失与运行时间的关系图。 对于 SGD,学习率在第 300 和 450 轮时乘以 $0.1$。 我们可以看到 sync-LPOM 收敛最快,训练损失最低。

6.2.2 优化性能

我们使用 [32]、[41] 中考虑的两个浅自动编码器和三个深自动编码器测试 sync-LPOM。 表 7 给出了使用的数据集、训练集和测试集的大小以及测试的编码器网络架构。 请注意,我们使用对称自动编码器,其中解码器架构是编码器的镜像。 我们运行 100 个 epoch 的所有方法。 对于 SGD,学习率在第 50 和第 75 轮时乘以 $0.1$。

单层和多层自编码器的训练和测试损失如图 1 和 2 所示。 分别为 5a 和 5b。 我们可以看到 sync-LPOM 确实具有最好的性能。 Adam 和 AMSGrad 在前几个 epoch 中实现了比 SGD 更低的训练和测试损失。 然而,它们在训练结束时不如 SGD。 一些在测试集上使用多层自动编码器重建的样本如图 6 所示。我们可以看到 sync-LPOM 具有最好的重建性能。 深度自动编码器问题比影子问题更难。 训练和测试损失如图 1 和 2 所示。 5c、5d 和 5e。 可以看出,在 Curves 和 MNIST 数据集上,sync-LPOM 略优于 SGD。 然而,当考虑 Faces 数据集时,我们可以看到 sync-LPOM 明显优于 SGD、Adam 和 AMSGrad。

6.2.3 讨论

我们还使用表 7 中所示的五个自动编码器测试了 sync-LPOM 相对于 SGD 的实际加速。对于每个反编码器,我们首先运行 sync-LPOM 50 个时期并记录其运行时间和训练损失。 我们将其时间和损失序列分别表示为 $\{t_i^1\}^{50}_{i=1}$ 和 $\{e_i^1\}^{50}_{i=1}$。 设 $\{e_i^1\}^{50}_{i=1}$ 中第一个小于或等于 $e^1_j$ 的元素,称为初始稳定点。 然后我们运行 SGD,直到它的训练损失 $e^2_k$ 小于或等于 $e^1_j$,我们将相应的运行时间表示为 $t^2_k$。 然后,sync-LPOM 相对于 SGD 的实际加速比定义为:$t^2_k/t^1_j$,其中大于 $1$ 的值意味着 sync-LPOM 比 SGD 更快,可以实现令人满意的训练损失。 如果 SGD 运行时间比 $t^1_j$ 长 $20$ 倍,但其损失仍然高于 $e^1_j$,我们终止 SGD 并将实际加速比标记为:$> 20x$。 每个自动编码器的实际加速比显示在图 5 中相应数字下方,以粗体显示。 我们可以看到 sync-LPOM 使用各种自动编码器实现了优于 SGD 的加速。

我们要注意,我们不与并行 SGD 进行比较。 原因如下。 首先,LPOM 可以跨数据或层并行化。 我们只利用它的层并行化。 实现数据并行化或多或少是一项工程工作。 所以我们不做这方面的工作。 由于 [42] 中的并行 SGD 是数据并行的,因此我们不将其包括在内进行比较。 其次,async-SGD 和 sync-SGD 可以实现加速,但它们的性能比 SGD [43] 差得多。 第三,我们从未声称 sync-LPOM 在一个时期内比 SGD 更快。 我们只声称它比 SGD 更快以实现相对较低的训练损失。 所以我们用serial SGD作为我们的竞争对手,这样比较合理。

sync-LPOM(或 LPOM)实现比 SGD 更低的训练和测试损失是因为它适当地提升了问题的维度并解决了提升的问题。 所以它可以很容易地移动到更高维度空间中的好点。 相反,SGD 直接优化问题。 所以优化路径受损失情况的限制,非常复杂。 因此,我们将 sync-LPOM(或 LPOM)的成功归功于“维度的祝福”。

七,结论

在这项工作中,我们开发了 LPOM 来训练全连接的前馈神经网络。 通过将激活函数重写为等效的近端算子,LPOM 将 NN 的训练公式化为块多凸模型。 这引出了我们具有收敛保证的新型 BCD 求解方法。 由于公式和求解方法,LPOM 避免了梯度消失或爆炸问题,适用于一般非递减 $Lipschitz$ 连续激活函数。 此外,它不需要比分层激活更多的辅助变量,并且其参数调整相对简单。 也可以并行解决。 我们首先提出了一种具有收敛保证的新异步 BCD 方法。 然后我们用它来求解LPOM,得到async-LPOM。 为了更快的速度,我们开发了 sync-LPOM。 我们的实验结果表明,LPOM 在全连接前馈 NN 上的效果优于 SGD、Adam、AMS-Grad、[17]、[23] 和 [24]。 我们还验证了 sync-LPOM 在各种自动编码器训练问题上的效率和有效性。 未来的工作包括扩展 LPOM 以训练卷积和递归神经网络,并将 LPOM 应用于网络量化。

// 代码折叠