许多概率模型很难训练的原因是很难进行推断。 在深度学习中,通常我们有一系列可见变量$\Vv$和一系列潜变量 $\Vh$。 推断困难通常是指难以计算$p(\Vh\mid\Vv)$或其期望。 而这样的操作在一些诸如最大似然学习的任务中往往是必需的。

许多仅含一个隐藏层的简单图模型会定义成易于计算$p(\Vh\mid\Vv)$或其期望的形式,例如受限玻尔兹曼机和概率PCA。 不幸的是,大多数具有多层隐藏变量的图模型的后验分布都很难处理。 对于这些模型而言,精确推断算法需要指数量级的运行时间。 即使一些只有单层的模型,如稀疏编码,也存在着这样的问题。

在本章中,我们将会介绍几个用来解决这些难以处理的推断问题的技巧。 稍后,在\chap?中,我们还将描述如何将这些技巧应用到训练其他方法难以奏效的概率模型中,如深度信念网络、深度玻尔兹曼机。

在深度学习中难以处理的推断问题通常源于结构化图模型中潜变量之间的相互作用。 读者可以参考\fig?的几个例子。 这些相互作用可能是无向模型的直接相互作用,也可能是有向模型中同一个可见变量的共同祖先之间的”相消解释”作用。

\begin{figure}[!htb] \ifOpenSource \centerline{\includegraphics{figure.pdf}} \else \centerline{\includegraphics[width=0.8\textwidth]{Chapter19/figures/intractable_graphs}} \fi \caption{深度学习中难以处理的推断问题通常是由于结构化图模型中潜变量的相互作用。 这些相互作用产生于一个潜变量与另一个潜变量或者当V-结构的子节点可观察时与更长的激活路径相连。 \emph{(左)}一个隐藏单元存在连接的半受限波尔兹曼机~{cite?}。 由于存在大量潜变量的团,潜变量的直接连接使得后验分布难以处理。 \emph{(中)}一个深度玻尔兹曼机,被分层从而使得不存在层内连接,由于层之间的连接其后验分布仍然难以处理。 \emph{(右)}当可见变量可观察时这个有向模型的潜变量之间存在相互作用,因为每两个潜变量都是共父。 即使拥有上图中的某一种结构,一些概率模型依然能够获得易于处理的关于潜变量的后验分布。 如果我们选择条件概率分布来引入相对于图结构描述的额外的独立性这种情况也是可能出现的。 举个例子,概率PCA的图结构如右图所示,然而由于其条件分布的特殊性质(带有相互正交基向量的线性高斯条件分布)依然能够进行简单的推断。} \end{figure}

把推断视作优化问题

精确推断问题可以描述为一个优化问题,有许多方法正是由此解决了推断的困难。 通过近似这样一个潜在的优化问题,我们往往可以推导出近似推断算法。

为了构造这样一个优化问题,假设我们有一个包含可见变量$\Vv$和潜变量 $\Vh$的概率模型。 我们希望计算观察数据的对数概率$\log p(\Vv;\Vtheta)$。 有时候如果边缘化消去$\Vh$的操作很费时,我们会难以计算$\log p(\Vv;\Vtheta)$。 作为替代,我们可以计算一个$\log p(\Vv;\Vtheta)$的下界$\CalL(\Vv,{\Vtheta},q)$。 这个下界被称为证据下界。 这个下界的另一个常用名称是负变分自由能。 具体地,这个证据下界是这样定义的: \begin{align} \CalL(\Vv,{\Vtheta},q) = \log p(\Vv;{\Vtheta}) - D_{\text{KL}}(q(\Vh\mid\Vv) \Vert p(\Vh\mid\Vv;{\Vtheta})), \end{align} 其中$q$是关于$\Vh$的一个任意概率分布。

因为$\log p(\Vv)$和$\CalL(\Vv,{\Vtheta},q)$之间的距离是由~KL散度来衡量的,且~KL散度总是非负的,我们可以发现$\CalL$总是小于等于所求的对数概率。 当且仅当分布$q$完全相等于$p(\Vh\mid\Vv)$时取到等号。

令人吃惊的是,对于某些分布$q$,计算$\CalL$可以变得相当简单。 通过简单的代数运算我们可以把$\CalL$重写成一个更加简单的形式:

\begin{align} \CalL(\Vv,{\Vtheta},q) = & \log p(\Vv;{\Vtheta})- D_{\text{KL}}(q(\Vh\mid\Vv)\Vert p(\Vh\mid\Vv;{\Vtheta}))
= & \log p(\Vv;{\Vtheta}) - \SetE_{\RVh\sim q}\log \frac{q(\Vh\mid\Vv)}{p(\Vh\mid\Vv)}
= & \log p(\Vv;{\Vtheta}) - \SetE_{\RVh\sim q} \log \frac{q(\Vh\mid\Vv) }{ \frac{p(\Vh,\Vv;{\Vtheta})}{p(\Vv; {\Vtheta})} }
= & \log p(\Vv; {\Vtheta}) - \SetE_{\RVh\sim q} [\log q(\Vh\mid\Vv) - \log {p(\Vh,\Vv; {\Vtheta})} + \log {p(\Vv; {\Vtheta})} ]
= & - \SetE_{\RVh\sim q}[\log q(\Vh\mid\Vv) - \log {p(\Vh,\Vv;{\Vtheta})}]. \end{align} 这也给出了证据下界的标准定义: \begin{align} \CalL(\Vv,{\Vtheta},q) = \SetE_{\RVh\sim q}[\log p(\Vh , \Vv)] + H(q). \end{align}

对于一个较好的分布$q$的选择来说,$\CalL$是容易计算的。 对任意分布$q$的选择来说,$\CalL$提供了似然函数的一个下界。 越好地近似$p(\Vh\mid\Vv)$的分布$q(\Vh\mid\Vv)$,得到的下界就越紧,换言之,就是与$\log p(\Vv)$更加接近。 当$q(\Vh\mid\Vv) = p(\Vh\mid\Vv)$时,这个近似是完美的,也意味着$\CalL(\Vv,{\Vtheta},q) = \log {p(\Vv;{\Vtheta})} $。

因此我们可以将推断问题看作是找一个分布$q$使得$\CalL$最大的过程。 精确推断能够在包含分布$p(\Vh\mid\Vv)$的函数族中搜索一个函数,完美地最大化$\CalL$。 在本章中,我们将会讲到如何通过近似优化寻找分布$q$的方法来推导出不同形式的近似推断。 我们可以通过限定分布$q$的形式或者使用并不彻底的优化方法来使得优化的过程更加高效(却更粗略),但是优化的结果是不完美的, 不求彻底地最大化$\CalL$,而只要显著地提升$\CalL$。

无论我们选择什么样的分布$q$,$\CalL$始终是一个下界。 我们可以通过选择一个更简单抑或更复杂的计算过程来得到对应的更松抑或更紧的下界。 通过一个不彻底的优化过程或者将分布$q$做很强的限定(并且使用一个彻底的优化过程)我们可以获得一个很差的分布$q$,但是降低了计算开销。

期望最大化

我们介绍的第一个最大化下界$\CalL$的算法是期望最大化算法。 在潜变量模型中,这是一个非常常见的训练算法。 在这里我们描述 {emview} 所提出的~EM~算法。 与大多数我们在本章中介绍的其他算法不同的是,EM~并不是一个近似推断算法,而是一种能够学到近似后验的算法。

EM算法由交替迭代,直到收敛的两步运算组成:

  • E步: 令${\Vtheta^{(0)}}$表示在这一步开始时的参数值。 对任何我们想要训练的(对所有的或者小批量数据均成立)索引为$i$的训练样本$\Vv^{(i)}$,令$q(\Vh^{(i)}\mid \Vv) = p(\Vh^{(i)}\mid\Vv^{(i)};\Vtheta^{(0)})$。 通过这个定义,我们认为$q$在\emph{当前}参数$\Vtheta^{(0)}$下定义。 如果我们改变$\Vtheta$,那么$p(\Vh\mid\Vv;\Vtheta)$将会相应地变化,但是$q(\Vh\mid\Vv)$还是不变并且等于$p(\Vh\mid\Vv;\Vtheta^{(0)})$。
  • M步:使用选择的优化算法完全地或者部分地关于$\Vtheta$最大化 \begin{align} \sum_i \CalL(\Vv^{(i)},\Vtheta,q). \end{align}

这可以被看作通过坐标上升算法来最大化$\CalL$。 在第一步中,我们更新分布$q$来最大化$\CalL$,而在另一步中,我们更新$\Vtheta$来最大化$\CalL$。

基于潜变量模型的随机梯度上升可以被看作是一个~EM~算法的特例,其中~M步包括了单次梯度操作。 EM~算法的其他变种可以实现多次梯度操作。 对一些模型族来说,M步甚至可以通过推出解析解直接完成,不同于其他方法,在给定当前$q$的情况下直接求出最优解。

尽管E步采用的是精确推断,我们仍然可以将~EM~算法视作是某种程度上的近似推断。 具体地说,M步假设一个分布$q$可以被所有的$\Vtheta$值分享。 当~M步越来越远离~E步中的$\Vtheta^{(0)}$时,这将会导致$\CalL$和真实的$\log p(\Vv)$之间出现差距。 幸运的是,在进入下一个循环时,E步把这种差距又降到了$0$。

EM~算法还包含一些不同的见解。 首先,它包含了学习过程的一个基本框架,就是我们通过更新模型参数来提高整个数据集的似然,其中缺失变量的值是通过后验分布来估计的。 这种特定的性质并不是~EM~算法独有的。 例如,使用梯度下降来最大化对数似然函数的方法也有相同的性质。 计算对数似然函数的梯度需要对隐藏单元的后验分布求期望。 EM~算法另一个关键的性质是当我们移动到另一个$\Vtheta$时候,我们仍然可以使用旧的分布$q$。 在传统机器学习中,这种特有的性质在推导大~M步更新时候得到了广泛的应用。 在深度学习中,大多数模型太过于复杂以致于在最优大~M步更新中很难得到一个简单的解。 所以~EM~算法的第二个特质,更多为其所独有,较少被使用。

最大后验推断和稀疏编码

我们通常使用推断这个术语来指代给定一些其他变量的情况下计算某些变量概率分布的过程。 当训练带有潜变量的概率模型时,我们通常关注于计算$p(\Vh\mid\Vv)$。 另一种可选的推断形式是计算一个缺失变量的最可能值来代替在所有可能值的完整分布上的推断。 在潜变量模型中,这意味着计算 \begin{align} \Vh^* = \underset{\Vh}{\arg\max} \ \ p(\Vh\mid\Vv). \end{align} 这被称作最大后验推断,简称~MAP~推断。

MAP~推断并不被视作是一种近似推断,它只是精确地计算了最有可能的一个$\Vh^*$。 然而,如果我们希望设计一个最大化$\CalL(\Vv,\Vh,q)$的学习过程,那么把~MAP~推断视作是输出一个$q$值的学习过程是很有帮助的。 在这种情况下,我们可以将~MAP~推断视作是近似推断,因为它并不能提供一个最优的$q$。

我们回过头来看看\sec?中所描述的精确推断,它指的是关于一个在无限制的概率分布族中的分布$q$使用精确的优化算法来最大化 \begin{align} \CalL(\Vv,{\Vtheta},q) = \SetE_{\RVh\sim q}[\log p(\Vh , \Vv)] + H(q). \end{align} 我们通过限定分布$q$属于某个分布族,能够使得~MAP~推断成为一种形式的近似推断。 具体地说,我们令分布$q$满足一个\,Dirac分布: \begin{align} q(\Vh\mid\Vv) = \delta(\Vh - {\Vmu}). \end{align} 这也意味着现在我们可以通过$\Vmu$来完全控制分布$q$。 通过将$\CalL$中不随$\Vmu$变化的项丢弃,我们只需解决一个优化问题: \begin{align} \Vmu^* = \underset{\Vmu}{\arg\max}\ \log p(\Vh = \Vmu,\Vv), \end{align} 这等价于~MAP~推断问题 \begin{align} \Vh^* = \underset{\Vh}{\arg\max}\ p(\Vh\mid\Vv). \end{align}

因此我们能够证明一种类似于~EM~算法的学习算法,其中我们轮流迭代两步,一步是用~MAP~推断估计出$\Vh^$,另一步是更新$\Vtheta$来增大$\log p(\Vh^,\Vv)$。 从~EM~算法角度看,这也是对$\CalL$的一种形式的坐标上升,交替迭代时通过推断来优化关于$q$的$\CalL$以及通过参数更新来优化关于$\Vtheta$的$\CalL$。 作为一个整体,这个算法的正确性可以得到保证,因为$\CalL$是$\log p(\Vv)$的下界。 在~MAP~推断中,这个保证是无效的,因为~Dirac分布的熵的微分趋近于负无穷,使得这个界会无限地松。 然而,人为加入一些$\Vmu$的噪声会使得这个界又有了意义。

MAP~推断作为特征提取器以及一种学习机制被广泛地应用在了深度学习中。 它主要用于稀疏编码模型中。

我们回过头来看\sec?中的稀疏编码,稀疏编码是一种在隐藏单元上加上了诱导稀疏性的先验知识的线性因子模型。 一个常用的选择是可分解的Laplace先验,表示为 \begin{align} p(h_i) = \frac{\lambda}{2} \exp(-\lambda \vert h_i \vert). \end{align} 可见的节点是由一个线性变化加上噪声生成的: \begin{align} p(\Vv\mid\Vh) = \CalN(\Vv;{\MW}\Vh + \Vb,\beta^{-1}{\MI}). \end{align}

分布$p(\Vh\mid\Vv)$难以计算,甚至难以表达。 每一对$h_i$, $h_j$变量都是$\Vv$的母节点。 这也意味着当$\Vv$可被观察时,图模型包含了一条连接$h_i$和$h_j$的活跃路径。 因此$p(\Vh \mid\Vv)$中所有的隐藏单元都包含在了一个巨大的团中。 如果是高斯模型,那么这些相互作用关系可以通过协方差矩阵来高效地建模。 然而稀疏型先验使得这些相互作用关系并不服从高斯分布。

分布$p(\Vx\mid\Vh)$的难处理性导致了对数似然及其梯度也很难得到。 因此我们不能使用精确的最大似然估计来进行学习。 取而代之的是,我们通过~MAP~推断以及最大化由以$\Vh$为中心的\,Dirac分布所定义而成的~ELBO~来学习模型参数。

如果我们将训练集中所有的向量$\Vh$拼成矩阵$\MH$,并将所有的向量$\Vv$拼起来组成矩阵$\MV$,那么稀疏编码问题意味着最小化 \begin{align} J(\MH,\MW) = \sum_{i,j}^{}\vert H_{i,j}\vert + \sum_{i,j}^{}\Big(\MV - \MH \MW^{\top}\Big)^2_{i,j}. \end{align} 为了避免如极端小的$\MH$和极端大的$\MW$这样的病态的解,大多数稀疏编码的应用包含了权重衰减或者对$\MH$列范数的限制。

我们可以通过交替迭代,分别关于$\MH$和$\MW$最小化$J$的方式来最小化$J$。 两个子问题都是凸的。 事实上,关于$\MW$的最小化问题就是一个线性回归问题。 然而关于这两个变量同时最小化$J$的问题通常并不是凸的。

关于$\MH$的最小化问题需要某些特别设计的算法,例如特征符号搜索方法~{cite?}。

变分推断和变分学习

我们已经说明过了为什么证据下界 $\CalL(\Vv,\Vtheta,q)$是$\log p(\Vv;\Vtheta)$的一个下界、如何将推断看作是关于分布$q$最大化$\CalL$ 的过程以及如何将学习看作是关于参数$\Vtheta$最大化$\CalL$的过程。 我们也讲到了~EM~算法在给定了分布$q$的条件下能够进行大学习步骤,而基于~MAP~推断的学习算法则是学习一个$p(\Vh \mid \Vv)$的点估计而非推断整个完整的分布。 在这里我们介绍一些变分学习中更加通用的算法。

变分学习的核心思想就是我们在一个关于$q$的有约束的分布族上最大化$\CalL$。 选择这个分布族时应该考虑到计算$\SetE_q \log p(\Vh,\Vv)$的难易度。 一个典型的方法就是添加分布$q$如何分解的假设。

一种常用的变分学习的方法是加入一些限制使得$q$是一个因子分布: \begin{align} q(\Vh\mid\Vv) = \prod_{i}^{}q(h_i \mid \Vv). \end{align} 这被称为均值场方法。 更一般地说,我们可以通过选择分布$q$的形式来选择任何图模型的结构,通过选择变量之间的相互作用来灵活地决定近似程度的大小。 这种完全通用的图模型方法被称为结构化变分推断 {cite?}。

变分方法的优点是我们不需要为分布$q$设定一个特定的参数化形式。 我们设定它如何分解,之后通过解决优化问题来找出在这些分解限制下最优的概率分布。 对离散型潜变量来说,这意味着我们使用传统的优化技巧来优化描述分布$q$的有限个变量。 对连续型潜变量来说,这意味着我们使用一个被称为变分法的数学分支工具来解决函数空间上的优化问题。 然后决定哪一个函数来表示分布$q$。 变分法是”变分学习”或者”变分推断”这些名字的来因,尽管当潜变量是离散时变分法并没有用武之地。 当遇到连续型潜变量时,变分法不需要过多地人工选择模型,是一种很有用的工具。 我们只需要设定分布$q$如何分解,而不需要去猜测一个特定的能够精确近似原后验分布的分布$q$。

因为$\CalL(\Vv,\Vtheta,q)$被定义成$\log p(\Vv;\Vtheta) - D_{\text{KL}} (q(\Vh\mid\Vv) \Vert p(\Vh\mid\Vv;\Vtheta) )$,我们可以认为关于$q$最大化$\CalL$的问题等价于(关于$q$)最小化$D_{\text{KL}}(q(\Vh\mid\Vv)\Vert p(\Vh\mid\Vv))$。 在这种情况下,我们要用$q$来拟合$p$。 然而,与以前方法不同,我们使用~KL散度的相反方向来拟合一个近似。 当我们使用最大似然估计来用模型拟合数据时,我们最小化$D_{\text{KL}}(p_{\text{data}} \Vert p_{\text{model}})$。 如\fig?所示,这意味着最大似然鼓励模型在每一个数据达到高概率的地方达到高概率,而基于优化的推断则鼓励了$q$在每一个真实后验分布概率低的地方概率较小。 这两种基于~KL散度的方法都有各自的优点与缺点。 选择哪一种方法取决于在具体每一个应用中哪一种性质更受偏好。 在基于优化的推断问题中,从计算角度考虑,我们选择使用$D_{\text{KL}}(q(\Vh\mid\Vv)\Vert p(\Vh\mid\Vv))$。 具体地说,计算$D_{\text{KL}}(q(\Vh\mid\Vv)\Vert p(\Vh\mid\Vv))$涉及到了计算分布$q$下的期望。 所以通过将分布$q$设计得较为简单,我们可以简化求所需要的期望的计算过程。 KL散度的相反方向需要计算真实后验分布下的期望。 因为真实后验分布的形式是由模型的选择决定的,所以我们不能设计出一种能够精确计算$D_{\text{KL}}(p(\Vh\mid\Vv) \Vert q(\Vh\mid\Vv))$的开销较小的方法。

离散型潜变量

关于离散型潜变量的变分推断相对来说比较直接。 我们定义一个分布$q$,通常分布$q$的每个因子都由一些离散状态的可查询表格定义。 在最简单的情况中,$\Vh$是二值的并且我们做了均值场假定,分布$q$可以根据每一个$h_i$分解。 在这种情况下,我们可以用一个向量$\hat{\Vh}$来参数化分布$q$,$\hat{\Vh}$的每一个元素都代表一个概率,即$q(h_i = 1\mid \Vv) = \hat{h}_i$。

在确定了如何表示分布$q$以后,我们只需要优化它的参数。 在离散型潜变量模型中,这是一个标准的优化问题。 基本上分布$q$的选择可以通过任何优化算法解决,比如梯度下降算法。

因为它在许多学习算法的内循环中出现,所以这个优化问题必须可以很快求解。 为了追求速度,我们通常使用特殊设计的优化算法。 这些算法通常能够在极少的循环内解决一些小而简单的问题。 一个常见的选择是使用不动点方程,换句话说,就是解关于$\hat{h}_i$的方程 \begin{equation} \frac{\partial}{\partial \hat{h}_i}\CalL = 0. \end{equation} 我们反复地更新$\hat{\Vh}$不同的元素直到满足收敛准则。

为了具体化这些描述,我们接下来会讲如何将变分推断应用到二值稀疏编码模型(这里我们所描述的模型是 {henniges2010binary} 提出的,但是我们采用了传统、通用的均值场方法,而原文作者采用了一种特殊设计的算法)中。 数学推导过程非常详细,为希望完全了解我们描述过的变分推断和变分学习高级概念描述的读者所准备。 而对于并不计划推导或者实现变分学习算法的读者来说,可以放心跳过,直接阅读下一节,这并不会遗漏新的高级概念。 建议那些从事二值稀疏编码研究的读者可以重新看一下\sec?中描述的一些经常在概率模型中出现的有用的函数性质。 我们在推导过程中随意地使用了这些性质,并没有特别强调它们。

在二值稀疏编码模型中,输入$\Vv\in\SetR^n$,是由模型通过添加高斯噪声到$m$个或有或无的不同成分的和而生成的。 每一个成分可以是开或者关的,对应着隐藏单元~$\Vh \in{0,1}^m$: \begin{align} p(h_i = 1) &= \sigma(b_i),
p(\Vv\mid\Vh) &= \CalN(\Vv;\MW \Vh,{\Vbeta}^{-1}), \end{align} 其中$\Vb$是一个可以学习的偏置集合,$\MW$是一个可以学习的权值矩阵,${\Vbeta}$是一个可以学习的对角精度矩阵。

使用最大似然来训练这样一个模型需要对参数进行求导。 我们考虑对其中一个偏置进行求导的过程: \begin{align} & \frac{\partial}{\partial b_i} \log p(\Vv)
= & \frac{\frac{\partial}{\partial b_i} p(\Vv)}{p(\Vv)}
= & \frac{\frac{\partial}{\partial b_i} \sum_{\Vh}^{} p(\Vh,\Vv)}{p(\Vv)}
= & \frac{\frac{\partial}{\partial b_i} \sum_{\Vh}^{} p(\Vh) p(\Vv\mid \Vh) }{p(\Vv)}
= & \frac{ \sum_{\Vh}^{} p(\Vv\mid \Vh) \frac{\partial}{\partial b_i} p(\Vh) }{p(\Vv)}
= & \sum_{\Vh}^{} p(\Vh\mid \Vv) \frac{ \frac{\partial}{\partial b_i} p(\Vh) }{p(\Vh)}
= & \SetE_{\RVh\sim p(\Vh\mid\Vv)} \frac{\partial}{\partial b_i}\log p(\Vh). \end{align}

这需要计算$p(\Vh\mid\Vv)$下的期望。 不幸的是,$p(\Vh\mid\Vv)$是一个很复杂的分布。 关于$p(\Vh,\Vv)$和$p(\Vh\mid\Vv)$的图结构可以参考\fig?。 隐藏单元的后验分布对应的是关于隐藏单元的完全图,所以相对于暴力算法,变量消去算法并不能有助于提高计算期望的效率。

\begin{figure}[!htb] \ifOpenSource \centerline{\includegraphics{figure.pdf}} \else \centerline{\includegraphics{Chapter19/figures/bsc}} \fi \caption{包含四个隐藏单元的二值稀疏编码的图结构。 \emph{(左)}~$p(\Vh,\Vv)$的图结构。 要注意边是有向的,每两个隐藏单元都是每个可见单元的共父。 \emph{(右)}~$p(\Vh,\Vv)$的图结构。 为了解释共父之间的活跃路径,后验分布所有隐藏单元之间都有边。} \end{figure}

取而代之的是,我们可以应用变分推断和变分学习来解决这个难点。

我们可以做一个均值场近似: \begin{equation} q(\Vh\mid\Vv) = \prod_{i}^{}q(h_i\mid\Vv). \end{equation}

二值稀疏编码中的潜变量是二值的,所以为了表示可分解的$q$我们假设对$m$个~Bernoulli分布 $q(h_i\mid\Vv)$建模。 表示~Bernoulli分布的一种很自然的方法是使用一个概率向量$\hat{\Vh}$,满足$q(h_i\mid\Vv) = \hat{h}_i$。 为了避免计算中的误差,比如说计算$\log \hat{h}_i$时,我们对$\hat{h}_i$添加一个约束,即$\hat{h}_i$不等于$0$或者$1$。

我们将会看到变分推断方程理论上永远不会赋予$\hat{h}_i\ $ $0$或者$1$。 然而在软件实现过程中,机器的舍入误差会导致$0$或者$1$的值。 在二值稀疏编码的软件实现中,我们希望使用一个没有限制的变分参数向量$\Vz$以及 通过关系$\hat{\Vh} = \sigma(\Vz)$来获得$\Vh$。 因此通过使用等式$\log \sigma(z_i) = -\zeta(-z_i)$来建立\,sigmoid\,函数和\,softplus\,函数的关系,我们可以放心地在计算机上计算$\log \hat{h}_i$。

在开始二值稀疏编码模型中变分学习的推导时,我们首先说明了均值场近似的使用可以使得学习过程更加简单。

证据下界可以表示为 \begin{align} & \CalL(\Vv,\Vtheta,q)
= & \SetE_{\RVh\sim q}[\log p(\Vh,\Vv)] + H(q)
= & \SetE_{\RVh\sim q}[\log p(\Vh) + \log p(\Vv\mid\Vh) - \log q(\Vh\mid\Vv)]
= & \SetE_{\RVh\sim q}\Big[\sum_{i=1}^{m}\log p(h_i) + \sum_{i=1}^{n} \log p(v_i\mid\Vh) - \sum_{i=1}^{m}\log q(h_i\mid\Vv)\Big]
= & \sum_{i=1}^{m}\Big[\hat{h}i(\log \sigma(b_i) - \log \hat{h}_i) + (1 - \hat{h}_i)(\log \sigma(-b_i) - \log (1-\hat{h}_i))\Big]
& + \SetE
{\RVh\sim q} \Bigg[ \sum_{i=1}^{n}\log \sqrt{\frac{\beta_i}{2\pi}}\exp(-\frac{\beta_i}{2}(v_i - \MW_{i,:}\Vh)^2)\Bigg]
= & \sum_{i=1}^{m}\Big[\hat{h}i(\log \sigma(b_i) - \log \hat{h}_i) + (1 - \hat{h}_i)(\log \sigma(-b_i) - \log (1-\hat{h}_i))\Big]
& + \frac{1}{2} \sum
{i=1}^{n} \Bigg[ \log {\frac{\beta_i}{2\pi}} - \beta_i \Bigg(v_i^2 - 2 v_i \MW_{i,:}\hat{\Vh} + \sum_{j}\Big[W^2{i,j}\hat{h}_j + \sum{k \neq j}W_{i,j}W_{i,k}\hat{h}_j\hat{h}_k \Big] \Bigg) \Bigg]. \end{align} 尽管这些方程从美学观点来看有些不尽如人意。 他们展示了$\CalL$可以被表示为少量简单的代数运算。 因此证据下界$\,\CalL$是易于处理的。 我们可以把$\CalL$看作是难以处理的对数似然函数的一个替代。

原则上说,我们可以使用关于$\Vv$和$\Vh$的梯度上升。 这会成为一个推断和学习算法的完美组合。%\footnote{译者注:推断算法和学习算法的组合} 但是,由于两个原因,我们往往不这么做。 第一点,对每一个$\Vv$我们需要存储$\hat{\Vh}$。 我们通常更加偏向于那些不需要为每一个样本都准备内存的算法。 如果我们需要为每一个样本都存储一个动态更新的向量,使得算法很难处理上亿的样本。 第二个原因就是为了能够识别$\Vv$的内容,我们希望能够有能力快速提取特征$\hat{\Vh}$。 在实际应用场景中,我们需要在有限时间内计算出$\hat{\Vh}$。

由于以上两个原因,我们通常不会采用梯度下降来计算均值场参数$\hat{\Vh}$。 取而代之的是,我们使用不动点方程来快速估计。

不动点方程的核心思想是我们寻找一个关于$\Vh$的局部极大点,满足$\nabla_{\Vh}\CalL(\Vv,\Vtheta,\hat{\Vh}) = 0$。 我们无法同时高效地计算所有$\hat{\Vh}$的元素。 然而,我们可以解决单个变量的问题: \begin{equation} \frac{\partial}{\partial \hat{h}_i} \CalL(\Vv,\Vtheta,\hat{\Vh}) = 0 . \end{equation}

我们可以迭代地将这个解应用到$i = 1,\ldots,m$,然后重复这个循环直到我们满足了收敛准则。 常见的收敛准则包含了当整个循环所改进的$\CalL$不超过预设的容差量时停止,或者是循环中改变的$\hat{\Vh}$不超过某个值时停止。

在很多不同的模型中,迭代的均值场不动点方程是一种能够提供快速变分推断的通用算法。 为了使它更加具体,我们详细地讲一下如何推导出二值稀疏编码模型的更新过程。

首先,我们给出了对$\hat{h}i$的导数表达式。 为了得到这个表达式,我们将\eqn?代入到\eqn?的左边: \begin{align} & \frac{\partial}{\partial \hat{h}_i} \CalL (\Vv,\Vtheta,\hat{\Vh})
= & \frac{\partial}{\partial \hat{h}_i} \Bigg[\sum
{j=1}^{m}\Big[\hat{h}j (\log \sigma(b_j) - \log \hat{h}_j) + (1 - \hat{h}_j)(\log \sigma(-b_j) - \log (1-\hat{h}_j))\Big]
& + \frac{1}{2} \sum
{j=1}^{n} \Bigg[ \log {\frac{\beta_j}{2\pi}} - \beta_j \Bigg(v_j^2 - 2 v_j \MW_{j,:}\hat{\Vh} + \sum_{k}\Bigg[W^2{j,k}\hat{h}_k + \sum{l \neq k}W_{j,k}W_{j,l}\hat{h}k\hat{h}_l \Bigg] \Bigg) \Bigg]\Bigg]
= & \log \sigma(b_i) - \log \hat{h}_i - 1 + \log (1 - \hat{h}_i ) + 1 - \log \sigma (- b_i )
& + \sum
{j=1}^{n} \Bigg[\beta_j \Bigg(v_j W_{j,i} - \frac{1}{2} W_{j,i}^2 - \sum_{k \neq i} \MW_{j,k}\MW_{j,i} \hat{h}k\Bigg) \Bigg]
= & b_i - \log \hat{h}_i + \log (1 - \hat{h}_i ) + \Vv^{\top} {\Vbeta} \MW
- \frac{1}{2} \MW_{:,i}^{\top} {\Vbeta}\MW_{:,i} -\sum_{j\neq i}\MW^{\top}{:,j}{\Vbeta}\MW\hat{h}_j. \end{align}

为了应用固定点更新的推断规则,我们通过令\eqn?等于$0$来解$\hat{h}i$: \begin{align} \hat{h}_i = \sigma\Bigg(b_i + \Vv^{\top} {\Vbeta} \MW - \frac{1}{2} \MW_{:,i}^{\top} {\Vbeta} \MW_{:,i} - \sum_{j \neq i } \MW_{:,j}^{\top} {\Vbeta} \MW_{:,i} \hat{h}_j \Bigg). \end{align}

此时,我们可以发现图模型中的推断和循环神经网络之间存在着紧密的联系。 具体地说,均值场不动点方程定义了一个循环神经网络。 这个神经网络的任务就是完成推断。 我们已经从模型描述的角度介绍了如何推导这个网络,但是直接训练这个推断网络也是可行的。 有关这种思路的一些想法在\chap?中有所描述。

在二值稀疏编码模型中,我们可以发现\eqn?中描述的循环网络连接包含了根据相邻隐藏单元变化值来反复更新当前隐藏单元的操作。 %?? 连接 换成 (和图模型推断的相关联系)
输入层通常给隐藏单元发送一个固定的信息$\Vv^{\top}\beta\MW$,然而隐藏单元不断地更新互相传送的信息。 具体地说,当$\hat{h}_i$和$\hat{h}_j$两个单元的权重向量平行时,它们会互相抑制。 这也是一种形式的竞争——两个解释输入的隐藏单元之间,只有一个解释得更好的才被允许继续保持活跃。 在二值稀疏编码的后验分布中,均值场近似试图捕获到更多的相消解释相互作用,从而产生了这种竞争。 %?? 捕获 换成 反应, 事实上,相消解释效应会产生一个多峰值的后验分布,以致于如果我们从后验分布中采样,一些样本在一个单元是活跃的,其他的样本在另一个单元活跃,只有很少的样本能够两者都处于活跃状态。 不幸的是,相消解释作用无法通过均值场中因子分布$q$来建模,因此建模时均值场近似只能选择一个峰值。 这个现象的一个例子可以参考\fig?。

我们将\eqn?重写成等价的形式来揭示一些深层的含义: \begin{align} \hat{h}i = \sigma\Bigg(b_i + \Big(\Vv - \sum{j\neq i} \MW_{:,j}\hat{h}j\Big)^{\top} {\Vbeta}\MW - \frac{1}{2} \MW_{:,i}^{\top} {\Vbeta} \MW_{:,i}\Bigg). \end{align} 在这种新的形式中,我们可以将$\Vv - \sum_{j\neq i} \MW_{:,j}\hat{h}_j$看作是输入,而不是$\Vv$。 因此,我们可以把第$i$个单元视作给定其他单元编码时给$\Vv$中的剩余误差编码。 由此我们可以将稀疏编码视作是一个迭代的自编码器,将输入反复地编码解码,试图在每一轮迭代后都能修复重构中的误差。

在这个例子中,我们已经推导出了每一次更新单个结点的更新规则。 如果能够同时更新更多的结点,那会更令人满意。 某些图模型,比如深度玻尔兹曼机,我们可以同时解出$\hat{\Vh}$中的许多元素。 不幸的是,二值稀疏编码并不适用这种块更新。 取而代之的是,我们使用一种被称为衰减的启发式技巧来实现块更新。 在衰减方法中,对$\hat{\Vh}$中的每一个元素我们都可以解出最优值,然后对于所有的值都在这个方向上移动一小步。 这个方法不能保证每一步都能增加$\CalL$,但是对于许多模型都很有效。 关于在信息传输算法中如何选择同步程度以及使用衰减策略可以参考 {koller-book2009} 。 % 637 head

变分法

在继续介绍变分学习之前,我们有必要简单地介绍一种变分学习中重要的数学工具:变分法。

许多机器学习的技巧是基于寻找一个输入向量$\Vtheta\in\SetR^n$来最小化函数$J(\Vtheta)$,使得它取到最小值。 这个步骤可以利用多元微积分以及线性代数的知识找到满足$\nabla_{\Vtheta} J(\Vtheta) = 0$的临界点来完成。 在某些情况下,我们希望能够解一个函数$f(\Vx)$,比如当我们希望找到一些随机变量的概率密度函数时。 正是变分法能够让我们完成这个目标。

函数$f$的函数被称为泛函 $J[f]$。 正如我们许多情况下对一个函数求关于以向量的元素为变量的偏导数一样,我们可以使用泛函导数, 即在任意特定的$\Vx$值,对一个泛函 $J[f]$求关于函数$f(\Vx)$的导数,这也被称为变分导数。 泛函 $J$的关于函数$f$在点$\Vx$处的泛函导数被记作$\frac{\delta}{\delta f(x)}J$。

完整正式的泛函导数的推导不在本书的范围之内。 对于我们的目标而言,了解可微分函数$f(\Vx)$以及带有连续导数的可微分函数$g(y,\Vx)$就足够了: \begin{align} \frac{\delta}{\delta f(\Vx)} \int g(f(\Vx),\Vx)d\Vx = \frac{\partial}{\partial y}g(f(\Vx),\Vx). \end{align} 为了使上述等式更加直观,我们可以把$f(\Vx)$看作是一个有着无穷不可数多元素的向量,由一个实数向量$\Vx$表示。 在这里(看作是一个不完全的介绍),这种关系式中描述的泛函导数和向量$\Vtheta\in\SetR^n$的导数相同: \begin{align} \frac{\partial}{\partial \theta_i}\sum_{j}^{}g(\theta_j,j) = \frac{\partial}{\partial \theta_i}g(\theta_i,i). \end{align} 在其他机器学习文献中的许多结果则使用了更为通用的欧拉-拉格朗日方程, 它能够使得$g$不仅依赖于$f$的导数而且也依赖于$f$的值。 但是在本书中我们不需要这个通用版本。

为了关于一个向量优化某个函数,我们求出了这个函数关于这个向量的梯度,然后找这个梯度中每一个元素都为$0$的点。 类似地,我们可以通过寻找一个函数使得泛函导数的每个点都等于$0$从而来优化一个泛函。

下面介绍一个该过程如何运行的例子,我们考虑寻找一个定义在$x\in\SetR$上的有最大微分熵的概率密度函数。 我们回过头来看一下一个概率分布$p(x)$的熵,定义如下: \begin{align} H[p] = - \SetE_x \log p(x). \end{align} 对于连续的值,这个期望可以被看作一个积分: \begin{align} H[p] = - \int p(x) \log p(x) dx. \end{align}

我们不能简单地仅仅关于函数$p(x)$最大化$H[p]$,因为那样的话结果可能不是一个概率分布。 为了解决这个问题,我们需要使用一个拉格朗日乘子来添加一个分布$p(x)$积分值为$1$的约束。 同样地,当方差增大时,熵也会无限制地增加。 因此,寻找哪一个分布有最大熵这个问题是没有意义的。 但是,在给定固定的方差$\sigma^2$时,我们可以寻找一个最大熵的分布。 最后,这个问题还是欠定的,因为在不改变熵的条件下一个分布可以被随意地改变。 为了获得一个唯一的解,我们再加一个约束:分布的均值必须为$\mu$。 那么这个问题的拉格朗日泛函如下: \begin{align} & \CalL[p] = \lambda_1 \Big(\int p(x)dx - 1\Big) + \lambda_2 (\SetE[x] - \mu) + \lambda_3 (\SetE[(x-\mu)^2] - \sigma^2) + H[p]
& = \int \Big(\lambda_1 p(x) + \lambda_2 p(x)x + \lambda_3 p(x)(x-\mu)^2 - p(x)\log p(x) \Big)dx - \lambda_1 - \mu \lambda_2 - \sigma^2\lambda_3. \end{align}

为了关于$p$最小化拉格朗日乘子,我们令泛函导数等于$0$: \begin{align} \forall x,\ \ \frac{\delta}{\delta p(x)} \CalL = \lambda_1 + \lambda_2 x + \lambda_3(x-\mu)^2 - 1 - \log p(x) = 0 . \end{align}

这个条件告诉我们$p(x)$的泛函形式。 通过代数运算重组上述方程,我们可以得到 \begin{align} p(x) = \exp\big(\lambda_1 + \lambda_2 x + \lambda_3 (x-\mu)^2 - 1\big). \end{align}

我们并没有直接假设$p(x)$取这种形式,而是通过最小化泛函从理论上得到了这个$p(x)$的表达式。 为了解决这个最小化问题,我们需要选择$\lambda$的值来确保所有的约束都能够满足。 我们有很大的自由去选择$\lambda$。 因为只要满足约束,拉格朗日关于$\lambda$这个变量的梯度就为$0$。 为了满足所有的约束,我们可以令$\lambda_1 = 1 - \log \sigma\sqrt{2\pi}$,$\lambda_2 = 0$, $\lambda_3 = - \frac{1}{2\sigma^2}$,从而得到 \begin{align} p(x) = \CalN(x;\mu,\sigma^2). \end{align} 这也是当我们不知道真实的分布时总是使用正态分布的一个原因。 因为正态分布拥有最大的熵,我们通过这个假定来保证了最小可能量的结构。

当寻找熵的拉格朗日泛函的临界点并且给定一个固定的方差时,我们只能找到一个对应最大熵的临界点。 那最小化熵的概率密度函数是什么样的呢? 为什么我们无法发现对应着极小点的第二个临界点呢? 原因是没有一个特定的函数能够达到最小的熵值。 当函数把越多的概率密度加到$x = \mu + \sigma$和$x = \mu - \sigma$两个点上,越少的概率密度到其他点上时,它们的熵值会减少,而方差却不变。 然而任何把所有的权重都放在这两点的函数的积分都不为$1$,不是一个有效的概率分布。 所以不存在一个最小熵的概率密度函数,就像不存在一个最小的正实数一样。 然而,我们发现存在一个收敛的概率分布的序列,收敛到权重都在两个点上。 这种情况能够退化为混合Dirac分布。 因为\,Dirac分布并不是一个单独的概率密度函数,所以\,Dirac分布或者混合\,Dirac分布并不能对应函数空间的一个点。 所以对我们来说,当寻找一个泛函导数为$0$的函数空间的点时,这些分布是不可见的。 这就是这种方法的局限之处。 诸如\,Dirac分布这样的分布可以通过其他方法被找到,比如可以先猜测一个解,然后证明它是满足条件的。

连续型潜变量

当我们的图模型包含连续型潜变量时,我们仍然可以通过最大化$\CalL$进行变分推断和变分学习。 然而,我们需要使用变分法来实现关于$q(\Vh\mid\Vv)$最大化$\CalL$。

在大多数情况下,研究者并不需要解决任何变分法的问题。 取而代之的是,均值场固定点迭代更新有一个通用的方程。 如果我们做了均值场近似: \begin{align} q(\Vh\mid\Vv) = \prod_i q(h_i \mid\Vv), \end{align} 并且对任何的$j\neq i$固定$q(h_j\mid\Vv)$,那么只需要满足分布$p$中任何联合分布变量的概率值不为$0$,我们就可以通过归一化下面这个未归一的分布 \begin{align} \tilde{q}(h_i \mid\Vv) = \exp \big(\SetE_{\RVh_{-i}\sim q(\RVh_{-i}\mid\Vv)} \log \tilde{p}(\Vv,\Vh)\big) \end{align} 来得到最优的$q(h_i\mid\Vv)$。 在这个方程中计算期望就能得到正确的$q(h_i\mid\Vv)$的表达式。 我们只有在希望提出一种新形式的变分学习算法时才需要使用变分法来直接推导$q$的函数形式。 \eqn?给出了适用于任何概率模型的均值场近似。

\eqn?是一个不动点方程,对每一个$i$它都被迭代地反复使用直到收敛。 然而,它还包含着更多的信息。 它还包含了最优解取到的泛函形式,无论我们是否能够通过不动点方程来解出它。 这意味着我们可以利用方程中的泛函形式,把其中一些值当成参数,然后通过任何我们想用的优化算法来解决这个问题。

我们拿一个简单的概率模型作为例子,其中潜变量满足$\Vh\in\SetR^2$,可见变量只有一个$v$。 假设$p(\Vh) = \CalN(\Vh;0,\MI)$以及$p(v\mid\Vh) = \CalN(v;\Vw^{\top}\Vh;1)$,我们可以积掉$\Vh$来简化这个模型,结果是关于$v$的高斯分布。 这个模型本身并不有趣。 只是为了说明变分法如何应用在概率建模之中,我们才构造了这个模型。

忽略归一化常数时,真实的后验分布如下: \begin{align} & p(\Vh\mid\Vv)
\propto & p(\Vh, \Vv)
= & p(h_1) p(h_2) p(\Vv\mid\Vh)
\propto & \exp \big(-\frac{1}{2} [h_1^2 + h_2^2 + (v-h_1w_1 - h_2w_2)^2]\big)
= & \exp \big( - \frac{1}{2} [h_1^2 + h_2^2 + v^2 + h_1^2w_1^2 + h_2^2w_2^2 - 2vh_1w_1 - 2vh_2w_2 + 2h_1w_1h_2w_2] \big). \end{align} 在上式中,我们发现由于带有$h_1,h_2$乘积项的存在,真实的后验并不能关于$h_1,h_2$分解。

应用\eqn?,我们可以得到 \begin{align} & \tilde{q}(h_1\mid\Vv)\ = & \exp\big(\SetE_{\RSh_2\sim q(\RSh_2\mid\Vv)} \log \tilde{p}(\Vv,\Vh)\big)
= & \exp\Big( -\frac{1}{2} \SetE_{\RSh_2\sim q(\RSh_2\mid\Vv)} [h_1^2 + h_2^2 + v^2 + h_1^2w_1^2 + h_2^2w_2^2
& -2vh_1w_1 - 2vh_2w_2 + 2h_1w_1h_2w_2]\Big). \end{align} 从这里,我们可以发现其中我们只需要从$q(h_2\mid \Vv)$中获得两个有效值: $\SetE_{\RSh_2\sim q(\RSh\mid\Vv)}[h_2]$和$\SetE_{\RSh_2\sim q(\RSh\mid\Vv)}[h_2^2]$。 把这两项记作$\langle h_2 \rangle$和$\langle h_2^2 \rangle$,我们可以得到: \begin{align} \tilde{q}(h_1\mid\Vv) = & \exp(-\frac{1}{2} [h_1^2 + \langle h_2^2 \rangle + v^2 + h_1^2w_1^2 + \langle h_2^2 \rangle w_2^2 \ & -2vh_1w_1 - 2v\langle h_2 \rangle w_2 + 2h_1w_1\langle h_2 \rangle w_2]). \end{align}

从这里,我们可以发现$\tilde{q}$的泛函形式满足高斯分布。 因此,我们可以得到$q(\Vh\mid\Vv) = \CalN(\Vh;\Vmu,\Vbeta^{-1})$,其中$\Vmu$和对角的$\Vbeta$是变分参数,我们可以使用任何方法来优化它。 有必要再强调一下,我们并没有假设$q$是一个高斯分布,这个高斯的形式是使用变分法来关于分布$q$最大化$\CalL$而推导出来的。 在不同的模型上应用相同的方法可能会得到不同泛函形式的分布$q$。

当然,上述模型只是为了说明情况的一个简单例子。 深度学习中关于变分学习中连续型变量的实际应用可以参考~{Goodfeli-et-al-TPAMI-Deep-PrePrint-2013-small}。

学习和推断之间的相互作用

在学习算法中使用近似推断会影响学习的过程,反过来学习的过程也会影响推断算法的准确性。

具体来说,训练算法倾向于朝使得近似推断算法中的近似假设变得更加真实的方向来适应模型。 当训练参数时,变分学习增加 \begin{align} \SetE_{\RVh \sim q}\log p(\Vv,\Vh). \end{align} 对于一个特定的$\Vv$,对于$q(\Vh \mid \Vv)$中概率很大的$\Vh$它增加了$p(\Vh\mid\Vv)$;对于$q(\Vh \mid \Vv)$中概率很小的$\Vh$它减小了$p(\Vh\mid\Vv)$。

这种行为使得我们做的近似假设变得合理。 %这种行为使我们的近似假设成为自我实现。 如果我们用单峰值近似后验来训练模型,那么所得具有真实后验的模型会比我们使用精确推断训练模型获得的模型更接近单峰值。 %??

因此,估计变分近似对模型的破坏程度是很困难的。 存在几种估计$\log p(\Vv)$的方式。 通常我们在训练模型之后估计$\log p(\Vv;\Vtheta)$,然后发现它和$\CalL(\Vv,\Vtheta,q)$的差距是很小的。 从这里我们可以得出结论,对于特定的从学习过程中获得的$\Vtheta$来说,变分近似是很准确的。 然而我们无法直接得到变分近似普遍很准确或者变分近似几乎不会对学习过程产生任何负面影响这样的结论。 为了准确衡量变分近似带来的危害,我们需要知道$\Vtheta^* = \max_{\Vtheta} \log p(\Vv;\Vtheta)$。 $\CalL(\Vv,\Vtheta,q)\approx \log p(\Vv;\Vtheta)$和$\log p(\Vv;\Vtheta)\ll \log p(\Vv;\Vtheta^)$同时成立是有可能的。 如果存在$\max_q \CalL(\Vv,\Vtheta^,q)\ll \log p(\Vv;\Vtheta^)$,即在$\Vtheta^$点处后验分布太过复杂使得$q$分布族无法准确描述,那么学习过程永远无法到达$\Vtheta^$。 这样的一类问题是很难发现的,因为只有在我们有一个能够找到$\Vtheta^$的超级学习算法时,才能确定地进行上述的比较。

学成近似推断

我们已经看到了推断可以被视作一个增加函数$\CalL$值的优化过程。 显式地通过迭代方法(比如不动点方程或者基于梯度的优化算法)来进行优化的过程通常是代价很高且耗时巨大的。 通过学习一个近似推断,许多推断算法避免了这种代价。 具体地说,我们可以将优化过程视作将一个输入$\Vv$投影到一个近似分布$q^* = \arg\max_q\ \CalL(\Vv,q)$的一个函数$f$。 一旦我们将多步的迭代优化过程看作是一个函数,我们可以用一个近似函数为$\hat{f}(\Vv;{\Vtheta})$的神经网络来近似它。

醒眠算法

训练一个可以用$\Vv$来推断$\Vh$的模型的一个主要难点在于我们没有一个监督训练集来训练模型。 给定一个$\Vv$,我们无法获知一个合适的$\Vh$。 从$\Vv$到$\Vh$的映射依赖于模型族的选择,并且在学习过程中随着${\Vtheta}$的改变而变化。 醒眠算法~{cite?}通过从模型分布中抽取$\Vv$和$\Vh$的样本来解决这个问题。 例如,在有向模型中,这可以通过执行从$\Vh$开始并在$\Vv$结束的原始采样来高效地完成。 然后这个推断网络可以被训练来执行反向的映射:预测哪一个$\Vh$产生了当前的$\Vv$。 这种方法的主要缺点是我们将只能在那些在当前模型上有较高概率的$\Vv$值上训练推断网络。 在学习早期,模型分布与数据分布偏差较大,因此推断网络将不具有在类似数据的样本上学习的机会。

在\sec?中,我们看到睡眠做梦在人类和动物中作用的一个可能解释是,做梦可以提供蒙特卡罗训练算法用于近似无向模型中对数配分函数负梯度的负相样本。 生物做梦的另一个可能解释是它提供来自$p(\Vh,\Vv)$的样本,这可以用于训练推断网络在给定$\Vv$的情况下预测$\Vh$。 在某些意义上,这种解释比配分函数的解释更令人满意。 如果蒙特卡罗算法仅使用梯度的正相运行几个步骤,然后仅对梯度的负相运行几个步骤,那么结果通常不会很好。 人类和动物通常连续清醒几个小时,然后连续睡着几个小时。 这个时间表如何支持无向模型的蒙特卡罗训练尚不清楚。 然而,基于最大化$\CalL$的学习算法可以通过长时间调整改进$q$和长期调整${\Vtheta}$来实现。 如果生物做梦的作用是训练网络来预测$q$,那么这解释了动物如何能够保持清醒几个小时 (它们清醒的时间越长,$\CalL$和$\log p(\Vv)$之间的差距越大, 但是$\CalL$仍然是下限) 并且睡眠几个小时(生成模型本身在睡眠期间不被修改), 而不损害它们的内部模型。 当然,这些想法纯粹是猜测性的,没有任何确定的证据表明做梦实现了这些目标之一。 做梦也可以通过从动物的过渡模型(用来训练动物策略)采样合成经验来服务于强化学习而不是概率建模。 也许睡眠可以服务于一些机器学习社区尚未发现的其他目的。

学成推断的其他形式

这种学成近似推断策略已经被应用到了其他模型中。 {Salakhutdinov+Larochelle-2010}证明了在学成推断网络中的单遍传递相比于在深度玻尔兹曼机中的迭代均值场不动点方程能够得到更快的推断。 其训练过程基于运行推断网络,然后运行一步均值场来改进其估计,并训练推断网络来输出这个更精细的估计以代替其原始估计。

我们已经在\sec?中看到,预测性的稀疏分解模型训练一个浅层编码器网络,从而预测输入的稀疏编码。 这可以被看作是自编码器和稀疏编码之间的混合。 为模型设计概率语义是可能的,其中编码器可以被视为执行学成近似~MAP~推断。 由于其浅层的编码器,PSD不能实现我们在均值场推断中看到的单元之间的那种竞争。 然而,该问题可以通过训练深度编码器实现学成近似推断来补救,如ISTA技术~{cite?}。

近来学成近似推断已经成为了变分自编码器形式的生成模型中的主要方法之一 {cite?}。 在这种优美的方法中,不需要为推断网络构造显式的目标。 反之,推断网络仅仅被用来定义$\CalL$,然后调整推断网络的参数来增大$\CalL$。 我们将在\sec?中详细介绍这种模型。

我们可以使用近似推断来训练和使用很多不同的模型。 其中许多模型将在下一章中描述。