受限玻尔兹曼机原理

受限玻尔兹曼机(Restricted Boltzmann Machine, RBM)是一种能够通过输入数据集来学习其概率分布的随机生成式神经网络。它由杰弗里·辛顿(Geoffrey Hinton)等人在2000年代中叶提出了高效的训练算法后,才在深度学习领域变得广为人知,并成为构建深度信念网络等复杂模型的基础组件。

受限玻尔兹曼机原理

结构:独特的“二分图”

RBM的结构是其名称中“受限”的来源。它由两层神经元构成:
  • 可见层 (Visible Layer):负责接收输入数据。
  • 隐藏层 (Hidden Layer):负责学习并提取数据中的内在特征和模式。
“受限”体现在其连接方式上:
  • 层间全连接:可见层的每个神经元都与隐藏层的每个神经元相连。
  • 层内无连接:可见层内部的神经元之间没有连接,隐藏层内部的神经元之间也没有连接

这种结构形成了一个“二分图”,它极大地简化了计算,使得高效的训练成为可能。

能量:用物理概念衡量概率

RBM的原理源于统计物理学,它使用“能量”来衡量一个网络状态(即一组可见单元和隐藏单元的状态组合)的可能性。
  • 能量越低,概率越高:RBM的目标是学习数据的规律,使得代表真实数据的状态拥有较低的能量,而随机、无意义的状态拥有较高的能量。
  • 玻尔兹曼分布:一个特定状态 s 出现的概率 P(s) 由其能量 E(s) 决定,遵循以下公式:
    P(s) = e^(-E(s)/T) / Z
    其中,T 是温度(通常设为1),Z 是一个归一化常数(配分函数),确保所有状态的概率之和为1。

通过调整网络的权重和偏置,RBM实际上是在调整整个系统的“能量图景”,让真实数据“落”在能量的“低谷”中。

学习:对比“清醒”与“梦境”

RBM的学习过程非常直观,杰弗里·辛顿曾将其比喻为“清醒”和“睡眠”两个阶段
  1. 清醒阶段 (正相位):向网络输入真实的数据(例如一张图片),并“钳位”在可见层。然后让隐藏层根据输入数据进行激活。这个阶段,网络会增强那些在真实数据中同时被激活的神经元之间的连接权重。这相当于网络在“相信”它所看到的真实世界。
  2. 睡眠阶段 (负相位):让网络脱离真实数据,自由地“做梦”或“幻想”。网络从隐藏层开始,随机生成一个可见层的状态(重构数据),然后再从这个重构的数据生成一个新的隐藏层状态。这个阶段,网络会减弱那些在它“幻想”中同时被激活的神经元之间的连接权重

学习的本质,就是不断调整权重,缩小“清醒”时看到的真实数据分布与“睡眠”时生成的幻想数据分布之间的差异。

训练:高效的“对比散度”算法

为了实现上述学习思想,RBM使用一种名为对比散度 (Contrastive Divergence, CD) 的高效算法进行训练
  • 吉布斯采样 (Gibbs Sampling):这是CD算法的核心步骤,用于在“睡眠阶段”生成重构数据。由于RBM的二分图结构,给定一层的状态,另一层的状态可以被高效地并行采样
  • 算法流程:CD算法通常只进行少数几步(甚至一步)吉布斯采样,就能得到一个对梯度的良好近似,从而快速更新网络权重
    1. 将真实数据输入可见层。
    2. 根据可见层状态,计算并采样隐藏层状态。
    3. 根据隐藏层状态,重构可见层状态。
    4. 再次根据重构的可见层状态,采样新的隐藏层状态。
    5. 比较第一步和第四步的神经元激活相关性,用其差异来更新权重

应用与影响

RBM在深度学习的发展史上扮演了至关重要的角色,被誉为催化深度学习突破的“历史的酶”
  • 堆叠构建深度网络:多个RBM可以被堆叠起来,下一层的隐藏层作为上一层的可见层,从而构成深度信念网络 (DBN)。这种逐层无监督预训练的方法,为训练深层神经网络开辟了道路
  • 广泛应用:RBM本身也被成功应用于协同过滤(如Netflix的电影推荐)、降维、特征学习、图像识别和语音识别等多个领域
  • 硬件加速:由于其核心的吉布斯采样是一种概率操作,非常适合用特殊的硬件(如磁性隧道结)进行加速,这为未来AI硬件的发展提供了新的思路
© 版权声明

相关文章

暂无评论

none
暂无评论...