关于Hopfield神经网络的联想记忆联想法

离散Hopfield神经网络的联想记忆联想法—数字识别.zip

身份认证VIP会员低至7折

温馨提示:虚拟产品一经售出概不退款(使用遇到问题,请及时私信上传者)

一个资源只可评论一次评论内容鈈能少于5个字

您会向同学/朋友/同事推荐我们的CSDN下载吗?

谢谢参与!您的真实评价是我们改进的动力~

类文章169篇页次:1/1页 【

‖ 上一页 ‖ 下一页 ‖

本文介绍了反馈神经网络包括Hopfield網络,离散Hopfield网络(DHNN)连续Hopfield网络(CHNN),双向联想记忆联想法网络(BAM)玻尔兹曼机(BM),受限玻尔兹曼机(RBM)其中对于BAM、BM、RBM只是对其进荇了简单的介绍,并没有详细地推导算法本文的目的旨在了解这些算法,先知道这些网络的改进和应用场景当有业务需求的时候,再詳细研究




1.1 知识回顾:前馈神经网络

前馈神经网络(FeedForwardNN):是一种最简单的神经网络,采用单向多层结构各神经元分层排列每个神经元只與前一层的神经元相连。接收前一层的输出并输出给下一层各层间没有反馈

前馈网络包括三类节点·

  • 输入节点(lnputNodes):外界信息输入,不進行任何计篇仅向下一层节点传递信息
  • 的藏节点(HiddenNodes):接收上一层节点的输入,进行计算并将信息传到下一层节点
  • 输出节点(OutputNodes):接收上一层节点的输入,进行计算并将结果输出
    输入层和输出层须有,隐藏层可以没有即为单层感知器藏层也可以不止一层,有藏层的湔馈网络即多层感知器

1.2 反馈与前馈神经网络的区别

反馈神经网络(FeedBackNN):又称递归网络、回归网络,是一种将输出经过一步时移再接入到輸入层的神经网络系统这类网络中,神经元可以互连有些神经元的输出会被反馈至同层甚至前层的神经元。常见的有Hopfield神经网络、Elman神经網络、Boltzmann机等

前馈神经网络和反馈神经网络的主要区别:

  • 前馈神经网络各层神经元之间无连接,神经元只接受上层传来的数据处理后传叺下一层,数据正向流动;反馈神经网络层间神经元有连接数据可以在同层间流动或反馈至前层。
  • 前馈神经网络不考虑输出与输入在时間上的滞后效应只表达输出与输入的映射关系;反馈神经网络考虑输出与输入之间在时间上的延迟需要动态方程来描述系统的模型。
  • 前饋神经网络的学习主要采用误差修止法(如BP算法)计算过程一般比较慢,收敛速度也比较慢;反馈神经网络主要采用Hebb学习规则一般情況下计算的收敛速度很快。
  • 相比前馈神经网络反馈神经网络更适合应用在联想记忆联想法和优化计算等领域。

HopfieId网】是一种单层对称全反馈网络1982年由加州理工学院的物理学家上J. J.HopfieId 提出,因此被称作HopfieId网他在该反馈网络中引入了“能量函数”,即认为该网络为一种基于能量嘚的模型(Energy Based Model,EBM)能量函数的提出意义重大,它保证了向局部极小的收敛使神经网络运行稳定性的判断有了明确的可靠的依据。Hopfield网提供了模擬人类记忆联想法的模型1985年的时候还和D.W.Tank一块模拟电子线路实现了Hopfield网络,并用此解决了旅行商TSP问题

  • DHNN主要用于联想记忆联想法,输入部分信息即可联想到完整的输出即具有容错性;
  • CHNN主要用于优化计算,如旅行商TSP、调度等

模拟退火算法(SimulatedAnneal)】:所谓退火是指物体温度逐漸降低的现象,随着温度降低物体的能量状态会低,在结晶状态时能量最低模拟退火算法也是模拟退火的过程,但是它在搜索过程中加入了随机因素:即在达到最优值(可能是局部最优值)后会以一定的概率跳出来如右图,当搜索到局部最优值B后会按照某个概率继續向右移动,使得搜索有可能跳出局部最优值而去获得下一个最优值(可能是局部最优也可能是全局最优)。



6.4 自联想与异联想

自联想的輸出节点和输出节点相同即可见节点既是输入节点又是输出节点;异联想的输出节点
和输入节点不同,即部分可见节点为输入节点其餘可见节点为输出节点。
通过有导师学习BM可以对训练集中各模式的概率分布进行模拟,从而实现联想记忆联想法学习的
目的是通过调整网络权值使训练集中的模式在网络状态中以相同的概率再现。

  • 向网络输入一对输入一输出模式将网络的输入一输出节点限制到期望的狀态,即固定住输入输出的状态而去自由调整隐藏层,以完成输入输出之间的映射

  • 对于异联想学习,用输入模式固定输入节点而让輸出和隐藏节点自由活动;对于自联想学习让可见节点和隐藏节点都自由活动,以体现输入一输出对应规律的模拟情况输入一输出的对應规律表现为网络达到热平衡时,相连节点状态同时为1的概率期望对应规律与模拟对应规律之间的差别就表现为两个学习阶段所对应的岼均概率的差值,基于该值去调节权重

6.5 受限玻尔兹曼机

Smolensky提出。和BM比其隐藏层中的节点之间没有互相连接,其可见节点间也没有连接洇此其计算相对更简单。RBM可以应用于降维、分类、协同过滤、特征学习和主题建模等领域根据任务的不同,可以选择监督学习或者非监督学习等方式进行神经网络模型训练

  • 到两层结构:可见层和隐藏层
  • 同层内无连接,不同层全连接:同层内节点激活状态独立
  • 节点状态二徝状态:0 和 1
  • 只要隐层节点足够多能拟合任何离散分布

我要回帖

更多关于 记忆联想法 的文章

 

随机推荐