什么是人工神经网络算法实例及其算法实现方式

优秀研究生学位论文题录展示基于BP算法的人工神经网络软件实现的Java技术专 业: 交通信息工程及控制关键词: Java BP网络 神经网络 仿真分类号: TP183形 态: 共 56 页 约 36,680 个字 约 1.755 M内容阅 读: 内容摘要该文系统地阐述了运用Java技术仿真BP网络系统。BP网络的结构简单,具有很强的模式分类能力,应用很广泛。利用Java来用于实现BP网络的仿真正是运用了Java的面向对象技术和可移植性等特点,使得仿真系统工作状态稳定、界面更友好,理解和运用起来更灵活、实用。文章首先对运用Java来仿真BP网络的可行性进行了分析,对在实现过程中可能会出现的问题进行预测和说明,同时对可能出现的问题提出了相应的解决方案。随后介绍了关于人工神经网络的工作原理、人工神经网络模型、特点及研究人工神经网络的意义。BP网络具有学习的能力,只要输入一系列例子样本,网络就能从这些例子中获得训练数据库中所具有的控制关系。根据BP算法,绘出BP算法的流程图,解释BP网络的特点。该文详细阐述了Java技术仿真BP网络的过程,阐明了仿真系统中BP网络模型的基本结构以及Java作为描述神经网络工具所提供的描述功能,尤其描述了仿真系统的面向对象层次结构及使用Java的面向对象技术,并对BP网络的各个类进行面向对象分析,介绍了仿真系统的使用流程图。通过测试,得出仿真系统的效果图。由此可知Java仿真系统具有容易使用、功能强、有效性、可扩充性、高效性和安全性等特点……全文目录文摘英文文摘第一章 绪论1.1.引言1.2.可行性分析1.3.可能遇到的问题及解决方法1.4.神经网络仿真系统的描述方式第二章 人工神经网络2.1.引言2.2.人工神经网络的工作原理2.3.神经网络模型结构2.4.人工神经网络的特点2.5.神经网络的动力学过程2.6.神经网络研究的意义2.7.本章小结第三章 BP算法3.1.BP网络模型3.2.BP网络的信息传递3.3.BP算法3.3.1.术语设定3.3.2.BP算法3.4.BP学习算法流程图3.5.BP网络的特点3.6.本章小结第四章 Java技术4.1.引言4.2.Java的工作方式4.3.Java技术特性4.4.Java安全性4.5.本章小结第五章 BP网络的Java仿真系统5.1.仿真系统描述5.2.系统的对象层次结构5.2.1.系统中BP模型的组成成分5.2.2.系统中BP网络层次描述5.2.3.系统中BP网络模型的设计5.3.BP网络的OOA描述5.4.仿真系统使用流程图5.5.相关数据的存储5.6.系统特点5.7.本章小结第六章 效果图6.1.人机界面6.2.效果图6.3.误差分析6.3.1.误差显示6.3.2.分析6.4.本章小结结论参考文献相似论文,107页,TP183
U664.82,97页,TP183,64页,TP183,67页,TP183 TP393.098,120页,TP181 O174,81页,TP18 D993.5 U676.1,70页,TP18 TP315 U676.1,128页,TP18 TP391,103页,TP181,129页,TP18 TP311.13,144页,TP18 TP391.1,111页,TP18 TP301.1,78页,TP18,141页,TP18 U491.54,129页,TP18 TP277 TM407,116页,TP18 TP273,108页,TP182 O159,130页,TP181 TP301.6,57页,TP182 V263.6,95页,TP182 U676.1中图分类:
> TP183 > 工业技术 > 自动化技术、计算机技术 > 自动化基础理论 > 人工智能理论 > 人工神经网络与计算
& 2012 book.机器学习算法原理之人工神经元和单层神经网络 - 推酷
机器学习算法原理之人工神经元和单层神经网络
本文将简单介绍机器学习的历史和基本概念。我们会看看第一个用算法描述的神经网络和适用于自适应线性神经元的梯度下降算法,这些知识不仅介绍了机器学习原理,还是后续文章中现代多层神经网络的基础。
如果你想看一下代码运行的实际效果,可到
查看IPython notebook版本。
在当前技术环境下,机器学习是最热门最令人振奋的领域之一。多亏了机器学习,我们享用了稳定的垃圾邮件过滤器、便利的文本及语音识别、可靠的网络搜索引擎和高明的棋手,而且安全高效的自动驾驶汽车有望很快就会出现。
无可置疑,机器学习已经成为一个热门领域,但它有时候容易一叶障目(根据决策树得到随机森林)。所以,我认为值得在研究不同的机器学习算法时,除讨论其原理外,还要一步一步地实现这些算法,以此对其运行原理一探究竟。
若要概括说明机器学习是什么:“机器学习是研究让计算机无需显式编程即可具有学习能力的学科”(Arthur Samuel,1959)。机器学习以统计学,概率论,组合学和优化理论为基础,开发并利用算法来识别数据中的模式,由此来指引决策。
在本系列中,第一篇文章会介绍感知器和适应机(自适应线性神经元),其属于单层神经网络的范畴。感知器不仅是第一个以算法描述的学习算法[
],而且很直观,也容易实现。同时,它(被再次发现)是最先进的机器学习算法——人工神经元网络(也可称作“深入学习”)的绝好切入点。后续我们会知道,adline算法由perceptron算法改进而来,且给我们提供了一个很好的机会去了解机器学习中最流行的优化算法:梯度下降。
人工神经元和McCulloch-Pitts网络
感知器的最初概念可以追溯到Warren McCulloch和Walter Pitts在1943年的研究[
],他们将生物神经元类比成带有二值输出的简单逻辑门。以更直观的方式来看,神经元可被理解为生物大脑中神经网络的子节点。在这里,变量信号抵达树突。输入信号在神经细胞体内聚集,当聚集的信号强度超过一定的阈值,就会产生一个输出信号,并被树突传递下去。
Frank Rosenblatt 感知器
故事继续,在McCulloch和Walter Pitt研究后几年,Frank Rosenblatt第一个提出了感知器学习规则的概念[
]。其主要思想是:定义一个算法去学习权重值w,再将w乘以输入特特征,以此来确定神经元是否收到了刺激。在模式分类中,可以应用这个算法确定样本属于哪一个类。
将感知器算法置于机器学习的更广泛背景中:感知器属于监督学习算法类别,更具体地说是单层二值分类器。简而言之,分类器的任务就是基于一组输入变量,预测某个数据点在两个可能类别中的归属。本文不会过多的地讨论预测建模和分类的概念,但如果你想要更多的背景信息,请参阅我的前一篇文章”
单位阶跃函数
在我们深入研究用于学习人工神经元权值的算法之前,让我们来看一个简短的基本符号。在下面几节中,我们将二值分类中的“正类”和“负类”,分别表示为“1”和“-1”。然后,定义一个激活函数g(z) ,其输入为输入值x和权重w的线性组合()。并且,如果 g(z) 大于预定阈值θ ,预测为1,反之则为-1;在这种情况下,这个激活函数g是一个简单的“单位阶跃函数”,有时也被称为“Heaviside阶跃函数”。
w是特征向量, x是训练数据集中的一个m维样本:
为了简化符号,将θ引入方程左侧并定义、
感知器学习规则
这可能看起来是一种极端简化的方法,但“阈值”感知器背后的思路是模拟大脑中单个神经元的工作方式::激活与否。总结前一节的要点:感知器接收多个输入信号,如果输入信号的和超过某个阈值则返回一个信号,否则就什么也不输出。让这些成为“机器学习”算法地是Frank Rosenblatt关于感知器学习规则的概念:感知器算法首先学习输入信号权值,然后得出线性决策边界,进而能够区分两个线性可分的类1和-1。
Rosenblatt最初的感知器规则相当简单,可总结为下面两步:
将权值初始化为0或小随机数。
对每一个训练样本:
1.&计算输出值。
2. 更新权值。
输出值就是根据我们早先定义的阶跃函数预测的类标签(output =g(z)),并且,权值的更新可以更正式地写成
在每个增量中,权值的更新值可由如下学习规则得到:
其中 η表示学习速率(0.0和1.0间的常数),“target”表示真实标签,“output”表示预测标签。
需要注意的是,权值向量内的所有权值同步更新。具体来说,对于一个2维数据集,以如下方式描述更新:
在我们用Python实现感知器规则之前,让我们简单设想一下这种学习规则会多么简单。在感知器正确预测类标签的两个场景中,权值保持不变:
但是,若预测出错,权值会被分别“推向”正或负的目标类方向:
需要注意的是,只有当两个类线性可分才能保证感知器收敛。如果这两个类线性不可分。未避免死循环,我们可以设置一个训练集的最大训练次数,或者是设置一个可接受误分类个数的阈值。
用Python实现感知器规则
在本节中,我们将用Python实现简单的感知器学习规则以分类鸢尾花数据集。请注意,为阐述清晰,我省略了一些“安全检查”,若需要更“稳健”的版本,请
numpy as np
Perceptron(
xi, target
.predict(xi))
.errors_.append(errors)
net_input(
.net_input(X) &
对于下面的示例,我们将从
载入鸢尾花数据集,并只关注Setosa 和Versicolor两种花。此外,为了可视化,我们将只使用两种特性:萼片长度(sepal length )和花片长度(petal length)。
pandas as pd
pd.read_csv(
'https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data'
# setosa and versicolor
np.where(y
'Iris-setosa'
# sepal length and petal length
matplotlib inline
matplotlib.pyplot as plt
mlxtend.evaluate
plot_decision_regions
Perceptron(epochs
ppn.train(X, y)
'Weights: %s'
plot_decision_regions(X, y, clf
plt.title(
'Perceptron'
plt.xlabel(
'sepal length [cm]'
plt.ylabel(
'petal length [cm]'
plt.show()
(ppn.errors_)
), ppn.errors_, marker
plt.xlabel(
'Iterations'
plt.ylabel(
'Missclassifications'
plt.show()
Weights: [
由图可知,第6次迭代后,感知器收敛并完美区分出了这两种花。
感知器存在的问题
尽管感知器完美地分辨出两种鸢尾花类,但收敛是感知器的最大问题之一。 Frank Rosenblatt在数学上证明了当两个类可由线性超平面分离时,感知器学习规则收敛,但当类无法由线性分类器完美分离时,问题就出现了。为了说明这个问题,我们将使用鸢尾花数据集中两个不同的类和特性。
# versicolor and virginica
np.where(y2
'Iris-virginica'
# sepal width and petal width
Perceptron(epochs
ppn.train(X2, y2)
plot_decision_regions(X2, y2, clf
plt.show()
(ppn.errors_)
), ppn.errors_, marker
plt.xlabel(
'Iterations'
plt.ylabel(
'Missclassifications'
plt.show()
'Total number of misclassifications: %d of 100'
ppn.predict(X2)).
Total number of misclassifications:
尽管在较低的学习率情形下,因为一个或多个样本在每一次迭代总是无法被分类造成学习规则不停更新权值,最终,感知器还是无法找到一个好的决策边界。
在这种条件下,感知器算法的另一个缺陷是,一旦所有样本均被正确分类,它就会停止更新权值,这看起来有些矛盾。直觉告诉我们,具有大间隔的决策面(如下图中虚线所示)比感知器的决策面具有更好的分类误差。但是诸如“Support Vector Machines”之类的大间隔分类器不在本次讨论范围。
自适应线性神经元和Delta定律
诚然,感知器被发现时很受欢迎,但是仅仅几年后,Bernard Widrow和他的博士生Tedd Hoff就提出了自适应线性神经元(学习机)的概念。
不同于感知器规则,学习机的delta规则(也被称作学习机的“Widrow-Hoff规则”)基于线性激活函数而不是单位阶跃函数更新权值;在这里,这个线性激活函数g(z)仅作为恒等函数的网络输入。在下一节中,我们会了解为什么线性激活函数能改善感知器更新以及“delta规则”这个命名从何而来。
作为一个连续函数,线性激活函数相对于单位阶跃函数最大的优点之一就是可微。这个特性使得我们可以定义一个最小化代价函数J(w)来更新权值。应用到线性激活函数中,我们可以将平方误差的和定义为其代价函数 J(w)(SSE),那么问题就等同于一般的最小二乘线性回归求最小代价函数。
(分数仅是用以方便获得梯度,我们将会在下面的段落讲解)
为了最小化SSE代价函数,我们将使用梯度下降算法,这是一种简单有效的优化算法,经常被用来寻找线性系统的局部最小值。
在讲解最有趣的部分前(微积分),让我们先考虑一个仅有单一权值的凸代价函数。如下图所示,我们可将梯度下降背后的原理描述成“下山”,直到到达局部或全局最小值。每一步我们都向梯度相反方向迈出一步,并且步长由学习率以及梯度的斜率共同决定。
现在,按照承诺,我们开始有趣的部分——推导学习机学习规则。如上文所述,每一次更新都由向梯度反向的那一步确定,所以,我们需要沿权值向量方向对代价函数的每一个权值求偏导数:。
对SSE代价函数内的特定权值求偏导可由如下所示方法:
(t = target, o = output)
若将结果带入到学习规则内,可得:
最终,我们可以像感知器规则一样,让权值同步更新:
虽然上述学习规则和感知器规则形式上相同,我们仍需注意两点主要不同:
在这里,输出量“o”是一个实数,并不是感知器学习规则中的类标签。
权值的更新是通过计算数据集中所有的样本(而不是随着每个样本的增加而更新),这也是此方法又被称作“批量”梯度下降。
实现梯度下降规则
现在,是时候用Python实现梯度下降规则了。
numpy as np
AdalineGD(
.net_input(X)
X.T.dot(errors)
.cost_.append(cost)
net_input(
activation(
.net_input(X)
.activation(X) &
实际上,想找到一个适合的学习速率实现理想收敛通常需要一些实验,所以,我们从画出两个不同学习速率的代价函数开始。
AdalineGD(epochs
).train(X, y)
(ada.cost_)
), np.log10(ada.cost_), marker
plt.xlabel(
'Iterations'
plt.ylabel(
'log(Sum-squared-error)'
plt.title(
'Adaline - Learning rate 0.01'
plt.show()
AdalineGD(epochs
).train(X, y)
(ada.cost_)
), ada.cost_, marker
plt.xlabel(
'Iterations'
plt.ylabel(
'Sum-squared-error'
plt.title(
'Adaline - Learning rate 0.0001'
plt.show()
上述两图通过描绘两个最普通的梯度下降问题,很好地强调了画出学习曲线的重要性。
1. &若学习速率过大,梯度下降将超过最小值并偏离。 2. &若学习速率过小,算法将需要过多的迭代次数才能收敛,并会更容易陷入局部最小中。
梯度下降也可解释为什么特征缩放对很多机器学习算法地重要性。如果特征在同一个数量级上,便可以更容易找到合适的学习速率、实现更快的收敛和防止权值过小(数值稳定)。
特征缩放的一般方法是标准化
其中,和分别表示特征的样本平均值和标准差。标准化后,特征具有单位方差并以均值为零中心分布。
# standardize features
np.copy(X)
matplotlib inline
matplotlib.pyplot as plt
mlxtend.evaluate
plot_decision_regions
AdalineGD(epochs
ada.train(X_std, y)
plot_decision_regions(X_std, y, clf
plt.title(
'Adaline - Gradient Descent'
plt.xlabel(
'sepal length [standardized]'
plt.ylabel(
'petal length [standardized]'
plt.show()
( ada.cost_)
), ada.cost_, marker
plt.xlabel(
'Iterations'
plt.ylabel(
'Sum-squared-error'
plt.show()
用梯度下降算法实现在线学习
上一节主要讨论“批量”梯度下降学习。“批量”更新即代价函数的最小化需要根据全部的训练数据集。若我们回想感知器规则,其权值需要随着每个单独的训练样本的更新而更新。这种方法也被称作“在线”学习,而实际上,这也是Bernard Widrow等人[
]第一次描述学习机的方式。
因为增量更新权值的过程近似于最小化代价函数,故其也被称作“随机”梯度下降。尽管由于本身的“随机”特性和“近似”方向(梯度),随机梯度下降方法貌似不如梯度下降,但它在实际应用中的确有一定的优势。因为在每个训练样本后更新得以立即应用,随机梯度下降收敛速度通常远远高于梯度下降;随机梯度下降更具计算效率,特别是针对大数据集。在线学习的另一个优势在于,当有新训练数据到来时,分类器能够即时更新,例如:web应用程序中,若存储不足,旧的训练数据即会被舍弃。在大规模机器学习系统中,使用所谓的“小批量(mini-batches)”方法作妥协也很常见,其具有比随机梯度下降更平稳的收敛过程。
为使内容完整,我们也将实现随机梯度下降学习机并证明它在线性可分的鸢尾花数据集上收敛。
numpy as np
AdalineSGD(
, X, y, reinitialize_weights
reinitialize_weights:
xi, target
.net_input(xi)
xi.dot(error)
.activation(X))
.cost_.append(cost)
net_input(
activation(
.net_input(X)
.activation(X) &
AdalineSGD(epochs
ada.train(X_std, y)
plot_decision_regions(X_std, y, clf
plt.title(
'Adaline - Gradient Descent'
plt.xlabel(
'sepal length [standardized]'
plt.ylabel(
'petal length [standardized]'
plt.show()
(ada.cost_)
), ada.cost_, marker
plt.xlabel(
'Iterations'
plt.ylabel(
'Sum-squared-error'
plt.show()
尽管本文涵盖了很多不同的主题,但这仅仅触及人工神经网络的表层。
后续的文章中,我们将会看到:动态调整学习速率的不同方法、多分类中的”One-vs-All”和“One-vs-One”概念、通过正则化引入附加信息来克服过拟合、多层神经网络和非线性问题的处理、人工神经元的不同激活函数以及像逻辑回归和支持向量机这样的相关概念。
[1] F. Rosenblatt. The perceptron, a perceiving and recognizing automaton Project Para. Cornell Aeronautical Laboratory, 1957.
[2] W. S. McCulloch and W. Pitts. A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5(4):115–133, 1943.
[3] B. Widrow et al. Adaptive ”Adaline” neuron using chemical ”memistors”. Number Technical Report 1553-2. Stanford Electron. Labs., Stanford, CA, October 1960.
翻译:atmanic
英文出处:
文章出处:/81278/
已发表评论数()
请填写推刊名
描述不能大于100个字符!
权限设置: 公开
仅自己可见
正文不准确
标题不准确
排版有问题
主题不准确
没有分页内容
图片无法显示
视频无法显示
与原文不一致几种改进的人工神经网络算法比较--《福建电脑》2011年09期
几种改进的人工神经网络算法比较
【摘要】:文章分别介绍了模拟退火算法与BP网络结合的模拟退火人工神经网络,遗传算法和BP网络结合的遗传人工神经网络以及遗传退火人工神经网络算法。通过仿真实验比较证明,遗传退火人工神经网络和模拟退火人工神经网络的逼近精度高于遗传算法人工神经网络,而遗传算法人工神经网络收敛速度最快。并且随着求解变量个数的增加,基于遗传退火人工神经网络收敛速度高于改进的模拟退火人工神经网络。
【作者单位】:
【关键词】:
【分类号】:TP183【正文快照】:
精度;收敛速度1.Powell算法与模拟退火算法有机结合的快速组合优化算法(F-PSA)快速模拟退火组合优化算法(F-PSA)是将最佳保留的模拟退火搜索策略纳入Powell局部优化直接算法中而成的一种优化算法。开始时,按Powell算法进行优化,快速搜索到某一个局部极小值点,专用最佳保留的
欢迎:、、)
支持CAJ、PDF文件格式,仅支持PDF格式
【引证文献】
中国博士学位论文全文数据库
张军朝;[D];太原理工大学;2012年
【参考文献】
中国期刊全文数据库
梁久祯,何新贵;[J];计算机研究与发展;2000年09期
赵明洁,诸静;[J];自动化学报;2000年02期
李银国;张邦礼;曹长修;;[J];模式识别与人工智能;1997年03期
曾宪华,耿新宇,黄小燕;[J];系统仿真学报;2003年05期
邹开其;[J];浙江万里学院学报;2003年04期
【共引文献】
中国期刊全文数据库
张师玲;李正明;周新云;孙俊;张兵;;[J];安徽农业科学;2009年30期
毕卫华;谭晓慧;侯晓亮;王伟;;[J];地下空间与工程学报;2010年02期
张锐;杨宣访;;[J];兵工自动化;2009年09期
梁久祯,何新贵;[J];北京航空航天大学学报;2001年04期
郭德勇;王仪斌;卫修君;王新义;;[J];北京科技大学学报;2009年01期
沈广泽;司峻峰;宁新宝;;[J];北京生物医学工程;2007年06期
杨斌;匡立春;孙中春;施泽进;;[J];成都理工大学学报(自然科学版);2006年02期
张强;许少华;刘丽杰;凌力;;[J];长春理工大学学报(自然科学版);2009年01期
张奎;屈宝存;杨艳;郎宪明;;[J];长春理工大学学报(自然科学版);2010年02期
王玉田;李艳春;林洪彬;;[J];传感技术学报;2006年04期
中国重要会议论文全文数据库
张雪英;李高云;;[A];第十届全国人机语音通讯学术会议暨国际语音语言处理研讨会论文摘要集[C];2009年
刘东卓;;[A];2008通信理论与技术新发展——第十三届全国青年通信学术会议论文集(下)[C];2008年
李雷;陈彭年;;[A];2008’“先进集成技术”院士论坛暨第二届仪表、自动化与先进集成技术大会论文集[C];2008年
叶德谦;刘波;;[A];计算机技术与应用进展·2007——全国第18届计算机技术与应用(CACIS)学术会议论文集[C];2007年
李来强;王树林;;[A];颗粒学前沿问题研讨会——暨第九届全国颗粒制备与处理研讨会论文集[C];2009年
谭伟聪;蒋金良;;[A];中国高等学校电力系统及其自动化专业第二十四届学术年会论文集(中册)[C];2008年
徐雅洁;陈锋;张旭;张同双;;[A];Proceedings of 2010 International Conference on Remote Sensing (ICRS 2010) Volume 3[C];2010年
张文广;周绍磊;史贤俊;李新;;[A];2009年中国智能自动化会议论文集(第七分册)[南京理工大学学报(增刊)][C];2009年
李培现;谭志祥;闫丽丽;邓喀中;;[A];第十二届全国岩石动力学学术会议暨国际岩石动力学专题研讨会资料之一[C];2011年
高谦;王秀红;魏新江;;[A];第二十六届中国控制会议论文集[C];2007年
中国博士学位论文全文数据库
戴运桃;[D];哈尔滨工程大学;2010年
冷欣;[D];哈尔滨工程大学;2009年
丁文荣;[D];昆明理工大学;2008年
彭光金;[D];重庆大学;2010年
韩骏;[D];天津大学;2010年
夏国清;[D];哈尔滨工程大学;2001年
刘昆;[D];浙江大学;2002年
樊智;[D];天津大学;2003年
雷景生;[D];新疆大学;2003年
肖本贤;[D];合肥工业大学;2004年
中国硕士学位论文全文数据库
吴家瑞;[D];浙江理工大学;2010年
张娓娓;[D];郑州大学;2010年
刘琪;[D];郑州大学;2010年
郭洋;[D];哈尔滨工程大学;2010年
辛贵州;[D];哈尔滨工程大学;2010年
杨克强;[D];安徽农业大学;2010年
陈巍;[D];辽宁工程技术大学;2010年
夏青青;[D];长沙理工大学;2010年
胡波;[D];长沙理工大学;2010年
刘艳慧;[D];河南理工大学;2010年
【同被引文献】
中国期刊全文数据库
叶青;周鸣争;;[J];安徽工程科技学院学报(自然科学版);2010年02期
陈一飞;;[J];安徽建筑工业学院学报(自然科学版);2008年01期
余华;吕宁波;;[J];安徽农业科学;2010年32期
冯立波;黄婷;罗桂兰;;[J];安徽农业科学;2010年36期
吕鑫;王忠;;[J];安徽师范大学学报(自然科学版);2010年04期
王桂英;史金玲;纪飞;王欢;;[J];现代农业科技;2010年07期
刘昊;;[J];北京服装学院学报(自然科学版);2011年01期
李恒嵬;;[J];辽宁科技学院学报;2010年02期
张洪;黄闽英;;[J];成都大学学报(自然科学版);2008年01期
孟涛;贲洪奇;王大庆;;[J];电工技术学报;2010年02期
中国重要会议论文全文数据库
荣延泽;刘士荣;毛军科;李松峰;;[A];中国自动化学会控制理论专业委员会B卷[C];2011年
【二级参考文献】
中国期刊全文数据库
许少华;梁久祯;何新贵;;[J];计算机科学;2001年06期
董聪;[J];控制与决策;1998年S1期
汪锐,郑晓丹,何丹农,张立人,黄皆捷;[J];上海交通大学学报;2001年07期
胡俊;[J];天然气工业;2000年02期
冯国庆,李允,谈德辉;[J];西南石油学院学报;1999年04期
冉启全,李士伦;[J];钻采工艺;1997年01期
【相似文献】
中国期刊全文数据库
魏先民;;[J];福建电脑;2011年09期
;[J];;年期
;[J];;年期
;[J];;年期
;[J];;年期
;[J];;年期
;[J];;年期
;[J];;年期
;[J];;年期
;[J];;年期
&快捷付款方式
&订购知网充值卡
400-819-9993
《中国学术期刊(光盘版)》电子杂志社有限公司
同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 大众知识服务
出版物经营许可证 新出发京批字第直0595号
订购热线:400-819-82499
服务热线:010--
在线咨询:
传真:010-
京公网安备75号人工神经网络控制算法的研究
该论文主要研究人工神经网络控制,对神经网络的实现算法提出了一些改进措施,在此基础上成功的引入了神经网络自适应控制.该文提出了基于神经网络的自适应PID控制法.该控制器综合了神经网络、自适应与PID调节各自的优点,使其既具有神经网络的学习和适应能力,同时具备PID控制的广泛适应性.文中对以上所提出的理论进行了性能分析和仿真实验,并采用图表的方式给出令人满意的结果.
学位授予单位
机标分类号
本文读者也读过
互动百科相关词
加载中,请稍候
.客服电话
&&8:00-11:30,13:00-17:00(工作日)

我要回帖

更多关于 人工神经网络算法教程 的文章

 

随机推荐