61阅读

神经网络的特点-神经网络的特点分析

发布时间:2017-07-30 所属栏目:神经网络的应用

一 : 神经网络的特点分析

神经网络的特点分析
(1) 神经网络的一般特点
作为一种正在兴起的新型技术神经网络有着自己的优势,他的主要特点如下:
① 由于神经网络模仿人的大脑,采用自适应算法。使它较之专家系统的固定的推理方式及传统计算机的指令程序方式更能够适应化环境的变化。总结规律,完成某种运算、推理、识别及控制任务。因而它具有更高的智能水平,更接近人的大脑。
② 较强的容错能力,使神经网络能够和人工视觉系统一样,根据对象的主要特征去识别对象。
③ 自学习、自组织功能及归纳能力。
以上三个特点是神经网络能够对不确定的、非结构化的信息及图像进行识别处理。石油勘探中的大量信息就具有这种性质。因而,人工神经网络是十分适合石油勘探的信息处理的。
(2) 自组织神经网络的特点  
自组织特征映射神经网络作为神经网络的一种,既有神经网络的通用的上面所述的三个主要的特点又有自己的特色。
① 自组织神经网络共分两层即输入层和输出层。
② 采用竞争学记机制,胜者为王,但是同时近邻也享有特权,可以跟着竞争获胜的神经元一起调整权值,从而使得结果更加光滑,不想前面的那样粗糙。
③ 这一网络同时考虑拓扑结构的问题,即他不仅仅是对输入数据本身的分析,更考虑到数据的拓扑机构。
权值调整的过程中和最后的结果输出都考虑了这些,使得相似的神经元在相邻的位置,从而实现了与人脑类似的大脑分区响应处理不同类型的信号的功能。
④ 采用无导师学记机制,不需要教师信号,直接进行分类操作,使得网络的适应性更强,应用更加的广泛,尤其是那些对于现在的人来说结果还是未知的数据的分类。顽强的生命力使得神经网络的应用范围大大加大。
1.1.3自组织神经网络相对传统方法的优点
 自组织特征映射神经网络的固有特点决定了神经网络相对传统方法的优点:
 (1)自组织特性,减少人为的干预,减少人的建模工作,这一点对于数学模型不清楚的物探数据处理尤为重要,减少不精确的甚至存在错误的模型给结果带来的负面影响。
 (2)强大的自适应能力大大减少了工作人员的编程工作,使得被解放出来的处理人员有更多的精力去考虑参数的调整对结果的影响。使得更快的改进方法成为可能。
 (3)网络工作过程中考虑数据和网络的拓扑结构的问题,更类似人类大脑思考问题的方式,问题的解决更符合人的特点,使得结果的可信程度加大。
 (4)无导师学习机制,不需要教师信号。对于地球物理勘探这类的很少有准确的教师信号作为指导的问题而言,这一点很有优势,很好的模仿人脑,所得结果是其他方法处理结果的很好的参考。
1.1.4完成本课题的目的
 本课题的目的就是通过毕业设计这一过程学习神经网络的基本原理、方法和应用情况,在了解自组织特征映射神经网络原理的基础上探索这样的方法、工具在地球物理数据处理上的应用,例如在储层识别方面。并且同一部分其他方法对比,分析各个方法的特点,为后面的工作打基础。
针对传统地球物理勘探数据处理方法存在的问题,结合自组织特征映射神经网络的优点,尝试这样的一个新方法,看他们这一问题上的表现如何,争取找到一个相对合适的方法。
保存所做的工作,为以后在这方面感兴趣的同学留下有限的一部分参考。国内外研究的过程及现状
人工神经网络是近几年来循序发展的人工智能新技术,他比专家系统、模糊理论等人工智能技术具有更高水平。
人工神经网络在80年代中期得到了飞速的发展。1982年美国加州州立理工学院物理学家Hopfield教授提出了Hopfield人工神经网络模型,他将能量函数的概念引入人工神经网络,并给出了稳定性的判据,开拓了人工神经网络用于联想记忆和优化计算的新途径。
人工神经网络模拟人类部分形象思维的能力,是模拟人工智能的一条途径。特别是可以利用人工神经网络解决人工智能研究中所遇到的一些难题。人工神经网络理论的应用已经渗透到多个领域,在计算机视觉、模式识别、智能控制、非线性优化、自适应滤波相信息处理、机器人等方面取得了可喜的进展。
1.2.1国外研究发展的过程
神经网络诞生半个多世纪以来,同其他事务一样发展不是一帆风顺的,大体上经历了以下5个阶段:
(1)奠基阶段。
早在20世纪40年代初,神经解剖学、神经生理学、心理学以及人脑神经元的电生理的研究等都有一定的成果。其中,神经生物学家McCulloch提倡数字化具有特别的意义。他同青年数学家Pitts合作,从人脑信息处理观点出发,采用数理模型的方法研究了脑细胞的动作和结构及其生物神经元的一些基本生理特性,提出了第一个神经计算模型,即神经元的阈值元件模型,简称为MP模型,他们认识到了模拟大脑可用于逻辑运行的网络,有一些结点,及结点与结点之间相互联系,构成一个简单神经网络模型。其主要贡献在于,结点的并行计算能力很强,为计算神经行为的某此方面提供了可能性,从而开创了神经网络的研究。这一革命性的思想,产生了很大影响。
(3) 第一次高潮阶段。
在1958年计算机科学家Rosenblatt基于MP模型,增加了学习机制,推广了MP模型。他证明了两层感知器能够将输入分为两类,首先假如这两种类型是线性并可分,也就是一个超平面能将输入空间分割,其感知器收敛定理:输入和输出层之间的权重的调节正比于计算输出值与期望输出之差。
他提出的感知器模型,首次把神经网络理论付诸工程实现。例如,1957年到1958年间在他的帅领下完成了第一台真正意义上的的神经计算机,即:Mark Ⅰ的感知器。他还指出了带有隐含层处理元件的3层感知器这一重要的研究方向,并尝试将两层感知器推广到3层。但是他没有能够找到比较严格的数学方法来训练隐含层处理单元。这种感知器是一种学习和自组织的心理学模型,其结构体现了神经生理学的知识。当模型的学习环境含有噪音时,内部结构有相应的随机联系,这种感知器的学习规则是突触强化律,它可能应用在模式识别和联想记忆等方面。可以说,他的模型包含了一些现代神经计算机的基本原理,而且是神经网络方法和技术上的重大突破,他是现代神经网络的主要构建者之一。Rosenblatt的行为激发了很多学者对神经网络研究的极大兴趣.美国的上百家有影响的实验室纷纷投入到这个领域,军方给予巨额资金资助,比如,对声纳波识别,迅速确定敌方的潜水艇位置,经过一段时间的研究终于获得了一定的成果。这些事实说明,神经网络形成了首次高潮。

神经网络的特点分析

(4) 坚持阶段。
神经网络理论那些遥远的但是并非不可达到的目标着实吸引着很多人的目光,美国军方认为神经网络工程应当比“原子弹工程”更重要,并且对它的投资兴趣巨大,而对它的实践效果也比较满意。这时,Minsky比较关心的是人工智能的发展与前途问题。以顺序离符号推导为其基本特征与神经网络大相径庭。他引发学术界的争议,导致对人工智能投资的增加。他从感知器的功能及局限性入手,在数学上进行了分析,证明了感知器不能实现XOR 逻辑函数问题,也不能实现其它的谓词函数。他认识到感知器模式的简单神经网络对于认知群不变性无能为力。1969年Minsky和Papert在MIT出版了一本论著Percertrons,对当时与感知器有关的研究及其发展产生了十分负面的影响,使得有些学者把研究兴趣转移到人工智能或数字电子计算机有关的理论和应用方面。这样,推动了人工智能的发展,使其占了主导地位。美国在此后15年里从未资助神经网络研究课题,致使前苏联有关研究机构也受到感染,终止了已经资助的神经网络研究的课题。
(5) 第二次高潮阶段。
1981年芬兰Helsink大学的T.Kohonen提出了自组织映射网络模型(Self-Organizing feature Map,简称SOM),又称Kohonen网。Kohonen认为,一个神经网络接受外界输入模式时,将会分成不同区域,各个区域对输入模式有着不同的响应特征,而且这一过程是自动完成的。映射具有拓扑性质,对一维、二维都是正确的,并在计算机上进行了模拟,通过实例所展示的自适应学习,学习效果显著。他认为有可能推广到更高维的情况。但是当时,他的自组织网络的局部与全局稳定性问题还没有得到解决。值得一提的是,Hinton和Anderson的著作Para llel Models of Associative Memory产生了一定的影响。由于理想的神经元连接组成的理论模型也具有联想存储功能,因此具有特别有意义。这类神经网络从40年代初期就有学者在研究。 当然,不同时期的研究总有新的认识。1982年生物物理学家Hopfield详细阐述了它的特性,他对网络存储器描述得更加精细,他认识到这种算法是将联想存储器问题归结为求某个评价函数极小值的问题,适合于递归过程求解,并引入Lyapunov函数进行分析。在网络中 ,节点间以一种随机异步处理方式相互访问,并修正自身输出值,可用神经网络来实现,从而这类网络的稳定性有了判据,其模式具有联想记忆和优化计算的功能。并给出系统运动方程,即Hopfield神经网络的神经元模型是一组非线性微分方程。
(6) 新发展阶段。
从神经网络理论简短的发展历史来看,它们的高潮阶段是十分容易度过的。IJCNN91大会主席Rumelhart意识到这一点,在他的开幕词中有一个观点,神经网络的发展已到了一个新的转折的时期,它的范围正在不断扩大,其应用领域几乎包括各个方面。半个世纪以来,这门学科的理论和技术基础已达到了一定规模,但是神经网络到新发展阶段,需要不断完善和突破,使其技术和应用得到有力的支持。
】【神经网络理论的发展与前沿问题 刘永红】
1.2.2国内神经网络发展的历史
 国内最早涉及人工神经网络的著作是涂序彦先生等于1980年发表的《生物控制论》一书,书中将“神经系统控制论”单独设为一章,系统地介绍了神经元和神经网络的结构、功能和模型。随着人工神经网络20世纪80年代在世界范围内复苏,国内也逐步掀起了研究热潮。1989年10月和11月分别在北京和广州召开了神经网络及其应用学术讨论会和第一界全国信号处理-神经网络学术会议。1990年2月,由中国八个学会联合在北京召开“中国神经网络首届学术大会”。收到了来自全国的300多篇论文,从而开创了中国神经网络及神经计算机方面科学研究方面的新纪元。【韩】
1.2.3神经网络发展现状
 几十年的发展使得神经网络上升到了一个新的高度,国外的发展十分迅速而且富有成果,在信息领域、自动化领域、工程领域、医学领域、经济领域都取得了丰硕的成果,特别是美苏军方对神经网络的投入大大刺激了神经网络的发展,吸引了一大批有识之士加入到这一行列,经历了第二次高潮阶段之后,神经网络的发展更加迅速带来了新的技术成果。如:手写输入、语音识别、联想记忆、节能、卫星动作监测、信贷分析等等。
经过多年的发展,国内学术界和工程界在人工神经网络的理论研究和工程应用方面也取得了丰硕成果,学术论文、应用成果和研究人员的数量逐年增长。医疗、中药、病人分类等方面尤其在石油工业神经网络的发展十分迅速,物探的储层识别等方面应用十分突出。这方面的学术论文迅速增加,并取得了一定的成果,为物探的发展开辟出一个新的方向。

。www.61k.com)

神经网络的特点分析(2)

二 : 神经网络的特点与功能

一、神经网络的特点

1.信息处理的并行性、信息存储的分布性、信息处理单元的互联性、结构的可塑性

人工神经网络是由大量简单处理元件相互连接构成的高度并行的非线性系统,具有大规模并行性处理特性。虽然每个处理但与的功能十分简单,但是大量简单处理单元的并行活动使网络呈现出丰富的功能并具有较快的速度。结构上的并行性使网络的信息存储必然采用分布方式,即信息不是存储在网络的某个局部,而是分布在网络所有的连接权中。一个神经网络可存储多种信息,其中每个神经元的连接权中存储的使多种信息的一部分。当需要获得已存储的知识时,神经网络在输入信息激励下采用“联想”的方法进行回忆,因而具有联想记忆功能。神经网络内在的并行性与分布性表现在其信息的存储与处理在空间分布、时间上都是并行的。

2.高度的非线性、良好的容错性和计算的非精度性

神经元的广泛互联与并行工作必然使整个网络呈现出高度的非线性特点。而分布存储的结构特点会使网络在两个方面表现出良好的容错性:一方面,由于信息的分布式存储,当网络中部分神经元损坏时不会对系统的整体性能造成影响,这就象人脑海中每天都有神经细胞正常死亡而不会影响大脑的功能一样;另一方面,当输入模糊、残缺或变形的信息时,神经网络能通过联想恢复记忆,从而实现对不完整输入信息的正确识别,这一点就像人可以对不规范的手写字进行正确识别一样。神经网络能够处理连续的模拟信号以及不精确的、不完全的模糊信息,因此给出的是次优的逼近解而非精确解。

3.自学习、自组织与自适应性

自适应性是指一个系统能够改变自身的性能以适应环境变化的能力,它是神经网络的一个重要特性。自适应性包括自学习与自组织两层含义。神经网络的自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能够通过自动调整网络结构参数,使得对于给定输入能产生期望的输出,训练时神经网络学习的途径,因此经常将学习与训练两个词混用。神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建神经网络,这一构建过程称为网络的自组织(或称重构)。神经网络的自组织能力与自适应性相关,自适应性是通过自组织实现的。

二、神经网络的基本功能

1.联想记忆

由于神经网络具有分布存储信息和并行计算的特性,因此它具有对外界刺激信息和输入模式进行联想记忆的能力。这种能力通过神经元之间的协同结构以及信息处理的集体行为而实现。神经网络是通过其突触权值和连接结构来表达信息的记忆,这种分布式存储使得神经网络能存储较多的复杂模式和恢复记忆的信息。神经网络通过预先存储信息和学习机制进行自适应训练,可以从不完整的信息和噪声干扰中恢复原始的完整信息,这一能力使其在图像复原、图像和语音识别、分类方面具有巨大的潜力。

联想记忆有两种基本形式:自联想记忆与异联想记忆。

(1)自联想记忆

网络中预先记忆多种模式信息,当输入某个已存储模式的部分信息或带有噪声干扰的信息时,网络能通过动态联想过程回忆起该模式的全部信息。

(2)异联想记忆

网络中预先存储了多个模式对,每一对模式均由两部分组成,当输入某个模式的一部分时,即使输入信息时残缺的或叠加了噪声的,网络也能回忆起与起对应的另一个部分。

2.非线型映射

在客观世界中,许多系统的输入与输出之间存在复杂的非线型关系,对于这类系统,往往很难用传统的数理方法建立其数学模型。设计合理的神经网络通过对系统输入输出样本对进行自学习,能够以任意精度逼近任意复杂的非线性映射。神经网络的这一优良特性使其可以作为多维非线型函数的通用数学模型。该模型的表达是非解析的,输入与输出数据之间的映射规则由神经网络在学习阶段自动抽取并分布式存储在网络的所有连接中。具有非线型映射功能的神经网络应用十分广泛,几乎涉及所有领域。

3.分类与识别

神经网络对外界输入样本具有很强的识别与分类能力。对输入样本的分类实际上是在样本空间找出符合分类要求的分割区域,每个区域内的样本属于一类。传统分类方法只适合解决同类相聚,异类分离的识别与分类问题。但客观世界中许多事物(例如不同的图像、声音、文字等等)在样本空间上的区域分割曲面是十分复杂的,相近的样本可能属于不同的类,而远离的样本可能同属于一类。神经网络可以很好的解决对非线型曲面的逼近,因此比传统的分类器具有更好的分类与识别能力。

4.优化计算

优化计算是指在已知约束条件下,寻找一组参数组合,使由该组合确定的目标函数达到最小值。某些类型的神经网络可以把待求问题的可变参数设计为网络的状态,将目标函数设计为网络的能量函数。神经网络经过动态演变过程达到稳定[www.61k.com]状态时对应的能量函数最小,从而其稳定状态就是问题的最优解。这种优化计算不需要对目标函数求导,其结果是网络自动给出的。

5.知识处理

知识是人们从客观世界的大量信息以及自身的实践中总结出来的经验、规则和判据。当知识能够用明确定义的概念和模型进行描述时,计算机具有极快的处理速度和很高的运算速度。而在很多情况下,知识常常无法用明确的概念和模型表达,或者概念的定义十分模糊,甚至解决问题的信息不完整、不全面,对于这类知识处理问题,神经网络获得知识的途径与人类似,也是从对象的输入输出信息中抽取规律而获得关于对象的知识,并将知识分布在网络的连接中予以存储。神经网络的知识抽取能力使其能够在没有任何先验知识的情况下自动从输入数据中提取特征、发现规律,并通过自组织过程构建网络,使其适合于表达所发现的规律。另一方面,人的先验知识可以大大提高神经网络的知识处理能力,两者的结合会使神经网络智能得到进一步提升。

三、信息处理领域的应用

1.信号处理

神经网络广泛应用于自适应信号处理和非线性信号处理中。前者如信号的自适应滤波、时间序列预测、谱估计、噪声消除等;后者如非线性滤波、非线性预测、非线性编码、调制/解调等。第一个成功实例就是电话线中回声消除,其他还有雷达回波的多目标分类、运动目标的速度估计、多探测器的信息融合等。

2.模式识别

模式识别设计模式的预处理和将一种模式映射为其他类型的操作,神经网络在这两方面都有许多成功的应用。神经网络不仅可以处理静态模式如固定图像、固定能谱等,还可以处理动态模式如视频图像、连续语音等。静态模式识别的成功例子有手写字的识别,动态模式识别成功的例子有语音信号识别。

3.数据压缩

神经网络对数据提取模式特征,只将该特征传出(或存储),接收后(或使用时)再将其恢复成原始模式。

三 : 神经网络的形成

神经纤维的髓鞘像电线的绝缘层,可以使神经元准确传递信息,速度非常快,分工明确,效率也更高。那么刚出生的时候,神经纤维髓鞘形成非常少,神经纤维也非常短,非常少,到3~4周岁的时候,才完成神经纤维髓鞘化的过程。

神经元表面积的60~80%被突触占领,神经元如果没有突触作连接,就没有价值,数量再多也没有意义。在出生时突触的数量只有50万亿个,到3个月时达到高峰,大概是在10000万亿个,是3岁时的十倍。

本文标题:神经网络的特点-神经网络的特点分析
本文地址: http://www.61k.com/1058260.html

61阅读| 精彩专题| 最新文章| 热门文章| 苏ICP备13036349号-1