1 / 118

人工神经元网络

人工神经元网络. 概述 基本原理 前馈型人工神经元网络 自组织竞争人工神经网络 神经网络的应用 与人工智能原理的结合. 概述. 什么叫人工神经网络 采用物理可实现的系统来模仿人脑神经细胞的结构和功能的系统。 为什么要研究神经网络 用计算机代替人的脑力劳动。 计算机速度为纳秒级,人脑细胞反应时间是毫秒级。而计算机不如人。 长期以来人类的梦想,机器既能超越人的计算能力,又有类似于人的识别、分析、联想等能力。. 概述. 发展史

lorne
Download Presentation

人工神经元网络

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 人工神经元网络 • 概述 • 基本原理 • 前馈型人工神经元网络 • 自组织竞争人工神经网络 • 神经网络的应用 • 与人工智能原理的结合

  2. 概述 • 什么叫人工神经网络 • 采用物理可实现的系统来模仿人脑神经细胞的结构和功能的系统。 • 为什么要研究神经网络 • 用计算机代替人的脑力劳动。 • 计算机速度为纳秒级,人脑细胞反应时间是毫秒级。而计算机不如人。 • 长期以来人类的梦想,机器既能超越人的计算能力,又有类似于人的识别、分析、联想等能力。

  3. 概述 • 发展史 • 1890年,美国生物学家W.James出版了《Physiology》(生理学)一书。首次阐明了有关人脑结构及其功能,以及相关学习、联想、记忆的基本规律。指出:人脑中当两个基本处理单元同时活动,或两个单元靠得比较近时,一个单元的兴奋会传到另一个单元。而且一个单元的活动程度与他周围的活动数目和活动密度成正比。图

  4. 概述 - 发展史 • 1943年McCulloch(心理学家)和Pitts(数理逻辑学家)发表文章,提出M-P模型。描述了一个简单的人工神经元模型的活动是服从二值(兴奋和抑制)变化的。总结了神经元的基本生理特性,提出了神经元的数学描述和网络的结构方法。——标志神经计算时代的开始 输出表达式 图

  5. 概述 - 发展史 MP模型的意义: • M-P模型能完成一定的逻辑运算 • 第一个采用集体并行计算结构来描述人工神经元和网络工作。 • 为进一步的研究提供了依据 (可以完成布尔逻辑计算)

  6. 概述 - 发展史 • 1949年Donala U.Hebb(心理学家)论著《The Organization of Behavior(行为自组织)》,提出突触联系强度可变的假设,认为学习的过程最终发生在神经元之间的突触部位,突触的联系强度随着突触前后神经元的活动而变化。 ——赫布规则(p129) 多用于自组织网络的学习。即:若两个神经元输出兴奋,则它们之间的连接权加强,反之减少。

  7. 概述 - 发展史 赫布规则意义(提出了变化的概念) • 提出了一个神经网络里信息是储藏在突触连接的权中的概念 • 连接权的学习律是正比于两个被连接神经细胞的活动状态值的乘积 • 假设权是对称的 • 细胞的互相连接的结构是他们权的改变创造出来的

  8. 概述 - 发展史 • 1957年Frank Rosenblatt定义了一个神经网络结构,称为感知器(Perceptron) 。 规则学习 意义:第一次把神经网络研究从纯理论的探讨推向工程实现,在IBM704计算机上进行了模拟,证明了该模型有能力通过调整权的学习达到正确分类的结果。掀起了神经网络研究高潮。

  9. 概述 - 发展史 • 1969M.Minsky和S. Papert发表了《Perceptrons》的论著,指出感知器仅能解决一阶谓词逻辑,只能做线性划分。对于非线性或其他分类会遇到很大困难。一个简单的XOR问题的例子就证明了这一点。——神经网络研究一度达到低潮。原因还有:计算机不够发达、VLSI还没出现、而人工智能和专家系统正处于发展高潮。 图 能划分的、不能划分的

  10. 概述 - 发展史 • 七十年代,据说全球只有几十个人在研究,但还是成功的。如:日本Fukusima的Neocognitron; 芬兰Kohonen的自组织神经网络;Stephen Crossberg的共振自适应理论ART网络等 。

  11. 概述 - 发展史 • 1982年John J. Hopfield(物理学家)提出了全联接网络,离散的神经网络模型。——全新的具有完整理论基础的神经网络模型。基本思想是对于一个给定的神经网络,对于一个能量函数,这个能量函数是正比于每一个神经元的活动值和神经元之间的联接权。而活动值的改变算法是向能量函数减少的方向进行,一直达到一个极小值为止。证明了网络可达到稳定的离散和连续两种情况。3年后AT&T等做出了半导体芯片。——神经网络复兴时期开始。

  12. 概述 - 发展史 • 1986年美国的一个平行计算研究小组提出了前项反馈神经网络的Back Propagation(BP)学习算法。成为当今应用最广泛的方法之一。该方法克服了感知器非线性不可分类问题,给神经网络研究带来了新的希望。

  13. 概述 - 发展史 • 1987年在美国召开了第一届世界神经网络大会1000人参加。 • IJCNN等大会 • Neural Computing, IEEE Neural Network 等期刊

  14. 概述 • 人工智能与神经网络 • 共同之处:研究怎样使用计算机来模仿人脑工作过程。学习——实践——再学习——再实践 。 • 不同之处: • 人工智能研究人脑的推理、学习、思考、规划等思维活动,解决需人类专家才能处理的复杂问题。 • 神经网络企图阐明人脑结构及其功能,以及一些相关学习、联想记忆的基本规则(联想、概括、并行搜索、学习和灵活性)

  15. 概述 • 例如: • 人工智能专家系统是制造一个专家,几十年难以培养的专家。 神经网络是制造一个婴儿,一个幼儿,一个可以学习,不断完善,从一些自然知识中汲取智慧的生命成长过程。 • 同样是模仿人脑,但所考虑的角度不同。成年人和婴儿。学习过程不一样。一个是总结出常人都不懂得规律;一个是没完没了向他出示、重复一样东西,就象教一个小孩子说话。

  16. 概述

  17. 基本原理-神经元模型

  18. 基本原理-神经元模型 • 神经元 • 每一个细胞处于两种状态。突触联接有强度。多输入单输出。实质上传播的是脉冲信号,信号的强弱与脉冲频率成正比。

  19. 基本原理-神经元模型 • 转移函数: • 神经细胞的输出对输入的反映。典型的转移函数是非线性的。

  20. 基本原理-网络结构 • 人脑神经网络: 人脑中约有140亿个神经细胞,根据Stubbz的估计这些细胞被安排在约1000个主要模块内,每个模块上有上百个神经网络,每个网络约有10万个神经细胞。

  21. 基本原理-网络模型 • 前馈网络:每层只与前层相联接

  22. 基本原理-网络模型 • 输入输出有反馈的前馈网络:输出层上存在一个反馈回路,将信号反馈到输入层。而网络本身还是前馈型的

  23. 基本原理-网络模型 • 前馈内层互联网络:外部看还是一个前向网络,内部有很多自组织网络在层内互联着。

  24. 基本原理-网络模型 • 反馈型全互联网络:所有计算单元之间都有联接。如:Hopfield网络 • 反馈型局部联接网络:特例,每个神经元的输出只与其周围的神经元相连,形成反馈网络。

  25. 基本原理 -网络分类 • 分类 • 前馈型; • 反馈型; • 自组织竞争; • 随机网络 • 其它

  26. 基本原理-基本属性 • 基本属性: • 非线性: 非线性关系是自然界的普遍特性。大脑的智慧就是一种非线性现象。人工神经元处于激活或抑制两种不同的状态。这种行为在数学上表现为一种非线性。 • 非局域性: 一个神经网络通常由多个神经元广泛联接而成。一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互联接所决定。通过单元之间的大量联接模拟大脑的非局域性。联想记忆是非局域性的典型例子。

  27. 基本原理- 基本属性 • 非定常性: 人工神经网络具有自适应、自组织、自学习能力。神经网络不但处理的信息有各种各样,而且在处理信息的同时,非线性动力系统本身也在不断变化。经常采用迭代过程描写动力系统的演化过程。 • 非凸性: 一个系统的演化方向,在一定条件下,将取决于某个特定的状态函数,如能量函数,它的极值相应于系统比较稳定的状态。非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。

  28. 基本原理-优缺点 • 评价 • 优点: 并行性;分布存储;容错性;学习能力 • 缺点: 不适合高精度计算;学习问题没有根本解决,慢;目前没有完整的设计方法,经验参数太多。

  29. 前馈型神经网 • 概述 • 最初称之为感知器。应用最广泛的一种人工神经网络模型,最要原因是有BP学习方法。 • 前馈网络结构是分层的,信息只能从下一层单元传递到相应的上一层单元。上层单元与下层所有单元相联接。转移函数可以是线性阈值的。

  30. 前馈型神经网 • 单层感知器

  31. 其中 前馈型神经网 • 基本原理,结构简单。很少在实际应用中出现。采用阶跃函数作为传递函数。从2维空间可以很显然的看出其分类功能,但Minsky等揭示的致命弱点也一目了然。关键是学习算法及网络设计方法: • 输出yi等于: (1)

  32. 激励函数(输出变换函数)的引入 • 激励函数(输出变换函数)是将神经元的中间状态转换为输出状态的一种函数。 • 除阶跃函数可作为激励函数外,神经元还可采用S形函数及双曲正切函数等。其中常规的S形函数如下: 双曲正切函数如下:

  33. f(x) f(x) f(x) 1 1 1  x  x x0 x 0 0 -1 (c) (a) (b) 神经元的三种变换(激发)函数 (a) 二值函数 (b) S形函数 (c) 双曲正切函数

  34. 例. 已知一个神经网络结构如下,其输出变换函数f[u]=5u,求输出

  35. 前馈型神经网-单层感知器 • 分类方法: • 如果输入x有k个样本,xp, p=1, 2, …, k, xRn • 当将这些样本分别输入到单输出的感知器中,在一定的和下,输出有两种可能+1或-1。 • 把样本xp看作为在n维状态空间中的一个矢量,那么k个样本为输入空间的k个矢量。而方程(1)就是把这个n为空间分为SA、SB两个子空间,其分界线为n-1维的超平面。即用一个单输出的感知器通过调整参数及来达到k个样本的正确划分。

  36. 前馈型神经网-单层感知器 ........…. 则存在一组权值wij使得公式(1)满足: 则称样本集为线性可分的,否则为线性不可分的。

  37. 前馈型神经网-单层感知器 • 例子:2维空间 希望找到一根直线,把A, B两类样本分开,其分界线为: 解有无数个。 单层感只能解决线性可分类的样本的分类问题。如样本不能用一个超平面分开,就会产生当年Minsky等提出的不可分问题。

  38. X2 + + + + X1 + + + + 二维输入感知器及其在状态空间中的划分

  39. 感知机:单层前馈型神经网络 输出层神经元 输入层神经元 激励函数取阶跃(二值)函数

  40. 用感知器实现逻辑运算的过程: • “与”运算(x1x2) x1=x2=1时,1+2->0 x1或x2为0时,1-<0 或 2-<0,即1及2都小于 x1及x2都为0时,-<0,即>0. 0 x1 1  y 2 0 x2

  41. 逻辑“与”的线性划分 “1” (1,1) “0” (0,1) “0” “0” (0,0) (1,0)

  42. 例如: • 取=1.5,而1及2都=1。 • 当输入x1*=1,x2*=0时,其中间状态为 y= 1-=1-1.5=-0.5<0 其输出为 x=1[-0.5]=0

  43. 用感知器实现逻辑运算的过程: • “或”运算(x1x2) x1=x2=1时,1+2->1 x1或x2为1时,1->0 或 2->0,即1及2都大于 x1及x2都为0时,-<0,即>0. 0 x1 1  y 2 0 x2

  44. 逻辑“或”的线性划分 “1” (1,1) “1” (0,1) “0” “1” (0,0) (1,0)

  45. 例如: • 取=0.5,而1及2都=1。 • 当输入x1*=1,x2*=0时,其中间状态为 y= 1-=1-0.5=0.5>0 其输出为 x=1[0.5]=1

  46. 用感知器实现逻辑运算的过程: • “非”运算(x1) 2=0 x1=1时,1-<0,即1<. x1=0时,->0,即<0. 0 x1 1  y 2 0 x2

  47. 例如: • 取=-0.5,而1=-1。 • 当输入x1*=1,x2*=0时,其中间状态为 y= 1-=-1+0.5=-0.5<0 其输出为 x=1[-0.5]=0

  48. 用感知器实现逻辑运算的过程: • “异或”运算(x1XORx2) x1和x2都=1时, 1+2-<0 x1=1及x2=0时,1->0,即1>. x1=0及x2=1时,2- >0,即2> x1及x2都=0时,-<0,即>0. • 联立上述方程组,无解。说明单层感知器是无法解决异或问题的。

More Related