700 likes | 840 Views
计算智能(上). 内容提要: ★ 神经计算 ★ 模糊计算. 研究背景. 学科交叉 是当前研究领域的一个重要特征 信息科学与生命科学的相互交叉、相互渗透和相互促进是现代科学技术发展的一个显著特点。 计算智能 是学科交叉研究过程中出现的一个重要研究方向 计算智能涉及神经网络、模糊逻辑、进化计算和人工生命等领域,它的研究和发展正反映了当代科学技术多学科交叉与集成的重要发展趋势。. 什么是计算智能. 神经网络( NN )与人工智能( AI )
E N D
计算智能(上) 内容提要: ★神经计算 ★模糊计算
研究背景 • 学科交叉是当前研究领域的一个重要特征 • 信息科学与生命科学的相互交叉、相互渗透和相互促进是现代科学技术发展的一个显著特点。 • 计算智能是学科交叉研究过程中出现的一个重要研究方向 • 计算智能涉及神经网络、模糊逻辑、进化计算和人工生命等领域,它的研究和发展正反映了当代科学技术多学科交叉与集成的重要发展趋势。
什么是计算智能 • 神经网络( NN)与人工智能( AI) • 把神经网络归类于人工智能可能不大合适,而归类于计算智能 ( CI)更能说明问题实质。进化计算、人工生命和模糊逻辑系统 的某些课题,也都归类于计算智能。 • 计算智能与人工智能 • 计算智能取决于制造者( manufacturers)提供的数值数据,不依赖于知识; • 人工智能应用知识精品( knowledge tidbits),故此,一种说法是人工神经网络应当称为计算神经网络。
计算智能与人工智能的区别和关系 • A- Artificial,即人工的(非生物的) B- Biological,即物理的+化学的+(?)=生物的 C- Computational,表示数学+计算机 • 计算智能是一种智力方式的低层认知,它与人工智能的区别只是认知层次从中层下降至低层而已。中层系统含有知识(精品),低层系统则没有。
计算智能与人工智能的区别和关系 • 当一个系统只涉及数值(低层)数据,含有模式识别部分,不应用人工智能意义上的知识,而且能够呈现出: (1)计算适应性; (2)计算容错性; (3)接近人的速度; (4)误差率与人相近, 则该系统就是计算智能系统。 • 当一个智能计算系统以非数值方式加上知识(精品)值,即成为人工智能系统。
神经计算 • 大脑模型
人工神经网络的特性 • 并行分布处理 • 非线性映射 • 通过训练进行学习 • 适应与集成 • 硬件实现
人工神经网络的应用 • 模式识别:图象、语音、雷达声纳识别 • 信号处理:特征提取、噪声抑制、数据压缩、滤波 • 判别决策:系统诊断、差错控制、加密破译 • 实时优化控制:机器人控制、列车自动驾驶 • 组合优化:TSP解法、任务分配、货物调配、组合编 码、路由选择 • 知识工程:知识表达、专家系统、自然语音处理、 实时翻译系统
人工神经元模型 树 状 突 起 突 轴 输 入 输 出 轴索 细胞体 等效模型 神经元基本结构
人工神经元模型 • 神经元单元由多个输入xj,j=1,2,..., n 和一个输出y组成。中间状态由输入信号的权和表示,而输出为 • 式中,θi为神经元单元的偏置,wij为连接权系数。n为输入信号数目,yi为神经元输出,t为时间,f(⋅)为输出变换函数。
神经网络的基本特性和结构 • 人工神经网络是具有下列特性的有向图 • 对于每个节点i 存在一个状态变量xi; • 从节点 j至节点i ,存在一个连接权系统数wij; • 对于每个节点i ,存在一个阈值θi; • 对于每个节点i ,定义一个变换函数fi;对于最一般的情况,此函数取如下的形式:
反馈神经网络 • 在反馈(递归) 神经网络中, 多个神经元互 连以组织一个 互连神经网络。
前馈神经网络 • 前馈网络具 有递阶分层 结构,由同 层神经元间 不存在互连 的层级组成。
神经网络的主要学习算法 • 有师学习算法 能够根据期望的和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度或权。 • 无师学习算法 不需要知道期望输出。 • 强化学习算法 采用一个“评论员”来评价与给定输入相对应的神经网络输出的优度(质量因数)。强化学习算法的一个例子是遗传算法(GA)。
BP算法 • BP算法的基本思想: • 在正向传播过程中,输入信号从输入层经隐单元层传向输出层,每一层的神经元状态只会影响到下一层神经元的输入,如果在输出层得不到期望的输出,则转入反向传播过程。 • 将误差信号沿原来的连接通路返回,通过修改各层神经元的连接权值,使得输出误差信号达到最小。
BP算法 • 变量定义: • X为输入向量,Y为网络输出向量; • W(1)、W(2)分别为输入层——隐层、隐层——输出层的权值矩阵。 • 每层神经元的个数为:输入层,N个神经元;隐层,P个神经元;输出层,M个神经元。
BP算法的特点 • BP算法的收敛速度慢,学习过程长; • 在解决复杂问题时,不一定保证全局收敛而易陷入局部最小,致使学习过程失效; • 隐单元层的层数和每层神经元个数的选取缺乏理论上的指导; • 采用BP算法的前馈神经网络的容错能力较弱。
网络训练函数 • function [teste,bestep,testouts,wh,wo,errorCurve] = nnTrain(matrices,nrows,ninputs,nhiddens1, nhiddens2,noutputs,hrates,orates,moms,epochs,options) • matrices: 训练集合的样式,即输入-期望输出对。 • nrows: 样本集的列数,即学习样本的数目。 • ninputs, nhiddens1, nhiddens2, noutputs: 输入层节点数;第一隐层节点数;第二隐层节点数(可以为空);输出层节点数。 • hrates, orates: 隐层、输出层单元的学习率。 • moms: 训练过程激励速率。 • epochs: 最大训练过程的迭代数。 • options: 函数使用过程的选项。