170 likes | 389 Views
基于计算动词推理的 BP 神经网络训练算法研究. 答辩人:廖聪慧 指导老师:杨涛(教授). 人工神经元简介. a1~an 为输入向量的各个分量 w1~wn 为神经元各个突触的权值 b 为偏置 f 为传递函数,通常为非线性函数。 t 为神经元输出,数学表示 t=f( WA'+b ) W 为权向量 A 为输入向量, A' 为 A 向量的转置. 人工神经元模型. 传递函数. BP 神经网络简介. BP 网络模型. BP 网络训练过程. 训练规则为:. 其中. 为学习率. P=[0 0.5 -0.2; 0.2 0.8 0.4;
E N D
基于计算动词推理的BP神经网络训练算法研究 答辩人:廖聪慧 指导老师:杨涛(教授)
人工神经元简介 • a1~an为输入向量的各个分量 • w1~wn为神经元各个突触的权值 • b为偏置 • f为传递函数,通常为非线性函数。 • t为神经元输出,数学表示 t=f(WA'+b) • W为权向量 • A为输入向量,A'为A向量的转置 人工神经元模型 传递函数
BP神经网络简介 BP网络模型
BP网络训练过程 训练规则为: 其中 为学习率 P=[0 0.5 -0.2; 0.2 0.8 0.4; -0.4 0.3 -0.7; 0.5 -0.8 0.1; 0.3 0.9 -0.4; -0.1 0.4 0.9] T=[0.5,-0.2,0.8,-0.7,-0.4,0.2] BP网络训练流程图
计算动词规则 • IF lg(e) staysmall, THEN lrdecreases; • IF lg(e) increasesfrom small to medium, THEN lrdecreases; • IF lg(e) decreasesfrom medium to small, THEN lrincreases; • IF lg(e) decreasesfrom big to medium, THEN lrdecreases; • IF lg(e) increasesfrom medium to big, THEN lrdecreases; • IF lg(e) staybig, THEN lrdecreases slowly;
计算动词规则 • IF lg(e) become(small,small), THEN lrbecome(current,small); • IF lg(e) become(small,medium), THEN lrbecome(current,small); • IF lg(e) become(medium,small), THEN lrbecome(current,big); • IF lg(e) become(big,medium), THEN lrbecome(current,big); • IF lg(e) become(medium,big), THEN lrbecome(current,small); • IF lg(e) become(big,big), THEN lr slowly become(current,small);
Winner-take-all原则调整η 学习率的调整方法为: 其中: 的隶属度函数:
学习率较大时结果分析 取值0.3, 取值0.1 取值0.25时,对比改进算法,自适应算法和固定学习率算法 情况1: 三种算法训练次数比较 改进算法学习率的变化 隶属值 由图可见改进算法明显优于其他两种算法 注:蓝色曲线为改进算法,红色曲线为固定学习率算法,绿色曲线为自适应算法
学习率较大时结果分析 取值0.3, 取值0.1 取值0.25时,对比改进算法,自适应算法和固定学习率算法 情况2: 三种算法训练次数比较 改进算法学习率的变化 隶属值 由图可见改进算法差于固定学习率算法,优于自适应算法 注:蓝色曲线为改进算法,红色曲线为固定学习率算法,绿色曲线为自适应算法
学习率较大时结果分析 取值0.3, 取值0.1 取值0.25时,对比改进算法,自适应算法和固定学习率算法 情况3: 三种算法训练次数比较 改进算法学习率的变化 隶属值 由图可见改进算法出现了明显的振荡 注:蓝色曲线为改进算法,红色曲线为固定学习率算法,绿色曲线为自适应算法
情况3修改参数 取值0.26, 取值0.06 取值不变时,对比改进算法,自适应算法和固定学习率算法 三种算法训练次数比较 改进算法学习率的变化 隶属值 由图可见改进算法不再振荡,对比其他两种算法又有了明显的优势 注:蓝色曲线为改进算法,红色曲线为固定学习率算法,绿色曲线为自适应算法
学习率较大时统计特性分析 将程序运行1000次,得到三种训练算法所需训练次数分布图如下: 所需平均训练次数为: =2019 =2627 则 =3676
学习率较小时结果分析 取值0.3, 取值0.1 取值0.16时,对比改进算法,自适应算法和固定学习率算法 情况4: 三种算法训练次数比较 改进算法学习率的变化 隶属值 由图可见改进算法明显优于其他两种算法 注:蓝色曲线为改进算法,红色曲线为固定学习率算法,绿色曲线为自适应算法
学习率较小时统计特性分析 将程序运行1000次,得到三种训练算法所需训练次数分布图如下: 所需平均训练次数为: =2413 =2679 则 =2586
改变参数后统计特性分析 取值0.2, 取值0.08 保持0.16不变 将程序运行1000次,得到三种训练算法所需训练次数分布图如下: 所需平均训练次数为: =2245 =3080 则 =4711
结论与展望 结论:改进算法对比其他两种算法有更高的训练 效率。虽然某些情况下改进算法会引起振荡,或 与其他两种算法的比较优势丧失,但通过调整参 数改进算法的这两个问题都可以得到较好的解决。 展望:通过理论分析得出调整相关参数的方法, 使改进算法能普遍适用于各种情况