您好、欢迎来到现金彩票网!
当前位置:全民彩票app下载 > 感知机 >

]_单层感知器模型与学习算法(精品)

发布时间:2019-08-10 13:39 来源:未知 编辑:admin

  智能中国网提供学习支持概述 由美国学者Rosenblatt在1957年首次提出 学习算法是Rosenblatt在1958年提出的 包含一个突触权值可调的神经元 属于前向神经网络类型 只能区分线性可分的模式 IEEE设立以其名字命名的奖项 2015-8-18 单层感知器模型 2015-8-18单层感知器工作原理 单层感知器可将外部输入分为两类。当 感知器的输出为+1时,输入属于 类,当感知 器的输出为-1时,输入属于 类,从而实现两 类目标的识别。在二维空间,单层感知器进行 模式识别的判决超平面由下式决定: 2015-8-18单层感知器工作原理 对于只有两个输入的判别边界是直线(如下式 所示),选择合适的学习算法可训练出满意的 当它用于两类模式的分类时,相当于在高维样本空间中,用一个超平面将两类样本分开。 2015-8-18单层感知器学习算法思想 基于迭代的思想,通常是采用误差校正学习规则的 学习算法。 可以将偏置作为神经元权值向量的第一个分量加到 输入向量和权值向量可分别写成如下的形式:令上式等于零,可得到在维空间的单层感知器的判 别超平面。 2015-8-18单层感知器学习算法 第一步,设置变量和参量。 为激活函数, 为网络实际输出, 为期望输出, 为学习 速率, 为迭代次数, 为实际输出与期望输出的误差。 第二步,初始化 给权值向量 的各个分量赋一个较小的随机非零值,置 第三步,输入一组样本 ,并给出 它的期望输出 第四步,计算实际输出:第五步,求出期望输出和实际输出求出差 根据误差判断目前输出是否满足条件,一般为对所有样本误差为零或者均 小于预设的值,则算法结束,否则将值增加1,并用下式调整权值: 然后转到第三步,进入下一轮计算过程 2015-8-18学习算法实例: 构建一个神经元,它能够实现逻辑与操作 逻辑“与”线,学习 率为0.5,误差值要求为0,神经元的激活 函数为硬限幅函数,求权值w1与w2 迭代次数样本标号 输入或权值标号 变量 2015-8-18 2015-8-18 对于样本1,输出神经元的输入为: 输出神经元的输出为: 2015-8-18权值调整 0.10.5 2015-8-18此时完成一次循环过程,由于误差没有 达到0,返回第2步继续循环,在第二次循 环中,前三个样本输入时因误差均为0, 所以没有对权值进行调整,各权值仍保持 第一次循环的最后值,第四个样本输入时 各参数值如下: 2015-8-18 0.60.5 MATLAB中单层感知器常用工具函数名称和基本功能 函数名 newp()生成一个感知器 hardlim() 硬限幅激活函数 learnp() 感知器的学习函数 train() 神经网络训练函数 sim() 神经网络仿真函数 mae() 平均绝对误差性能函数 plotpv() 在坐标图上绘出样本点 plotpc() 在已绘制的图上加分类线 newp() 功能:创建一个感知器神经网络的函数 格式:net newp(PR,S,TF,LF)说明:net为生成的感知机神经网络;PR为一个R2的矩阵,由 R组输入向量中的最大值和最小值组成;S表示神经元的个数; TF表示感知器的激活函数,缺省值为硬限幅激活函数hardlim; LF表示网络的学习函数,缺省值为learnp hardlim() 功能 硬限幅激活函数 格式 hardlim(N)说明 函数hardlim(N)在给定网络的输入矢量矩阵N时,返回该 层的输出矢量矩阵A。当N中的元素大于等于零时,返回的值为l; 否则为0。也就是说,如果网络的输入达到阈值,则硬限幅传输 函数的输出为1;否则,为0。 learnp() 功能 感知机的权值和阈值学习函数 2015-8-18 train() 功能 神经网络训练函数 格式 [net,tr,Y,E,Pf,Af] train(NET,P,T,Pi,Ai,VV,TV)说明 net为训练后的网络;tr为训练记录;Y为网络输 出矢量;E为误差矢量;Pf为训练终止时的输入延迟状 态;Af为训练终止时的层延迟状态;NET为训练前的网 络;P为网络的输入向量矩阵;T表示网络的目标矩阵, 缺省值为0;Pi表示初始输入延时,缺省值为0;Ai表示 初始的层延时,缺省值为0; VV为验证矢量(可省略); TV为测试矢量(可省略)。网络训练函数是一种通用的 学习函数,训练函数重复地把一组输入向量应用到一个 网络上,每次都更新网络,直到达到了某种准则,停止 准则可能是达到最大的学习步数、最小的误差梯度或误 差目标等。 2015-8-18 sim() 功能 对网络进行仿真 格式 sim(NET,{QTS},Pi,Ai,T) sim(NET,Q,Pi,Ai,T)说明 Y为网络的输出;Pf表示最终的输入延时状态; Af表示最终的层延时状态;E为实际输出与目标矢量之间 的误差;perf为网络的性能值;NET为要测试的网络对象; P为网络的输入向量矩阵;Pi为初始的输入延时状态(可 省略);Ai为初始的层延时状态(可省略);T为目标矢 量(可省略)。式(1)、(2)用于没有输入的网络,其中Q 为批处理数据的个数,TS为网络仿线 mae()功能 平均绝对误差性能函数 格式 perf=mae(E,w,pp) 说明 perf表示平均绝对误差和, 为误差矩阵或向量(网络的目标向量与输出向量之差), w为所有权值和偏值 向量(可忽略), pp为性能参数(可忽 plotpv()功能 绘制样本点的函数 格式 plotpv(P,T,V)说明 P定义了n个2或3维的样本,是一个2n维或3n维 的矩阵;T表示各样本点的类别,是一个n维的向量; V=[x_min x_max y_min y_max],为一设置绘图坐标值 范围的向量。利用plotpv()函数可在坐标图中绘出给 定的样本点及其类别,不同的类别使用不同的符号。 如果T只含一元矢量,则目标为0的输入矢量在坐标图 中用符号"o"表示: 目标为1的输入矢量在坐标图 中用符号"+"表示。如果T含二元矢量,则输入矢量 在坐标图中所采用的符号分别如下:[0 1]用"+"表示:[10]用"*"表示;[1 2015-8-18plotpc() 功能 在存在的图上绘制出感知器的分类线函数 格式 plotpc(W,B,H)说明 硬特性神经元可将输入空间用一条直线(如果 神经元有两个输入),或用一个平面(如果神经元有三 个输入),或用一个超平面(如果神经元有三个以上输 入)分成两个区域。plotpc(W,B)对含权矩阵w和偏置 矢量b的硬特性神经元的两个或三个输入画一个分类 线。这一函数返回分类线的句柄以便以后调用。 plotpc(W,B,H)包含从前的一次调用中返回的句柄。 它在画新分类线 使用MATLAB实现神经网络的步骤如下: 第一步 根据应用创建一个神经网络; 第二步 设定神经网络的训练参数,利 用给定样本对创建的神经网络进行训练; 第三步 输入测试数据,测试训练好的 神经网络的性能。 例2-1:见《神经网络实用教程》第22页 2015-8-18 [-0.4-0.5 0.6; 0.9 0.1];%给定训练样本数据 %给定样本数据所对应的类别,用1和0来表示两种类别%创建一个有两个输入、样本数据的取值范围都在[-1,1]之间,并且 %网络只有一个神经元的感知器神经网络 net=newp([-1 1;-1 20;%设置网络的最大训练次数为20次 net=train(net,P,T); %使用训练函数对创建的网络进行训练 Y=sim(net,P) %对训练后的网络进行仿线=mae(Y-T) %计算网络的平均绝对误差,表示网络错误分类 Q=[0.6 0.9 -0.1; -0.1 -0.5 0.5]; %检测训练好的神经网络的性能 Y1=sim(net,Q) %对网络进行仿真,仿真输出即为分类的结果 figure; %创建一个新的绘图窗口 plotpv(Q,Y1); %在坐标图中绘制测试数据 plotpc(net.iw{1},net.b{1}) %在坐标图中绘制分类线运行后在命令行窗口中得到的结果如下: TRAINC,Epoch 0/20 %使用TRAINC作为神经网络的训练函数,第0次训练,最 %大训练次数为20 TRAINC, Epoch 3/20 %达到目标误差要求,结束训练 TRAINC, Performance goal met. 2015-8-18例2-1训练误差曲线训练后的分类线 单层感知器的缺点是只能解决线性可分的分类 模式问题 采用多层网络结构可以增强网络的分类能力, 即在输入层与输出层之间增加一个隐含层,从 而构成多层感知器(Multilayer Perceprons MLP)。由输入层、隐含层(可以是一层或者多层)和输 出层构成的神经网络称为多层前向神经网络。 2015-8-18 多层感知器的拓扑结构 2015-8-18 多层感知器的特点 含有一层或多层隐单元,从输入模式中获得 了更多有用的信息,使网络可以完成更复杂 的任务。 每个神经元的激活函数采用可微的函数 sigmoid函数 多个突触使得网络更具连通性 具有独特的学习算法 BP算法 2015-8-18 单层感知器模型及工作原理 单层感知器的学习算法 单层感知器的MATLAB实现 单层感知器的应用示例 多层感知器概述 2015-8-18

  []单层感知器模型与学习算法(精品),单层感知器,matlab 单层感知器,单层感知器神经网络,感知器算法,感知器学习算法,感知器算法matlab,多层感知器算法,感知器算法原理,感知器算法 在线

http://diystuff.net/ganzhiji/880.html
锟斤拷锟斤拷锟斤拷QQ微锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷微锟斤拷
关于我们|联系我们|版权声明|网站地图|
Copyright © 2002-2019 现金彩票 版权所有