0
首页 精品范文 神经网络基本原理

神经网络基本原理

时间:2023-06-08 11:18:20

开篇:写作不仅是一种记录,更是一种创造,它让我们能够捕捉那些稍纵即逝的灵感,将它们永久地定格在纸上。下面是小编精心整理的12篇神经网络基本原理,希望这些内容能成为您创作过程中的良师益友,陪伴您不断探索和进步。

第1篇

【关键词】BP神经网络;函数逼近

1.绪论

人工神经网络(artificial neural network,ANN)是模仿生物神经网络功能的一种经验模型。生物神经元受到传入的刺激,其反应又从输出端传到相联的其它神经元,输入和输出之间的变换关系一般是非线性的。

1.1 BP神经网络定义

BP (Back Propagation)神经网络是一种神经网络学习算法。相邻层之间各神经元进行全连接,而每层各神经元之间无连接,网络按有教师示教的方式进行学习,当一对学习模式提供给网络后,各神经元获得网络的输入响应产生连接权值(Weight)。此过程反复交替进行,直至网络的全局误差趋向给定的极小值,即完成学习的过程。

1.2 BP神经网络模型及其基本原理

网络的输入层模拟的是神经系统中的感觉神经元,它接收输入样本信号。输入信号经输入层输入, 通过隐含层的复杂计算由输出层输出,输出信号与期望输出相比较,若有误差,再将误差信号反向由输出层通过隐含层处理后向输入层传播。在这个过程中,误差通过梯度下降算法,分摊给各层的所有单元,从而获得各单元的误差信号,以此误差信号为依据修正各单元权值,网络权值因此被重新分布。此过程完成后, 输入信号再次由输入层输入网络,重复上述过程。这种信号正向传播与误差反向传播的各层权值调整过程周而复始地进行着,直到网络输出的误差减少到可以接受的程度,或进行到预先设定的学习次数为止。权值不断调整的过程就是网络的学习训练过程。

2.BP网络在函数逼近中的应用

2.1 基于BP神经网络逼近函数

步骤1:假设频率参数k=1,绘制要逼近的非线性函数的曲线。

步骤2:网络的建立

应用newff()函数建立BP网络结构。隐层神经元数目n可以改变,暂设为n=3,输出层有一个神经元。选择隐层和输出层神经元传递函数分别为tansig函数和purelin函数,网络训练的算法采用Levenberg Marquardt算法trainlm。

同时绘制网络输出曲线,并与原函数相比较,结果如图3.3所示。

其中 “――” 代表要逼近的非线性函数曲线;

“……” 代表未经训练的函数曲线;

因为使用newff( )函数建立函数网络时,权值和阈值的初始化是随机的,所以网络输出结构很差,根本达不到函数逼近的目的,每次运行的结果也有时不同。

步骤3:网络训练

应用train()函数对网络进行训练之前,需要预先设置网络训练参数。训练后得到的误差变化过程如图2.1所示。

步骤4: 网络测试

对于训练好的网络进行仿真:

其中 “――” 代表要逼近的非线性函数曲线;

“” 代表未经训练的函数曲线;

“” 代表经过训练的函数曲线;

从图中可以看出,得到的曲线和原始的非线性函数曲线很接近。这说明经过训练后,BP网络对非线性函数的逼近效果比较好。

3.结束语

神经网络在近几年的不断发展,在人工智能、自动控制、计算机科学、信息处理、机器人、模式识别等众多方面都取得了不错的成绩,给人们带来了很多应用上的方便,和一些解决问题的方法,期待神经网络可以应在在更多的领域,为人类做出更大的贡献。

参考文献:

[1] 刘焕海,汪禹.《计算机光盘软件与应用》. 北京: 高等教育出版社,2011.10:15-30.

第2篇

关键词:生物发酵 BP神经网络 算法研究

1 概述

现代意义上的微生物发酵工程是指在一定条件下使微生物增殖,从而产生对人类有价值的生物成份的过程[1]。发酵过程是一个基于微生物生长繁殖和控制的生物化学反应过程,和普通意义上的上的工业控制不同,具有非线性、时变性和时滞性等特点,内部机理非常复杂。因此对于发酵过程的控制一直都是发酵工业生产中的难点。随着科技进步,新的非线性控制技术的发展为控制发酵过程提供了有力的工具。

当前对于发酵过程的控制,其基本原理是将发酵过程中的主要控制因素采用一定的人工手段进行干预,以发酵过程中所产生的发酵液温度、PH值等关键因素为控制指标,并将其进行动态监测,从而将发酵过程控制在人们所期望的的范围内。由于发酵过程具有实时性,因此对于发酵过程的控制按时间特性可分为离线控制和在线控制两大类[2]。随着研究的深入,在线控制已经成为研究的重点。在线控制是一种基于反馈信息的过程控制方法。其原理是实时监测发酵系统的输出值期望值之间的误差,按照一定的过程控制算法进行调整,将发酵过程中关键的发酵指标控制在期望范围之内。本文将就发酵过程的在线控制方法和实践展开讨论。

2 发酵过程控制的硬件系统简介

对发酵过程的控制是建立在必要的硬件条件基础上的。发酵系统的组成主要由两部分构成:即发酵装置和控制器。对于发酵过程的控制关键是控制温度、溶氧、pH值等。这些因素都可以通过实时监测发酵装置传感器信息来实现。

本文中以大肠杆菌发酵产生类人胶原蛋白为例,需要监测的主要内容有四项:pH值、温度、溶氧量和尾气。监测设备分别为:pH电极、铂电极、溶氧电极和尾气分析仪。

对于发酵过程的智能控制,重点是实现对控制器的智能化,在下一节中将进行具体的讨论。在本文中所涉及的控制器软件的智能化设计基于silicoulab公司的片上系统芯片(SoC),发酵装置型号为NLF22机械搅拌式发酵罐,发酵罐罐体上装配有监测温度、溶氧、pH值等参数的传感器和尾气分析仪。这类实时数据的监测和控制在LabVIEW图形化编程软件设计的人机交互界面上进行。

3 BP人工神经网络控制原理

发酵过程具有高度的非线性特点,因此在本文中采用适合于给类问题的基于BP神经网络控制算法。该算法不依赖精确数学模型,具有非线性的映射能力,可以从大量实时监测数据中寻找输入和输出之间的非线性关系,计算出最优的控制量,从而实现对发酵过程的有效控制。

人工神经网络控制算法是建立在现代神经生物学和仿生学对人类大脑活动的认识模式研究的基础上,通过构造人工神经元形成的网络来模拟神经活动,是当前人工智能研究的热点和智能化控制的研究方向。

人工神经元是神经网络算法的基本信息处理单元,其输入输出关系可由式(1)和式(2)来描述:

Ii=■wijxj-θi (1)

yi=f(Ii) (2)

上式中,xj为来自于其他与本神经元相连接的神经元所传递的输入信息,wij为神经元I,j之间的信息权重;θi为阈值;函数f称为作用函数或转移函数。

目前在人工神经网络研究中已经有很多种网络模型,本文中所采用的是前馈式神经网络模型。BP算法((Error Back Propagation)即属于这类前馈式网络模型,该模型以神经网络的误差平方和为目标函数,以某种优化算法(如梯度法)计算使得目标函数最小的控制值[3]。其拓扑结构可参考相关文献。

4 BP神经网络的应用

本文中以大肠杆菌发酵生产类人胶原蛋白过程为例,简介BP神经网络智能控制在其发酵过程控制中的应用。

4.1 输入层和输出层节点数分析 依据工神经网络运行的基本原理,输入层的节点数是由训练样本数据的维数来决定,输出层的节点数则取决于控制者的实际控制目标。在本文算例中,发酵过程的关键控制因素主要有4个,即酸碱度(pH值)、温度、溶氧度、搅拌速度和时间。这五类数据通过传感器数据可以方便的得到,因此将其作为训练样本,并得到样本数据的维数为5,输入层的单列节点数为4。对输出层而言,依据生产经验,在胶原蛋白的发酵过程中的关键因素为溶氧量,因此将其作为关键控制因素和最终控制目标,由此可得到输出层的节点数为1个。

4.2 隐含层层数和隐含层节点数分析 本文中设定隐含层的层数为1(原因可参照单隐含层对非线性函数的逼近特性[4])。隐含层的节点数可由式(3)进行计算:

m=■+■ (3)

其中,m为隐含层的节点数,N表示输入层的节点数,L表示输出层的节点数,P表示新样本数据,α为1-10之间的常数。依据实测数据(此处从略),可计算得到隐含层的节点数为18。

4.3 程序实现 本文中采用Matlab编程实现上述BP神经网络控制,其基本步骤概述如下。

首先利用newff()函数来生成上述指定结构的神经网络,其参数设定如式(4)所示:

NET=newff(minmax(p),[4],18,1){‘tansig','purelin',},'traingd

m) (4)

其次设定基于上述网络NET的训练参数,该步骤涉及到的函数的参数设定结果为:NET.trainParam.epochs=500、NET.train Param.goal=0.02、NET.trainParam.show=25、NET.trainParam.Ir=0.05。

最后采用命令[NET,tr]=train(NET,Fd,T) 训练上述神经网络。

5 结果分析

表1中对比了采用BP神经网络控制前后的利用大肠杆菌发酵产生类人胶原蛋白的产物湿重产量(g)。有表1可见,通过对发酵过程的BP神经网络控制后,胶原蛋白的产物湿重总体有明显的提高,表明该方法在这类发酵过程控制中是有效的。

6 结语

生物发酵过程是一个复杂的过程,具有高度非线性和难于用精确数学模型描述的特点。本文利用BP神经网络控制方法来综合控制发酵过程中的关键因素,以氧容量作为控制要点,经过网络训练后可提高对发酵过程中关键因素的控制效果,实践表明可大幅度的提高类人教员蛋白的产物湿重产量。上述结果表明利用智能算法控制这类高度非线性的生物发酵过程较之于传统方法具有明显的优势,是今后生物发酵过程控制中重要的研究方向。

参考文献:

[1]陶兴无.生物工程概论[M].北京:化学工业出版社,2011.

[2]谢玉龙.FF现场总线在泰乐霉素发酵控制系统中的应用[D].济南:山东大学,2009.

第3篇

Abstract: Recently, flower market has a great development in China. Accurate irrigation is concerned. This paper mainly intruduces the principle of the automatic irrigation system, and makes a program to control the irrigation volume inautomatic irrigation system, using BP neural network model and matlab software.

关键词: 精准灌溉;神经网络算法;温室花卉

Key words: precise irrigation;nerual network algorithm;greenhouse flowers

中图分类号:S274 文献标识码:A 文章编号:1006-4311(2012)35-0069-02

0 引言

受地形条件和季风气候的影响,我国水资源分布十分不平衡,造成许多地区严重缺水,因此水资源短缺已成为困扰这些地区的首要问题。节水工程是缓解水资源短缺的一项系统性工程,其主要包括时空调节水资源、天然降水的利用以及增加植物自身对水分的利用率等手段。节水灌溉是实现可持续利用水资源的关键技术,如何精细的灌溉花卉也成为人们一直致力于研究的课题。农作物对养分和水分的利用率受施肥量和灌溉量是否合理的影响很大。基于花卉水胁迫声发射的机理可以实现对花卉的精准灌溉,但是如何使得灌溉量最优目前还没有办法解决。本文将通过将人工神经网络引入到花卉灌溉系统中,实现为花卉在生长过程中提供适当的水和肥料,从而可以大大提高花卉的质量、降低生产成本、节约水肥等等。

1 理论知识

1.1 花卉节水灌溉及水胁迫声发射 生命的活动离不开水,植物也不例外。植物产量的下降受水分亏缺的影响很大,据有关资料统计,水分亏缺对植物产量造成的影响比其他因素的总和还要多。植物对水分的吸收和散失一般是由其自身的器官和周围的环境的相互作用来完成的,例如SPAC(土壤-植物-大气连续体)中各个环节的共同作用[3]。土壤、植物、气候这三个方面可以对植物是否缺水进行判别,其主要评价校准一般分为三类:①以植物自身为评分对象;②以环境为对象,利用环境条件的改变对植物的需水量进行估计,例如通过水面的蒸发量来估算植物自身的耗水量,从而得出植物的需水量;③以土壤为对象对植物的水量进行判断。

近年来,随着人们对植物水分机理研究的不断深入,人们发现了植物会通过自己的“语言”来向我们发出缺水信号,也就是我们常说的“会说话的植物”。植物的语言被定义为植物的“声发射”现象,即植物缺水会造成水流在水流通路中出现断裂,从而发出爆裂声。声发射由于物体受外界作用发生形变时激发的能量被迅速释放而产生的一种瞬态应力波[2]。水分在植物体内传输需要依靠张力。干燥的土壤会使张力大大增加,当超过平衡极限时,会造成于水分子对导管壁的粘附力和各分子间的内聚力失效,从而导致连续的水柱遭到破坏,造成断裂,也就是常说的“空穴现象”。空穴一旦出现,张力会因突然被释放产生冲击波,同时产生声发射信号。以往的研究资料表明,声发射信号可以作为自动灌溉系统的信号发生源,以一个特殊的植物相应反馈实现精细灌溉。

1.2 BP神经网络及相关算法[4] BP神经网络算法是Rumelhart于1985年提出的,其基本思想是:通过输出误差来估计输出层得直接前导层的误差,然后利用前导层的误差估计其前导层的误差,随着一层层的传递计算,就能得到所有层的误差估计。BP神经网络模型在处理信息方面有着很好的应用价值,基本原理是:通过中间节点将输入信号Xi作用于输出节点,经过一系列的非线性变换得到输出信号Yk。BP算法的实现过程是在输入层的神经元上加载各项指标数据X,利用连接权向前一步步传递,最后到达隐含层神经元,然后经过转换函数的处理后输出信号被传递到网络输出层。BP神经网络模型一般包括自学习模型、误差计算模型、作用函数模型和输入输出模型。

1.2.1 自学习模型:?驻Wij(n+1)=h×?覫i×oj+a×?驻Wij(n)

式中:h-学习因子;?覫i-输出节点i的计算误差;oj-输出节点j的计算输出;a-动量因子。

1.2.2 误差计算模型 通过误差计算模型能够得到神经网络的计算输出值和期望输出值之间的误差,其函数表达式为:Ep=1/2×?撞(tpi-Opi)2

式中:tpi-i节点的希望输出值;Opi-i节点的计算输出值。

1.2.3 作用函数模型 作用函数又叫作刺激函数,其主要用来反映输入值对上一层的节点刺激脉冲的强度的大小,函数表达式为定义域为(0,1)的Sigmoid函数,即f(x)=1/(1+e-x)。

1.2.4 节点输出模型

a.输出节点输出模型:Yk=f(?撞Tik×Qj-qk)

b.隐节点输出模型:Oi=f(?撞Wij×Xi-qj)

2 温室花卉在水胁迫声发射下的灌溉测量

虽然,利用植物的声发射信号可以知道花卉何时缺水,何时需要开始灌溉,但灌溉量多少也就是何时停止灌溉却无法判别。长期以来,灌溉量一般由花农自己的经验进行判断,然而不同的环境条件下,灌溉量将发生变化,因此很难将经验值引入到自动灌溉系统中。BP神经网络模型具有很好的自学习能力,可以对这个经验值进行学习,从而实现灌溉量的自动控制。本文将利用遗传算法和人工神经网络算法,结合matlab软件和ARM单片机芯片实现对温室花卉在水胁迫发射下灌溉量的预测。

近年来,声发射技术被广泛的应用于水胁迫问题的研究中。植物在缺水情况受到水胁迫的程度可以利用声发射技术进行检测并通过传感器记录下来。当土壤的含水量低于植物生长所需的适宜指标以下时,则灌溉应开始进行,灌溉量得多少可以根据以下公式进行计算:

I=1/1.5(0.085h×d×c-W(T))

式中:I-灌溉量,m3/667m;h-计划层土壤深度,cm;d-土壤容重,g/cm3;c-田间持水量;W(T)-计划层土壤水分存储量预报值,mm。

花卉一般是在温室环境中生长,笔者通过建立土壤水分存储量最小值、蒸发量、空气湿度、光照、环境温度与花卉声发射相互作用的数学模型,利用水胁迫声发射自动检测系统得到相应的数据,从而对不同因素间的相互关系进行研究。自动灌溉系统的模型的基本原理是通过测试系统得到的花卉各参数被输入到ARM中,然后利用BP神经网络算法进行数据处理,从而求出温室花卉的土壤水分存储量的预报值。

2.1 BP神经网络实现多参数综合控制 根据BP神经网络处理信息的原理,将样本中实验所得的输出值作为期望的输出值T,而模型输出Y是通过将各指标值X输入到神经网络模型计算得到的,它们的误差计算函数表达式为:

E=1/2(T-Y)2

利用BP神经网络的自学习模型,经过反复迭代,逐渐降低误差,直到低于容许误差值。

2.2 模型各参数的关联性 在花卉水胁迫自动灌溉系统中,灌溉起始时间和灌溉量的多少是由周围土壤水分存储量的预报值进行控制的。声发射信号和土壤水分存储量的预报值有着紧密的关系,因为土壤中的水含量决定植物吸收水分的多少,当其含水量小于土壤水分存储量的预报值时,植物就会由于缺水导致声发射现象的产生。如果能找到声发射现象发生时的土壤的含水量,那么通过计算花卉正常生长所需的含水量与零界含水量之间的差值,那么灌溉量的多少便可以确定。

植物散失水分主要是因为表面蒸发,当水分的蒸发量大于水分的吸收量时,植物体内便会出现缺水。所以,蒸发量和声发射信号之间的关系也可以作为判别植物水胁迫的指标。植物在灌溉结束初期的蒸发量比较大,声发射频率较高,但随着水胁迫程度的不断增大,表面蒸发量便逐渐减小。温度和光照与声发射信号也具有一定的关系,例如上午的光照强度和温度一般情况下会逐渐增加,植物体内的声发射频率也就逐渐增大;中午之后,随着光照和温度的降低,声发射频率便会响应的减小[5]。

2.2.1 BP神经网络结构模型基本参数的确定 为保证BP神经网络的非线性特性,输入层的传递函数表达式为f(x)=1/(1-exp(-x)),而输出层采用函数体为y(x)=Ax的线性传递函数,这样可以保证神经网络输出值的任意性。本模型的输入节点为4个:光照、蒸发量、温度及声发射信号;输出节点1个:土壤水分存储量预报值。

2.2.2 输入数据归一化 数据归一化是为了把输入数据转变为BP神经网络模型合适的诊断、学习形式,其实质是将输入数据无量纲化。经归一化处理后,每个输入数据都在0-1之间,最后还需利用反归一函数(归一化函数的逆函数)将数据值进行还原。本文所采用的归一化函数和反归一化函数的表达式如下所示:

归一化函数:Xn=2×■-1;

反归一化函数:X1=0.5×(Xn+1)×(Ximax-Ximin)+Ximax

2.2.3 隐层节点数的优化 BP神经网络的学习时间、是否能收敛、容错能力等特性很大程度上是由网络中隐层节点数的多少决定的。逐步回归分析算法可以实现对参数的显著性检查并动态的出去部分线性相关的隐层节点,其基本原理是:当前节点想下一层节点所发出的所有阈值和权值如果都处于死区中时,这一节点便可以删除。最佳隐层节点数的计算公式为:L=(m+n)1/2+c

式中:m-输入节点数;n-输出节点数;c-(1,10)区间内的人艺实数,本模型c=6。

2.2.4 BP神经网络算法的实现过程 本程序所使用的神经网络算法的实现步骤如下:

①对连续权值和阀值的初始化。②将学习数据提供给网络。③计算各中间层各单元的输入与输出。④计算输出层各单元的输入与输出。⑤计算输出层各单元的一般化误差。⑥计算中间层各单元的一般化误差。⑦调整中间层到输出层之间的连接权值和输出层各单元的阀值。⑧调整输入层到中间层之间的连接权值和中间层各单元的阀值。⑨随机选取下一组学习数据对并提供给网络,返回到第③步,直到全部数据训练完成。⑩更新学习次数,返回到③,知道规定的学习次数N完成。

参考文献:

[1]孙景生,康绍忠.我国水资源利用现状与节水灌溉发展对策[J].农业工程学报,2000,16(2):35-38.

[2]耿荣生.声发射技术发展现状[J].无损检测,1998,20(6):151-154,158.

[3]杨世凤.作物水胁迫声发射测试系统的研究[J].振动、测试与诊断学报.2001,增刊:123-127.

第4篇

[关键词]有机碳含量评价 神经网络

中图分类号:TP183 文献标识码:A 文章编号:1009-914X(2015)45-0356-01

1 BP神经网络基本原理

BP神经网络,即误差反传误差反向传播算法的学习过程,由信息的正向传播和误差的反向传播两个过程组成。输入层各神经元负责接收来自外界的输入信息,并传递给中间层各神经元;中间层是内部信息处理层,负责信息变换,根据信息变化能力的需求,中间层可以设计为单隐层或者多隐层结构;最后一个隐层传递到输出层各神经元的信息,经进一步处理后,完成一次学习的正向传播处理过程,由输出层向外界输出信息处理结果。当实际输出与期望输出不符时,进入误差的反向传播阶段。误差通过输出层,按误差梯度下降的方式修正各层权值,向隐层、输入层逐层反传。周而复始的信息正向传播和误差反向传播过程,是各层权值不断调整的过程,也是神经网络学习训练的过程,此过程一直进行到网络输出的误差减少到可以接受的程度,或者预先设定的学习次数为止。

2 BP神经网络工作机理

2.1 正向传播

图中,表示神经元的输入,表示输入层与隐含层之间权值,为隐含层与输出层之间的权值,f()为传递函数,为第k个神经元输出。假设BP神经网络输入层有n个节点,隐含层有q个节点,输出层m个节点。

隐含层第k个神经元的输入:

经过传递函数f()后,则隐含层第k个神经元的输出:

其中f()为单调递增且有界,所以一定有最大值。

输出层第j个神经元输出:

2.2 反向传播

输入P个学习样本,通过传入网络后,输出,第P个样本误差:

式中:期望

全局误差E:

输出层权值的变化,通过调整,使得全局误差E最小,得出输出层神经元权值调整公式:

隐含层神经元的调整公式:

3 应用实例

选择AC,DEN,CNL,GR,PE,RD作为输入曲线。XX井的53个点的岩心数据,从中选出30个点作为训练样本,23个点作为预测,构建网络,对全井段处理。结果对比(如图3-1),发现神经网络计算的TOC比传统的法计算的TOC效果好。其中TOC_NN为神经网络预测TOC,TOC_DaltalogR_AC为法计算的TOC。

4 结论

BP神经网络预测TOC克服了常规解释模型的缺陷,不用选择解释参数,计算结果与解释人员经验无关,预测结果精度有较大幅度的提高。利用多种测井解释数据及岩心分析资料作为网络训练样本,通过网络的训练、学习,建立了BP网络TOC模型,并利用该模型预测该地区新井的TOC值,实验证明用该模型进行TOC预测是可行的。

参考文献

[1]杨斌.神经网络及其在石油测井中的应用[M].北京:石油工业出版,2005:111-115.

[2]罗利,姚声贤.神经网络及模式识别技术在测井解释中的应用[J].测井技术,2002.

第5篇

关键词:预警 粗集 神经网络 战略风险

企业战略风险预警管理是战略风险管理理论的一种改进或延伸,通过提供可操作的预警分析方法与预控对策,在企业现有的职能的基础上,增设对未来的战略管理活动的监测、诊断、控制、矫正等预警职能,使企业的职能结构更完善、更合理。旨在战略风险发生以前,采取措施予以控制,尽可能地避免给企业带来更为严重的损失。

选择恰当的预警方法将对预警结果起到关键的作用。目前国内外已有大量的预测、预警方法和模型,如人工神经网络(ANN)预警方法、模糊(FUZZY)预警、自回归条件异方差(ARCH)预警等。但每种方法都有自己的适用范围,因此在使用这些预警方法时就要根据具体问题进行分析和选择。神经网络是一种大规模并行的非线性动力系统,尽管它具有自组织、并行处理及容错能力等优点,但由于其自身的缺点,比如随着维数的增加,学习时间激剧增长和易陷入局部最小点等导致预警结果存在很大的偏差。而粗集方法的引入可以克服神经网络的不足,粗集方法在不改变原有决策规则的前提下,对原始数据进行属性和对象的约简,求出简化的决策规则,并应用此规则对神经网络的结构和层次进行简化,从而提高了神经网络的工作效率和工作质量。

因此,对粗集与神经网络这两种方法进行优势互补,并将其用于企业战略风险预警的研究具有一定的可行性。本文提出基于粗集-神经网络的预警方法,为企业战略风险预警提供了一种新的研究思路和方法,同时也能更好地丰富和完善企业风险预警的理论与方法。

粗集-神经网络的基本原理

粗集理论和神经网络是智能信息处理的两种重要的方法,其任务是从大量观察和实验数据中获取知识、表达知识和推理决策规则。粗集理论是基于不可分辩性思想和知识简化方法,从数据中推理逻辑规则,适合于数据简化、数据相关性查找、发现数据模式、从数据中提取规则等。神经网络是利用非线性映射的思想和并行处理方法,用神经网络本身的结构表达输入与输出关联知识的隐函数编码,具有较强的并行处理、逼近和分类能力。在处理不准确、不完整的知识方面,粗集理论和神经网络都显示出较强的适应能力,然而两者处理信息的方法是不同的,粗集方法模拟人类的抽象逻辑思维,神经网络方法模拟形象直觉思维,具有很强的互补性。

首先,通过粗集理论方法减少信息表达的属性数量,去掉冗余信息,使训练集简化,减少神经网络系统的复杂性和训练时间;其次利用神经网络优良的并行处理、逼近和分类能力来处理风险预警这类非线性问题,具有较强的容错能力;再次,粗集理论在简化知识的同时,很容易推理出决策规则,因而可以作为后续使用中的信息识别规则,将粗集得到的结果与神经网络得到的结果相比较,以便相互验证;最后,粗集理论的方法和结果简单易懂,而且以规则的形式给出,通过与神经网络结合,使神经网络也具有一定的解释能力。因此,粗集理论与神经网络融合方法具有许多优点,非常适合处理诸如企业战略风险预警这类非结构化、非线性的复杂问题。

基于粗集-神经网络的战略风险预警方法的具体过程

首先对所研究的战略风险的指标样本特征数据,用粗集进行预处理,进行属性约简,提取出重要的特征属性,然后对这些属性离散归一化,并经阀值处理成粗集方法所要求的0-1表,再对0-1表用粗集理论的方法进行数据约简与规则提取,对已提取的规则计算其精确度和覆盖度,以此来配置粗集-神经BP网络的隐层节点与初始连接权值,最后根据训练好的神经网络系统将训练结果作为输入数据进行识别和分类,以判断企业是否会发生战略风险。(基于粗集-神经网络构造图见图1所示)

输入模块。这一阶段包括初始指标体系确定,根据所确定的指标体系而形成的数据采集系统及数据预处理。企业战略风险的初始评价指标如下:

企业外部因素:政治环境(法律法规及其稳定性),经济环境(社会总体收入水平,物价水平,经济增长率),产业结构(进入产业障碍,竞争对手数量及集中程度),市场环境(市场大小)。

企业内部因素:企业盈利能力(销售利润率,企业利润增长率),产品竞争能力(产品销售率,市场占有率),技术开发能力(技术开发费比率,企业专业技术人才比重),资金筹措能力(融资率),企业职工凝聚力(企业员工流动率),管理人才资源,信息资源;战略本身的风险因素(战略目标,战略重点,战略措施,战略方针)。

本文所建立的预警指标系统是针对普遍意义上的企业,当该指标系统运用于实际企业时,需要对具体指标进行适当的增加或减少。因为各个企业有其具体的战略目标、经营活动等特性。

计算处理模块。这一模块主要包括粗集处理部分和神经网络处理部分。

粗集处理阶段。根据粗集的简化规则及决策规则对数据进行约简,构造神经网络的初始结构,便于神经网络的训练。

企业战略风险分析需要解决的问题是在保证对战略风险状态评价一致的情况下,选择最少的特征集,以便减少属性维数、降低计算工作量和减少不确定因素的影响,粗集理论中的属性约简算法可以很好地解决这个问题。

粗集理论主要研究一个由对象集和属性集构成的数据结构,该数据结构通常称为决策表,其形式如表1所示。决策表中的对象集表示某些观察、个体或状态,属性集表示对象的描述,如特征、症状、症兆等。属性集分为条件属性和决策属性两大类。其中U={X1,X2,...,Xn}称为对象集,C={F1,F2,...,Fm}为条件属性集,D为决策属性;fij表示第i个对象的第j个状态属性值,di表示第i个对象的决策属性值。

通过观察发现,决策表是协调的,在去掉决策表中的冗余属性、冗余的对象的同时不会改变原有的决策规则。

当UIND(F-Si)≠UIND(F)说明Si是不可约简的,反之则可约简。

神经网络阶段。采用BP算法,对所输入数据进行训练,获取报警的知识。

采用最常用的三层BP前向神经网络,网络各层之间完全连接,包括权矩阵W(1)连接的输入层S1与隐含层S2,权矩阵W(2)连接的隐含层S2与输出层S3,如图2所示。神经网络算法包括网络结构确定、网络参数(权矩阵W(1)和W(2)的初始值、学习率η、动量因子β、非线性函数参数α及误差阈值ε)确定、训练样本数据处理、权值计算、误差计算等步骤。(见图2)

BP算法成功的关键在于权矩阵W(1)和W(2)的初始值、网络隐含层节点的个数以及学习因子等参数的选取,如果选择得不合适,可能会导致网络训练失败、陷入局部最优或得到比较差的分类结果,特别是权矩阵W(1)和W(2)的初始值的选取过程缺乏严格的理论依据,一般要根据经验及试验选取。权矩阵W(1)表示的是各项指标在整个指标体系的重要程度,其确定方法一般采用定性的方法,目前多采用层次分析法来确定权矩阵W(1),使指标权重的确定更具客观性。首先明确内部的层次结构关系及其各组成因素之间的相互关系,然后通过专家对两因素之间的相对重要程度的比较和判断,建立判断矩阵,运用相应的数学方法进行分析和处理,以得出不同指标间的相对重要性权重。

权矩阵W(2)表示的是各个隐含层节点对输出层的影响程度,在大多数的有关神经网络的文献中,其初始值取0~0.1之间的很小的随机数,通过多次迭代学习,反复修改权值,一直到神经网络收敛为止。在选取W(2)的初始值时,首先根据经验初步选取W(2)的初始值,如全部设定为0.05,然后用一组实际的数据进行试验,如果输出结果与实际结果相差很多,则按照某种规则修改W(2)的初始值,再用另一组数据进行试验,一直到输出值与实际值小于给定的数值为止,最后确定出W(2)的初始值。

输出模块。该模块是对将发生的战略风险问题发出警报。

警限是划分不同警度的临界值,表现为某一预警指标在一定的警度下变化的最大允许的振幅,常以数量形式表现出来。按照战略风险大小强弱程度的不同,可将其分为三个层次。第一层次是轻微战略风险,是损失较小、后果不甚明显,对企业的战略管理活动不构成重要影响的各类风险。这类风险一般情况下无碍大局,仅对企业形成局部和微小的伤害。第二层次是一般战略风险,是损失适中、后果明显但不构成致命性威胁的各类风险。这类风险的直接后果使企业遭受一定损失,并对其战略管理的某些方面带来较大的不利影响或留有一定后遗症。第三层次是致命性战略风险,指损失较大,后果严重的风险。这类风险的直接后果往往会威胁企业的生存,导致重大损失,使之一时不能恢复或遭受破产。在实际操作中,每个企业应根据具体的状况,将这三个层次以具体的数值表现出来。

为了简单明了的表述预警结果,可将企业的警度分为三级:无警、轻警、重警,并用绿、黄、红三种颜色灯号表示。其中绿灯区表示企业综合指标所反映的实际运行值与目标值基本一致,运行良好;黄灯区表示企业综合指标所反映的实际运行值与目标值偏离较大,要引起企业的警惕。若采取一定的措施可转为绿灯区,若不重视可在短期内转为红灯区;红灯区则表示这种偏离超过企业接受的可能,并给企业带来整体性的重大损失。例如:销售利润率极低、资产负债率过高,资源配置不合理、缺乏发展后劲等,必须找出原因,继而采取有效措施,使企业的战略管理活动始终处于“安全”的状态。

本文提出了粗集与神经网络融合进行企业战略风险的预警方法,通过粗集减少属性的数量,提取主要的特征属性,降低神经网络构成系统的复杂性及计算时间,结合神经网络系统的容错能力、并行处理能力、抗干扰能力及处理非线性问题能力,将粗集与神经网络进行串行结合,但这仅仅是在理论上的一种尝试,还需通过实证分析验证此方法的可行性和有效性。

参考文献:

1.曾黄麟,曾谦.基于粗集理论的神经网络[J].四川轻化工学院学报,2000

第6篇

关键词 BP神经网络 数据挖掘 最速下降法 函数逼近 模式识别

中图分类号:TP391 文献标识码:A

1研究背景

BP神经网络是一种多层的前馈网络而且它的学习算法是一种误差逆向传播算法。BP神经网络是目前研究最为成熟、应用最为广泛的人工神经网络模型之一。由于其结构简单、可操作性强、具有较好的自学习能力、能够有效地解决非线性目标函数的逼近问题等优点,因此被广泛应用于自动控制、模式识别、图像识别、信号处理、预测、函数拟合、系统仿真等学科和领域中。

2 BP神经网络原理

2.1概述

BP神经网络是一种反向传播误差算法然后训练的一个多层前馈网络,简称为BP算法,它应用在已被开发出来的神经网络中,到目前为止是应用最为广泛的网络模型之一。BP神经网络可以学习并且存储非常多的输入模式与输出模式之间的映射关系,却无需在学习和存储前事先揭示并描述输入输出间的映射关系的一种数学方程。它使用最速下降法,通过对输出误差的反向传播,获得不断调整网络连接权系数和阈值的信息,最终使神经网络的平方误差最小,达到期望要求。

2.2 BP神经网络结构

BP神经网络模型是一个三层网络,它的拓扑结构可被划分为:输入层、输出层、隐含层。其中输入层与输出层具有更重要的意义,因此它也可以为两层网络结构(把隐含层划入输入层或者把隐含层去掉)。每层都由许多简单的能够执行并行运算的神经元组成,这些神经元与生物系统中的那些神经元非常类似,但其并行性并没有生物神经元的并行性高。BP神经网络是一个前馈网络,因此它具有前馈网络所具有的特性:相邻两层之间的全部神经元进行互相连接,而处于同一层的神经元不能进行联接。

2.3 BP算法原理

BP神经网络的基本原理是把一个输入矢量经过隐含层的一系列变换,然后得到一个输出矢量,从而实现输入数据与输出数据间的一个映射关系。输入信息的正向传播,以及输出误差的反向传播,构成了 BP网络的信息循环。BP算法根据输出误差来修改各神经元连接的连接权系数,其目的是使输出误差达到预计范围内。BP网络需要实际输出与期望输出之间的误差来确定是否要修改神经元连接的连接权系数。其中,期望输出便是该网络意义上的“导师”。BP网络具有对称性的网络结构,在输出端的每一个处理单元基本上都具有一个相同的激励函数。

BP算法由正向传播和反向传播两部分组成。在正向传播过程中,输入信息从输入层经隐层单元处理后,传至输出层。每一层神经元的状态只影响下一层神经元的状态。如果在输出层得不到期望输出,就转为反向传播,即:把误差信号沿连接路径返回,并通过修改各层神经元之间的连接权值,使误差信号最小。

具体的算法步骤可概括如下:

第一步,选取初始权值、阈值。

第二步,重复下述过程直至满足性能要求为止:

(1)对于学习样本P=1到N

①计算每层各节点j的输出yj,netj和的值(正向过程);

②对各层从M层到第二层,对每层各节点反向计算%]j(反向过程);

(2)修改权值

具体推导过程见参考文献4。

3基于BP神经网络设计的实例

3.1函数逼近

我们设计一个简单的BP网络,实现对非线性函数的逼近。通过改变该函数的参数以及BP网络隐层神经元的数目,来观察训练时间以及训练误差的变化时间。将要逼近的非线性函数设为正弦函数,其频率参数k可以调节。假设频率参数k=2,绘制此函数的曲线。如图1。

(1)网络建立:用MATLAB编程建立BP网络结构,为二层BP神经网络。隐层神经元数目n 可以改变,暂时设为n=10,输出层有一个神经元。网络训练采用Levenberg-Marquardt算法trainlm。

分析:因为建立网络时,权值和阈值的初始化是随机的,所以网络输出结果很差,根本达不到函数逼近的目的,并且每次运行的结果也有所不同。

(2)网络训练:在MATLAB里应用train()函数对网络进行训练之前,需要预先设置训练参数。将训练时间设置为50,训练精度设置为0.01,其余参数用默认值。

(3)网络测试:对于训练好的网络进行仿真,绘制网络输出曲线,并与原始非线性函数曲线相比较,结果如下图2。

由此可看出,得到的曲线和原始的非线性函数曲线很接近。这说明经过训练后,BP网络对非线性函数的逼近效果非常好。

(4)讨论分析:改变非线性函数的频率和BP网络隐层神经元的数目,对于函数逼近的效果有一定的影响。网络非线性程度越高,对BP网络的要求越高,则相同的网络逼近效果要差一些;隐性神经元的数目对于网络逼近效果也有一定的影响,一般来说隐形神经元数目越多,则BP网络逼近非线性函数的能力越强,同时网络训练所用的时间相对来说也要长一些。

参考文献

[1] 闫志忠.BP神经网络模型的改进及其应用研究[D].吉林大学,2003.

[2] 李友坤.BP神经网络的研究分析及改进应用[D].安徽理工大学,2012.

[3] 吴昌友.神经网络的研究及应用[D].东北农业大学, 2007.

第7篇

【关键字】 网络安全 神经网络 鱼群算法 评价

目前应用较广泛的BP神经网络评价算法存在着网络参数难确定、收敛速度较慢且易陷入极小值等问题。为了解决上述问题,本文应用鱼群算法对BP神经网络进行了改进,结合网络安全评价实例进行了测试,并将测试数据与标准BP神经网络进行了比较与分析,取得了理想的结果。

一、基本BP神经网络算法

BP神经网络算法是一种采用误差反向传播的多层前馈感知器。其特点是具有分布式的信息存储方式,能进行大规模并行处理,并具有较强的自学习及自适应能力。BP网络由输入层(感知单元)、计算层(隐藏层)、输出层三部分组成。输入层神经元首先将输入信息向前传递至隐含层节点,经过激活函数预处理后,隐层节点再将输出信息传送至输出层得到结果输出。输入层与输出层节点的个数取决于输入、输出向量的维数,隐含层节点个数目前并没有统一的标准进行参考,需通过反复试错来确定。

二、人工鱼群算法

2.1基本原理

人工鱼群算法是指通过长期对鱼类觅食行为的观察,构造人工鱼来模拟鱼类的觅食、群聚、尾随以及随机行为,从而完成全局最优值的寻找。算法所包含的基本过程如下:觅食行为:鱼类会利用视觉或嗅觉来感知水中食物浓度的高低,以此来选择觅食的路线。聚群行为:鱼类一般会以群体形式进行觅食,以此来躲避天敌的伤害并以最大概率获得准确的觅食路线。尾随行为:当群体中的某条鱼或几条鱼寻找到食物后,其附近的其他同伴会立刻尾随而来,其他更远处的鱼也会相继游过来。随机行为:鱼在水中的活动是不受外界支配的,基本上处于随机状态,这种随机性有利于鱼类更大范围的寻找食物及同伴。

2.2鱼群算法优化BP神经网络的原理

BP神经网络在求解最优化问题时容易陷入局部极值,并且网络的收敛速度较慢。鱼群算法通过设定人工鱼个体,模拟鱼群在水中的觅食、尾随和群聚行为,通过个体的局部寻优,最终实现全局寻优。人工鱼在不断感知周围环境状况及同伴状态后,集结在几个局部最优点处,而值较大的最优点附近一般会汇集较多的人工鱼,这有助于判断并实现全局最优值的获取。因此用人工鱼群算法来优化BP神经网络是一种合理的尝试。

2.3具体工作步骤

①设定BP神经网络结构,确定隐层节点数目;②设定人工鱼参数,主要包括个体间距离、有效视线范围以及移动步长等;③人工鱼进行觅食、群聚及尾随行为来优化BP神经网络;④通过设定的状态参量,判断是否达到目标精度;⑤若达到精度要求则输出网络优化权值,并执行网络循环,否则继续改化参数进行优化;⑥输出最终优化参数并进行计算机网络安全评价。

三、实验与结果比较

将网络安全的17项评价指标的分值作为BP神经网络的输入,网络的期望输出只有一项,即安全综合评价分值。BP神经网络需要一定数量的已知样本来训练,然后才能用训练好的网络进行评价。目前用于网络安全综合评价的数据还很少,本文采用的是文献[3]里面的15组数据,其中将1~10项用作网络训练,11~15项用作仿真输出。

算法用Matlab语言实现。通过实验分析,本文将网络隐含层节点数设为5,权值调整参数α=0.1,阈值调整参数β=0.1,学习精度ε=0.0001。网络经过2000次训练,收敛于所要求的误差,然后对检验样本及专家评价样本进行仿真,结果如表1所示,可以看出,鱼群神经网络模型进行计算机网络安全评价中的平均误差较小,仅为2.13%,仿真值与标准输出值非常接近,说明鱼群神经网络对网络安全评价有很好的泛化和拟合性;而标准BP神经网络预测结果的平均误差为4.96%,预测值与实际值偏离较大,说明标准BP神经网络在网络安全评价中拟合性不好,测试效果不佳。

第8篇

关键词:再生混凝土 广义神经网络 bp神经网络 强度预测

abstract:presents a new method by introducing grnn. using the actual data as the forecasting analytic stylebook,and comparing the forecasting result to the bp neural network.the results of the study show that the grnn has greater accuracy than the bp neural network,which is more effective to forecast the strength of concrete

key words:recycled concrete grnn bp neural network forecasting prediction of strength

引言

再生混凝土是通过对废弃混凝土进行一系列的回收利用等过程而形成的新混凝土。再生混凝土技术可以实现废弃混凝土的有效回收利用,对于保护环境、节约资源、发展生态建筑具有重要的意义,通常被认为是发展绿色生态混凝土的主要措施之一。近些年来,众多学者对再生混凝土进行了一系列研究,取得了许多成果。对于普通混凝土而言,灰水比是进行混凝土强度预测的重要影响因素;但是对再生混凝土来说,其影响因素众多,这些因素与强度之间的关系非常复杂,采用传统的线性模型无法准确描述它们之间的关系。在实际应用中,确定再生混凝土的抗压强度较复杂,往往需要进行许多复杂的实验,从而测定其抗压强度。广义神经网络(gnn)在函数逼近能力和学习速度上有较强的优势,调整的参数较少,只有一个分布常数,可以更快的找到合适的预测网络。鉴于此,本文利用grnn对再生混凝土28d的抗压强度建立了预测模型,并利用此模型对不同配比条件下的再生混凝土的抗压强度进行了预测。

1、广义神经网络的基本原理

广义回归神经网络是径向基函数神经网络的一个分支,是一种基于非线性回归理论的前馈式神经网络模型。网络的第1层为径向基隐含层,神经元个数等于训练样本数,该层的权值函数为欧式距离函数( 用表示),其作用为计算网络输入与第1层的权值■之间的距离,■为隐含层阈值。隐含层的传递函数为径向基函数,常用高斯函数 作为网络的传递函数,■称为光滑因子,■越大,则基函数越平滑。

网络的第2层为线性输出层,其权函数为规范化点积权函数,计算网络的向网络的第2层为线性输出层,其权函数为规范化点积权函数,计算网络的向量■,它的每个是由向量■和权值矩阵■中每行元素的点积再除以向量■的各元素之和得到的,提供给线性传递函数■,计算网络输出。

广义回归神经网络连接权值的学习修正使用bp算法,由于网络隐含层结点中的作用函数采用高斯函数,高斯函数作为一种局部分布对中心径向对称衰减的非负非线性函数,对输入将在局部产生响应,即当输入信号靠近基函数的中央范围时,隐含层结点将产生较大的输出,由此可以看出这种网络具有局部逼近能力,这也是该网络学习速度快的原因.此外,grnn中人为调节的参数少,只有一个阈值,网络的学习全部依赖数据样本,这个特点决定了网络能最大限度地避免人为主观假定对预测结果的影响。

2、基于grnn的再生混凝土抗压强度预测建模

2.1模型变量的选取

影响再生混凝土抗压强度的因素众多,本文参照文献[8]提取与再生混凝土强度相关的变量,把水泥、粉煤灰、水、砂、石、再生骨料、减水剂等7个参数作为输入变量,输出为抗压强度。

2.2 数据处理

本文以文献[8]中的24个数据作为数据样本。其中前9个数据作为测试数据,后15个数据作为训练数据,实验数据如表1所示。为了预测的准确性,对原始数据在[0,1]范围内进行归一化处理。

3、实例分析

第9篇

关键词:仿生态神经网络群 神经网络集成 车型识别

中图分类号:TP391 文献标识码:A 文章编号:1007-9416(2015)11-0000-00

Abstract: According to the similarity of ecosystem model and multiple neural network model, the paper proposed the model of bionic neural network group (BNNG) algorithm, which combines the feature extraction and AR model to improve the accuracy of the vehicle classification, and reduces the error rate.

Key words: Bionic Neural Network Group; Neural Network Ensemble; Vehicle Recognition

神经网络集成是计算机模式识别及群智能理论的研究主要方向,目前神经网络集成还没有形成统一的理论框架,集成的内部依然是一个黑箱问题,里面权值和结构到底发生了哪些变化,没有形成统一的结论。本文在研究多种神经网络分类识别的实验中,发现了神经网络集成理论同生态系统模型有着一定的相似度,故对其进行模型预测,同时利用交通车型识别来验证本模型的正确性。

1 仿生态神经网络群算法(BNNG)的模型提出

生态系统是自然界的一个完美的动态进化模式,其内部进化靠互助、竞争等规则来完成,神经网络群按照生态系统进化规则进行演变,故称之为仿生态神经网络群。

神经网络集成是用有限个神经网络对同一个问题进行学习,集成在输入示例下的输出由构成神经网络集成的各神经网络在此示例下的输出共同决定。需要经过大量数据的训练和检验才能够达到最终理想的输出,内部各网络之间是交叉相错的,彼此之间的依存、竞争同样使其结构达到最终的平衡。生态系统模型与神经网络集成有一定的相似性,本出简单模型匹配预测,具体如表1。

2 仿生态神经网络群算法(BNNG)数学模型构建

根据生态群落进化规则,本文将BNNG算法分为主体网络和激励网络,具体算法结构如图1。

传统神经网络模型分为输入层(input)、隐层(hide layer)和输出层(output layer),处理信息的基本原理是:输入信号通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输出信号,网络训练的每个样本包括输入向量X和期望输出量T,网络输出值Y与期望输出值T之间的偏差,通过调整输入节点与隐层节点的联接强度取值和隐层节点与输出节点之间的联接强度以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息,本次假设训练样本为,学习率为,第个样本的误差为。其中

输出公式: (2-1)

全局误差公式: (2-2)

隐层各神经元的权值调整公式为:?? (2-3)

输出层各神经元的权值调整公式为: (2-4)

而BNNG的输出公式为: (2-5)

3 仿生态神经网络群(BNNG)模型在车型识别中的应用

车型识别是交通量在线统计中的重要步骤,识别率的高低直接影响着整个系统的好坏,所以选取此类实验来验证具有重要价值,本文选择4种车型,各40个样本进行验证,具体如表2。

本次BNNG网络群的主体网络为BP(Feed-forward backprop)、CBP(Cascade-forward backprop)、EBP(Elman backprop)、TBP(Time-delay backprop)四种,激励网络由最基本的原始神经网络组成,如Perceptron、Radial basis(exact fit)、Radial basis(fewer neurons)、Generalized regression、Linear layer(design),验证方式为先单一网络分类,然后是主体网络分类,最后是将激励网络和主体网络融合形成BNNG网络后进行分类,通过正确识别率验证各种算法的有效性,具体结果如表3。

通过表3可以看出主体网络的识别率要比单一网络或单个网络的识别率要高,适当引入激励网络将大大提高车型的识别率问题,识别率可以提高到95%以上,其恰好是模型匹配进化的重要规则之一,验证了模型的正确性。

4结语

本文提出仿生态神经网络群(BNNG)算法一种新的模型,按照生态演变规则对网络进行建立、进化。通过实验数据分析得出仿生态神经网络群确实和自然界生态平衡模型存在着一定的相似性,比如竞争机制,演变结果的可能性,对单个物种作用低的处理机制等方面运行规则相似。经过实验验证能够为神经网络集成理论统一框架提供理论和实验参考价值,为在复杂情况下的模式识别提供新的方法和依据。

参考文献

[1]宋锐,张静.一种基于BP神经网络群的自适应分类方法及其应用[J].电子学报,2001年第12A期:1950-1953.

[2]王双维,陈强.不同车型的车辆声音与振动信号特征研究[J].声学技术,2007年第3期:460-463

[3]陈强,李江,王双维.基于AR模型的车型自动分类技术[J].吉林大学学报(工学版),2007年第2期:325-328.

[4]余佳,李益华.一种基于数据挖掘的车型自动分类方法的研究[J].现代电子技术,2012年第9期:119-121,124.

第10篇

关键词: 防腐涂层;BP人工神经网络;厚度预测

中图分类号:TE42 文献标识码:A 文章编号:1671-7597(2012)0310029-02

0 引言

管道外防腐层从传统的石油沥青或沥青瓷漆、煤焦油和煤焦油瓷漆、聚乙烯和聚丙烯胶带逐渐演化为主要是挤出包覆/缠绕聚乙烯和聚丙烯、三层聚乙烯和聚丙烯、单层和双层熔结环氧粉末、液体聚氨酯和聚脲等的现代技术。目前熔结环氧粉末类防腐层(单层和双层)和聚乙烯类防腐层在管道上得到了广泛应用,约占国内已建管道防腐层的60%左右[1]。

目前在管道防腐涂敷生产过程中,为了在初始时期保证外涂层厚度达到既定要求,一般根据经验适当增大原材料的使用量,然后通过在成品管检测站对涂层厚度进行监测,进而逐渐调整相应的各项参数,使各种原料的使用量趋于合理。这种依靠经验进行涂层厚度的控制方法不可避免会造成一些不必要的原材料浪费。同时,若在生产过程中由于传动线以及其它设备波动引起涂层减薄,发现后及时通知操作人员进行参数调节,亦会造成涂层厚度达不到要求。

利用神经网络的研究成果和影响管道外防腐层各项因素,对外防腐层的厚度进行分析建模,目的是从系统的观点出发,综合考虑环氧粉末涂敷量、胶粘剂和聚乙烯/聚丙烯挤出量、传动线速度和涂敷区预热温度对外防腐层厚度的影响。通过现有各项参数对涂层厚度进行预测,是神经网络分析在管道外涂层厚度研究中应用的一个尝试。

1 神经网络模式识别模型的基本原理

人工神经网络[2](ANN:Artificial neural network)是指由大量类似于生物神经系统的神经细胞的人工神经元互联而成的,具有一定智能功能的网络。它是理论化的人脑神经网络的数学模型,是基于模仿大脑神经网络结构和功能而建立的一种信息处理系统。

采用基于BP(Back-Propagation误差反向传播)算法的多层感知器(MLP:

Multi layer perception)模型。MLP的网络拓扑结构如图1所示。

Fig. 1 Network topological structure of MLP model

图1所示是一个具体的MLP。该网络有3层:一个输入层,一个隐含层,一个输出层。网络结构可用“n-j-m结构”描述,其中n、j、m分别表示各层的结点数。每层都有一个权矩阵W、一个偏差矢量b和一个输出矢量a。

输入层的输入矩阵是:

各层的输出矢量分别是:

其中的 表示有效传输函数(Active transferfunction),各层权矩阵的维数由输入分量数目及层神经元数决定。网络的学习就是各层权矩阵及偏差矢量的变化。

应用人工神经网络对管道外防腐涂层厚度进行预测主要包括以下的过程:

1)设计神经网络。根据具体的问题给出的输入矢量与目标矢量,确定所要设计的神经网络的结构,包括:① 网络的层数;② 每层的神经元数;③ 每层的有效传输函数。

2)网络学习前的数据处理。它包括收集有关的变量,评价和提取有效的变量以及数据变换处理。模式特征提取过程如图2所示。

3)识别(分类)。网络按照一定的学习规则,从示范模式的学习中逐渐调整权值。当网络完成训练后,对网络输入待识别的模式,网络将以泛化方式给出识别结果。

Fig. 2 Process of feature extraction

2 外防腐层厚度影响因子及神经网络模型建立

此次预测所用数据是某气田工程项目钢管涂敷数据,影响涂层厚度的主要因子有环氧粉末喷枪的供粉气、配粉气、胶粘剂的挤出量、聚乙烯的挤出量、传动线的运行速度以及涂敷区的预热温度。上述6个因子共同影响外涂层的厚度,本文旨在说明神经网络法应用于厚度预测的可能性。

以环氧粉末喷枪的供粉气、配粉气、胶粘剂的挤出量、聚乙烯的挤出量、传动线的运行速度和涂敷区的预热温度这6项作为网络输入项;以外涂敷层厚度作为网络输出项(同时添加了外涂敷层温度)。取隐含层数为1,隐含层神经元数为8,网络拓扑结构为6-8-2。隐含层采用S型(Sigmoid)有效传输函数,输出层采用线性有效传输函数。

神经网络模型有多种,本文选用加入动量项的BP网络模型,并用MATLAB语言[3-4]进行编程。

输入表1中处理后的前8组数据(学习样本)到建立好的网络模型训练学习,后2组(9-10)数据作为网络训练完毕后的检验样本。将检验样本代入训练好的网络中检验网络实际应用能力,即是否具有泛化能力。网络的运行结果见图3所示,从图中可见实际值和输出值基本一致,最大误差只有2%左右,完全符合实际工作的要求,说明网络具有很好的泛化能力且利用神经网络进行外防腐层厚度预测是很成功的。

Fig. 3 Comparison of Study data and Test data

3 结论

1)基于人工神经网络的管道外防腐层预测模型能够充分利用现有参数来解决涂层厚度偏厚及偏薄问题,在一定程度上避免了原材料的浪费以及不合格管的产生。

2)对于不同项目、不同要求的涂敷数据,参考实际生产数据后再利用神经网络效果将会更加明显。

3)针对某一具体项目涂层厚度建立了预测模型,取得一定的效果。预期对其它项目的生产有较大的指导作用,有较好的适用前景。

参考文献:

[1]中石油管道公司编,世界管道概述,北京:石油出版社,2004.

[2]袁曾任,人工神经元网络及其应用[M].北京:清华大学出版社,1999.

[3]楼顺天、于卫、闫华梁,MATLAB程序设计语言[M].西安:西安电子科技大学出版社,1997.

[4]闻新,MATLAB神经网络应用设计[M].科学出版社,2001.

第11篇

关键字 :神经网络,BP模型,预测

中图分类号:TP183文献标识码: A

1 引言

在系统建模、辨识和预测中,对于线性系统,在频域,传递函数矩阵可以很好地表达系统的黑箱式输入输出模型;在时域,Box-Jenkins方法、回归分析方法、ARMA模型等,通过各种参数估计方法也可以给出描述。对于非线性时间序列预测系统,双线性模型、门限自回归模型、ARCH模型都需要在对数据的内在规律知道不多的情况下对序列间关系进行假定。可以说传统的非线性系统预测,在理论研究和实际应用方面,都存在极大的困难。相比之下,神经网络可以在不了解输入或输出变量间关系的前提下完成非线性建模[4,6]。神经元、神经网络都有非线性、非局域性、非定常性、非凸性和混沌等特性,与各种预测方法有机结合具有很好的发展前景,也给预测系统带来了新的方向与突破。建模算法和预测系统的稳定性、动态性等研究成为当今热点问题。目前在系统建模与预测中,应用最多的是静态的多层前向神经网络,这主要是因为这种网络具有通过学习逼近任意非线性映射的能力。利用静态的多层前向神经网络建立系统的输入/输出模型,本质上就是基于网络逼近能力,通过学习获知系统差分方程中的非线性函数。但在实际应用中,需要建模和预测的多为非线性动态系统,利用静态的多层前向神经网络必须事先给定模型的阶次,即预先确定系统的模型,这一点非常难做到。近来,有关基于动态网络的建模和预测的研究,代表了神经网络建模和预测新的发展方向。

2 BP神经网络模型

BP网络是采用Widrow-Hoff学习算法和非线性可微转移函数的多层网络。典型的BP算法采用梯度下降法,也就是Widrow-Hoff算法。现在有许多基本的优化算法,例如变尺度算法和牛顿算法。如图1所示,BP神经网络包括以下单元:①处理单元(神经元)(图中用圆圈表示),即神经网络的基本组成部分。输入层的处理单元只是将输入值转入相邻的联接权重,隐层和输出层的处理单元将它们的输入值求和并根据转移函数计算输出值。②联接权重(图中如V,W)。它将神经网络中的处理单元联系起来,其值随各处理单元的联接程度而变化。③层。神经网络一般具有输入层x、隐层y和输出层o。④阈值。其值可为恒值或可变值,它可使网络能更自由地获取所要描述的函数关系。⑤转移函数F。它是将输入的数据转化为输出的处理单元,通常为非线性函数。

图1 BP神经网络结构

2.1 基本算法

BP算法主要包含4步,分为向前传播和向后传播两个阶段:

1)向前传播阶段

(1)从样本集中取一个样本(Xp,Yp),将Xp输入网络;

(2)计算相应的实际输出Op

在此阶段,信息从输入层经过逐级的变换,传送到输出层。这个过程也是网络在完成训练后正常运行时的执行过程。

2)向后传播阶段

(1)计算实际输出Op与相应的理想输出Yp的差;

(2)按极小化误差的方式调整权矩阵。

这两个阶段的工作受到精度要求的控制,在这里取 作为网络关于第p个样本的误差测度,而将网络关于整个样本集的误差测度定义为 。图2是基本BP算法的流程图。

图2 BP基本算法流程

2.2 动态BP神经网络预测算法

在经典的BP算法以及其他的训练算法中都有很多变量,这些训练算法可以确定一个ANN结构,它们只训练固定结构的ANN权值(包括联接权值和结点转换函数)。在自动设计ANN结构方面,也已有较多的尝试,比如构造性算法和剪枝算法。前一种是先随机化网络,然后在训练过程中有必要地增加新的层和结点;而剪枝法则正好相反。文献[2]中提出了演化神经网络的理念,并把EP算法与BP进行了组合演化;也有很多学者把遗传算法和BP进行结合,但这些算法都以时间复杂度以及空间复杂度的增加为代价。根据Kolmogorov定理,对于任意给定的L2型连续函数f: [ 0, 1 ]n Rm , f可以精确地用一个三层前向神经网络来实现,因而可以只考虑演化网络的权值和结点数而不影响演化结果。基于此,在BP原有算法的基础上,增加结点数演化因子,然后记录每层因子各异时演化出的结构,最后选取最优的因子及其网络结构,这样就可以避免由于增加或剪枝得到的局部最优。根据实验得知,不同的预测精度也影响网络层神经元的结点数,所以可根据要求动态地建立预测系统。具体步骤如下:

(1)将输入向量和目标向量进行归一化处理。

(2)读取输入向量、目标向量,记录输入维数m、输出层结点数n。

(3)当训练集确定之后,输入层结点数和输出层结点数随之而确定,首先遇到的一个十分重要而又困难的问题是如何优化隐层结点数和隐层数。实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到神经网络研究工作者的高度重视。Gorman指出隐层结点数s与模式数N的关系是:s=log2N;Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);而根据文献[7]:s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51[7]。

(4)设置结点数演化因子a。为了快速建立网络,可以对其向量初始化,

并从小到大排序[4,7]。

(5)建立BP神经网络。隐含层传递函数用tansig,输出层用logsig,训练函数采用动态自适应BP算法,并制订停止准则:目标误差精度以及训练代数。

(6)初始化网络。

(7)训练网络直到满足停止判断准则。

(8)用测试向量对网络进行预测,并记录误差和逼近曲线,评估其网络的适应性。其适应度函数采取规则化均方误差函数。

(9)转到(5),选取下一个演化因子,动态增加隐含层结点数,直到最后得到最佳预测网络。

3 基于神经网络的预测原理[4]

3.1 正向建模

正向建模是指训练一个神经网络表达系统正向动态的过程,这一过程建立的神经网络模型称为正向模型,其结构如图3所示。其中,神经网络与待辨识的系统并联,两者的输出误差用做网络的训练信号。显然,这是一个典型的有导师学习问题,实际系统作为教师,向神经网络提供算法所需要的期望输出。当系统是被控对象或传统控制器时,神经网络多采用多层前向网络的形式,可直接选用BP网络或它的各种变形。而当系统为性能评价器时,则可选择再励学习算法,这时网络既可以采用具有全局逼近能力的网络(如多层感知器),也可选用具有局部逼近能力的网络(如小脑模型控制器等)。

图3 正向建模结构

3.2 逆向建模

建立动态系统的逆模型,在神经网络中起着关键作用,并且得到了广泛的应用。其中,比较简单的是直接逆建模法,也称为广义逆学习。其结构如图4所示,拟预报的系统输出作为网络的输入,网络输出与系统输入比较,相应的输入误差用于训练,因而网络将通过学习建立系统的逆模型。但是,如果所辨识的非线性系统是不可逆的,利用上述方法将得到一个不正确的逆模型。因此,在建立系统时,可逆性应该先有所保证。

图4 直接逆建模结构

4 应用实例分析

以我国西南某地震常发地区的地震资料作为样本来源,实现基于动态神经网络的地震预报。根据资料,提取出7个预报因子和实际发生的震级M作为输入和目标向量。预报因子为半年内M>=3的地震累计频度、半年内能量释放积累值、b值、异常地震群个数、地震条带个数、是否处于活动期内以及相关地震区地震级。在训练前,对数据进行归一化处理。由于输入样本为7维的输入向量,一般情况下输入层设7个神经元。根据实际情况,输出层神经元个数为1。隐含层神经元的传递函数为S型正切函数,输出层也可以动态选择传递函数。实例数据来自文献[4],将数据集分为训练集、测试集和确定集。表1中的7×7数组表示归一化后的训练向量,第一个7表示预报因子数,第二个7表示样本数。

表1 归一化后的训练向量

在不同神经元数情况下,对网络进行训练和仿真,得到如图5所示的一组预测误差曲线。其中,曲线A表示隐层结点数为6时的预测误差曲线,曲线B表示隐含层结点数为3时的预测误差曲线,曲线C表示隐含层结点数为5时的预测误差曲线,曲线D表示隐含层结点数为4时的预测误差曲线。将五种情况下的误差进行对比,曲线C表示的网络预测性能最好,其隐含层神经元数为5,图中曲线E表示的是隐含层结点数为15时的预测误差曲线(文献[4]中的最好结果)。同时也证明,在设计BP网络时,不能无限制地增加层神经元的个数。若过多,不仅会大大增加网络结构的复杂性,网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度、预测速度变得很慢。

图5 不同神经元数预测误差对比曲线

5 结论

本文针对基本的BP神经网络,提出了可动态改变神经元数(与精度相关)的BP神经网络预测方法,可以根据实际情况建立预测系统。用此种方法可以建立最好的神经网络,不会有多余的神经元,也不会让网络在学习过程中过早陷于局部极小点。

参考文献

[1]潘正君,康立山,陈毓屏. 演化计算[M ]. 北京:清华大学出版社,1998

[2]飞思科技产品研发中心. 神经网络理论与实现. 北京:电子工业出版社,2005

[3]蔡晓芬,方建斌. 演化神经网络算法. 江汉大学学报,第33卷第3期,2005.9

第12篇

关键词:品牌竞争力;BP神经网络;评估指标

一、前言

竞争是市场经济的本质,企业作为市场经济的主体也处在各种竞争中。当市场经历单一的产品竞争、质量竞争、价格竞争、广告竞争等等之后,以品牌为核心的竞争模式将会成为引领市场的主要形式。企业如果成功塑造了市场领导者品牌,就会形成持续有效的、创造无限价值的竞争力。

品牌竞争力是企业在市场决战中最重要的能力,用通俗的话说,如果你的产品比其他牌子的同类产品卖得好、卖得快、卖得贵、卖得久,就说明你的品牌竞争力强;反之,就说明你的品牌竞争力弱。因此,评估企业自身品牌的竞争实力成为摆在企业前的一个迫切议题。国内外的一些学者已从不同角度提出科学定量评估品牌竞争力的许多方法:市场表现评估法主要从品牌竞争力的表象方面进行评估;品牌综合管理能力指标评估法、品牌竞争力基础工作评估法都只单方面考虑从企业因素来衡量竞争力的强弱,未考虑品牌的顾客因素;与之相对应的基于顾客价值的品牌竞争力评估则没有考虑品牌对企业的价值体现。因此,本文基于品牌的顾客价值和企业价值的双重角度,从四个维度建立品牌竞争力评估的指标体系,并运用BP神经网络模型预测目标品牌的竞争力。

二、品牌竞争力的评估指标体系

由于前述评估方法的片面性,其指标体系必然体现着不完善性。品牌竞争力的评估体系应综合体现品牌的顾客价值和品牌所反映企业的各方面能力的综合,基于顾客价值我们建立准则层——顾客的忠诚度,基于企业的品牌竞争力我们建立三个准则层——品牌市场能力、品牌管理能力和品牌基础能力。对于各个子准则层体现的具体因素内容如表1所示。

三、基于BP神经网络的品牌竞争力评估模型

近年来,众多学者量化评估品牌竞争力的方法主要有层次分析法、线性回归分析法、第二代回归分析方法、模糊综合评判法等。神经网络的出现给多指标的系统评价提供了新思路,特别是BP神经网络强大的自学自适应能力,在很多行业得到不同程度的成功应用,非常适用于对矛盾复杂的、近似的、不确定的知识环境做决策,能成功解决相关因素人为权重设计的主观性及相关系数的复杂计算。

(一)BP人工神经网络基本原理

BP网络是一种反向传递并能修正误差的多层反馈型网络,其结构一般由输入层、输出层和隐含层构成,层与层之间的神经元通过相应的网络权系数完全互连;同层内的神经元则无关联。神经网络在外界输入样本的刺激下不断改变网络的连接权值,将网络输出值和期望输出值的误差由输出层、隐含层、输入层的反向传递,以使网络的输出不断地接近实际的输出。

(二)基于BP神经网络的品牌竞争力评估模型

1.人工神经网络模型结构的确定。根据自变量一般为BP神经网络模型的输入层,因变量一般为输出层的原则,品牌竞争力的BP神经网络模型中,指标体系中目标层品牌竞争力的大小为输出层,设强、中、弱三个判定层次;子准则层作为品牌竞争力的影响因子,其14个指标为输入层,分别为X(C1)-X(C14)。

为达到BP神经网络容量大小和网络训练时间的良好效果,本模型中训练层的节点数取29个为最佳(隐含层的节点数=2倍输入节点数+1)。

2.样本选择与组织。在样本的选择中,应选择有显著代表性且分布均匀的、足够数量的样本。为评估目标品牌竞争力大小,可先选取一些本企业已开发的品牌或可获取的其他品牌产品的实际经营数据作为训练、测试样本。

3.输入层的确定。在表1提出的14个指标中,由于不同指标是从不同的角度反映品牌竞争力,指标之间又由于量纲不同,所以无法进行比较。因此,从最终评价值的确定和神经网络训练的收敛性考虑,需要对指标先进行无量纲化处理。

(1)定性指标:这些指标的评价值采用专家打分法进行评价,取值为0.0-1.0之间。

(2)定量指标:定量指标又分为正向指标,逆向指标和适度指标。

正向指标一般采用下面的线性递增函数进行描述:

yi=0 x(c)≤x(c) x(c)≤x(c)≤x(c)1

x(c)≥x(c)

逆向指标一般采用下面的无量纲化标准函数:

yi=0 x(c)≤x(c) x(c)≤x(c)≤x(c)1

x(c)≥x(c)

适度指标一般采用下面的函数进行无量纲化处理:

yi=

其中,q为该指标的最适合值。

4.训练函数的选择。由于输入层变量和输出层变量不成线性关系,所以隐含层一般选择Sigmoid函数为激励函数,即f(x)=,实现输入层和输出层的非线性映射。

5.BP神经网络的训练和终止。在该模型中,我们引入动量批梯度下降函数,即一种批处理的前馈神经网络训练方法,不但提高了收敛速度,而且引入了一个动量项,有效避免了局部最小问题在网络训练中的出现。我们先将85%-90%的训练样本的指标值输入网络,按照公式一层一层的计算隐含层神经元和输出层神经元的输入和输出,当神经网络的输出值和实际输出值的均方误差超过某一阈值,则将误差函数沿输出层、隐含层、输入层反向传递,调整神经网络各个神经元的阈值和各层连接权值,使误差函数不断减小。在训练网络的过程中,训练一定次数后就停下来,用保留的15%-10%的测试样本检验此时网络的测试误差,当测试误差下降到目标误差精度以下时,则停止训练,此时则为最佳训练次数,模型输出值和实际输出值实现最优拟合。

6.目标品牌竞争力大小的评估。将要预测的品牌的指标值输入训练好的BP神经网络,该模型就能相对客观地对该品牌的竞争力进行评估,输出层的输出值就是该品牌竞争力的判定值,通过判定值可知品牌竞争力的强弱(整个流程见图1)。

四、结束语

品牌的研究在中国还将走得更远,本文在现有研究的基础上提出将品牌竞争力的量化评估与人工智能进行简单结合,克服评估工作过程中人为因素的主观性及相关权数计算的复杂性,提高品牌竞争力评估的可信性与客观性,使评价结果更客观反映企业品牌建设的真实状况,为企业诊断品牌经营问题,打造核心竞争力经营决策提供更可靠的信息支持。

参考文献:

1.蒋亚奇,张亚萍.基于层次分析法的企业品牌竞争力评价与测度研究[J].经济研究导刊,2011(8).

2.王文川等.品牌竞争力模糊灰色综合评价方法研究[J].统计与决策,2010(6).

3.周玫.基于顾客忠诚的品牌竞争力评价分析[J].当代财经,2005(9).

4.范秀成.品牌权益及其测评体系分析[J].南开管理评论,2000(1).

5.李煜华等.基于BP神经网络的老工业基地企业核心竞争力的综合评价[J].商业研究,2006(5).

6.许晓泓.品牌竞争力开放度评估方法的建构[J].绿色财会,2006(8).

7.陈宝忠.我国企业品牌竞争力研究[D].南昌大学,2005(6).

8.卢泰宏.品牌资产评估的模型与方法[J].中山大学学报(社会科学版),2002(3).

9.张启胜等.品牌竞争力的评价指标体系、模型及应用[J].企业家天地?理论版,2006(4).