作者:田大新; 刘衍珩; 李宾; 吴静scaringup数据分割hebb规则分布式学习竞争学习
摘要:随着知识发现与数据挖掘领域数据量的不断增加,为了处理大规模数据,scaring up学习成为KDD的热点研究领域.文中提出了基于Hebb规则的分布式神经网络学习算法实现scaling up学习.为了提高学习速度,完整数据集被分割成不相交的子集并由独立的子神经网络来学习;通过对算法完整性及竞争Hebb学习的风险界的分析,采用增长和修剪策略避免分割学习降低算法的学习精度.对该算法的测试实验首先采用基准测试数据circle-in-the-square测试了其学习能力,并与SVM,ARTMAP和BP神经网络进行比较;然后采用UCI中的数据集US-Census1990测试其对大规模数据的学习性能.
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社