作者:武妍; 张立明神经网络模型学习任务学习泛化能力hebbian学习
摘要:本文从获取好的神经网络泛化能力出发,首先提出了将Hebbian学习与增加问题复杂性统一起来的思想,并通过在总的误差函数中增加一限制函数来实现Hebbian学习.基于此,提出了一种将误差驱动的任务学习与Hebbian规则的模型学习相结合的E-H方法.然后,根据模型学习应同时考虑减小网络复杂性和增加问题复杂性的思想,又提出了一种将误差驱动的学习与Hebbian规则、简单的权退化法结合起来,共同来提高神经网络的泛化能力的E-H-W方法.最后通过大量实例仿真将它们与纯误差驱动的方法、权退化法、其它文献中的相关方法进行了比较.结果表明我们的方法具有最好的泛化能力,是很有效的神经网络学习方法.
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社