Abstracts der COWAN'94

Forward-Propagation in RBF-Netzen

Patrick Lang
Arbeitsgruppe Technomathematik der Universität Kaiserslautern


Beim sogenannten "super-vised learning" werden die Netzparameter solange modifiziert, bis der Prognosefehler auf den Lerndaten eine vorgegebene Fehlerschranke unterschreitet. Einer der einfachsten Lernalgorithmen, der dies im Falle von Feedforward-Netzen leistet, ist der Back-Propagation-Algorithmus. Dieser Algorithmus besitzt jedoch die Nachteile , daß er oftmals nur langsam konvergiert oder bereits in "hoch liegenden" lokalen Maxima terminiert. In der Arbeit werden Lernalgorithmen vorgestellt, die sich in diesen Punkten im Regelfall günstiger verhalten. Da die Reihenfolge der Gewichtsmodifikationen konträr zum Back-Propagation-Algorithmus ist, werden diese Algorithmen als Forward-Propagation-Algorithmen bezeichnet. In der präsentierten Arbeit werden diese Lernregeln in Verbindung mit Radialen-Basisfunktions-Netzen untersucht und es werden Performance-Vergleiche mit Sigmoid-Netzen vorgestellt. Die numerischen Untersuchungen wurden in Zusammenarbeit mit der Bayer AG durchgeführt, wo sich die Prognose gewisser Stoffeigenschaften durch Neuronale Netze mittlerweile als kostengünstige Alternative zu den oftmals sehr teuren Experimenten bewährt hat.


Zurück zur Hompage der Cowan!