Um alle Funktionen dieser Seite zu nutzen, aktivieren Sie bitte die Cookies in Ihrem Browser.
my.bionity.com
Mit einem my.bionity.com-Account haben Sie immer alles im Überblick - und können sich Ihre eigene Website und Ihren individuellen Newsletter konfigurieren.
- Meine Merkliste
- Meine gespeicherte Suche
- Meine gespeicherten Themen
- Meine Newsletter
Hopfield-Netz
Als Hopfield-Netz bezeichnet man eine besondere Form eines künstlichen neuronalen Netzes. Sie ist nach dem amerikanischen Wissenschaftler John Hopfield benannt, der das Modell 1982 bekannt machte. Weiteres empfehlenswertes Fachwissen
StrukturHopfield-Netze gehören zur Klasse der Feedback-Netze (Netze mit Rückkopplung). Bei einem Hopfield-Netz existiert nur eine Schicht, die gleichzeitig als Ein- und Ausgabeschicht fungiert. Jedes der binären McCulloch-Pitts Neuronen ist mit jedem, ausgenommen sich selbst verbunden. Die Neuronen können die Werte -1 und 1 annehmen, welche den Zuständen "feuert nicht" und "feuert" entsprechen. In Hopfield-Netzwerken sind die synaptischen Gewichte symmetrisch, d.h. es gilt wi,j = wj,i für alle i und j. Dies ist zwar biologisch nicht sinnvoll, erlaubt aber das Aufstellen einer Energiefunktion und die Analyse der Netzwerke mit Methoden der statistischen Mechanik. Da die Vektoren für die Ein- und Ausgabe gleich lang sind spricht man auch von einem Autoassoziationsnetz. ArbeitsweiseBei der Implementierung eines Hopfieldnetzwerkes stellt sich die Frage, ob die Gewichte der Neuronen synchron oder asynchron geändert werden sollen.
Asynchrones Ändern des Hopfieldnetzes ist am verbreitetsten. Musterwiederherstellung mit HopfieldnetzenHopfield Netze können als Autoassoziativspeicher benutzt werden, um verrauschte oder auch nur teilweise vorhandene Muster zu rekonstruieren. Dies geschieht in drei Phasen: TrainingsphaseHier werden dem Netz eine Zahl L von vorgegeben Mustern eingespeichert. Dies geschieht durch Einstellen der synaptischen Gewichte. Gesucht ist also eine geeignete Gewichtsmatrix der Größe NxN, welche symmetrisch ist. Sie kann zum Beispiel in einem Schritt mit folgender Regel berechnet werden, die auch als verallgemeinerte Hebbsche Lernregel bezeichnet wird:
wobei
Man möchte im Allgemeinen möglichst viele verschiedene Muster in ein Hopfield einspeisen. Jedoch ist die Speicherkapazität, das Verhältnis L/N, begrenzt. Eingeben eines TestmustersNun gibt man ein Testmuster, zum Beispiel ein verrauschtes oder unvollständiges Bild in das Netz hinein. Hierzu setzt man einfach die Neuronen in den Zustand, der dem Testmuster entspricht. RechenphaseDie Neuronen werden asynchron mit folgender Regel aktualisiert: wobei si der Zustand des zu aktualisierenden Neurons und θi ein Schwellenwert ist. Das Ergebnis könnte in diesem Fall ein je nach Anzahl der Iterationsschritte mehr oder weniger gut entrauschtes Bild sein. Bei geringem garantiert die Hebbsche Regel, dass das System sich nicht mehr ändert, wenn es in einem Zustand angelangt ist, der einem der gespeicherten Muster entspricht. Es lässt sich außerdem zeigen, dass das System immer in einen stabilen Endzustand ankommt. Folgende drei Endzustände sind denkbar:
Beziehung zur statistischen MechanikFür das Hopfield-Modell existiert eine Energiefunktion der Form , deren Wert, wie sich beweisen lässt, bei jeder Aktualisierung gemäß obiger Regel abnimmt. Nur bei den stabilen Mustern (und den unechten Zuständen) bleibt auch die Energie gleich, diese stellen also lokale Minima der Energielandschaft dar. Es gibt einen Zusammenhang zwischen dem Hopfieldmodell und dem Ising-Modell, für dessen Energie gilt: . Insbesondere zu Spingläsern, bei denen die Jij zufällig verteilt sind, besteht große Ähnlichkeit. So konnte mit Methoden der theoretischen Physik gezeigt werden, dass Hopfieldnetze nur bis zu einem Verhältnis als assoziatives Gedächtnis verwendbar sind. |
|
Dieser Artikel basiert auf dem Artikel Hopfield-Netz aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation. In der Wikipedia ist eine Liste der Autoren verfügbar. |