Um alle Funktionen dieser Seite zu nutzen, aktivieren Sie bitte die Cookies in Ihrem Browser.
my.bionity.com
Mit einem my.bionity.com-Account haben Sie immer alles im Überblick - und können sich Ihre eigene Website und Ihren individuellen Newsletter konfigurieren.
- Meine Merkliste
- Meine gespeicherte Suche
- Meine gespeicherten Themen
- Meine Newsletter
Learning Vector QuantizationLearning Vector Quantization (kurz: LVQ) ist ein Verfahren aus den Bereich der künstlichen neuronalen Netze. Es dient der Klassifikation von nichtlinearen Problemen. Weiteres empfehlenswertes FachwissenVQ = Vectorquantisierung: Verfahren zum unüberwachten Clustering LVQ = Lernende VQ Klassifikation: Abbildung in K Klassen Trainingmenge P P = {(xi,yi) in Rnx{1..K}|i}
LVQ-Netz: gegeben durch Prototypen (w1,Y1)…(wk,Yk) in Rn{1..K} definiert Abbildung x -> Yi mit |x-wi| minimal, also Gewinner nach WTA (Winner Takes It All) LVQ I: Es werden für die Klassen 1 bis k ein oder mehrere Neuronen erzeugt und deren Gewichtsvektoren zufällig, mit zufälligen Pattern der jeweiligen Klasse, durch die Schwerpunkte der jeweiligen Klasse oder anders sinnvoll initialisiert. Dann werden genau wie bei Vektorquantisierung die Muster präsentiert und je ein Gewinnerneuron mit kleinstem euklidischem Abstand zur Eingabe berechnet. Dabei ist die Lernrate [0,1[ entweder konstant oder im Laufe des Verfahrens fallend, um Konvergenz zu erzwingen. Algorithmus: init wj repeat Wähle (xi,yi) bestimme Gewinner (wk,yk) wk = wk+η(xi-wk) falls yi = Yk (wenn yi die durch wk repräsentierte Klasse) wk-η(xi-wk) sonst Die Konvergenz von LVQI ist nicht bewiesen; es gibt in der Praxis Probleme bei überlappenden Daten |
Dieser Artikel basiert auf dem Artikel Learning_Vector_Quantization aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation. In der Wikipedia ist eine Liste der Autoren verfügbar. |