Allgemeine Struktur eines KNN
In Neuronalen Netzen bezeichnet die Topologie die Struktur des Netzes, welches aus mehreren Schichten von Neuronen besteht.
Aus den Verbindungen mehrerer künstlicher Neuronen entsteht ein Neuronales Netz. Das Verbindungsmuster dieses spielt beim lösen komplexer Aufgaben eine entscheidende Rolle. Diese gibt an, welche Einheiten miteinander verbunden sind und in welcher Richtung Signale übertragen werden.
Jede Eingabe besitzt eine Gewichtung, welche festlegt, wofür das Netz eingesetzt werden kann. In Ihrer Gesamtheit stellen sie das verteilte, gespeicherte Wissen des Netzes dar.
In einem Verbindungsnetzwerk wird ersichtlich, welche Einheiten miteinander verknüpft sind.
Die verschiedenen Netze können folgendermaßen eingeteilt werden:
Topologien In Neuronalen Netzen bezeichnet die Topologie die Struktur des Netzes.
Man unterscheidet grob zwischen Feedforward-Netzen und Feedback-Netzen.
Feed Forward In diessem Netz werden Daten nur in eine Richtung weitergegeben. Man unterscheidet einlagige (binäre) und mehrlagige Netze.
Feedback …oder auch Rekurrente Netze sind Netze mit Rückkopplungen. Sie werden in Netze mit direkter, indirekter und Rückkopplung innerhalb einer Schicht und vollständige verbundene Netze ohne Rückkopplungen unterschieden.
Einlagig Binär Diese am einfachsten aufgebauten ersten neuronalen Netze können nur simple Aufgaben lösen und finden daraus resultierend heutzutage kaum praktische Verwendung.
Mc Culloch Pitts Neuron ...ist das erste und einfachste Neuronenmodell, welches keine Gewichtungen an den Eingängen bestitz und die Basis aller weiterentwickelten Modelle darstellt.
Perzeptron ...1958 von F. Rosenblatt auf der Grundlage des McCullloch-Pitts-Neuron entwickeltes Neuronenmodell.
Mehrlagig Solche Netze bestehen üblicherweise aus einer Eingabeschicht, einer oder mehrerer Verarbeitungsschichten (verdeckte Schichten) und einer Ausgabeschicht. Diese Netze sind in der Praxis sehr häufig anzutreffen.
Backpropagation ...ein in den 70er Jahren entwickeltes Lernverfahren für mehrlagige Perzeptronmodelle. Backpropagation wird für diese Topologie synonym verwendet, es bezeichnet eigentlich nur das damit verbundene Lernverfahren.
Multi Layer Perzeptron ...sind ebenenweise verbundene Netze, welche in mehrere Schichten eingeteilt sind, wobei es nur Verbindungen von einer Schicht zur nächsten gibt.
Deterministisch = auf Wahrscheinlichkeit beruhend.
Grundlage dieser Netze ist ein Wahrscheinlichkeitsmodell, von welchem gelernt wird.
Selbstorganisierend Selbstorganisierende Netze lernen selbständig, wie der Name sagt, organsieren sie sich selbst.
Kohonen Netze ...wird oft Self-Organizing-Map (SOM) genannt und zählt zum bekanntesten Vertreter der Interdependenzanalyse. Die SOM hat die Eigenschaft, eine beliebig große Anzahl von Datenobjekten, mit einer beliebigen Anzahl an Attributen nach ihrer Ähnlichkeit zu ordnen. Die SOM ist ein Cluster-Verfahren.
Hopfield Netze ...das in den 80er Jahren entwickelte Hopfield-Netz (auch bekannt als vollständig verbundenes, neuronales Netz) dient der Mustervervollständigung. Es existiert nur eine Schicht, die gleichzeitig als Ein- und Ausgabeschicht dient. Alle Neuronen sind mit allen anderen verbunden außer mit sich selbst.
Stochastisch = auf Zufälligkeit beruhend.
Solche Netze gehen von zufälligen Werten als Grundlage für das Lernen aus.
Boltzmann Im Boltzmann-Modell sind alle Neuronen miteinander verbunden. Es gibt Ähnlichkeiten zu den mehrschichtigen Netzen, in dem einige Neuronen Informationen von außen (ähnlich der Inputschicht) aufnehmen und andere sie ausgeben (ähnlich Outputschicht). Die anderen Neuronen werden ebenfalls als "hidden" bezeichnet.
Weiter zu » Feedforward Netze