Der Natur stark angelehnt, splittet man, den Funktionalitäten entsprechend, das künstliche Neuron in
3 Einheiten.
- In den Eingangsvektor, womit ein Bezug zu den Dendriten, die die Eingabe des Netzes in die Zelle aufsummieren, gegeben ist,
- Das Soma, welches für die Berechnung des Ausgangssignals zuständig ist und von einem Schwellenwert anhängt, wurde mit einer Einheit zuständig für den Input, den Transfer und den Output nachgebildet,
- Der Ausgangsvektor lehnt sich an die Aufgaben des Axons und der Synapse an.
Darstellung eines Künstlichen Neurons
Wie bereits erläutert, ist das Neuron nicht für die Speicherung des Wissens, sondern ausschließlich für die bedingte Weiterleitung eingehender Impulse verantwortlich.
Diese drei Komponenten werden mathematisch als Propagierungsfunktion neti, Aktivierungsfunktion fai und Ausgabefunktion foi bezeichnet, wobei Index i festlegt, auf welches Neuron sich die Funktion bezieht.
Die Stärke der Verbindungen zwischen den Neuronen, den Synapsen, wird mit einer reellen Zahl dargestellt. Man nennt diese auch Gewichtungen, wobei sie die Eingabe verstärken, wenn sie positiv oder abschwächen, wenn sie negativ sind. Eine Null- Gewichtung entspricht einer nicht vorhandenen Verbindung.
Propagierungsfunktion
Die Propagierungsfunktion neti legt fest, in welcher Form die Eingabe berechnet bzw. verarbeitet wird. Die am Häufigsten angewandte Propagierungsfunktion ist die gewichtete Summe aller Eingaben.
X1 bis xn bezeichnen die einzelnen Eingaben und w1 bis wn die Gewichte der Verbindungen (die von den Eingaben stammen) des Neurons.
Aktivierungsfunktion
Der Aktivierungszustand gibt den Grad der Aktivierung einer Zelle an, welcher je nach Aktivierungsfunktion entweder eine diskrete Zahl oder eine reelle Zahl aus einem bestimmten Intervall, z.B. [0;1] ist.
Die Aktivierungsfunktion muss einigen Vorraussetzungen gerecht werden: Zum einen muss sie stetig und differenzierbar sein, um im Lernverfahren » Backpropagation verwendet werden zu können und zum anderen muss sie, durch die Verwendung neuronaler Netze zur Lösung nichtlinearer Probleme, nichtlinear sein.
Die Aktivierungsfunktion muss außerdem sehr sensibel sein, da sie auf Signale sehr kleiner sowohl großer Amplituden reagieren muss.
Eine Funktion, die diesen Vorraussetzungen genügt, ist diese logische Funktion:
Ausgabefunktion
Das Ergebnis, also die Ausgabe, welche entweder an die nachfolgende Zelle oder gar an die Umgebung übertragen wird, wird aus dem Ergebnis der Aktivierungsfunktion berechnet. Das durch ein Neuron zu verarbeitende Signal besteht also aus den Ausgangssignalen des Vorgängerneurons.
Ist eine nichtlineare Funktion bereits Bestandteil der Aktivierungsfunktion, so wird für die Ausgabefunktion meist die Identitätsfunktion f(x) = x gewählt, d.h. es wird auf eine spezielle Ausgabefunktion verzichtet.
Schwellenwert
Der Schwellenwert θ bezeichnet den Spannungswert des Membranpotentials, bei dem ein Aktionspotential entsteht, also das Potenzial "überschwellig" wird. Wenn sich die Eingaben eines Neurons anhäufen, so wird diese Reizschwelle überschritten. Dies wird häufig durch ein „on“- Neuron (ein Neuron, mit einer festen 1-Ausgabe) ersetzt. Auf diese Weise enthält die Netzeingabe einen Schwellenwertterm und die Aktivierungsfunktion kann ohne den Schwellenwert berechnet werden.
Da nun der Schwellenwert nicht mehr berücksichtigt werden muss, ist dies eine gute Implementierung für die mathematische Beschreibung und die einfachere Realisierung der Lernregel.
Ein neuronales Netz kann als gerichteter Graph dargestellt werden, wobei die Knoten die Neuronen und die Kanten die Verbindungen darstellen.
Weiter zu » McCulloch-Pitts-Neuron