Unterabschnitte
Das MLP besteht aus vielen einzelnen Neuronen. MLP steht für Multilayerperzeptron. Häufig wird ein solches neuronales Netz jedoch auch als Perzeptron bezeichnet, so dass Verwechslungsgefahr zu wirklich einzelnen Perzeptrons besteht.
Das Perzeptron
besteht von oben nach unten
Es gibt verschiedene Aktivierungsfunktionen, die eingesetzt werden können, um die Netzsumme in die Ausgabe zu verrechnen. Die Aktivierungsfunktion sollte
- streng monoton steigend
- differenzierbar (einige Funktionen (Sprungfunktion) sind nicht differenzierbar; sie funktionieren so nicht im Backpropagation-Verfahren)
- nach oben und nach unten beschränkt (die lineare Funktion ist nicht beschränkt)
- Werte zwischen und oder und (die lineare Funktion liefert keine Werte dazwischen, sondern auch viel größere bzw. kleinere Werte)
- Wendepunkt bei
Folgende Aktivierungsfunktionen sind die am häufigsten benutzten
3:
- Lineare Kennlinie (Identität):
- Sprungfunktion (Stufenfunktion, Heoviside Funktion):
- Fermifunktion (Logistische Funktion, eine sigmoide Funktion):
- Tangenshyperbolikus:
Tangentshyperbolicus und Fermifunktion durch Gnuplot dargestellt:
Der Tangenshyperbolicus läßt sich in die Fermifunktion umrechnen. Hierbei benutzen wir