Ψ Die Informatikseite

Menü
Unterabschnitte

Lernregel Self Organizing Maps (SOMs)

Lernregel


\begin{displaymath}\Delta c_{k}=\eta(t)\cdot h(i,k,t)\cdot (^{p}\underline{x}-\underline{c}_{k})\end{displaymath}


\begin{displaymath}c_{k} += \Delta c_{k}\end{displaymath}

Dabei ist
$\Delta c_{k}$ Die Änderung für das Zentrum $k$ (ein Vektor!!)
$\eta(t)$ die Lernrate in Abhängigkeit von der Zeit
$h(i,k,t)$ die Nachbarschaftsfunktion. $i$ das Winner-Neuron, $k$ das aktuelle Neuron und $t$ die Zeit
$(^{p}\underline{x}-\underline{c}_{k})$ der Abstand vom Stimulus (als Vektor!!)

Nachbarschaftsfunktion

Die Nachbarschaftsfunktion ist zum Beispiel die Gaussglocke

\begin{displaymath}h(i,k,t)=\frac{1}{\sigma(t)\sqrt{2\pi}}\cdot exp \left(-\frac...
...{c}_{i}-\underline{c}_{k}\vert\vert^{2}}{2\sigma^{2}(t)}\right)\end{displaymath}

Andere wären
  • Eine andere Gaussglocke: $ e^{\displaystyle\left(-\frac{z}{d(t)}\right)^{2}}$
  • Ein Zylinder: $\left\{\begin {array}{ll}1&z<d(t)\\ 0&\mbox{sonst}\\ \end {array}\right.$
  • Ein Kegel: $1-\frac{z}{d}$
  • Eine Halbwelle: $\left\{\begin{array}{ll}\cos(\frac{z}{d}\frac{\pi}{2})&z<d(t)\\ 0&\mbox{sonst}\\ \end {array}\right.$
  • Ein Mexican Hat

Veränderung der Lernrate mit der Zeit

Es ist sinnvoll mit der Zeit das Netz erstarren zu lassen, indem wir die Lernrate oder die Breite der Gausskurve heruntersetzen. Lassen wir das Netz erstarren, stabilisiert sich das Gitter.

Für die Lernrate $\eta$:

\begin{displaymath}\eta(t)=\eta_{Start}\cdot\left(\frac{\eta_{Ende}}{\eta_{Start}}\right)^{\frac{t}{t_{max}}}\end{displaymath}

Für die Breite $\sigma$:

\begin{displaymath}\sigma(t)=\sigma_{Start}\cdot\left(\frac{\sigma_{Ende}}{\sigma_{Start}}\right)^{\frac{t}{t_{max}}}\end{displaymath}