Ψ Die Informatikseite

Menü

Aufbau von Radial Basis Funktionen-Netzen (RBF-Netzen)

\includegraphics[scale=0.75]{rbf-net.eps}
  • $\underline{X}\in \mathbb{R}^{N}$, $\underline{Y}\in \mathbb{R}^{M}$
  • Das RBF-Netz besteht aus einer Inputschicht mit $N$ Neuronen, einer Hiddenschicht mit $K$ Neuronen und einer Outputschicht mit $M$ Neuronen. Somit klassifiziertes $N$-demenisonale Muster gemäß eines $M$-dimensionalen Outputraums.
    • Inputschicht: Die Inputschicht ist eine reine Weiterleitung. Jedes Neuron verteilt seinen Wert (siehe Identität in den Neuronen) an alle Neuronen der Hiddenschicht
    • Hiddenschicht: In der Hiddenschicht wird in jedem Neuron der Abstand zwischen der Eingabe und dem Zentrum $c$ mit Hilfe einer Norm gebildet:

      \begin{displaymath}\vert\vert\underline{c}_{k}-\underline{x}\vert\vert\end{displaymath}

      Danach wird dieser Abstand z.B. durch eine Gauss-Kennlinie geschickt:

      \begin{displaymath}h_{k}=h_{k}(\vert\vert\underline{c}_{k}-\underline{x}\vert\ve...
...vert\vert \underline{c}_{k}-\underline{x}\vert\vert ^{2}\right)\end{displaymath}

      Die Gausskennlinie - wie oben geschrieben - ist abhängig von einem Parameter $\sigma$ der die Breite der Glocke angibt. Dieses $\sigma$ muss für jedes Zentrum gewählt werden.
      Die Gaussglocke verursacht, dass das Neuron, wenn Zentrum und Muster nahe beieinander liegen, sehr viel stärker als die lineare Kennlinie reagiert, wenn die Zentrum und Muster weiter auseinander liegen, sehr viel schwächer.
    • Outputschicht: In der Outputschicht wird eine gewichtete Summe gebildet. Für das erste Neuron der Outputschicht wäre dies also

      \begin{displaymath}y_{1}=\sum^{K}_{k=1}g_{k1}h_{k}\end{displaymath}

      Die Neuronen der Outputschicht, sowie auch alle anderen Neuronen, haben keinen BIAS.
  • Die für das Lernen einzustellenden Werte, die wir nun haben:
    1. die Zentren
    2. die Breiten $\sigma$
    3. die Gewichte $g$