- ... aus1
- Dies ist ein sehr grober Überblick über die Nervenzelle
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... Börsenkursen2
- Von vielen werden neuronale Netze als eine Methode zur Vorhersage von Börsenkursen genannt. Es waren Systeme im Einsatz, die aus den Börsenkursen selbst Vorhersagen getroffen habe. Diese funktionieren aber nicht mehr, da sich der Markt diesen Systemen angepaßt hat (Rückkopplung). Denkbar sind Systeme, die aus zusätzlichen Daten Ergebnisse errechnen, wie zum Beispiel dem Wetter oder den Tageszeitungen. Es ist wichtig, welche Eingabedaten man dem Neuronalen Netz anbietet. Nichtrelavante Eingabedaten sollten ausgeblendet werden.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... benutzten3
- Graphen sind nur Skizzen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... können4
- Berühmter Rosenblatt-Beweis
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... Beispielsmustern5
- bzw. für Funktionsapproximation auch Beispielsdaten genannt
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... Output6
- desired: erwünscht
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... drehen7
- Man muss sich die Gewichte als Potimeter, z.B. als Lautstärken(dreh)knopf beim Autoradio vorstellen. Unser Ziel ist es nun, dass wir die einzelnen Knöpfe so drehen, dass das Netz für Daten mit unbekannter Ausgabe eine gute Ausgabe erstellt.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... unlösbar8
- Die Lösbarkeit hängt von der Anzahl der Neuronen im Hidden Layer ab und davon ab, ob die Trainingsdaten in sich selbst konsistent sind. Wenn für ein und dasselbe Beispiel zwei verschiedene Outputs existieren, sind die Daten nicht konsistent.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... Kettenregel9
- Ab dieser Stelle lassen wir das oben weg. Wir rechnen jedoch weiter nur auf einem Beispiel.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... Inputlayer10
- Das Inputlayer muss sowieso nicht gelernt werden, da wir alles, was wir im Inputlayer machen auch im Hiddenlayer machen können. Das Inputlayer dient nur zur Weiterleitung.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... haben11
- Denn sonst wären sie ja gleich.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... Momentum12
- Momentum - Schwung
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... ist13
- Wenn es links und rechts eine Wolke gibt, heißt dass wahrscheinlich, dass es in der Mitte einen Baum gibt, der tunlichst nicht angesteuert werden sollte. Mittelwertbildung ist also schlecht
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... ist14
- Sie ist quadratisch wegen der Definition des Fehlers
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... Radialen15
- z.B. Gaussglocken
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... ist16
- Wir erinnern uns, nur quadratische Matrizen lassen sich invertieren, haben also Chancen als lineare Abbildungen Isomorphismen zu sein. Es gibt des weiteren auch quadratische Matrizen, die sich nicht invertieren lassen.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... oszillieren17
- Ein Neuron wird dauernd gezwungen von auf zu flippen und umgekehrt.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... eingegeben18
- Die Neuronen der Hidden-Schicht haben also über die Kontextzellen eine Verknüpfung auf sich selbst.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... sind19
- Unser wird immer kleiner.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... davor20
- Wir warten also nicht lange, bis das Netz sich für das angelegte Beispiel endlich stabilisiert hat und sparen so Zeit.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... erwirtschaften21
- Dies ist kein Widersprung zum Erfüllen der Aufgaben, wenn man auf das Erfüllen der Aufgaben einen Reward aussetzt, bzw. das nicht Erfüllen der Aufgaben einen negativen Reward.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
- ... Anderson22
- Barto, Sutton und Anderson, Neuronlike Adaptive Elements that can solve Difficult Learning Controll Problems, IEEE transaction On Systems, Man and Cybernetics Vol. 13 pp. 834-846
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.