Ψ Die Informatikseite

Menü
... aus1
Dies ist ein sehr grober Überblick über die Nervenzelle
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... Börsenkursen2
Von vielen werden neuronale Netze als eine Methode zur Vorhersage von Börsenkursen genannt. Es waren Systeme im Einsatz, die aus den Börsenkursen selbst Vorhersagen getroffen habe. Diese funktionieren aber nicht mehr, da sich der Markt diesen Systemen angepaßt hat (Rückkopplung). Denkbar sind Systeme, die aus zusätzlichen Daten Ergebnisse errechnen, wie zum Beispiel dem Wetter oder den Tageszeitungen. Es ist wichtig, welche Eingabedaten man dem Neuronalen Netz anbietet. Nichtrelavante Eingabedaten sollten ausgeblendet werden.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... benutzten3
Graphen sind nur Skizzen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... können4
Berühmter Rosenblatt-Beweis
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... Beispielsmustern5
bzw. für Funktionsapproximation auch Beispielsdaten genannt
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... Output6
desired: erwünscht
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... drehen7
Man muss sich die Gewichte als Potimeter, z.B. als Lautstärken(dreh)knopf beim Autoradio vorstellen. Unser Ziel ist es nun, dass wir die einzelnen Knöpfe so drehen, dass das Netz für Daten mit unbekannter Ausgabe eine gute Ausgabe erstellt.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... unlösbar8
Die Lösbarkeit hängt von der Anzahl der Neuronen im Hidden Layer ab und davon ab, ob die Trainingsdaten in sich selbst konsistent sind. Wenn für ein und dasselbe Beispiel zwei verschiedene Outputs existieren, sind die Daten nicht konsistent.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... Kettenregel9
Ab dieser Stelle lassen wir das $p$ oben weg. Wir rechnen jedoch weiter nur auf einem Beispiel.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... Inputlayer10
Das Inputlayer muss sowieso nicht gelernt werden, da wir alles, was wir im Inputlayer machen auch im Hiddenlayer machen können. Das Inputlayer dient nur zur Weiterleitung.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... haben11
Denn sonst wären sie ja gleich.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... Momentum12
Momentum - Schwung
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ist13
Wenn es links und rechts eine Wolke gibt, heißt dass wahrscheinlich, dass es in der Mitte einen Baum gibt, der tunlichst nicht angesteuert werden sollte. Mittelwertbildung ist also schlecht
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ist14
Sie ist quadratisch wegen der Definition des Fehlers
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... Radialen15
z.B. Gaussglocken
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ist16
Wir erinnern uns, nur quadratische Matrizen lassen sich invertieren, haben also Chancen als lineare Abbildungen Isomorphismen zu sein. Es gibt des weiteren auch quadratische Matrizen, die sich nicht invertieren lassen.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... oszillieren17
Ein Neuron wird dauernd gezwungen von $+1$ auf $-1$ zu flippen und umgekehrt.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... eingegeben18
Die Neuronen der Hidden-Schicht haben also über die Kontextzellen eine Verknüpfung auf sich selbst.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... sind19
Unser $\delta$ wird immer kleiner.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... davor20
Wir warten also nicht lange, bis das Netz sich für das angelegte Beispiel endlich stabilisiert hat und sparen so Zeit.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... erwirtschaften21
Dies ist kein Widersprung zum Erfüllen der Aufgaben, wenn man auf das Erfüllen der Aufgaben einen Reward aussetzt, bzw. das nicht Erfüllen der Aufgaben einen negativen Reward.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... Anderson22
Barto, Sutton und Anderson, Neuronlike Adaptive Elements that can solve Difficult Learning Controll Problems, IEEE transaction On Systems, Man and Cybernetics Vol. 13 pp. 834-846
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.