Ψ Die Informatikseite
Menü
Bachelorstudium
- Lineare Algebra
- Algorithmen
- Theoretische Informatik
Masterstudium
- Neuronale Netze
- Computeranimation
Bonusmaterial
- Textsatz mit Latex
- Tipps und Tricks zu PDF-Dateien
- Einplatinenrechner
Studentenratgeber
Studienorte
Bücher
Impressum
Menü
Bachelorstudium
Lineare Algebra
Algorithmen
Theoretische Informatik
Masterstudium
Neuronale Netze
Computeranimation
Bonusmaterial
Textsatz mit Latex
Tipps und Tricks zu PDF-Dateien
Einplatinenrechner
Studentenratgeber
Studienorte
Bücher
Impressum
Informatik
»
Master
»
Neuronale Netze
Master
Einführung
Neuronale Netze
Einführung
Was sind neuronale Netze?
Biologische Motivation
Eigenschaften biologischer Systeme, die man gerne übernehmen möchte
Merkmale biologischer Netze, welche übernommen wurden
Hauptkategorien
Drei Arten des Lernens
Einsatzbereich neuronaler Netze
Robotersteuerung
Regelungsaufgaben
ADALINE
Perzeptron
Aufbau
Lineare Separierbarkeit
XOR-Problem
MLP (Multilayer-Perzeptron)
Einzelnes Neuron
Aufbau
Aktivierungsfunktionen (Transferfunktionen)
Umrechnung Tangenshyperbolicus in Fermifunktion
Multilayer Perzeptron
Aufbau
Nomenklatur
Hintondiagramm
MLPs mit linearen Kennlinien lassen sich durch Matrixmultiplikation ausdrücken
Lernen
MLPs als universelle Funktionsapproximatoren
Lernen an Beispielen
Ziel des Lernens
Hebbsche Lernregel
Delta-Regel (Widrow-Hoff-Regel)
Backpropagation of Error
Idee
Herleitung
Algorithmus
Single-Step und Batch-Learning
Synchrone und asynchrone Aktivierung
Einstellen der Lernrate
Probleme und deren Lösungen
Lernkurve
Hinzunahme von Neuronen
Codierung des Outputs
Momentum-Term
Verfahren höherer Ordnung
Quickprop
Zwei Gewichte
Analytische Methode
Optimal Brain Damage
RBF-Netze
Aufbau
RBF-Netze sind unverselle Funktionsapproximatoren
Einstellen der Gewichte
Anpassen bzw. Wahl der Zentren und Breiten
Zentren
Breiten
Probleme
Der entscheidende Unterschied zwischen RBF-Netzen und MLPs
SOMs (Self Organizing Maps)
Idee
Abstand
Nachbarschaftsfunktion am RBF-Netz visualisiert
Lernregel
Lernregel
Nachbarschaftsfunktion
Veränderung der Lernrate mit der Zeit
SOMs visualisiert
Anwendungen von SOMs
Neuronales Gas
Aufbau
Vorteile
Die drei Phasen des Neuronalen Gases im Ring
LVQ (Learning Vector Quantisation)
Prinzip
LVQ (LVQ1)
LVQ2
OLVQ
Hopfield Netze
Aufbau
Lernen der Muster
Asynchrone und synchrone Aktivierung
Aufnahmekapazität
Energieoberfläche
Konvergenz
Unsymmetrische Gewichte
Spezialhardware
Jordan & Elmannetze
Aufbau
Lernen
Reinforcement Learning (Bestärkendes Lernen)
Idee bzw. Aufgabe
Agent in Environment
Agent lernt eine Policy
Unterschied Zustand - Situation
Reward und Return
Sonderfälle des Rewards
Beispiele
Value Function
State Value Function
Action Value Function
Greedy-Policy vs. Optimal Policy
Lernen der Value Function (Temporal Difference Learning)
Was passiert?
State Value Function
Action Value Funktion
Neuronales Netz zur Bestimmung der Value function eines Teilbaumes
Reinforcment Learning mit (adaptive) Critic
SARO (Sensor Driven Random Optimisation)
ASE - ACE
SVMs (Support Vector Machines)
Idee
Ziel
VC-Dimension
Risiko
Gute Generalisierung
Linear separierbare Probleme
Linear separierende Ebene mit Korridor
Decision Function
La Grange
Feature Space
Kernel functions
Master
Einführung