Schulungsübersicht

TAG 1 – KÜNSTLICHE NEURONALE NETZWERKE

Einführung und ANN-Struktur.

    Biologische Neuronen und künstliche Neuronen. Modell eines ANN. In ANNs verwendete Aktivierungsfunktionen. Typische Klassen von Netzwerkarchitekturen.

Mathematical Grundlagen und Lernmechanismen.

    Erneuter Blick auf die Vektor- und Matrixalgebra. Zustandsraumkonzepte. Konzepte der Optimierung. Fehlerkorrekturlernen. Gedächtnisbasiertes Lernen. Hebräisches Lernen. Wettbewerbsfähiges Lernen.

Einschichtige Perzeptrone.

    Struktur und Lernen von Perzeptronen. Musterklassifikator – Einführung und Bayes-Klassifikatoren. Perzeptron als Musterklassifikator. Perzeptron-Konvergenz. Einschränkungen eines Perzeptrons.

Feedforward-ANN.

    Strukturen mehrschichtiger Feedforward-Netzwerke. Back-Propagation-Algorithmus. Rückausbreitung – Training und Konvergenz. Funktionelle Näherung mit Rückpropagation. Praktische und gestalterische Fragen des Backpropagation-Lernens.

Radiale Basisfunktionsnetzwerke.

    Mustertrennbarkeit und Interpolation. Regularisierungstheorie. Regularisierung und RBF-Netzwerke. RBF-Netzwerkdesign und -Schulung. Näherungseigenschaften von RBF.

Wettbewerbsfähiges Lernen und selbstorganisierende KNN.

    Allgemeine Clustering-Verfahren. Lernvektorquantisierung (LVQ). Wettbewerbsfähige Lernalgorithmen und -architekturen. Selbstorganisierende Feature-Maps. Eigenschaften von Feature-Maps.

Unscharf Neural Networks.

    Neuro-Fuzzy-Systeme. Hintergrund von Fuzzy-Sets und Logik. Design von Fuzzy-Stielen. Design von Fuzzy-ANNs.

Anwendungen

    Es werden einige Beispiele für Anwendungen neuronaler Netze sowie deren Vorteile und Probleme besprochen.

TAG -2 MASCHINELLES LERNEN

    Das PAC Learning Framework Garantien für endliche Hypothesensätze – konsistenter Fall Garantien für endliche Hypothesensätze – inkonsistenter Fall Allgemeines Deterministischer Lebenslauf. Stochastische Szenarien Bayes-Fehlerrauschen Schätz- und Approximationsfehler Modellauswahl
Radmeacher-Komplexität und VC – DimensionBias – Varianz-Kompromiss
  • Regulierung
  • Überanpassung
  • Validierung
  • Support-Vektor-Maschinen
  • Kriging (Gaußsche Prozessregression)
  • PCA und Kernel-PCA
  • Selbstorganisationskarten (SOM)
  • Kernel-induzierter Vektorraum Mercer-Kernel und Kernel-induzierte Ähnlichkeitsmetriken
  • Reinforcement Learning
  • TAG 3 – TIEFES LERNEN
  • Dies wird in Bezug auf die an Tag 1 und Tag 2 behandelten Themen vermittelt
  • Logistische und Softmax-Regression Sparse-Autoencoder Vektorisierung, PCA und Whitening Autodidaktisches Lernen Tiefe Netzwerke Lineare Decoder Faltung und Pooling Sparse-Codierung Unabhängige Komponentenanalyse Kanonische Korrelationsanalyse Demos und Anwendungen
  • Voraussetzungen

    Gute Kenntnisse in Mathematik.

    Good Verständnis der grundlegenden Statistik.

    Grundlegende Programmierkenntnisse sind nicht erforderlich, werden aber empfohlen.

      21 Stunden

    Teilnehmerzahl



    Preis je Teilnehmer

    Erfahrungsberichte (2)

    Kombinierte Kurse

    Verwandte Kategorien