Schulungsübersicht

Einführung in die angewandte Maschinelles Lernen

  • Statistisches Lernen vs. Maschinelles Lernen
  • Iteration und Evaluierung
  • Bias-Variance-Kompromiss
  • Überwachtes vs. Unüberwachtes Lernen
  • Probleme, die mit Maschinellem Lernen gelöst werden können
  • Trainings-, Validierungs- und Testdaten – ML-Arbeitsablauf zur Vermeidung von Overfitting
  • Arbeitsablauf des Maschinellen Lernens
  • Algorithmen des maschinellen Lernens
  • Auswahl eines geeigneten Algorithmus für das Problem

Algorithmus-Evaluierung

  • Evaluierung numerischer Vorhersagen
    • Genauigkeitsmaße: ME, MSE, RMSE, MAPE
    • Stabilität von Parametern und Vorhersagen
  • Evaluierung von Klassifikationsalgorithmen
    • Genauigkeit und deren Probleme
    • Verwechslungsmatrix (Confusion Matrix)
    • Problem unbalancierter Klassen
  • Visualisierung der Modellleistung
    • Profitkurve (Profit Curve)
    • ROC-Kurve (Receiver Operating Characteristic)
    • Lift-Kurve (Lift Curve)
  • Modellselektion
  • Modellanpassung – Grid-Search-Strategien

Daten vorbereiten für das Modellieren

  • Dateneinlesen und -speicherung
  • Daten verstehen – grundlegende Erkundungen
  • Datenmanipulation mit der pandas-Bibliothek
  • Datentransformationen – Data Wrangling
  • Explorative Analyse
  • Fehlende Beobachtungen – Erkennung und Lösungsstrategien
  • Ausreißer – Erkennung und Strategien
  • Standardisierung, Normalisierung, Binarisierung
  • Kategorische Daten umwandeln (Recoding)

Maschinelle Lernalgorithmen für die Ausreißererkennung

  • Überwachte Algorithmen
    • KNN (k-nearest neighbors)
    • Ensemble Gradient Boosting
    • SVM (Support Vector Machine)
  • Unüberwachte Algorithmen
    • Distanzbasierende Methoden
    • Dichte-basierte Methoden
    • Wahrscheinlichkeitsbasierte Methoden
    • Modellbasierte Methoden

Verständnis von Deep Learning

  • Übersicht über die grundlegenden Konzepte des Deep Learnings
  • Unterschied zwischen maschinellem Lernen und Deep Learning
  • Überblick über Anwendungen des Deep Learnings

Übersicht über neuronale Netze

  • Was sind neuronale Netze?
  • Vergleich neuronaler Netze und Regressionsmodelle
  • Verständnis der mathematischen Grundlagen und Lernmechanismen
  • Konstruktion eines künstlichen neuronalen Netzwerks
  • Verstehen von Neuronen und Verbindungen
  • Arbeiten mit Neuronen, Schichten und Eingangs- und Ausgangsdaten
  • Verständnis von Single Layer Perceptrons
  • Unterschiede zwischen überwachtem und unüberwachtem Lernen
  • Lernen von Feedforward- und Feedback-Neural Networks
  • Verständnis von Forward Propagation und Back Propagation

Erstellen einfacher Deep Learning Modelle mit Keras

  • Erstellung eines Keras-Modells
  • Verstehen der Daten
  • Spezifizieren des Deep Learning Modells
  • Kompilieren des Modells
  • Anpassen des Modells an die Daten (Fitting)
  • Arbeiten mit Klassifikationsdaten
  • Arbeiten mit Klassifikationsmodellen
  • Verwenden der Modelle

Arbeiten mit TensorFlow für Deep Learning

  • Vorbereitung der Daten
    • Herunterladen der Daten
    • Vorbereiten der Trainingsdaten
    • Vorbereiten der Testdaten
    • Skalieren von Eingaben
    • Verwenden von Placeholders und Variablen
  • Spezifizieren der Netzarchitektur
  • Verwenden der Kostenfunktion (Cost Function)
  • Verwenden des Optimierers (Optimizer)
  • Verwenden von Initialisierungsroutinen (Initializers)
  • Anpassen des neuronalen Netzes an die Daten (Fitting)
  • Erstellen des Graphen
    • Inferenz (Inference)
    • Verlust (Loss)
    • Training (Training)
  • Trainieren des Modells
    • Der Graph (The Graph)
    • Die Sitzung (The Session)
    • Trainings-Schleife (Train Loop)
  • Evaluieren des Modells
    • Erstellen des Eval-Graphen (Building the Eval Graph)
    • Evaluieren mit Eval-Ausgabe (Evaluating with Eval Output)
  • Trainieren von Modellen in großem Maßstab (Training Models at Scale)
  • Visualisieren und Evaluieren von Modellen mit TensorBoard

Anwendung des Deep Learnings in der Ausreißererkennung (Anomaly Detection)

  • Autoencoder
    • Encoder-Decoder-Architektur
    • Rekonstruktionsverlust (Reconstruction loss)
  • Variational Autoencoder (Variational Autencoder)
    • Variationelle Inferenz (Variational inference)
  • Generative Adversarial Network (GAN)
    • Generator-Diskriminator-Architektur
    • Ansätze zur Anomalieerkennung mit GANs (Approaches to AN using GAN)

Ensemble-Frameworks

  • Kombinieren von Ergebnissen verschiedener Methoden
  • Bootstrap Aggregating (Bagging)
  • Durchschnittsbildung der Ausreißerscores (Averaging outlier score)

Voraussetzungen

  • Erfahrung mit Python-Programmierung
  • Grundkenntnisse in Statistik und mathematischen Konzepten

Zielgruppe

  • Entwickler
  • Data Scientists
 28 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (5)

Kommende Kurse

Verwandte Kategorien