Schulungsübersicht

Maschinelles Lernen

Einführung in Machine Learning

    Anwendungen des maschinellen Lernens Überwachtes versus unüberwachtes Lernen Algorithmen für maschinelles Lernen Regression Klassifizierung Clustering Empfehlungssystem Anomalieerkennung Reinforcement Learning

Rückschritt

    Einfache und multiple Regression Methode der kleinsten Quadrate Schätzen der Koeffizienten Bewerten der Genauigkeit der Koeffizientenschätzungen Bewerten der Genauigkeit des Modells Post-Schätzungsanalyse Weitere Überlegungen in den Regressionsmodellen Qualitative Prädiktoren Erweiterungen der linearen Modelle Mögliche Probleme Bias-Varianz-Kompromiss [Unteranpassung /over-fitting] für Regressionsmodelle

Resampling-Methoden

    Kreuzvalidierung Der Validierungssatz-Ansatz Leave-One-Out-Kreuzvalidierung k-Faltung Kreuzvalidierung Bias-Varianz-Kompromiss für k-Faltung Bootstrap

Modellauswahl und Regularisierung

    Teilmengenauswahl [Beste Teilmengenauswahl, schrittweise Auswahl, Auswahl des optimalen Modells] Schrumpfungsmethoden/Regularisierung [Ridge-Regression, Lasso und elastisches Netz] Auswahl des Abstimmungsparameters Dimensionsreduktionsmethoden Hauptkomponenten Regression Partielle kleinste Quadrate

Einstufung

    Logistische Regression Die Kostenfunktion des Logistikmodells Schätzen der Koeffizienten Erstellen von Vorhersagen Quotenverhältnis Leistungsbewertungsmatrizen [Sensitivität/Spezifität/PPV/NPV, Präzision, ROC-Kurve usw.] Multiple logistische Regression Logistische Regression für >2 Antwortklassen Regularisierte logistische Regression
Lineare Diskriminanzanalyse unter Verwendung des Bayes-Theorems zur Klassifizierung
  • Lineare Diskriminanzanalyse für p=1
  • Lineare Diskriminanzanalyse für p >1
  • Quadratische Diskriminanzanalyse
  • K-Nächste Nachbarn
  • Klassifizierung mit nichtlinearen Entscheidungsgrenzen
  • Unterstützen Sie das Optimierungsziel von Vector Machines
  • Der Maximal-Margin-Klassifikator
  • Kernel
  • Eins-gegen-Eins-Klassifizierung
  • Eins-gegen-Alle-Klassifizierung
  • Vergleich der Klassifizierungsmethoden
  • Einführung in Deep Learning
  • ANN-Struktur
  • BioLogische Neuronen und künstliche Neuronen Nichtlineare Hypothesenmodelldarstellung Beispiele und Intuitionen Übertragungsfunktion/Aktivierungsfunktionen Typische Klassen von Netzwerkarchitekturen
  • Feed-forward-ANN.

    Strukturen mehrschichtiger Feed-Forward-Netzwerke Back-Propagation-Algorithmus Back-Propagation – Training und Konvergenz Funktionale Approximation mit Back-Propagation Praktische und gestalterische Fragen des Back-Propagation-Lernens

      Deep Learning

    Künstliche Intelligenz und Deep Learning Softmax-Regression, autodidaktisches Lernen, Deep Networks-Demos und -Anwendungen

      Labor:

    Erste Schritte mit R

      Einführung in R-Grundbefehle und -Bibliotheken, Datenmanipulation, Importieren und Exportieren von Daten, grafische und numerische Zusammenfassungen, Schreibfunktionen

    Rückschritt

    Einfache und multiple lineare Regression Interaktionsbegriffe Nichtlineare Transformationen Dummy-Variablen-Regression Kreuzvalidierung und die Bootstrap Teilmengenauswahlmethoden Bestrafung [Ridge, Lasso, Elastic Net]

      Einstufung

    Logistische Regression, LDA, QDA und KNN, Resampling und Regularisierung unterstützen Vector Machine Resampling und Regularisierung

      Notiz:

    Für ML-Algorithmen werden Fallstudien verwendet, um deren Anwendung, Vorteile und potenzielle Probleme zu diskutieren. Die Analyse verschiedener Datensätze wird mit R durchgeführt

    Voraussetzungen

    Grundkenntnisse statistischer Konzepte sind wünschenswert.

     21 Stunden

    Teilnehmerzahl



    Preis je Teilnehmer

    Erfahrungsberichte (4)

    Kombinierte Kurse

    Verwandte Kategorien