Kontakt aufnehmen

Schulungsübersicht

Einführung

Dieser Abschnitt bietet eine allgemeine Einführung in die Frage, wann maschinelles Lernen eingesetzt werden sollte, was dabei zu beachten ist und was dies alles bedeutet, einschließlich der Vor- und Nachteile. Datentypen (strukturiert/unstrukturiert/statisch/gestreamt), Datenvalidität/-volumen, datengesteuerte vs. nutzergesteuerte Analysen, statistische Modelle vs. Modelle des maschinellen Lernens/ Herausforderungen des unüberwachten Lernens, Bias-Varianz-Kompromiss, Iteration/Evaluierung, Kreuzvalidierungsansätze, überwacht/unüberwacht/Verstärkung.

HAUPTTHEMEN.

1. Verständnis von Naive Bayes

  • Basisbegriffe der bayesianischen Methoden
  • Wahrscheinlichkeit
  • Kombinierte Wahrscheinlichkeit
  • Bedingte Wahrscheinlichkeit mit dem Satz von Bayes
  • Der Naive-Bayes-Algorithmus
  • Die naive Bayes-Klassifizierung
  • Der Laplace-Schätzer
  • Nutzung numerischer Merkmale bei Naive Bayes

2. Verständnis von Entscheidungsbäumen

  • Trennen und Erobern
  • Der C5.0-Entscheidungsbaumalgorithmus
  • Auswahl der besten Teilung
  • Beschränken des Entscheidungsbaums

3. Neuronale Netze verstehen

  • Von biologischen zu künstlichen Neuronen
  • Aktivierungsfunktionen
  • Netztopologie
  • Anzahl der Schichten
  • Richtung des Informationsflusses
  • Anzahl der Knoten in jeder Schicht
  • Ausbildung von neuronalen Netzen mit Rückwärtsverbreitung
  • Deep Learning

4. Verstehen von Support-Vektor-Maschinen

  • Klassifizierung mit Hyperebenen
  • Aufspüren des größten Abstands (Margin)
  • Fall linear separabler Daten
  • Fall nicht-linear separabler Daten
  • Nutzung von Kernen für nicht-lineare Räume

5. Clustering verstehen

  • Clustering als maschinelles Lerneprozess
  • Der k-Means-Algorithmus für Clustering
  • Nutzung von Distanzen zur Zuweisung und Aktualisierung von Clustern
  • Auswahl der passenden Anzahl von Clustern

6. Leistungsmessung für die Klassifizierung

  • Arbeiten mit Vorherschendaten in der Klassifikation
  • Einen genauen Blick auf Verwirrungsmatrizen werfen
  • Nutzung von Verwirrungsmatrizen zur Leistungsbeurteilung
  • Jenseits der Genauigkeit – andere Leistungsmessungen
  • Die Kappa-Statistik
  • Sensitivität und Spezifität
  • Precision und Recall
  • Das F-Maß
  • Visualisierung von Leistungsabwägungen
  • ROC-Kurven
  • Abschätzung zukünftiger Leistung
  • Die Holdout-Methode
  • Kreuzvalidierung
  • Bootstrap Sampling

7. Tuning von Serienmodellen für bessere Leistung

  • Nutzung von caret für automatisches Parameter-Tuning
  • Erstellen eines einfachen getunten Modells
  • Anpassung des Tuning-Prozesses
  • Verschärfung der Modellleistung durch Meta-Lernen
  • Verständnis von Ensembles
  • Bagging
  • Boosting
  • Zufallswälder
  • Ausbildung von Zufallswäldern
  • Bewertung der Leistung von Zufallswäldern

KLEINERE THEMEN

8. Verständnis der Klassifizierung mit Hilfe der nächsten Nachbarn

  • Der kNN-Algorithmus
  • Berechnung von Distanzen
  • Auswahl einer passenden k
  • Vorbereitung der Daten für die Nutzung mit kNN
  • Warum ist der kNN-Algorithmus faul?

9. Verständnis der Klassifizierungsregeln

  • Trennen und erobern
  • Der One Rule Algorithmus
  • Der RIPPER-Algorithmus
  • Regeln aus Entscheidungsbäumen

10. Verständnis der Regression

  • Einfache lineare Regression
  • Ordinäre kleinste Quadrate-Schätzung
  • Korrelationen
  • Mehrere lineare Regressionen

11. Verständnis von Regressions- und Modellbäumen

  • Hinzufügen der Regression zu Bäumen

12. Verstehen von Assoziationsregeln

  • Der Apriori-Algorithmus für die Lernprozesse von Assoziationsregeln
  • Messung der Regelinteresse – Unterstützung und Zuverlässigkeit
  • Aufbau einer Regelmenge mit dem Prinzip des Apriori

Extras

  • Spark/PySpark/MLlib und Multi-Armed Bandits

Voraussetzungen

Python Kenntnisse

 21 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (7)

Kommende Kurse

Verwandte Kategorien