Schulungsübersicht

Einführung

  • Künstliche neuronale Netze vs. Entscheidungsbaum-basierte Algorithmen

Überblick über die XGBoost-Funktionen

  • Elemente eines Gradient-Boosting-Algorithmus
  • Schwerpunkt auf Berechnungsgeschwindigkeit und Modellleistung
  • XGBoost vs. Logistische Regression, Random Forest und Standard Gradient Boosting

Die Entwicklung der baumbasierten Algorithmen

  • Entscheidungsbäume, Bagging, Random Forest, Boosting, Gradient Boosting
  • Optimierung des Systems
  • Algorithmische Weiterentwicklungen

Vorbereiten der Umgebung

  • Installation von SciPy und scikit-learn

Erstellen eines XGBoost-Modells

  • Herunterladen eines Datensatzes
  • Lösen eines allgemeinen Klassifizierungsproblems
  • Training des XGBoost-Modells für die Klassifizierung
  • Lösen einer allgemeinen Regressionsaufgabe

Überwachung der Leistung

  • Bewertung und Berichterstattung der Leistung
  • Frühzeitige Beendigung

Merkmale nach Wichtigkeit aufzeichnen

  • Berechnung der Bedeutung von Merkmalen
  • Entscheidung, welche Eingabevariablen beibehalten oder verworfen werden sollen

Konfigurieren der Gradientenverstärkung

  • Überprüfung der Lernkurven auf Trainings- und Validierungsdatensätzen
  • Anpassen der Lernrate
  • Anpassen der Anzahl von Bäumen

Abstimmung der Hyperparameter

  • Verbesserung der Leistung eines XGBoost-Modells
  • Entwurf eines kontrollierten Experiments zur Abstimmung von Hyperparametern
  • Searching Kombinationen von Parametern

Erstellen einer Pipeline

  • Einbindung eines XGBoost-Modells in eine End-to-End-Pipeline für maschinelles Lernen
  • Abstimmung von Hyperparametern innerhalb der Pipeline
  • Fortgeschrittene Vorverarbeitungsmethoden

Fehlersuche

Zusammenfassung und Schlussfolgerung

Voraussetzungen

  • Erfahrung im Schreiben von Modellen für maschinelles Lernen

Publikum

  • Datenwissenschaftler
  • Ingenieure für maschinelles Lernen
 14 Stunden

Teilnehmerzahl



Preis je Teilnehmer

Verwandte Kategorien