Schulungsübersicht
Modul 1: Core Python für ML-Arbeitsabläufe
• Kursstart und Umgebungseinrichtung
Zielvereinbarungen und Einrichtung eines reproduzierbaren Python-ML-Arbeitsplatzes
• Python-Sprachgrundlagen (Schnellkurs)
Syntax, Kontrollfluss, Funktionen und Muster, die in ML-Codebasen häufig verwendet werden
• Datenstrukturen für ML
Listen, Dictionaries, Sets und Tupel für Features, Labels und Metadaten
• Comprehensions und funktionale Tools
Transformationen mit Comprehensions und höherstufigen Funktionen ausdrücken
• Objektorientiertes Python für ML-Entwickler
Klassen, Methoden, Komposition und praktische Designentscheidungen
• dataclasses und leichte Modellierung
Getippte Container für Konfiguration, Beispiele und Ergebnisse
• Decorators und Context Managers
Timing, Caching, Logging und ressourcensichere Ausführungsabläufe
• Dateien und Pfade bearbeiten
Robuste Datensatzverwaltung und Serialisierungsformate
• Ausnahmen und defensive Programmierung
ML-Skripte schreiben, die sicher und transparent fehlschlagen
• Module, Pakete und Projektaufbau
Organisieren von wiederverwendbaren ML-Codebasen
• Typisierung und Codequalität
Type Hints, Dokumentation und lintfreundliche Struktur
Modul 2: Numerisches Python, SciPy und Datenverarbeitung
• NumPy-Grundlagen für vektorisierte Berechnungen
Effiziente Array-Operationen und performancebewusstes Codieren
• Indizierung, Slicing, Broadcasting und Formen
Sichere Tensor-Manipulation und Formreasoning
• Lineare Algebra-Grundlagen mit NumPy und SciPy
Stabile Matrix-Operationen und -Zerlegungen, die in ML verwendet werden
• Tiefer Einblick in SciPy
Statistik, Optimierung, Kurvenanpassung und dünn besetzte Matrizen
• Pandas für tabellarische ML-Daten
Bereinigen, Verknüpfen, Aggregieren und Vorbereiten von Datensätzen
• Tiefer Einblick in scikit-learn
Estimator-Schnittstelle, Pipelines und reproduzierbare Arbeitsabläufe
• Visualisierungselemente
Diagnostische Plots für Datenexploration und Modellverhalten
Modul 3: Programmiermuster für den Bau von ML-Anwendungen
• Vom Notizbuch zu einem wartbaren Projekt
Umwandeln von explorativen Code in strukturierte Pakete
• Konfigurationsmanagement
Externe Parameter und Startvalidierung
• Logging, Warnungen und Observabilität
Strukturiertes Logging für debugfähige ML-Systeme
• Wiederverwendbare Komponenten mit OOP und Komposition
Entwerfen von erweiterbaren Transformern und Predictoren
• Praktische Designmuster
Pipeline, Factory oder Registry, Strategy und Adapter Muster
• Datenvalidierung und Schemaprüfungen
Verhindern von stillen Datenproblemen
• Leistung und Profiling
Identifizieren von Engpässen und Anwenden von Optimierungstechniken
• Modell I/O und Inferenzschnittstellen
Sichere Persistenz und klare Vorhersageschnittstellen
• End-to-End Mini-Bau
Produktionsähnliche ML-Pipeline mit Konfiguration und Logging
Modul 4: Statistisches Lernen für Tabellen, Text und Bilder
• Bewertungsgrundlagen
Trainings- und Validierungsaufteilungen, ehrliches Kreuzvalidieren und an den Geschäftsanforderungen ausgerichtete Metriken
• Fortgeschrittene tabellarische ML
Regularisierte GLMs, Entscheidungsbaum-Ensembles und vorbelastungsfreie Vorbereitung
• Kalibrierung und Unsicherheit
Platt-Scaling, isotrope Regression, Bootstrap und conformale Vorhersage
• Klassische NLP-Methoden
Tokenisierungskompromisse, TF-IDF, lineare Modelle und Naive Bayes
• Themenmodelle
LDA-Grundlagen und praktische Einschränkungen
• Klassische Computer Vision
HOG, PCA und featurebasierte Pipelines
• Fehleranalyse
Bias-Detektion, Label-Rauschen und spurlose Korrelationen
• Praktische Labore
Vorbelastungsfreie tabellarische Pipeline
Text-Baseline-Vergleich und Interpretation
Klassische Vision-Baseline mit strukturiertem Fehleranalyse
Modul 5: Neuronale Netze für Tabellen, Text und Bilder
• Trainingsschleifenbeherrschung
Saubere PyTorch-Schleifen mit AMP, Klemmung und Reproduzierbarkeit
• Optimierung und Regularisierung
Initialisierung, Normalisierung, Optimierer und Schedules
• Gemischte Präzision und Skalierung
Gradientenakkumulation und Checkpointing-Strategien
• Tabellarische neuronale Netze
Kategoriale Einbettungen, Feature-Crosses und Ablationsstudien
• Textneuronale Netze
Einbettungen, CNNs, BiLSTM oder GRU und Sequenzverarbeitung
• Vision neuronale Netze
CNN-Grundlagen und ResNet-artige Architekturen
• Praktische Labore
Wiederverwendbare Trainingsframework
Vergleich von Tabular NN und Boosting
CNN mit Data Augmentation und Schedule-Experimenten
Modul 6: Fortgeschrittene neuronale Architekturen
• Transfer-Lernstrategien
Freeze und Unfreeze-Muster, diskriminative Lernraten
• Transformer-Architekturen für Text
Self-Attention-Internen und Fine-Tuning-Ansätze
• Vision-Backbones und dichte Vorhersage
ResNet, EfficientNet, Vision Transformers und U-Net Konzepte
• Fortgeschrittene tabellarische Architekturen
TabTransformer, FT-Transformer und Deep and Cross Netze
• Zeitreihen-Überlegungen
Zeitliche Aufteilungen und Kovariaten-Shift-Detektion
• PEFT und Effizienztechniken
LoRA, Distillation und Quantisierungskompromisse
• Praktische Labore
Fine-Tuning eines vortrainierten Text-Transformers
Fine-Tuning eines vortrainierten Vision-Modells
Vergleich von Tabular Transformer und GBDT
Modul 7: Generative AI-Systeme
• Grundlagen des Promptings
Strukturiertes Prompting und kontrollierte Generierung
• Grundlagen von LLMs
Tokenisierung, Instruktionstuning und Halluzinationen-Mitigation
• Retrieval-Augmented Generation
Chunking, Einbettungen, Hybrid-Suche und Bewertungsmetriken
• Fine-Tuning-Strategien
LoRA und QLoRA mit Datenqualitätskontrollen
• Diffusion-Modelle
Latente Diffusionsintuition und praktische Anpassung
• Synthetische tabellarische Daten
CTGAN und Datenschutzaspekte
• Praktische Labore
Produktionsähliche RAG-Mini-Anwendung
Strukturierte Ausgabevalidierung mit Schema-Enforcement
Optional: Diffusions-Experimente
Modul 8: AI-Agenten und MCP
• Agentenschleifen-Design
Beobachten, Planen, Handeln, Reflektieren und Persistieren
• Agenten-Architekturen
ReAct, Planen und Ausführen und Multi-Agenten-Koordination
• Speicher-Management
Episodische, semantische und Scratchpad-Ansätze
• Werkzeugintegration und Sicherheit
Werkzeugverträge, Sandboxing und Verteidigung gegen Prompt-Injektionen
• Evaluierungsrahmen
Wiederholbare Abläufe, Aufgabensuiten und Regressions-Tests
• MCP und protokollbasierte Interoperabilität
Entwerfen von MCP-Servern mit sicherer Werkzeugauslagerung
• Praktische Labore
Bau eines Agenten von Grund auf
Exponieren von Werkzeugen über MCP-ähnlichen Server
Erstellen eines Evaluierungs-Harnesses mit Sicherheitsbedingungen
Voraussetzungen
Die Teilnehmer sollten praktische Kenntnisse in Python-Programmierung haben.
Dieses Programm richtet sich an technische Fachkräfte mit mittlerem bis fortgeschrittenem Niveau.
Erfahrungsberichte (2)
das ML-Ökosystem nicht nur MLflow, sondern auch Optuna, Hyperopt, Docker und Docker Compose
Guillaume GAUTIER - OLEA MEDICAL
Kurs - MLflow
Maschinelle Übersetzung
Ich habe es genossen, an der Kubeflow-Schulung teilzunehmen, die fernmündlich durchgeführt wurde. Diese Schulung ermöglichte mir, mein Wissen zu AWS-Diensten, K8s und allen devOps-Tools um Kubeflow herum zu vertiefen, was die notwendigen Grundlagen sind, um das Thema angemessen anzugehen. Ich möchte mich bei Malawski Marcin für seine Geduld und Professionalität bei der Schulung sowie für seine Ratschläge zur Best Practice bedanken. Malawski behandelt das Thema aus verschiedenen Perspektiven und nutzt verschiedene Bereitstellungstools wie Ansible, EKS kubectl und Terraform. Nun bin ich definitiv davon überzeugt, dass ich mich in dem richtigen Anwendungsbereich befinde.
Guillaume Gautier - OLEA MEDICAL | Improved diagnosis for life TM
Kurs - Kubeflow
Maschinelle Übersetzung