Kontakt aufnehmen

Schulungsübersicht

Modul 1: Core Python für ML-Arbeitsabläufe

• Kursstart und Umgebungseinrichtung
Zielvereinbarungen und Einrichtung eines reproduzierbaren Python-ML-Arbeitsplatzes

• Python-Sprachgrundlagen (Schnellkurs)
Syntax, Kontrollfluss, Funktionen und Muster, die in ML-Codebasen häufig verwendet werden

• Datenstrukturen für ML
Listen, Dictionaries, Sets und Tupel für Features, Labels und Metadaten

• Comprehensions und funktionale Tools
Transformationen mit Comprehensions und höherstufigen Funktionen ausdrücken

• Objektorientiertes Python für ML-Entwickler
Klassen, Methoden, Komposition und praktische Designentscheidungen

• dataclasses und leichte Modellierung
Getippte Container für Konfiguration, Beispiele und Ergebnisse

• Decorators und Context Managers
Timing, Caching, Logging und ressourcensichere Ausführungsabläufe

• Dateien und Pfade bearbeiten
Robuste Datensatzverwaltung und Serialisierungsformate

• Ausnahmen und defensive Programmierung
ML-Skripte schreiben, die sicher und transparent fehlschlagen

• Module, Pakete und Projektaufbau
Organisieren von wiederverwendbaren ML-Codebasen

• Typisierung und Codequalität
Type Hints, Dokumentation und lintfreundliche Struktur

Modul 2: Numerisches Python, SciPy und Datenverarbeitung

• NumPy-Grundlagen für vektorisierte Berechnungen
Effiziente Array-Operationen und performancebewusstes Codieren

• Indizierung, Slicing, Broadcasting und Formen
Sichere Tensor-Manipulation und Formreasoning

• Lineare Algebra-Grundlagen mit NumPy und SciPy
Stabile Matrix-Operationen und -Zerlegungen, die in ML verwendet werden

• Tiefer Einblick in SciPy
Statistik, Optimierung, Kurvenanpassung und dünn besetzte Matrizen

• Pandas für tabellarische ML-Daten
Bereinigen, Verknüpfen, Aggregieren und Vorbereiten von Datensätzen

• Tiefer Einblick in scikit-learn
Estimator-Schnittstelle, Pipelines und reproduzierbare Arbeitsabläufe

• Visualisierungselemente
Diagnostische Plots für Datenexploration und Modellverhalten

Modul 3: Programmiermuster für den Bau von ML-Anwendungen

• Vom Notizbuch zu einem wartbaren Projekt
Umwandeln von explorativen Code in strukturierte Pakete

• Konfigurationsmanagement
Externe Parameter und Startvalidierung

• Logging, Warnungen und Observabilität
Strukturiertes Logging für debugfähige ML-Systeme

• Wiederverwendbare Komponenten mit OOP und Komposition
Entwerfen von erweiterbaren Transformern und Predictoren

• Praktische Designmuster
Pipeline, Factory oder Registry, Strategy und Adapter Muster

• Datenvalidierung und Schemaprüfungen
Verhindern von stillen Datenproblemen

• Leistung und Profiling
Identifizieren von Engpässen und Anwenden von Optimierungstechniken

• Modell I/O und Inferenzschnittstellen
Sichere Persistenz und klare Vorhersageschnittstellen

• End-to-End Mini-Bau
Produktionsähnliche ML-Pipeline mit Konfiguration und Logging

Modul 4: Statistisches Lernen für Tabellen, Text und Bilder

• Bewertungsgrundlagen
Trainings- und Validierungsaufteilungen, ehrliches Kreuzvalidieren und an den Geschäftsanforderungen ausgerichtete Metriken

• Fortgeschrittene tabellarische ML
Regularisierte GLMs, Entscheidungsbaum-Ensembles und vorbelastungsfreie Vorbereitung

• Kalibrierung und Unsicherheit
Platt-Scaling, isotrope Regression, Bootstrap und conformale Vorhersage

• Klassische NLP-Methoden
Tokenisierungskompromisse, TF-IDF, lineare Modelle und Naive Bayes

• Themenmodelle
LDA-Grundlagen und praktische Einschränkungen

• Klassische Computer Vision
HOG, PCA und featurebasierte Pipelines

• Fehleranalyse
Bias-Detektion, Label-Rauschen und spurlose Korrelationen

• Praktische Labore
Vorbelastungsfreie tabellarische Pipeline
Text-Baseline-Vergleich und Interpretation
Klassische Vision-Baseline mit strukturiertem Fehleranalyse

Modul 5: Neuronale Netze für Tabellen, Text und Bilder

• Trainingsschleifenbeherrschung
Saubere PyTorch-Schleifen mit AMP, Klemmung und Reproduzierbarkeit

• Optimierung und Regularisierung
Initialisierung, Normalisierung, Optimierer und Schedules

• Gemischte Präzision und Skalierung
Gradientenakkumulation und Checkpointing-Strategien

• Tabellarische neuronale Netze
Kategoriale Einbettungen, Feature-Crosses und Ablationsstudien

• Textneuronale Netze
Einbettungen, CNNs, BiLSTM oder GRU und Sequenzverarbeitung

• Vision neuronale Netze
CNN-Grundlagen und ResNet-artige Architekturen

• Praktische Labore
Wiederverwendbare Trainingsframework
Vergleich von Tabular NN und Boosting
CNN mit Data Augmentation und Schedule-Experimenten

Modul 6: Fortgeschrittene neuronale Architekturen

• Transfer-Lernstrategien
Freeze und Unfreeze-Muster, diskriminative Lernraten

• Transformer-Architekturen für Text
Self-Attention-Internen und Fine-Tuning-Ansätze

• Vision-Backbones und dichte Vorhersage
ResNet, EfficientNet, Vision Transformers und U-Net Konzepte

• Fortgeschrittene tabellarische Architekturen
TabTransformer, FT-Transformer und Deep and Cross Netze

• Zeitreihen-Überlegungen
Zeitliche Aufteilungen und Kovariaten-Shift-Detektion

• PEFT und Effizienztechniken
LoRA, Distillation und Quantisierungskompromisse

• Praktische Labore
Fine-Tuning eines vortrainierten Text-Transformers
Fine-Tuning eines vortrainierten Vision-Modells
Vergleich von Tabular Transformer und GBDT

Modul 7: Generative AI-Systeme

• Grundlagen des Promptings
Strukturiertes Prompting und kontrollierte Generierung

• Grundlagen von LLMs
Tokenisierung, Instruktionstuning und Halluzinationen-Mitigation

• Retrieval-Augmented Generation
Chunking, Einbettungen, Hybrid-Suche und Bewertungsmetriken

• Fine-Tuning-Strategien
LoRA und QLoRA mit Datenqualitätskontrollen

• Diffusion-Modelle
Latente Diffusionsintuition und praktische Anpassung

• Synthetische tabellarische Daten
CTGAN und Datenschutzaspekte

• Praktische Labore
Produktionsähliche RAG-Mini-Anwendung
Strukturierte Ausgabevalidierung mit Schema-Enforcement Optional: Diffusions-Experimente

Modul 8: AI-Agenten und MCP

• Agentenschleifen-Design
Beobachten, Planen, Handeln, Reflektieren und Persistieren

• Agenten-Architekturen
ReAct, Planen und Ausführen und Multi-Agenten-Koordination

• Speicher-Management
Episodische, semantische und Scratchpad-Ansätze

• Werkzeugintegration und Sicherheit
Werkzeugverträge, Sandboxing und Verteidigung gegen Prompt-Injektionen

• Evaluierungsrahmen
Wiederholbare Abläufe, Aufgabensuiten und Regressions-Tests

• MCP und protokollbasierte Interoperabilität
Entwerfen von MCP-Servern mit sicherer Werkzeugauslagerung

• Praktische Labore
Bau eines Agenten von Grund auf
Exponieren von Werkzeugen über MCP-ähnlichen Server
Erstellen eines Evaluierungs-Harnesses mit Sicherheitsbedingungen

Voraussetzungen

Die Teilnehmer sollten praktische Kenntnisse in Python-Programmierung haben.

Dieses Programm richtet sich an technische Fachkräfte mit mittlerem bis fortgeschrittenem Niveau.

 56 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (2)

Kommende Kurse

Verwandte Kategorien