Kontakt aufnehmen

Schulungsübersicht

MATLAB-Umgebung für Deep Learning & GPU-Validierung

  • Überblick über Architektur und Arbeitsabläufe der Deep Learning Toolbox
  • Prüfung der GPU-Verfügbarkeit, CUDA-/cuDNN-Kompatibilität und Treiberkonfiguration
  • Konfigurieren von Parallelarbeitern, Speicherverwaltung und Beherrschen der Grundlagen von gpuArray
  • Lab 1: Umgebungsvalidierung und Ausführen Ihres ersten GPU-beschleunigten Deep-Learning-Skripts

Grundlagen des Deep Learning in MATLAB

  • Neuronale Netzwerk-Schichten: Conv, Pooling, Batch Normalization, Dropout, Residual und Dichte Schichten
  • Grundlagen von dlarray, dlnetwork und benutzerdefinierten Trainings-Schleifen
  • Verlustfunktionen, Optimierer (Adam, SGD, RMSProp) und Strategien zum Anpassen der Lernrate
  • Visualisierung von Architekturen, Gewichtungsverteilungen und Gradientenfluss zum Debuggen
  • Lab 2: Erstellen eines benutzerdefinierten dlnetwork von Grund auf und Debuggen der Schichtinteraktionen

Entwurf von CNNs für die Bilderkennung

  • CNN-Entwurfsmuster: Merkmalsextraktion, räumliche Hierarchien und Rezeptive Felder
  • Transfer Learning: Nutzung vortrainierter Netzwerke wie ResNet, EfficientNet und MobileNet
  • Daten-Augmentierungspipelines mit imageDatastore, augmentedImageDatastore und benutzerdefinierten Transformationen
  • Lab 3: Training eines CNN von Grund auf auf einem benutzerdefinierten Bildklassifizierungsdatensatz mit Augmentierung

Automatisierte Datenbeschriftung & reproduzierbare Pipelines

  • Nutzung der Active-Learning- und Semi-supervised-Beschriftungstools von MATLAB
  • Importieren und Exportieren von Annotationen (COCO, Pascal VOC, YOLO, CSV)
  • Erstellung versionierter, parametrisierter Skripte zur Datenvorbereitung
  • Lab 4: Automatisierung des Beschriftungsarbeitsablaufs und Integration in ein Trainingsskript

Skalierbares Training: Multi-GPU, Cloud & Cluster

  • Multi-GPU-Trainingsstrategien: Abstimmung der Batch-Größe, Gradientenakkumulation und Datenparallelismus
  • Verteiltes Training mit MATLAB Parallel Server und lokalen Clustern
  • Cloud-Trainingsarbeitsabläufe (AWS, Azure, GCP) über MATLAB Cloud-Compute-Profile
  • Trainingsüberwachung, Checkpointing und Techniken zur Hyperparameteroptimierung
  • Lab 5: Skalieren eines Modells auf eine Multi-GPU-/Cloud-Umgebung und Profiling der Trainingsdurchsatzleistung

Rahmenübergreifende Interoperabilität & Modellaustausch

  • Importieren vortrainierter Caffe- und TensorFlow-/Keras-Modelle in MATLAB
  • Validierung der Genauigkeitsübereinstimmung und Anpassung der Architekturen für MATLAB-Arbeitsabläufe
  • Exportieren der Modelle nach ONNX, TensorFlow oder Core ML für plattformübergreifende Bereitstellungen
  • Lab 6: Importieren eines TF-Keras-Modells, Feinjustieren in MATLAB und Exportieren nach ONNX

Capstone-Projekt & Produktionsreife

  • Ganzer Pipeline-Ablauf: Datenerfassung, Training, Validierung, Optimierung und Bereitstellung
  • Modellkompression: Pruning, Quantisierung und Codegenerierung mit GPU Coder
  • Best Practices für Reproduzierbarkeit: Protokollierung, Seed-Einstellung und Teilen von MATLAB-Apps für Deep Learning
  • Capstone: Erstellen, Trainieren, Optimieren und Exportieren eines vollständigen Bilderkennungssystems, das auf Ihre spezifische Domäne zugeschnitten ist


Um einen maßgeschneiderten Kursplan für dieses Training anzufordern, kontaktieren Sie uns bitte.

Voraussetzungen

  • Sicherer Umgang mit MATLAB (Syntax, Programmierabläufe, Vertrautheit mit den Toolboxes)
  • Keine Vorkenntnisse in Data Science oder Deep Learning erforderlich
  • Zugriff auf eine lokale GPU-fähige Workstation (CUDA-kompatibel) oder einen genehmigten Cloud-Cluster für die Live-Labs

Zielgruppe

  • Entwickler & Software-Ingenieure
  • Forschungsingenieure & Fachexperten
  • Teams, die von traditioneller Signal-/Bildverarbeitung zu KI-gesteuerten Arbeitsabläufen wechseln
 14 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (3)

Kommende Kurse

Verwandte Kategorien