Schulungsübersicht

Einführung

  • Was ist GPU-Programmierung?
  • Warum CUDA mit Python verwenden?
  • Kernkonzepte: Threads, Blöcke, Gitter

Überblick über CUDA-Funktionen und -Architektur

  • GPU vs. CPU-Architektur
  • SIMT (Single Instruction, Multiple Threads) verstehen
  • CUDA-Programmiermodell

Einrichtung der Entwicklungsumgebung

  • CUDA Toolkit und Treiber installieren
  • Python und Numba installieren
  • Umgebung einrichten und überprüfen

Fundamentale Konzepte der parallelen Programmierung

  • Einführung in die parallele Ausführung
  • Threads und Thread-Hierarchien verstehen
  • Mit Warps und Synchronisation arbeiten

Arbeit mit dem Numba-Compiler

  • Einführung in Numba
  • CUDA-Kernels mit Numba schreiben
  • @cuda.jit-Dekoratoren verstehen

Einen benutzerdefinierten CUDA-Kernel erstellen

  • Ein grundlegendes Kernel schreiben und starten
  • Threads für elementweise Operationen verwenden
  • Gitter- und Blockdimensionen verwalten

Speicherverwaltung

  • Arten von GPU-Speicher (global, geteilt, lokal, konstant)
  • Datenübertragung zwischen Host und Gerät
  • Speichernutzung optimieren und Engpässe vermeiden

Schwerpunkte der GPU-Beschleunigung

  • Geteilten Speicher und Synchronisation nutzen
  • Datenströme für asynchrone Ausführung verwenden
  • Grundlagen der Multi-GPU-Programmierung

CPU-basierte Anwendungen in GPU-Anwendungen umwandeln

  • CPU-Code profilieren
  • Parallelisierbare Abschnitte identifizieren
  • Logik auf CUDA-Kernels übertragen

Fehlerbehebung

  • CUDA-Anwendungen debuggen
  • Häufige Fehler und deren Behebung
  • Tools und Techniken für Test und Validierung

Zusammenfassung und weitere Schritte

  • Kernkonzepte wiederholen
  • Bewährte Methoden in der GPU-Programmierung
  • Ressourcen für fortlaufendes Lernen

Voraussetzungen

  • Erfahrung in Python-Programmierung
  • Erfahrung mit NumPy (ndarrays, ufuncs usw.)

Zielgruppe

  • Entwickler
 14 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (1)

Kommende Kurse

Verwandte Kategorien