Schulungsübersicht
Einführung
Verstehen der Grundlagen der heterogenen Computermethodik
Warum paralleles Rechnen? Den Bedarf an parallelem Computing verstehen
Multi-Core-Prozessoren – Architektur und Design
Einführung in Threads, Thread-Grundlagen und Grundkonzepte von Parallel Programming
Verständnis der Grundlagen von GPU Softwareoptimierungsprozessen
OpenMP – Ein Standard für direktivenbasierte Parallelität Programming
Praktische Übungen / Demonstration verschiedener Programme auf Multicore-Maschinen
Einführung in GPU Computing
GPUs für Parallel Computing
GPUs Programming Modell
Hands on / Demonstration verschiedener Programme auf GPU
SDK, Toolkit und Installation der Umgebung für GPU
Arbeiten mit verschiedenen Bibliotheken
Demonstration von GPU und Tools mit Beispielprogrammen und OpenACC
Das CUDA-Modell Programming verstehen
Erlernen der CUDA-Architektur
Erkunden und Einrichten der CUDA-Entwicklungsumgebungen
Arbeiten mit der CUDA Runtime API
Das CUDA-Speichermodell verstehen
Erkundung zusätzlicher CUDA-API-Funktionen
AccessGlobalen Speicher effizient in CUDA nutzen: Globale Speicheroptimierung
Optimieren von Datenübertragungen in CUDA mithilfe von CUDA-Streams
Verwendung von Shared Memory in CUDA
Atomare Operationen und Anweisungen in CUDA verstehen und verwenden
Fallstudie: Grundlegende digitale Bildverarbeitung mit CUDA
Arbeiten mit Multi-GPU Programming
Erweitertes Hardware-Profiling und Sampling auf NVIDIA / CUDA
Verwendung der CUDA Dynamic Parallelism API für den dynamischen Kernel-Start
Zusammenfassung und Schlussfolgerung
Voraussetzungen
- C Programming .
- Linux GCC
Erfahrungsberichte (1)
Energie und Humor des Trainers.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
Kurs - NVIDIA GPU Programming - Extended
Maschinelle Übersetzung