Schulungsübersicht

Einführung

Verstehen der Grundlagen der heterogenen Computermethodik

Warum paralleles Rechnen? Den Bedarf an parallelem Computing verstehen

Multi-Core-Prozessoren – Architektur und Design

Einführung in Threads, Thread-Grundlagen und Grundkonzepte von Parallel Programming

Verständnis der Grundlagen von GPU Softwareoptimierungsprozessen

OpenMP – Ein Standard für direktivenbasierte Parallelität Programming

Praktische Übungen / Demonstration verschiedener Programme auf Multicore-Maschinen

Einführung in GPU Computing

GPUs für Parallel Computing

GPUs Programming Modell

Hands on / Demonstration verschiedener Programme auf GPU

SDK, Toolkit und Installation der Umgebung für GPU

Arbeiten mit verschiedenen Bibliotheken

Demonstration von GPU und Tools mit Beispielprogrammen und OpenACC

Das CUDA-Modell Programming verstehen

Erlernen der CUDA-Architektur

Erkunden und Einrichten der CUDA-Entwicklungsumgebungen

Arbeiten mit der CUDA Runtime API

Das CUDA-Speichermodell verstehen

Erkundung zusätzlicher CUDA-API-Funktionen

AccessGlobalen Speicher effizient in CUDA nutzen: Globale Speicheroptimierung

Optimieren von Datenübertragungen in CUDA mithilfe von CUDA-Streams

Verwendung von Shared Memory in CUDA

Atomare Operationen und Anweisungen in CUDA verstehen und verwenden

Fallstudie: Grundlegende digitale Bildverarbeitung mit CUDA

Arbeiten mit Multi-GPU Programming

Erweitertes Hardware-Profiling und Sampling auf NVIDIA / CUDA

Verwendung der CUDA Dynamic Parallelism API für den dynamischen Kernel-Start

Zusammenfassung und Schlussfolgerung

Voraussetzungen

  • C Programming
  • .
  • Linux GCC
 21 Stunden

Teilnehmerzahl


Preis je Teilnehmer

Erfahrungsberichte (1)