NVIDIA GPU Programming - Erweitert Training Course
In diesem von Lehrern geführten Live-Schulungskurs erfahren Sie, wie Sie GPU für Parallel Computing programmieren, wie Sie verschiedene Plattformen verwenden, wie Sie mit der CUDA-Plattform und ihren Funktionen arbeiten und wie Sie verschiedene Optimierungstechniken mit CUDA ausführen. Einige der Anwendungen umfassen Deep Learning-, Analytics-, Bildverarbeitungs- und Engineering-Anwendungen.
Schulungsübersicht
Einführung
Verstehen der Grundlagen der heterogenen Computermethodik
Warum paralleles Rechnen? Den Bedarf an parallelem Computing verstehen
Multi-Core-Prozessoren – Architektur und Design
Einführung in Threads, Thread-Grundlagen und Grundkonzepte von Parallel Programming
Verständnis der Grundlagen von GPU Softwareoptimierungsprozessen
OpenMP – Ein Standard für direktivenbasierte Parallelität Programming
Praktische Übungen / Demonstration verschiedener Programme auf Multicore-Maschinen
Einführung in GPU Computing
GPUs für Parallel Computing
GPUs Programming Modell
Hands on / Demonstration verschiedener Programme auf GPU
SDK, Toolkit und Installation der Umgebung für GPU
Arbeiten mit verschiedenen Bibliotheken
Demonstration von GPU und Tools mit Beispielprogrammen und OpenACC
Das CUDA-Modell Programming verstehen
Erlernen der CUDA-Architektur
Erkunden und Einrichten der CUDA-Entwicklungsumgebungen
Arbeiten mit der CUDA Runtime API
Das CUDA-Speichermodell verstehen
Erkundung zusätzlicher CUDA-API-Funktionen
AccessGlobalen Speicher effizient in CUDA nutzen: Globale Speicheroptimierung
Optimieren von Datenübertragungen in CUDA mithilfe von CUDA-Streams
Verwendung von Shared Memory in CUDA
Atomare Operationen und Anweisungen in CUDA verstehen und verwenden
Fallstudie: Grundlegende digitale Bildverarbeitung mit CUDA
Arbeiten mit Multi-GPU Programming
Erweitertes Hardware-Profiling und Sampling auf NVIDIA / CUDA
Verwendung der CUDA Dynamic Parallelism API für den dynamischen Kernel-Start
Zusammenfassung und Schlussfolgerung
Voraussetzungen
- C Programming .
- Linux GCC
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
NVIDIA GPU Programming - Erweitert Training Course - Booking
NVIDIA GPU Programming - Erweitert Training Course - Enquiry
NVIDIA GPU Programming - Erweitert - Beratungsanfrage
Beratungsanfrage
Erfahrungsberichte (1)
Energie und Humor des Trainers.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
Kurs - NVIDIA GPU Programming - Extended
Maschinelle Übersetzung
Kommende Kurse
Kombinierte Kurse
Entwicklung von AI-Anwendungen mit Huawei Ascend und CANN
21 StundenHuawei Ascend ist eine Familie von AI-Prozessoren, die für hochleistungsfähige Inferenz und Trainingsprozesse entwickelt wurde.
Dieses von einem Trainer durchgeführte Live-Seminar (Online oder vor Ort) richtet sich an mittelstufige AI-Engineer und Data Scientists, die möchten, Modelle für neuronale Netzwerke mit Hilfe der Plattform Huawei Ascend und dem CANN Toolkit zu entwickeln und zu optimieren.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die Entwicklungsumgebung von CANN einzurichten und zu konfigurieren.
- AI-Anwendungen mit MindSpore und CloudMatrix-Workflows zu entwickeln.
- Leistung auf Ascend NPUs mithilfe von benutzerdefinierten Operatoren und Tiling zu optimieren.
- Modelle in Edge- oder Cloud-Umgebungen bereitzustellen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Praktische Nutzung von Huawei Ascend und dem CANN-Toolkit in Beispielanwendungen.
- Geleitete Übungen, die sich auf das Modellieren, Trainieren und Bereitstellen konzentrieren.
Anpassungsoptionen für den Kurs
- Für eine angepasste Ausbildung an Ihren Infrastruktur oder Datensätzen basierend auf diesem Kurs, kontaktieren Sie uns bitte zur Anfrage.
Deploying AI Models mit CANN und Ascend AI-Prozessoren
14 StundenCANN (Compute Architecture for Neural Networks) ist Huaweis AI-Rechenstack für die Bereitstellung und Optimierung von AI-Modellen auf Ascend-AI-Prozessoren.
Diese von einem Trainer geführte Live-Ausbildung (online oder vor Ort) richtet sich an mittelcalibrierte AI-Entwickler und Ingenieure, die effizient ausgebildete AI-Modelle mit dem CANN-Toolkit und Tools wie MindSpore, TensorFlow oder PyTorch auf Huawei Ascend-Hardware bereitstellen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Architektur von CANN und ihre Rolle im AI-Bereitstellungspipeline zu verstehen.
- Modelle aus beliebten Frameworks in Ascend-kompatible Formate umzuwandeln und anzupassen.
- Tools wie ATC, OM-Modellkonvertierung und MindSpore für Edge- und Cloud-Inferenz zu verwenden.
- Bereitstellungsprobleme zu diagnostizieren und die Leistung auf Ascend-Hardware zu optimieren.
Format des Kurses
- Interaktive Vorlesung und Demonstration.
- Praxisarbeit mit CANN-Tools und Ascend-Simulatoren oder Geräten.
- Praktische Bereitstellungsszenarien auf der Basis realer AI-Modelle.
Optionen für angepasste Schulungen
- Wenn Sie eine angepasste Schulung zu diesem Kurs anfordern möchten, kontaktieren Sie uns bitte zur Absprache.
GPU Programming auf Biren AI Accelerators
21 StundenBiren AI-Acceleratoren sind Hochleistungs-GPU-Systeme, die für KI- und HPC-Anwendungen entwickelt wurden und Unterstützung für umfangreiche Trainings- und Inferenzprozesse bieten.
Dieser von einem Trainer geleitete Live-Kurs (online oder vor Ort) richtet sich an mittel bis fortgeschrittene Entwickler, die Programme mit Birens proprietärem GPU-Stack programmieren und optimieren möchten. Vergleiche zur CUDA-basierten Umgebung werden praktisch dargestellt.
Am Ende dieses Trainings können Teilnehmer Folgendes:
- Die Architektur und das Speichersystem von Biren GPU verstehen.
- Entwicklungsumgebung einrichten und Birens Programmiermodell verwenden.
- CUDA-ähnlichen Code für Biren-Plattformen übersetzen und optimieren.
- Leistungsanpassungstechniken anwenden und Fehlerbehebung durchführen.
Format des Kurses
- Interaktive Vorlesungen und Diskussionen.
- Praktische Nutzung der Biren SDK in Beispiel-GPU-Workloads.
- Geleitete Übungen zum Portieren und Anpassen von Leistungsparametern.
Anpassungsoptionen für den Kurs
- Für eine auf Ihre Anwendungsumgebung oder Integrationsbedürfnisse zugeschnittene Ausbildung wenden Sie sich bitte an uns, um die Anpassung zu vereinbaren.
Cambricon MLU Development with BANGPy and Neuware
21 StundenCambricon MLUs (Machine Learning Units) sind spezialisierte AI-Chips, die für Inferenz und Training in Edge- und Datenzentren-Szenarien optimiert wurden.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Entwickler, die Modelle mit dem BANGPy-Framework und der Neuware SDK auf Cambricon MLU-Hardware erstellen und bereitstellen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die Entwicklungsumgebungen von BANGPy und Neuware einzurichten und zu konfigurieren.
- Python- und C++-basierte Modelle für Cambricon MLUs zu entwickeln und zu optimieren.
- Modelle auf Edge- und Datenzentren-Geräten bereitzustellen, die den Neuware Runtime ausführen.
- ML-Arbeitsabläufe mit MLU-spezifischen Beschleunigungsmerkmalen zu integrieren.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Praxisorientierte Nutzung von BANGPy und Neuware zur Entwicklung und Bereitstellung.
- Führung durch Übungen, die sich auf Optimierung, Integration und Testen konzentrieren.
Anpassungsoptionen des Kurses
- Um eine an Ihren Cambricon-Gerätemodell oder Anwendungsfall angepasste Ausbildung zu beantragen, kontaktieren Sie uns bitte zur Absprache.
Einführung in CANN für AI-Framework-Entwickler
7 StundenCANN (Compute Architecture for Neural Networks) ist Huaweis AI-Computing-Toolkast, der verwendet wird, um AI-Modelle auf Ascend-AI-Prozessoren zu kompilieren, zu optimieren und bereitzustellen.
Dieser von einem Trainer geleitete Live-Kurs (Online oder vor Ort) richtet sich an Anfänger im Bereich AI-Entwicklung, die verstehen möchten, wie CANN in den Modellzyklus von der Ausbildung bis zur Bereitstellung einbezogen wird und wie es mit Frameworks wie MindSpore, TensorFlow und PyTorch zusammenarbeitet.
Am Ende des Kurses werden die Teilnehmer in der Lage sein:
- Den Zweck und die Architektur des CANN-Toolkits zu verstehen.
- Eine Entwicklungsumgebung mit CANN und MindSpore einzurichten.
- Ein einfaches AI-Modell auf Ascend-Hardware umzusetzen und bereitzustellen.
- Grundlegendes Wissen für zukünftige Optimierungs- oder Integrationsprojekte mit CANN zu erlangen.
Format des Kurses
- Interaktive Vorlesungen und Diskussionen.
- Praxisübungen mit einfacher Modellbereitstellung.
- Schritt-für-Schritt-Anleitung durch die CANN-Toolkette und Integrationspunkte.
Anpassungsoptionen des Kurses
- Um eine angepasste Ausbildung für diesen Kurs zu beantragen, kontaktieren Sie uns bitte zur Anmeldung.
CANN für Edge AI Deployment
14 StundenDie Toolkit Ascend CANN von Huawei ermöglicht eine leistungsfähige AI-Schließung auf Edge-Geräten wie dem Ascend 310. CANN bietet wesentliche Werkzeuge für das Kompilieren, Optimieren und Bereitstellen von Modellen in Umgebungen mit begrenzter Rechenleistung und Speicher.
Diese lehrer-gesteuerte Live-Ausbildung (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler und -Integratoren, die Modelle auf Ascend Edge-Geräten mit der CANN Werkzeugkette bereitstellen und optimieren möchten.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein:
- AI-Modelle für den Ascend 310 mithilfe von CANN-Werkzeugen vorzubereiten und umzuwandeln.
- Leichtgewichtige Inferenzpipelines mit MindSpore Lite und AscendCL zu erstellen.
- Die Modellleistung für Umgebungen mit begrenzter Rechenleistung und Speicher zu optimieren.
- AI-Anwendungen in realen Edge-Szenarien bereitzustellen und zu überwachen.
Format der Ausbildung
- Interaktive Vorlesung und Demonstration.
- Praxisarbeit am Modell und in Szenarien für Edge-Geräte.
- Live-Beispiele der Bereitstellung auf virtuellem oder physischem Edge-Hardware.
Anpassungsoptionen der Ausbildung
- Um eine angepasste Ausbildung für diesen Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Verständnis des AI-Bereichs von Huawei: Von CANN bis MindSpore
14 StundenHuawei's AI-Stack — vom unteren SDK-CANN bis zum höherstufigen MindSpore-Framework — bietet eine eng integrierte Entwicklungsumgebung für die Bereitstellung von KI, optimiert für Ascend-Hardware.
Diese instructor-led Live-Ausbildung (online oder vor Ort) richtet sich an Anfänger und Fortgeschrittene in technischen Berufen, die verstehen möchten, wie die Komponenten CANN und MindSpore zusammenarbeiten, um das KI-Lebenszyklus-Management und Infrastrukturentscheidungen zu unterstützen.
Am Ende der Ausbildung können die Teilnehmer Folgendes:
- Die aufgeschichtete Architektur von Huaweis AI-Berechnungsstack verstehen.
- Erkennen, wie CANN das Modelloptimierung und die Hardwarebereitstellung unterstützt.
- Den MindSpore-Framework und -Toolchain in Bezug auf Branchenalternativen bewerten.
- Positionieren von Huaweis AI-Stack innerhalb von Unternehmensumgebungen oder Cloud/on-prem-Umgebungen.
Format der Ausbildung
- Interaktive Vorlesung und Diskussion.
- Live-Demos des Systems und fallbasierte Durchgänge.
- Optional geführte Workshops zum Modellfluss von MindSpore zu CANN.
Anpassungsoptionen der Ausbildung
- Bei Interesse an einer angepassten Trainingseinheit für diesen Kurs, kontaktieren Sie uns bitte zur Anordnung.
Optimierung der Leistung von Neuronalen Netzen mit CANN SDK
14 StundenCANN SDK (Compute Architecture für Neural Networks) ist die AI-Berechnungsplattform von Huawei, mit der Entwickler die Leistung von eingesetzten neuronalen Netzen auf Ascend AI-Prozessoren feinjustieren und optimieren können.
Diese in Live-Format durchgeführte Schulung (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler und Systemingenieure, die die Leistungsfähigkeit der Inferenz mit den erweiterten Werkzeugen von CANN optimieren möchten. Dies beinhaltet das Graph Engine, TIK sowie die Entwicklung benutzerdefinierter Operatoren.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- CANN's Laufzeitarchitektur und Leistungszyklus zu verstehen.
- Profilierwerkzeuge und Graph Engine zur Analyse und Optimierung der Performance nutzen.
- Benutzerdefinierte Operatoren mit TIK und TVM erstellen und optimieren.
- Speichergrenzen auflösen und die Modelldurchsatzfähigkeit verbessern.
Format der Schulung
- Interaktiver Vortrag und Diskussion.
- Hände-direkt-Händefür-Schulungen mit realzeitiger Profilingfunktion und Anpassung von Operatoren.
- Optimierungsaufgaben unter Verwendung von Randfall-Deploymentbeispielen.
Anpassungsmöglichkeiten der Schulung
- Für eine maßgeschneiderte Schulung für diesen Kurs wenden Sie sich bitte an uns, um die Anpassung zu vereinbaren.
CANN SDK für Computer Vision und NLP-Pipelines
14 StundenDie CANN SDK (Compute-Architektur für Neural Networks) bietet leistungsstarke Bereitstellungstools und Optimierungsmethoden für Echtzeitanwendungen im Bereich der KI, insbesondere in der Computer Vision und dem NLP, vor allem auf Huawei Ascend-Hardware.
Diese von einem Trainer geleitete Live-Ausbildung (online oder vor Ort) richtet sich an fortgeschrittene AI-Praktiker, die Modelle für Bildverarbeitung und Sprachverarbeitung mit der CANN SDK zur Produktionsnutzung bereitstellen und optimieren möchten.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein:
- CV- und NLP-Modelle mit CANN und AscendCL bereitzustellen und zu optimieren.
- CANN-Tools zur Modellkonvertierung und -integration in lebende Pipelines zu nutzen.
- Rückschlüsseleistung für Aufgaben wie Erkennung, Klassifizierung und Sentimentanalyse zu optimieren.
- Echtzeit-CV/NLP-Pipelines für die Bereitstellung an der Edge oder im Cloud-Szenario aufzubauen.
Format der Ausbildung
- Interaktive Vorlesung und Demonstration.
- Praxisübungen zur Modellbereitstellung und Leistungsbewertung.
- Live-Pipeline-Design unter Verwendung realer CV- und NLP-Anwendungsbeispiele.
Anpassungsoptionen der Ausbildung
- Um eine angepasste Ausbildung für diesen Kurs zu beantragen, kontaktieren Sie uns bitte zur Absprache.
Erstellen benutzerdefinierter AI-Operatoren mit CANN TIK und TVM
14 StundenCANN TIK (Tensor Instruction Kernel) und Apache TVM ermöglichen die erweiterte Optimierung und Anpassung von AI-Modelloperatoren für Huawei Ascend Hardware.
Dieses von einem Trainer durchgeführte Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Systementwickler, die Custom-Operatoren für AI-Modelle mithilfe des TIK Programmiermodells und der TVM-Kompilerintegration von CANN erstellen, bereitstellen und einstellen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Custom-AI-Operatoren mit dem TIK DSL für Ascend-Prozessoren zu schreiben und zu testen.
- Custom-Ops in den CANN Runtime und die Ausführungsgraphik zu integrieren.
- TVM zur Operator-Scheduling, Auto-Tuning und Benchmarking zu verwenden.
- Instruktionsebene Leistungsprobleme von Custom-Berechnungsmustern zu debuggen und zu optimieren.
Format des Kurses
- Interaktive Vorlesungen und Demonstrations.
- Praxisorientiertes Coden von Operatoren mit TIK- und TVM-Pipelines.
- Testen und Einstellen auf Ascend-Hardware oder Simulatoren.
Anpassungsoptionen des Kurses
- Für eine angepasste Ausbildung zu diesem Kurs wenden Sie sich bitte an uns, um die Vorstellung zu vereinbaren.
Migration von CUDA-Anwendungen zu chinesischen GPU-Architekturen
21 StundenChinesische GPU-Architekturen wie Huawei Ascend, Biren und Cambricon MLUs bieten CUDA-Alternativen an, die auf lokale AI- und HPC-Märkte zugeschnitten sind.
Dieses von einem Dozenten durchgeführte Live-Seminar (Online oder Vorort) richtet sich an erfahrene GPU-Programmierer und Infrastruktur-Spezialisten, die bestehende CUDA-Anwendungen auf chinesische Hardwareplattformen migrieren und optimieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kompatibilität bestehender CUDA-Arbeitssätze mit alternativen chinesischen Chips zu bewerten.
- CUDA-Codebasen in Umgebungen von Huawei CANN, Biren SDK und Cambricon BANGPy umzustellen.
- Leistung zu vergleichen und Optimierungspunkte über verschiedene Plattformen hinweg zu identifizieren.
- Praktische Herausforderungen im Bereich Cross-Architektur-Unterstützung und -Deployment anzugehen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Hände-direkt-in den Code-Übersetzungslabors mit Leistungsvergleich.
- Geleitete Übungen, die auf Multi-GPU-Adaptierungsstrategien fokussiert sind.
Anpassungsoptionen für den Kurs
- Zum Anfordern einer angepassten Ausbildung an Ihren Plattformbedarf oder CUDA-Projekt, kontaktieren Sie uns bitte zur Arrangement.
Performance Optimization on Ascend, Biren, and Cambricon
21 StundenAscend, Biren und Cambricon sind führende AI-Hardware-Plattformen in China, die jeweils einzigartige Tools zur Beschleunigung und Profiling für Produktions-AI-Aufgaben bieten.
Diese von einem Trainer geleitete Live-Ausbildung (online oder vor Ort) richtet sich an fortschrittliche AI-Infrastruktur- und Leistungstechniker, die Workflow zum Modell-Inferenz und -Training über verschiedene chinesische AI-Chip-Plattformen optimieren möchten.
Am Ende dieser Ausbildung werden Teilnehmer in der Lage sein:
- Modelle auf den Plattformen Ascend, Biren und Cambricon zu benchmarken.
- Systembottlenecks und ineffiziente Speicher-/Rechenprozesse zu identifizieren.
- Grafenebene-, Kernel-Ebene- und Operator-Ebene-Optimierungen anzuwenden.
- Bereitstellungs-Pipelines zu justieren, um Durchsatz und Latenz zu verbessern.
Format der Veranstaltung
- Interaktiver Vortrag und Diskussion.
- Hände-direkt Einsatz von Profiling- und Optimierungstools auf jeder Plattform.
- Führung durch Übungen, die sich auf praktische Justierungszenarien konzentrieren.
Möglichkeiten der Anpassung des Kurses
- Um eine angepasste Ausbildung für diesen Kurs basierend auf Ihrer Leistungsumgebung oder Modelltyp anzufordern, kontaktieren Sie uns bitte zur Absprache.