Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einführung in TinyML und eingebettete KI
- Charakteristika der Bereitstellung von TinyML-Modellen
- Beschränkungen in Mikrocontroller-Umgebungen
- Überblick über eingebettete KI-Toolchains
Grundlagen der Modelloptimierung
- Verständnis von Berechnungsflaschenhälse
- Identifizierung speicherintensiver Operationen
- Baseline-Leistungsmessung
Quantisierungsverfahren
- Post-Training-Quantisierungstrategien
- Quantisierungsbewusstes Training
- Bewertung von Genauigkeit versus Ressourcen-Kompromissen
Pruning und Komprimierung
- Strukturierte und unstrukturierte Pruning-Methoden
- Gewichtsteilen und Modellsparsität
- Komprimierungsverfahren für leichtgewichtiges Inferenz
Hardware-bewusste Optimierung
- Bereitstellung von Modellen auf ARM Cortex-M-Systemen
- Optimierung für DSP und Accelerator-Erweiterungen
- Speicherzuordnung und Datenfluss-Betrachtungen
Benchmarking und Validierung
- Latenz- und Durchsatzanalyse
- Leistungsverbrauchsmessungen
- Genauigkeits- und Robustheitstests
Bereitstellungsabläufe und Tools
- Verwendung von TensorFlow Lite Micro für eingebettete Bereitstellung
- Integration von TinyML-Modellen in Edge Impulse-Pipelines
- Testing und Debugging auf realer Hardware
Fortgeschrittene Optimierungsstrategien
- Neural Architecture Search für TinyML
- Hybrid-Quantisierung-Pruning-Ansätze
- Modell-Distillation für eingebettetes Inferenz
Zusammenfassung und weitere Schritte
Voraussetzungen
- Verständnis von maschinellen Lernabläufen
- Erfahrung mit eingebetteten Systemen oder Mikrocontroller-basierten Entwicklungen
- Kenntnisse in Python-Programmierung
Zielgruppe
- AI-Forscher
- Eingebettete ML-Ingenieure
- Professionelle, die an Ressourcen-eingeschränkten Inferenzsystemen arbeiten
21 Stunden