Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einführung in die KI-Bedrohungsmodellierung
- Was macht KI-Systeme angreifbar?
- Angreifbare Oberfläche von KI-Systemen im Vergleich zu traditionellen Systemen
- Hauptangriffsvektoren: Daten-, Modell-, Ausgabe- und Schnittstellenbereiche
Feindselige Angriffe auf KI-Modelle
- Verständnis von feindseligen Beispielen und Störungstechniken
- White-box vs. Black-box-Angriffe
- FGSM, PGD und DeepFool-Methoden
- Visualisierung und Erstellung von feindseligen Beispielen
Modellinversion und Datenschutzverletzungen
- Herleitung von Trainingsdaten aus dem Modellausgang
- Mitgliedschaftsinferenzangriffe
- Datenschutzrisiken bei Klassifikations- und generativen Modellen
Datenvergiftung und Backdoor-Injektionen
- Wie vergiftete Daten das Modellverhalten beeinflussen
- Trigger-basierte Backdoors und Trojanerangriffe
- Erkennungs- und Säuberungsstrategien
Robustheit und Verteidigungstechniken
- Feindseliges Training und Datenvergrößerung
- Gradient-Masking und Eingabevorverarbeitung
- Modellglättung und Regularisierungstechniken
Datenschutzfreundliche KI-Verteidigungen
- Einführung in den differentialen Datenschutz
- Rauscheinjektion und Datenschutzbudgets
- Federated Learning und sicherer Aggregation
Praktische KI-Sicherheit
- Bedrohungsbewusste Modellbewertung und -bereitstellung
- Verwendung von ART (Adversarial Robustness Toolbox) in praktischen Anwendungen
- Branchenfallstudien: Reale Vorfälle und Milderungsmaßnahmen
Zusammenfassung und weitere Schritte
Voraussetzungen
- Ein Verständnis von maschinellen Lernabläufen und Modelltrainings
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Kenntnisse von grundlegenden Sicherheits- oder Bedrohungsmodellierungskonzepten sind hilfreich
Zielgruppe
- Maschinelle Lerningenieure
- Cybersecurity-Analysten
- KI-Forscher und Modellvalidierungsteams
14 Stunden
Erfahrungsberichte (1)
Das professionelle Wissen und die Art, wie er es uns präsentierte
Miroslav Nachev - PUBLIC COURSE
Kurs - Cybersecurity in AI Systems
Maschinelle Übersetzung