Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Einführung in das Bedrohungsmodellierung von KI-Systemen
- Was macht AI-Systeme anfällig?
- AI-Angriffsfläche im Vergleich zu traditionellen Systemen
- Kritische Angriffspfade: Daten-, Modell-, Ausgabe- und Schnittstellenebenen
Feindliche Angriffe auf AI-Modelle
- Verständnis von feindseligen Beispielen und Störungstechniken
- Weißer Box versus schwarzer Box-Angriffe
- Methode FGSM, PGD und DeepFool
- Sichtbarmachen und Erstellen von feindlichen Proben
Modell-Inversion und Datenschutzverletzung
- Ableitung der Trainingsdaten aus dem Modellausgabe
- Mitgliedschaftsinferenzangriffe
- Datenschutzrisiken in Klassifizierungs- und generativen Modellen
Datenvergiftung und Backdoor-Injektionen
- Wie vergiftete Daten das Modellverhalten beeinflussen
- Auslöserbasierte Backdoors und Trojanerangriffe
- Detektions- und Sanierungsmethoden
Robustheit und Verteidigungstechniken
- Feindliches Training und Datenverstärkung
- Gradientenmaskierung und Eingangs-Vorbehandlung
- Modellglättung und Regularisierungsstrategien
Datenschutzmaßnahmen in KI-Verteidigungen
- Einführung in die differenzielle Privatsphäre
- Rauscheinführung und Datenschutzbudgets
- Federated Learning und sichere Aggregation
AI Security in der Praxis
- Bedrohungsbewusste Modellauswertung und -bereitstellung
- Nutzung von ART (Adversarial Robustness Toolbox) in angewandten Szenarien
- Branche-Fallstudien: Echte Welt-Angriffe und Gegenmaßnahmen
Zusammenfassung und weitere Schritte
Das Sicherheitsmanagement von AI-Modellen ist die Disziplin, mit der maschinelle Lernsysteme gegen modellspezifische Bedrohungen wie feindliche Eingaben, Datenvergiftung, Inversionsangriffe und Datenschutzverletzungen verteidigt werden.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Kursanpassungsoptionen
- Für eine angepasste Ausbildung für diesen Kurs, kontaktieren Sie uns bitte zur Arrangement.
Voraussetzungen
- Ein Verständnis von maschinellem Lernprozess und Modelltraining
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Bekanntschaft mit grundlegenden Sicherheits- oder Bedrohungskonzepten ist hilfreich
Zielgruppe
- Machine Learning Ingenieure
- Cybersecurity Analysten
- AI-Forscher und Modellvalidierungsteams
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Read more...