Schulungsübersicht

Einführung in die AI-Gefahrenmodellierung

  • Was macht AI-Systeme anfällig?
  • AI-Angriffsfläche im Vergleich zu traditionellen Systemen
  • Kritische Angriffspfade: Daten, Modell, Ausgabe und Schnittstellen

Gegnerische Angriffe auf AI-Modelle

  • Verständnis von gegnerischen Beispielen und Störungstechniken
  • Weißbox vs. Schwarzbox-Angriffe
  • Methode FGSM, PGD und DeepFool
  • Visualisierung und Erstellung gegnerischer Proben

Modell-Inversion und Datenschutzverletzungen

  • Ableitung von Trainingsdaten aus Modellausgaben
  • Mitgliedschaftsinferenzangriffe
  • Datenschutzzwischenfälle in Klassifikations- und Generativmodellen

Datenvergiftung und Backdoor-Injektionen

  • Wie vergiftete Daten das Modellverhalten beeinflussen
  • Auslöserbasierte Backdoors und Trojanerangriffe
  • Erfassungs- und Sanierungstaktiken

Robustheit und Verteidigungstechniken

  • Gegnerisches Training und Datenaugmentation
  • Gradientenmaskierung und Eingangsverarbeitung
  • Modellschmoothing und Regularisierungsverfahren

Datenschutzmaßnahmen in der AI

  • Einführung in die differentielle Privatsphäre
  • Lärmeinbringung und Datenschutzbudgets
  • Federated Learning und sichere Aggregation

AI Security in der Praxis

  • Bedrohungsbewusste Modellauswertung und -bereitstellung
  • Nutzung von ART (Adversarial Robustness Toolbox) in praktischen Anwendungen
  • Branche-Fallstudien: reale Brüche und Gegenmaßnahmen

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Eine Verständnis von Machine-Learning-Workflows und Modellausbildung
  • Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
  • Grundlegende Kenntnisse in Sicherheit oder Bedrohungsszenarien sind hilfreich

Zielgruppe

  • Maschinelles-Lernen-Ingenieure
  • Cyber-Sicherheitsanalysten
  • AI-Forscher und Modellvalidierungs-Teams
 14 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien