Schulungsübersicht

Einführung in AI Red Teaming

  • Verständnis des AI-Gefahrenbereichs
  • Rollen von Red Teams bei der AI-Sicherheit
  • Ethische und rechtliche Überlegungen

Adversarial Machine Learning

  • Angriffstypen: Ausweichen, Verschmutzen, Extrahieren, Inferenz
  • Erzeugung von adversarischen Beispielen (z.B. FGSM, PGD)
  • Zielgerichtete vs. nichtzielgerichtete Angriffe und Erfolgsmetriken

Testen der Modellrobustheit

  • Bewertung der Robustheit unter Störungen
  • Untersuchung von Blindspots und Ausfallmodi des Modells
  • Belastungsprüfung von Klassifizierungs-, Sehen- und NLP-Modellen

Red Teaming AI-Pipelines

  • Angriffsoberfläche von AI-Pipelines: Daten, Modell, Bereitstellung
  • Ausnutzung unsicherer Modell-APIs und Endpunkte
  • Rückwärtsingenierung des Verhaltens und der Ausgaben des Modells

Simulation und Werkzeuge

  • Verwendung des Adversarial Robustness Toolboxes (ART)
  • Red Teaming mit Werkzeugen wie TextAttack und IBM ART
  • Sandboxing, Überwachung und Observability-Werkzeuge

AI Red Team-Strategie und Verteidigung Collaboration

  • Erstellen von Red Team-Aufgaben und Ziele
  • Kommunizieren der Ergebnisse an Blue Teams
  • Integration des Red Teaming in die AI-Risikomanagement

Zusammenfassung und Nächste Schritte

Voraussetzungen

  • Ein Verständnis von Machine Learning und Deep-Learning-Architekturen
  • Erfahrung mit Python und ML-Frameworks (z.B., TensorFlow, PyTorch)
  • Vertrautheit mit Cybersecurity-Konzepten oder Offensive-Security-Techniken

Zielgruppe

  • Sicherheitsforscher
  • Offensive Security Teams
  • AI-Garantiefachleute und Red-Team-Professionals
 14 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Kommende Kurse

Verwandte Kategorien