Schulungsübersicht

Einführung in das Red Teaming für KI

  • Verständnis des KI-Gefährdungsgebiets
  • Rollen von Red Teams in der KI-Sicherheit
  • Ethische und rechtliche Überlegungen

Adversariales maschinelles Lernen

  • Arten von Angriffen: Evasion, Vergiftung, Extraktion, Inferenz
  • Generierung adversarischer Beispiele (z. B. FGSM, PGD)
  • Zielgerichtete vs. nicht zielgerichtete Angriffe und Erfolgsmaße

Überprüfung der Modellrobustheit

  • Bewertung der Robustheit unter Störungen
  • Erforschung von Modellblindflecken und Fehlern
  • Stress-Tests für Klassifikations-, Vision- und NLP-Modelle

Red Teaming von KI-Pipelines

  • Angriffsfläche von KI-Pipelines: Daten, Modell, Bereitstellung
  • Ausnutzen unsicherer Modell-APIs und -Endpunkte
  • Reverse Engineering des Modellverhaltens und der Ausgaben

Simulation und Werkzeuge

  • Verwendung des Adversarial Robustness Toolboxes (ART)
  • Red Teaming mit Werkzeugen wie TextAttack und IBM ART
  • Sandboxing, Überwachung und Observabilitätswerkzeuge

AI-Red-Team-Strategie und Verteidigungs-Zusammenarbeit

  • Entwicklung von Red-Team-Übungen und Zielen
  • Kommunikation der Erkenntnisse mit Blue Teams
  • Integration des Red Teaming in die KI-Risikomanagementstrategien

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Ein Verständnis von maschinellem Lernen und tiefen Lernarchitekturen
  • Erfahrung mit Python und ML-Frameworks (z. B. TensorFlow, PyTorch)
  • Vertrautheit mit Sicherheitskonzepten oder offensiven Sicherheitstechniken

Zielgruppe

  • Sicherheitsforscher
  • Offensiv-Sicherheitsteams
  • KI-Garantie- und Red-Team-Profis
 14 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Kommende Kurse

Verwandte Kategorien