Einführung in AI Security und Risk Management Schulung
AI Security und Risk Management ist die Praxis der Identifizierung, Mitigation und Governance von Sicherheitsbedrohungen, Compliance-Risiken und operativen Expositionen in AI-gesteuerten Systemen und Arbeitsabläufen.
Dieser von einem Trainer geleitete Live-Kurs (online oder vor Ort) richtet sich an Einsteiger in IT-Sicherheit, Risikomanagement und Compliance-Professionals, die grundlegende AI-Sicherheitskonzepte, Bedrohungspfade und globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 verstehen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die einzigartigen Sicherheitsrisiken zu verstehen, die durch AI-Systeme eingeführt werden.
- Bedrohungspfade wie feindliche Angriffe, Datenverschmutzung und Modell-Inversion zu identifizieren.
- Grundlegende Governancemodelle anzuwenden, wie das NIST AI Risk Management-Framework.
- Die Nutzung von AI mit sich entwickelnden Standards, Compliance-Richtlinien und ethischen Grundsätzen auszurichten.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Hand-on Implementierung in einer live-lab-Umgebung.
Anpassungsmöglichkeiten des Kurses
- Um einen angepassten Kurs für diesen Kurs anzufordern, kontaktieren Sie uns bitte zur Anordnung.
Schulungsübersicht
Grundlagen von KI und Sicherheit
- Was macht KI-Systeme aus der Perspektive der Sicherheit einzigartig
- Überblick über den KI-Lebenszyklus: Daten, Training, Inferenz und Deployment
- Grundlegende Taxonomie von KI-Risiken: technische, ethische, rechtliche und organisatorische
KI-Spezifische Bedrohungvektoren
- Gegnerische Beispiele und Modellanpassungen
- Modell-Inversion und Datenleakagerisiken
- Daten-Vergiftung während der Trainingsphasen
- Risiken in generativer KI (z.B. Missbrauch von LLM, Prompt-Injection)
Sicherheitsrahmen Risk Management
- NIST AI Risk Management Rahmen (NIST AI RMF)
- ISO/IEC 42001 und andere KI-spezifische Standards
- Zuordnung von KI-Risiken zu bestehenden Unternehmens-GRC-Frameworks
KI Go Governance und Compliance-Prinzipien
- Verantwortlichkeit und Prüfbarkeit der KI
- Transparenz, Erklärbarkeit und Fairness als sicherheitsrelevante Eigenschaften
- Vorurteile, Diskriminierung und nachgelagerte Schäden
Unternehmensbereitschaft und AI Security Richtlinien
- Definition von Rollen und Verantwortlichkeiten in KI-Sicherheitsprogrammen
- Richtlinienvorlagen: Entwicklung, Beschaffung, Nutzung und Stilllegung
- Drittpartei-Risiken und Nutzung von Anbieter-KI-Tools
Regulatory Landscape und Globale Trends
- Überblick über das EU AI-Gesetz und internationale Regeln
- US-Amtliches Verordnung zum sicheren, sicherheitsreichen und vertrauenswürdigen Einsatz von KI
- Entstehende nationale Rahmenwerke und sektorspezifische Anleitungen
Optionales Workshop: Risikomapping und Selbstbeurteilung
- Zuordnung von realen KI-Anwendungsfällen zu den Funktionen des NIST AI RMF
- Durchführung einer grundlegenden KI-Risiko-Selbstbewertung
- Identifizierung von internen Lücken in der KI-Sicherheitsbereitschaft
Zusammenfassung und weitere Schritte
Voraussetzungen
- Ein Verständnis der grundlegenden Prinzipien der Cyber-Sicherheit
- Erfahrung mit IT-Governance oder Rahmenwerken zur Risikomanagement
- Familiarität mit allgemeinen AI-Konzepten ist hilfreich, aber nicht erforderlich
Zielgruppe
- IT-Sicherheitsteams
- Risikomanager
- Konformitätsfachleute
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Einführung in AI Security und Risk Management Schulung - Buchung
Einführung in AI Security und Risk Management Schulung - Anfrage
Einführung in AI Security und Risk Management - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
AI Governance, Compliance und Sicherheit für Unternehmensführer
14 StundenDiese von einem Trainer durchgeführte Live-Ausbildung in Deutschland (Online oder vor Ort) richtet sich an mittelständige Unternehmensführer, die verstehen möchten, wie man KI-Systeme verantwortungsvoll und gemäß der sich ergebenden globalen Rahmenwerke wie dem EU-KI-Gesetz, GDPR, ISO/IEC 42001 und dem US-Exekutivbefehl zur KI sicher einsetzen kann.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die rechtlichen, ethischen und regulatorischen Risiken beim Einsatz von KI über Departments hinweg zu verstehen.
- Haupt-KI-Governancerahmen (EU-KI-Gesetz, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Prüfungs- und Überwachungspolitiken für die Unternehmensausbringung von KI festzulegen.
- Einkaufs- und Verwendungsvorgaben für Drittanbieter- und internen KIs zu entwickeln.
Künstliche Intelligenz Risk Management und Sicherheit im öffentlichen Sektor
7 StundenArtificial Intelligence (AI) bringt neue Dimensionen von betriebswirtschaftlichen Risiken, Governance-Herausforderungen und Cybersecurity-Aussetzungen für Behörden und Abteilungen mit sich.
Diese von einem Trainer geleitete Live-Ausbildung (online oder vor Ort) richtet sich an IT- und Risiko-Fachkräfte des öffentlichen Sektors mit begrenzter Vorerfahrung in KI, die verstehen möchten, wie man KI-Systeme im Kontext der Regierung oder von Regulatory-Bereichen bewerten, überwachen und schützen kann.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein:
- Schlüsselkonzepte des Risikos bei KI-Systemen zu interpretieren, einschließlich Bias, Unvorhersehbarkeit und Modelldrift.
- AI-spezifische Governance- und Auditing-Rahmungen wie NIST AI RMF und ISO/IEC 42001 anzuwenden.
- Cybersecurity-Threats zu erkennen, die KI-Modelle und Datendurchläufe zielen.
- Querschnittliche Risikomanagementpläne und Richtlinienabstimmungen für die Bereitstellung von KI festzulegen.
Format der Veranstaltung
- Interaktive Vorlesung und Diskussion über Verwendungsbeispiele im öffentlichen Sektor.
- Übungen zu AI-Governance-Rahmungen und Richtlinienzuordnung.
- Szenario-basiertes Threat-Modelling und Risikobewertung.
Anpassungsmöglichkeiten des Kurses
- Um eine angepasste Ausbildung für diesen Kurs zu beantragen, kontaktieren Sie uns bitte, um eine Anordnung vorzunehmen.
Einführung in KI-Vertrauen, Risiko und Security Management (KI TRiSM)
21 StundenDieses von einem Trainer geführte Live-Seminar (online oder vor Ort) richtet sich an IT-Professionals mit grundlegenden bis mittleren Kenntnissen, die ein Verständnis und die Implementierung von AI TRiSM in ihren Organisationen erwerben möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die wesentlichen Konzepte und die Bedeutung von Vertrauenswürdigkeit, Risikomanagement und Sicherheit in KI-Systemen zu verstehen.
- Risiken, die mit KI-Systemen verbunden sind, zu identifizieren und abzumildern.
- Best Practices für die Sicherheit von KI zu implementieren.
- Die Einhaltung von Vorschriften und ethische Überlegungen in der KI zu verstehen.
- Strategien zur wirksamen KI-Governance und -Verwaltung zu entwickeln.
Sichere und verantwortungsvolle LLM-Anwendungen erstellen
14 StundenDieses von einem Trainer geleitete, live durchgeführte Training in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler, Architekten und Produktmanager, die Risiken, die mit LLM-gestützten Anwendungen verbunden sind, einschließlich Prompt-Injection, Datendiebstahl und unkontrollierte Ausgaben, identifizieren und mindern möchten. Dabei sollen Sicherheitskontrollen wie Eingabevalidierung, menschliche Überwachung im Prozess (human-in-the-loop) und Ausgabegrenzen integriert werden.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kernanfälligkeiten von LLM-basierten Systemen zu verstehen.
- Sichere Designprinzipien für die Architektur von LLM-Anwendungen anzuwenden.
- Werkzeuge wie Guardrails AI und LangChain zur Validierung, Filterung und Sicherheit zu verwenden.
- Techniken wie Sandboxing, Red-Teaming und menschliche Überprüfung im Prozess (human-in-the-loop) in produktionsfähige Pipelines zu integrieren.
Cybersecurity in AI-Systemen
14 StundenDieses von einem Trainer durchgeführte, lebendige Training (online oder vor Ort) richtet sich an fortgeschrittene AI- und Cybersecurity-Profi-nale, die die Sicherheitslücken speziell für AI-Modelle und -Systeme verstehen und adressieren möchten. Insbesondere in stark regulierten Branchen wie Finanzwesen, Datengovernance und Beratung sind diese Kenntnisse von großer Bedeutung.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die Arten von feindlichen Angriffen auf AI-Systeme und Methoden zur Verteidigung gegen diese zu verstehen.
- Techniken zur Verhärterung von Modellen anzuwenden, um Machine-Learning-Pipelines sicherzustellen.
- Datenintegrität und -sicherheit in Machine-Learning-Modellen zu gewährleisten.
- Regulierungsanforderungen im Zusammenhang mit der AI-Sicherheit zu bewältigen.
OWASP GenAI Security
14 StundenBasierend auf den neuesten OWASP GenAI Security Project-Richtlinien lernen Teilnehmer, AI-spezifische Bedrohungen zu identifizieren, zu bewerten und abzumildern, indem sie hands-on Übungen und reale Szenarien durchführen.
Datenschutz Machine Learning
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherer Multiparty-Rechnen, homomorphe Verschlüsselung und differentielle Datenschutz in realen maschinellem-Lern-Pipelines implementieren und evaluieren möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Schlüssige datenschützende Techniken im Maschinenlernen zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks zu implementieren.
- Differentiellen Datenschutz für sichere Datenaustausch und Modelltraining anzuwenden.
- Verschlüsselungstechniken und sicherer Rechnen zur Schutz von Eingaben und Ausgaben des Modells zu nutzen.
Red Teaming AI Systems: Offensive Security for ML Models
14 StundenDieser von einem Dozenten durchgeführte Live-Workshop (Online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsexperten und ML-Spezialisten, die Simulation von Angriffen auf KI-Systeme, die Erkennung von Schwachstellen und die Steigerung der Robustheit bereitgestellter AI-Modelle wünschen.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Realitätsnahe Bedrohungen für maschinelles Lernen zu simulieren.
- Angreiferbeispiele zu generieren, um die Modellrobustheit zu testen.
- Die Angriffsoberfläche von KI-APIS und -Pipelines zu bewerten.
- Strategien für Rot-Teams in AI-Ausbauumgebungen zu entwerfen.
Securing Edge AI und eingebettete Intelligenz
14 StundenDiese von einem Trainer geleitete Live-Ausbildung in Deutschland (Online oder vor Ort) richtet sich an mittelsichverdienten Ingenieure und Sicherheitsexperten, die AI-Modelle am Rande gegen Bedrohungen wie Manipulation, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Deployments zu identifizieren und einzuschätzen.
- Manipulationsschutz und verschlüsselte Inferenztechniken anzuwenden.
- Edge-deployierte Modelle abzuhärten und Datenpipelines zu sichern.
- Bedrohungsminderungsstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Securing AI Models: Threats, Attacks, and Defenses
14 StundenDieser von einem Lehrer durchgeführte Live-Workshop (vor Ort oder online) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cyber-Sicherheit, die sich mit Bedrohungen gegen AI-Modelle auseinandersetzen möchten. Dabei werden sowohl konzeptionelle Rahmenstrukturen als auch praktische Verteidigungsmaßnahmen wie robuste Trainingsmethoden und differenzierende Datenschutztechniken abgedeckt.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- AI-spezifische Bedrohungen zu identifizieren und einzustufen, wie zum Beispiel feindliche Angriffe, Inversionsanfälle und Vergiftung.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) einsetzen, um Angriffe zu simulieren und Modelle zu testen.
- Praktische Verteidigungsmaßnahmen anzuwenden, darunter feindliches Training, Rauscheinblendung und datenschutzfreundliche Techniken.
- Bedrohungsbewusste Bewertungsstrategien für Modelle in Produktionsumgebungen zu entwerfen.
Sicherheit und Datenschutz in TinyML-Anwendungen
21 StundenTinyML ist ein Ansatz, um maschinelles Lernen auf energieeffizienten, ressourcenbeschränkten Geräten am Netzwerkrand einzusetzen.
Diese von einem Trainer geführte Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die TinyML-Pipelines sichern und Datenschutzmechanismen in Edge-AI-Anwendungen implementieren möchten.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken identifizieren, die speziell für das TinyML-Inferenz auf Geräten gelten.
- Datenschutzmechanismen für Edge-AI-Bereitstellungen implementieren.
- TinyML-Modelle und eingebettete Systeme gegen feindselige Bedrohungen schützen.
- Best Practices für sichere Datenverarbeitung in ressourcenbeschränkten Umgebungen anwenden.
Kursformat
- Unterhaltsame Vorlesungen, die durch Expertendiskussionen ergänzt werden.
- Praktische Übungen mit Fokus auf realistische Bedrohungsszenarien.
- Praktische Implementierung unter Verwendung von eingebetteter Sicherheit und TinyML-Tooling.
Kursanpassungsoptionen
- Organisationen können eine angepasste Version dieses Trainings anfordern, um ihren spezifischen Sicherheits- und Compliance-Anforderungen gerecht zu werden.
Sichere und vertrauenswürdige agenutzersteuerte KI: Governance, Identität und Red-Teaming
21 StundenDieses Kurs behandelt Governance, Identitätsmanagement und adversariales Testen für agenutzersteuerte KI-Systeme, wobei der Fokus auf unternehmenssichere Bereitstellungsmuster und praktische Red-Teaming-Techniken liegt.
Dieses von einem Dozenten geleitete Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Praktiker, die Agenten-basierte KI-Systeme in Produktionsumgebungen entwerfen, schützen und bewerten möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Governance-Modelle und -Richtlinien für sichere agenutzersteuerte KI-Bereitstellungen zu definieren.
- Authentifizierungsabläufe für Agenten mit minimalsten Berechtigungen zu entwerfen.
- Zugriffssteuerung, Audit-Logs und Observabilität speziell für autonome Agenten umzusetzen.
- Red-Team-Übungen zu planen und durchzuführen, um Missbrauchsmöglichkeiten, Escalationspfade und Risiken der Datenexfiltration aufzudecken.
- Gemeinsame Bedrohungen für agenutzersteuerte Systeme durch Richtlinien, technische Steuerungsmechanismen und Monitoring abzuwehren.
Format des Kurses
- Interaktive Vorlesungen und Bedrohungsmodellierungs-Workshops.
- Praktische Labs: Identitätsbereitstellung, Richtlinienzumfragen und Adversar-Simulationen.
- Red-Team/Blue-Team-Übungen und Abschlussbewertung des Kurses.
Anpassungsoptionen für den Kurs
- Um ein angepasstes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte.