Cybersicherheit in KI-Systemen Schulung
Die Absicherung von KI-Systemen stellt einzigartige Herausforderungen dar, die sich von herkömmlichen Cybersicherheitsansätzen unterscheiden. KI-Systeme sind anfällig für adversarielle Angriffe, Datenvergiftung und ModellDiebstahl, was erhebliche Auswirkungen auf den Geschäftsbetrieb und die Datenintegrität haben kann. Dieser Kurs untersucht zentrale Cybersicherheitspraktiken für KI-Systeme und behandelt adversarielles maschinelles Lernen, Datensicherheit in Machine-Learning-Pipelines sowie Compliance-Anforderungen für eine robuste KI-Einführung.
Dieses von einem Trainer geleitete Live-Training (online oder vor Ort) richtet sich an Fachleute auf mittlerem Niveau aus den Bereichen KI und Cybersicherheit, die die spezifischen Sicherheitslücken von KI-Modellen und -Systemen verstehen und adressieren möchten, insbesondere in stark regulierten Branchen wie Finanzwesen, Datengovernance und Beratung.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Arten von adversariellen Angriffen auf KI-Systeme sowie Methoden zu deren Abwehr zu verstehen.
- Techniken zur Härtung von Modellen zur Sicherung von Machine-Learning-Pipelines umzusetzen.
- Die Datensicherheit und Integrität in Machine-Learning-Modellen zu gewährleisten.
- Regulatorische Compliance-Anforderungen im Bereich der KI-Sicherheit zu navigieren.
Kursformat
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und praktische Anwendungen.
- Praktische Implementierung in einer Live-Lab-Umgebung.
Möglichkeiten zur Kursanpassung
- Für eine maßgeschneiderte Schulung zu diesem Kurs kontaktieren Sie uns bitte zur Vereinbarung.
Schulungsübersicht
Einführung in die Herausforderungen der KI-Sicherheit
- Verstehen der für KI-Systeme einzigartigen Sicherheitsrisiken
- Vergleich traditioneller Cybersicherheit versus KI-Cybersicherheit
- Überblick über Angriffsflächen in KI-Modellen
Adversarielles Maschinelles Lernen
- Arten adversarieller Angriffe: Evasion, Vergiftung und Extraktion
- Umsetzung adversarieller Abwehrmaßnahmen und Gegenstrategien
- Fallstudien zu adversariellen Angriffen in verschiedenen Branchen
Techniken zur Modellhärtung
- Einführung in Modellrobustheit und Härtung
- Methoden zur Verringerung der Angriffsanfälligkeit von Modellen
- Praktische Anwendung defensiver Destillation und weiterer Härtungsmethoden
Datensicherheit im Maschinellen Lernen
- Sicherung von Datenpipelines für Training und Inferenz
- Verhinderung von Datenlecks und Modell-Inversionsangriffen
- Bewährte Verfahren zum Umgang mit sensiblen Daten in KI-Systemen
KI-Sicherheits-Compliance und regulatorische Anforderungen
- Verstehen von Vorschriften rund um KI und Datensicherheit
- Einhaltung der DSGVO, CCPA und anderer Datenschutzgesetze
- Entwicklung sicherer und konformer KI-Modelle
Überwachung und Aufrechterhaltung der Sicherheit von KI-Systemen
- Umsetzung einer kontinuierlichen Überwachung für KI-Systeme
- Protokollierung und Auditierung für Sicherheit im maschinellen Lernen
- Reaktion auf KI-Sicherheitsvorfälle und Datenschutzverletzungen
Zukunftstrends in der KI-Cybersicherheit
- Neuartige Techniken zur Absicherung von KI und maschinellem Lernen
- Innovationsmöglichkeiten in der KI-Cybersicherheit
- Vorbereitung auf zukünftige Herausforderungen in der KI-Sicherheit
Zusammenfassung und nächste Schritte
Voraussetzungen
- Grundlegendes Wissen über Machine-Learning- und KI-Konzepte
- Vertrautheit mit Prinzipien und Praktiken der Cybersicherheit
Zielgruppe
- KI- und Machine-Learning-Ingenieure, die die Sicherheit in KI-Systemen verbessern möchten
- Cybersicherheitsfachleute mit Fokus auf den Schutz von KI-Modellen
- Compliance- und Risikomanagement-Fachkräfte in den Bereichen Datengovernance und Sicherheit
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Cybersicherheit in KI-Systemen Schulung - Buchung
Cybersicherheit in KI-Systemen Schulung - Anfrage
Cybersicherheit in KI-Systemen - Beratungsanfrage
Erfahrungsberichte (1)
Das professionelle Wissen und die Art, wie er es uns präsentierte
Miroslav Nachev - PUBLIC COURSE
Kurs - Cybersecurity in AI Systems
Maschinelle Übersetzung
Kommende Kurse
Kombinierte Kurse
ISACA Advanced in AI Security Management (AAISM)
21 StundenAAISM ist ein fortgeschrittener Rahmen zur Bewertung, Governance und Verwaltung von Sicherheitsrisiken in KI-Systemen.
Diese unter Anleitung stattfindende Live-Schulung (online oder vor Ort) richtet sich an Fortgeschrittene, die effektive Sicherheitskontrollen und Governance-Praktiken für Unternehmens-KI-Umgebungen implementieren möchten.
Am Ende dieses Programms werden die Teilnehmer in der Lage sein:
- KI-Sicherheitsrisiken mit anerkannten Branchenmethoden zu bewerten.
- Governance-Modelle für verantwortungsbewusste KI-Bereitstellungen zu implementieren.
- KI-Sicherheitsrichtlinien mit den Unternehmenszielen und regulatorischen Erwartungen abzustimmen.
- Widerstandsfähigkeit und Verantwortlichkeit in kundengesteuerten Operationen zu erhöhen.
Kursformat
- Vom Trainer geführte Vorlesungen, die durch Expertenanalyse ergänzt werden.
- Praktische Workshops und beurteilungsorientierte Aktivitäten.
- Angewandte Übungen unter Verwendung realer KI-Governance-Szenarien.
Kursanpassungsoptionen
- Für maßgeschneiderte Schulungen, die auf Ihre Unternehmens-KI-Strategie abgestimmt sind, kontaktieren Sie uns bitte zur Anpassung des Kurses.
AI-Governance, Compliance und Sicherheit für Unternehmensführer
14 StundenDiese vom Dozenten geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an unternehmensführende Fachleute mittlerer Ebene, die verstehen möchten, wie sie KISysteme verantwortungsbewusst und im Einklang mit aufkommenden globalen Rahmenwerken wie der EU-KI-Verordnung, der DSGVO, ISO/IEC 42001 und dem US-Präsidentenverordnungen zur KI verwalten und sichern können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die rechtlichen, ethischen und regulatorischen Risiken des KI-Einsatzes in verschiedenen Abteilungen zu verstehen.
- Wichtige KI-Governance-Rahmenwerke (EU-KI-Verordnung, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Überwachungs- und Kontrollrichtlinien für den Einsatz von KI im Unternehmen festzulegen.
- Beschaffungs- und Nutzungsleitlinien für Drittanbieter- und hausinterne KISysteme zu entwickeln.
Künstliche Intelligenz: Risikomanagement und Sicherheit im öffentlichen Sektor
7 StundenKünstliche Intelligenz (KI) führt neue Dimensionen operativer Risiken, Governance-Herausforderungen und Cybersicherheitsanfälligkeiten für Behörden und Ministerien ein.
Diese von einem Dozenten geführte Live-Trainingseinheit (online oder vor Ort) richtet sich an IT- und Risikofachleute im öffentlichen Sektor, die bisher wenig Erfahrung mit KI haben und verstehen möchten, wie sie KI-Systeme in einem regierungs- oder regelungsbezogenen Kontext evaluieren, überwachen und schützen können.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schlüsselrisikokonzepte im Zusammenhang mit KI-Systemen zu interpretieren, einschließlich Verzerrung, Unvorhersehbarkeit und Modellverschiebung.
- KI-spezifische Governance- und Auditing-Rahmen wie NIST AI RMF und ISO/IEC 42001 anzuwenden.
- Cybersicherheitsbedrohungen zu erkennen, die KI-Modelle und Datenpipelines als Ziel haben.
- Querabteilungsrisikomanagementpläne und politische Ausrichtung für den Einsatz von KI aufzustellen.
Kursformat
- Interaktive Vorlesungen und Diskussionen über Anwendungsfälle im öffentlichen Sektor.
- Übungen zu KI-Governance-Rahmen und Politikzuordnung.
- Szenariobasierte Bedrohungsmodellierung und Risikoauswertung.
Kursanpassungsoptionen
- Für eine angepasste Schulung für diesen Kurs kontaktieren Sie uns bitte, um eine Anpassung vorzunehmen.
Einführung in die Verwaltung von KI-Vertrauen, -Risiko und -Sicherheit (AI TRiSM)
21 StundenDieses von einem Dozenten angeführte Live-Training in Deutschland (online oder vor Ort) richtet sich an IT-Professionals mit Anfänger- bis Fortgeschrittenenkenntnissen, die verstehen und AI TRiSM in ihren Organisationen implementieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die wichtigsten Konzepte und die Bedeutung der Verwaltung von KI-Vertrauen, -Risiko und -Sicherheit zu verstehen.
- Risiken, die mit KI-Systemen verbunden sind, zu identifizieren und zu mindern.
- Best Practices für die Sicherheit von KI zu implementieren.
- Regulatorische Vorgaben und ethische Überlegungen für KI zu verstehen.
- Strategien für eine effektive Verwaltung von KI zu entwickeln.
Sichere und verantwortungsvolle LLM-Anwendungen erstellen
14 StundenDieses von einem Trainer geleitete, live durchgeführte Training in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler, Architekten und Produktmanager, die Risiken, die mit LLM-gestützten Anwendungen verbunden sind, einschließlich Prompt-Injection, Datendiebstahl und unkontrollierte Ausgaben, identifizieren und mindern möchten. Dabei sollen Sicherheitskontrollen wie Eingabevalidierung, menschliche Überwachung im Prozess (human-in-the-loop) und Ausgabegrenzen integriert werden.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kernanfälligkeiten von LLM-basierten Systemen zu verstehen.
- Sichere Designprinzipien für die Architektur von LLM-Anwendungen anzuwenden.
- Werkzeuge wie Guardrails AI und LangChain zur Validierung, Filterung und Sicherheit zu verwenden.
- Techniken wie Sandboxing, Red-Teaming und menschliche Überprüfung im Prozess (human-in-the-loop) in produktionsfähige Pipelines zu integrieren.
EXO-Sicherheit und Governance: Management von Offline-Modellen
14 StundenDieses instructor-led-Live-Training in Deutschland (online oder vor Ort) richtet sich an Sicherheitstechniker und Compliance-Beauftragte, die EXO-Bereitstellungen härten, den Modellzugriff steuern und KI-Workloads verwalten möchten, die vollständig on-premise laufen.
Einführung in die KI-Sicherheit und Risikomanagement
14 StundenDiese von einem Dozenten geführte Live-Training in Deutschland (online oder vor Ort) richtet sich an IT-Sicherheits-, Risiko- und Compliance-Profis mit Anfängerschulung, die grundlegende KI-Sicherheitskonzepte, Bedrohungsszenarien und globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 verstehen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die einzigartigen Sicherheitsrisiken zu verstehen, die von KI-Systemen eingeführt werden.
- Bedrohungsszenarien wie feindselige Angriffe, Datenvergiftung und Modellinversion zu identifizieren.
- Grundlegende Regierungsmodelle wie das NIST KI-Risikomanagementrahmenwerk anzuwenden.
- Die Nutzung von KI mit aufkommenden Standards, Compliance-Richtlinien und ethischen Grundsätzen zu vereinbaren.
OWASP GenAI Security
14 StundenBasierend auf den neuesten OWASP GenAI Security Project-Richtlinien lernen Teilnehmer, AI-spezifische Bedrohungen zu identifizieren, zu bewerten und abzumildern, indem sie hands-on Übungen und reale Szenarien durchführen.
Datenschutz-freundliches maschinelles Lernen
14 StundenDiese von einem Trainer geleitete, live Training in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Fachkräfte, die Techniken wie verteiltes Lernen, sichere Mehrparteienberechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen maschinellen Lerntools implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schlüsseltechniken des datenschutz-freundlichen maschinellen Lernens zu verstehen und zu vergleichen.
- Verteilte Lernsysteme mit Open-Source-Frameworks umzusetzen.
- Differenzielle Privatsphäre für sichere Datenübermittlung und Modelltrainings anzuwenden.
- Verschlüsselungs- und sicherheitsbasierte Berechnungstechniken zur Schutz von Modulin- und -outputs zu nutzen.
Red Teaming für KI-Systeme: Offensiver Sicherheitsschutz für ML-Modelle
14 StundenDiese von einem Dozenten geleitete, live-Trainingsveranstaltung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsfachleute und ML-Spezialisten, die Angriffe auf KI-Systeme simulieren, Schwachstellen aufdecken und die Robustheit bereitgestellter KI-Modelle verbessern möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Realistische Bedrohungen für maschinelle Lernmodelle zu simulieren.
- Adversariale Beispiele zur Überprüfung der Modellrobustheit zu generieren.
- Die Angriffsfläche von KI-APIs und Pipelines zu bewerten.
- Red-Teaming-Strategien für AI-Bereitstellungsumgebungen zu entwerfen.
Sicherung von Edge AI und eingebetteter Intelligenz
14 StundenDiese von einem Trainer geleitete, live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsfachleute, die AI-Modelle am Edge gegen Bedrohungen wie Manipulation, Datenverlust, feindselige Eingaben und physische Angriffe schützen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge AI-Bereitstellungen zu identifizieren und einzuschätzen.
- Manipulationsresistenz und Verschlüsselungstechniken anzuwenden.
- Edge-Bereitstellungen zu härten und Datenpipelines sicher zu gestalten.
- Bedrohungsminderungsstrategien spezifisch für eingebettete und eingeschränkte Systeme umzusetzen.
Sicherung von KI-Modellen: Bedrohungen, Angriffe und Verteidigungsmaßnahmen
14 StundenDiese von einem Ausbilder geleitete, live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene maschinelle Lern- und Cybersecurity-Professionals, die verstehen und abmildigen möchten, welche neuen Bedrohungen gegen KI-Modelle bestehen. Dabei werden sowohl konzeptionelle Rahmenbedingungen als auch praktische Verteidigungsmaßnahmen wie robustes Training und differentialer Datenschutz genutzt.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- AI-spezifische Bedrohungen wie feindselige Angriffe, Inversion und Vergiftung zu identifizieren und zu klassifizieren.
- Tools wie das Adversarial Robustness Toolbox (ART) zum Simulieren von Angriffen und Testen von Modellen zu nutzen.
- Praktische Verteidigungsmaßnahmen einschließlich feindseligen Trainings, Rauscheinjektion und datenschutzfreundliche Techniken anzuwenden.
- Bedrohungsbewusste Modellbewertungsstrategien in Produktionsumgebungen zu entwickeln.
Sicherheit und Datenschutz in TinyML-Anwendungen
21 StundenTinyML ist ein Ansatz, um maschinelles Lernen auf energieeffizienten, ressourcenbeschränkten Geräten am Netzwerkrand einzusetzen.
Diese von einem Trainer geführte Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die TinyML-Pipelines sichern und Datenschutzmechanismen in Edge-AI-Anwendungen implementieren möchten.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken identifizieren, die speziell für das TinyML-Inferenz auf Geräten gelten.
- Datenschutzmechanismen für Edge-AI-Bereitstellungen implementieren.
- TinyML-Modelle und eingebettete Systeme gegen feindselige Bedrohungen schützen.
- Best Practices für sichere Datenverarbeitung in ressourcenbeschränkten Umgebungen anwenden.
Kursformat
- Unterhaltsame Vorlesungen, die durch Expertendiskussionen ergänzt werden.
- Praktische Übungen mit Fokus auf realistische Bedrohungsszenarien.
- Praktische Implementierung unter Verwendung von eingebetteter Sicherheit und TinyML-Tooling.
Kursanpassungsoptionen
- Organisationen können eine angepasste Version dieses Trainings anfordern, um ihren spezifischen Sicherheits- und Compliance-Anforderungen gerecht zu werden.
Sichere und vertrauenswürdige agenutzersteuerte KI: Governance, Identität und Red-Teaming
21 StundenDieses Kurs behandelt Governance, Identitätsmanagement und adversariales Testen für agenutzersteuerte KI-Systeme, wobei der Fokus auf unternehmenssichere Bereitstellungsmuster und praktische Red-Teaming-Techniken liegt.
Dieses von einem Dozenten geleitete Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Praktiker, die Agenten-basierte KI-Systeme in Produktionsumgebungen entwerfen, schützen und bewerten möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Governance-Modelle und -Richtlinien für sichere agenutzersteuerte KI-Bereitstellungen zu definieren.
- Authentifizierungsabläufe für Agenten mit minimalsten Berechtigungen zu entwerfen.
- Zugriffssteuerung, Audit-Logs und Observabilität speziell für autonome Agenten umzusetzen.
- Red-Team-Übungen zu planen und durchzuführen, um Missbrauchsmöglichkeiten, Escalationspfade und Risiken der Datenexfiltration aufzudecken.
- Gemeinsame Bedrohungen für agenutzersteuerte Systeme durch Richtlinien, technische Steuerungsmechanismen und Monitoring abzuwehren.
Format des Kurses
- Interaktive Vorlesungen und Bedrohungsmodellierungs-Workshops.
- Praktische Labs: Identitätsbereitstellung, Richtlinienzumfragen und Adversar-Simulationen.
- Red-Team/Blue-Team-Übungen und Abschlussbewertung des Kurses.
Anpassungsoptionen für den Kurs
- Um ein angepasstes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte.