Building Secure and Responsible LLM Applications Training Course
LLM application security is the discipline of designing, building, and maintaining safe, trustworthy, and policy-compliant systems using large language models.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level AI developers, architects, and product managers who wish to identify and mitigate risks associated with LLM-powered applications, including prompt injection, data leakage, and unfiltered output, while incorporating security controls like input validation, human-in-the-loop oversight, and output guardrails.
By the end of this training, participants will be able to:
- Understand the core vulnerabilities of LLM-based systems.
- Apply secure design principles to LLM app architecture.
- Use tools such as Guardrails AI and LangChain for validation, filtering, and safety.
- Integrate techniques like sandboxing, red teaming, and human-in-the-loop review into production-grade pipelines.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Schulungsübersicht
Overview of LLM Architecture and Attack Surface
- How LLMs are built, deployed, and accessed via APIs
- Key components in LLM app stacks (e.g., prompts, agents, memory, APIs)
- Where and how security issues arise in real-world use
Prompt Injection and Jailbreak Attacks
- What is prompt injection and why it’s dangerous
- Direct and indirect prompt injection scenarios
- Jailbreaking techniques to bypass safety filters
- Detection and mitigation strategies
Data Leakage and Privacy Risks
- Accidental data exposure through responses
- PII leaks and model memory misuse
- Designing privacy-conscious prompts and retrieval-augmented generation (RAG)
LLM Output Filtering and Guarding
- Using Guardrails AI for content filtering and validation
- Defining output schemas and constraints
- Monitoring and logging unsafe outputs
Human-in-the-Loop and Workflow Approaches
- Where and when to introduce human oversight
- Approval queues, scoring thresholds, fallback handling
- Trust calibration and role of explainability
Secure LLM App Design Patterns
- Least privilege and sandboxing for API calls and agents
- Rate limiting, throttling, and abuse detection
- Robust chaining with LangChain and prompt isolation
Compliance, Logging, and Governance
- Ensuring auditability of LLM outputs
- Maintaining traceability and prompt/version control
- Aligning with internal security policies and regulatory needs
Summary and Next Steps
Voraussetzungen
- An understanding of large language models and prompt-based interfaces
- Experience building LLM applications using Python
- Familiarity with API integrations and cloud-based deployments
Audience
- AI developers
- Application and solution architects
- Technical product managers working with LLM tools
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Building Secure and Responsible LLM Applications Training Course - Booking
Building Secure and Responsible LLM Applications Training Course - Enquiry
Building Secure and Responsible LLM Applications - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
Advanced LangGraph: Optimization, Debugging, and Monitoring Complex Graphs
35 StundenLangGraph is a framework for building stateful, multi-actor LLM applications as composable graphs with persistent state and control over execution.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI platform engineers, DevOps for AI, and ML architects who wish to optimize, debug, monitor, and operate production-grade LangGraph systems.
By the end of this training, participants will be able to:
- Design and optimize complex LangGraph topologies for speed, cost, and scalability.
- Engineer reliability with retries, timeouts, idempotency, and checkpoint-based recovery.
- Debug and trace graph executions, inspect state, and systematically reproduce production issues.
- Instrument graphs with logs, metrics, and traces, deploy to production, and monitor SLAs and costs.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Aufbau privater KI-Workflows mit Ollama
14 StundenDiese von einem Trainer geführte Live-Ausbildung an Ort und Stelle oder online richtet sich an fortgeschrittene Fachleute, die sicherheits- und effiziente AI-getriebene Workflows mit Ollama implementieren möchten.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein:
- Ollama zur privaten AI-Bearbeitung bereitzustellen und zu konfigurieren.
- AI-Modelle in sichere Unternehmensworkflows zu integrieren.
- Die Leistung der AI zu optimieren, während die Datenschutzmaßnahmen gewahrt bleiben.
- Geschäftsvorgänge mit vor Ort bereitgestellten AI-Fähigkeiten automatisieren.
- Die Einhaltung von Sicherheits- und Governancerichtlinien des Unternehmens sicherzustellen.
Deployment und Optimierung von LLMs mit Ollama
14 StundenDiese von einem Ausbilder geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Fachleute auf mittlerem Niveau, die LLMs mit Ollama einsetzen, optimieren und integrieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- LLMs mit Ollama einzurichten und einzusetzen.
- KI-Modelle auf Leistung und Effizienz zu optimieren.
- die Beschleunigung von GPU für verbesserte Inferenzgeschwindigkeiten zu nutzen.
- Ollama in Arbeitsabläufe und Anwendungen zu integrieren.
- Die Leistung von KI-Modellen im Laufe der Zeit zu überwachen und zu erhalten.
Fine-Tuning und KI-Modelle anpassen auf Ollama.
14 StundenDieser von einem Dozenten geleitete Live-Workshop in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die AI-Modelle auf Ollama feintunen und anpassen möchten, um Leistung zu verbessern und domänenspezifische Anwendungen zu schaffen.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Eine effiziente Umgebung für das Feintunen von AI-Modellen auf Ollama einzurichten.
- Datensätze für überwachtes Feintunen und maschinelles Lernen vorzubereiten.
- AI-Modelle in Bezug auf Leistung, Genauigkeit und Effizienz zu optimieren.
- Angemessene Modelle in Produktionsumgebungen einzusetzen.
- Verbesserungen der Modelle zu bewerten und Robustheit sicherzustellen.
Einführung in Google Gemini AI
14 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Anfänger und fortgeschrittene Entwickler, die KI-Funktionen in ihre Anwendungen mit Google Gemini AI integrieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Grundlagen großer Sprachmodelle zu verstehen.
- Google Gemini AI für verschiedene KI-Aufgaben einzurichten und zu verwenden.
- Text-zu-Text- und Bild-zu-Text-Transformationen zu implementieren.
- Grundlegende KI-gesteuerte Anwendungen erstellen.
- Erweiterte Funktionen und Anpassungsoptionen in Google Gemini AI kennenlernen.
Google Gemini AI für Inhaltserschaffung
14 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Inhaltsersteller, die Google Gemini AI zur Verbesserung der Qualität und Effizienz ihrer Inhalte einsetzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Rolle von KI bei der Erstellung von Inhalten zu verstehen.
- Google Gemini AI einzurichten und zu verwenden, um Inhalte zu erstellen und zu optimieren.
- Text-zu-Text-Transformationen anwenden, um kreative und originelle Inhalte zu erstellen.
- SEO-Strategien mit KI-gesteuerten Erkenntnissen umsetzen.
- Analysieren Sie die Leistung von Inhalten und passen Sie Ihre Strategien mit Gemini AI an.
Google Gemini AI für transformativen Kundendienst
14 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Kundendienstmitarbeiter auf mittlerem Niveau, die Google Gemini AI in ihrem Kundendienst implementieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Auswirkungen von KI auf den Kundenservice zu verstehen.
- Google Gemini AI einzurichten, um Kundeninteraktionen zu automatisieren und zu personalisieren.
- Text-zu-Text- und Bild-zu-Text-Transformationen zur Verbesserung der Service-Effizienz zu nutzen.
- Entwickeln Sie KI-gesteuerte Strategien für die Analyse von Kundenfeedback in Echtzeit.
- Erforschen Sie erweiterte Funktionen, um einen nahtlosen Kundenservice zu schaffen.
Google Gemini AI für Data Analysis
21 StundenDiese Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Anfänger und Fortgeschrittene, die komplexe Datenanalyseaufgaben in verschiedenen Branchen mit Google Gemini AI intuitiver durchführen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Grundlagen von Google Gemini AI zu verstehen.
- Verschiedene Datenquellen mit Gemini AI zu verbinden.
- Daten mit natürlichsprachlichen Abfragen zu erkunden.
- Datenmuster zu analysieren und Erkenntnisse abzuleiten.
- Überzeugende Datenvisualisierungen erstellen.
- Datengetriebene Erkenntnisse effektiv kommunizieren.
Intermediate Gemini AI for Public Sector Professionals
16 StundenThis instructor-led, live training in Deutschland (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Einführung in Claude AI: Conversational AI und Business Anwendungen
14 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Geschäftsleute, Kundensupport-Teams und Technikbegeisterte, die die Grundlagen von Claude AI verstehen und für Geschäftsanwendungen nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Fähigkeiten und Anwendungsfälle von Claude AI zu verstehen.
- Claude AI effektiv einzurichten und mit ihr zu interagieren.
- Geschäftsabläufe mit konversationeller KI zu automatisieren.
- Kundenbindung und -support mit KI-gesteuerten Lösungen zu verbessern.
LangGraph Foundations: Graph-Based LLM Prompting and Chaining
14 StundenLangGraph is a framework for building graph-structured LLM applications that support planning, branching, tool use, memory, and controllable execution.
This instructor-led, live training (online or onsite) is aimed at beginner-level developers, prompt engineers, and data practitioners who wish to design and build reliable, multi-step LLM workflows using LangGraph.
By the end of this training, participants will be able to:
- Explain core LangGraph concepts (nodes, edges, state) and when to use them.
- Build prompt chains that branch, call tools, and maintain memory.
- Integrate retrieval and external APIs into graph workflows.
- Test, debug, and evaluate LangGraph apps for reliability and safety.
Format of the Course
- Interactive lecture and facilitated discussion.
- Guided labs and code walkthroughs in a sandbox environment.
- Scenario-based exercises on design, testing, and evaluation.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
LangGraph in Healthcare: Workflow Orchestration for Regulated Environments
35 StundenLangGraph enables stateful, multi-actor workflows powered by LLMs with precise control over execution paths and state persistence. In healthcare, these capabilities are crucial for compliance, interoperability, and building decision-support systems that align with medical workflows.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level professionals who wish to design, implement, and manage LangGraph-based healthcare solutions while addressing regulatory, ethical, and operational challenges.
By the end of this training, participants will be able to:
- Design healthcare-specific LangGraph workflows with compliance and auditability in mind.
- Integrate LangGraph applications with medical ontologies and standards (FHIR, SNOMED CT, ICD).
- Apply best practices for reliability, traceability, and explainability in sensitive environments.
- Deploy, monitor, and validate LangGraph applications in healthcare production settings.
Format of the Course
- Interactive lecture and discussion.
- Hands-on exercises with real-world case studies.
- Implementation practice in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Dynamic Workflows with LangGraph and LLM Agents
14 StundenLangGraph is a framework for composing graph-structured LLM workflows that support branching, tool use, memory, and controllable execution.
This instructor-led, live training (online or onsite) is aimed at intermediate-level engineers and product teams who wish to combine LangGraph’s graph logic with LLM agent loops to build dynamic, context-aware applications such as customer support agents, decision trees, and information retrieval systems.
By the end of this training, participants will be able to:
- Design graph-based workflows that coordinate LLM agents, tools, and memory.
- Implement conditional routing, retries, and fallbacks for robust execution.
- Integrate retrieval, APIs, and structured outputs into agent loops.
- Evaluate, monitor, and harden agent behavior for reliability and safety.
Format of the Course
- Interactive lecture and facilitated discussion.
- Guided labs and code walkthroughs in a sandbox environment.
- Scenario-based design exercises and peer reviews.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
LangGraph for Marketing Automation
14 StundenLangGraph is a graph-based orchestration framework that enables conditional, multi-step LLM and tool workflows, ideal for automating and personalizing content pipelines.
This instructor-led, live training (online or onsite) is aimed at intermediate-level marketers, content strategists, and automation developers who wish to implement dynamic, branching email campaigns and content generation pipelines using LangGraph.
By the end of this training, participants will be able to:
- Design graph-structured content and email workflows with conditional logic.
- Integrate LLMs, APIs, and data sources for automated personalization.
- Manage state, memory, and context across multi-step campaigns.
- Evaluate, monitor, and optimize workflow performance and delivery outcomes.
Format of the Course
- Interactive lectures and group discussions.
- Hands-on labs implementing email workflows and content pipelines.
- Scenario-based exercises on personalization, segmentation, and branching logic.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Erste Schritte mit Ollama: Lokale KI-Modelle ausführen
7 StundenDieses von einem Dozenten durchgeführte Live-Seminar (vor Ort oder online) richtet sich an Anfänger, die Ollama zur Ausführung von AI-Modellen auf ihren lokalen Rechnern installieren, konfigurieren und verwenden möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Grundlagen von Ollama und seine Fähigkeiten zu verstehen.
- Ollama zur Ausführung von lokalen AI-Modellen einrichten.
- LLMs (Large Language Models) mit Ollama bereitstellen und interagieren.
- Leistung und Ressourcennutzung für AI-Arbeitsschwerpunkte optimieren.
- Einsatzmöglichkeiten für die lokale AI-Deployment in verschiedenen Branchen erkunden.