Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Schulung
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems is the process of optimizing how large language models retrieve and generate relevant information from external sources for enterprise applications.
This instructor-led, live training (online or onsite) is aimed at intermediate-level NLP engineers and knowledge management teams who wish to fine-tune RAG pipelines to enhance performance in question answering, enterprise search, and summarization use cases.
By the end of this training, participants will be able to:
- Understand the architecture and workflow of RAG systems.
- Fine-tune retriever and generator components for domain-specific data.
- Evaluate RAG performance and apply improvements through PEFT techniques.
- Deploy optimized RAG systems for internal or production use.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Schulungsübersicht
Introduction to Retrieval-Augmented Generation (RAG)
- What is RAG and why it matters for enterprise AI
- Components of a RAG system: retriever, generator, document store
- Comparison with standalone LLMs and vector search
Setting Up a RAG Pipeline
- Installing and configuring Haystack or similar frameworks
- Document ingestion and preprocessing
- Connecting retrievers to vector databases (e.g., FAISS, Pinecone)
Fine-Tuning the Retriever
- Training dense retrievers using domain-specific data
- Using sentence transformers and contrastive learning
- Evaluating retriever quality with top-k accuracy
Fine-Tuning the Generator
- Selecting base models (e.g., BART, T5, FLAN-T5)
- Instruction tuning vs. supervised fine-tuning
- LoRA and PEFT methods for efficient updates
Evaluation and Optimization
- Metrics for evaluating RAG performance (e.g., BLEU, EM, F1)
- Latency, retrieval quality, and hallucination reduction
- Experiment tracking and iterative improvement
Deployment and Real-World Integration
- Deploying RAG in internal search engines and chatbots
- Security, data access, and governance considerations
- Integration with APIs, dashboards, or knowledge portals
Case Studies and Best Practices
- Enterprise use cases in finance, healthcare, and legal
- Managing domain drift and knowledge base updates
- Future directions in retrieval-augmented LLM systems
Summary and Next Steps
Voraussetzungen
- An understanding of natural language processing (NLP) concepts
- Experience with transformer-based language models
- Familiarity with Python and basic machine learning workflows
Audience
- NLP engineers
- Knowledge management teams
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Schulung - Booking
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Schulung - Enquiry
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
Advanced Techniques in Transfer Learning
14 StundenDiese von einem Ausbilder geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Fachleute für maschinelles Lernen, die modernste Transfer-Learning-Techniken beherrschen und auf komplexe reale Probleme anwenden möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- fortgeschrittene Konzepte und Methoden des Transferlernens zu verstehen.
- Implementierung domänenspezifischer Anpassungstechniken für vortrainierte Modelle.
- Kontinuierliches Lernen anwenden, um sich entwickelnde Aufgaben und Datensätze zu verwalten.
- Multi-Task-Feintuning zu beherrschen, um die Modellleistung aufgabenübergreifend zu verbessern.
Deploying Fine-Tuned Models in Production
21 StundenDiese von einem Ausbilder geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die feinabgestimmte Modelle zuverlässig und effizient einsetzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Herausforderungen bei der Bereitstellung fein abgestimmter Modelle in der Produktion zu verstehen.
- Modelle mithilfe von Tools wie Docker und Kubernetes zu containerisieren und bereitzustellen.
- Überwachung und Protokollierung für bereitgestellte Modelle zu implementieren.
- Modelle für Latenz und Skalierbarkeit in realen Szenarien zu optimieren.
Domain-Specific Fine-Tuning for Finance
21 StundenDiese von einem Ausbilder geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Fachleute auf mittlerem Niveau, die praktische Fertigkeiten bei der Anpassung von KI-Modellen für wichtige Finanzaufgaben erwerben möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- die Grundlagen der Feinabstimmung für Finanzanwendungen zu verstehen.
- Vorgefertigte Modelle für domänenspezifische Aufgaben im Finanzwesen zu nutzen.
- Techniken zur Erkennung von Betrug, zur Risikobewertung und zur Erstellung von Finanztipps anzuwenden.
- Sicherstellung der Einhaltung von Finanzvorschriften wie GDPR und SOX.
- Implementierung von Datensicherheit und ethischen KI-Praktiken in Finanzanwendungen.
Fine-Tuning Models and Large Language Models (LLMs)
14 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Fachleute auf mittlerem bis fortgeschrittenem Niveau, die vortrainierte Modelle für bestimmte Aufgaben und Datensätze anpassen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Prinzipien der Feinabstimmung und ihre Anwendungen zu verstehen.
- Datensätze für die Feinabstimmung von vortrainierten Modellen vorzubereiten.
- Große Sprachmodelle (LLMs) für NLP-Aufgaben feinabzustimmen.
- Optimieren der Modellleistung und Bewältigen allgemeiner Herausforderungen.
Efficient Fine-Tuning with Low-Rank Adaptation (LoRA)
14 StundenDiese Live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Entwickler und KI-Praktiker, die Feinabstimmungsstrategien für große Modelle implementieren möchten, ohne dafür umfangreiche Rechenressourcen zu benötigen.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Die Prinzipien der Low-Rank Adaptation (LoRA) zu verstehen.
- LoRA für eine effiziente Feinabstimmung von großen Modellen zu implementieren.
- Die Feinabstimmung für ressourcenbeschränkte Umgebungen zu optimieren.
- LoRA-angepasste Modelle für praktische Anwendungen zu evaluieren und einzusetzen.
Fine-Tuning Multimodal Models
28 StundenDiese von einem Ausbilder geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die die Feinabstimmung multimodaler Modelle für innovative KI-Lösungen beherrschen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Architektur von multimodalen Modellen wie CLIP und Flamingo zu verstehen.
- Multimodale Datensätze effektiv vorbereiten und vorverarbeiten.
- Multimodale Modelle für spezifische Aufgaben feinabzustimmen.
- Modelle für reale Anwendungen und Leistungen zu optimieren.
Fine-Tuning for Natural Language Processing (NLP)
21 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Fachleute auf mittlerem Niveau, die ihre NLP-Projekte durch die effektive Feinabstimmung von vortrainierten Sprachmodellen verbessern möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Grundlagen der Feinabstimmung für NLP-Aufgaben zu verstehen.
- Feintuning von vortrainierten Modellen wie GPT, BERT und T5 für spezifische NLP-Anwendungen.
- Hyperparameter für eine verbesserte Modellleistung zu optimieren.
- Evaluierung und Einsatz von feinabgestimmten Modellen in realen Szenarien.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 StundenDiese von einem Dozenten geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene KI-Forscher, Ingenieure für maschinelles Lernen und Entwickler, die DeepSeek LLM-Modelle verfeinern möchten, um spezielle KI-Anwendungen zu erstellen, die auf bestimmte Branchen, Bereiche oder Geschäftsanforderungen zugeschnitten sind.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein
- Die Architektur und die Fähigkeiten von DeepSeek-Modellen, einschließlich DeepSeek-R1 und DeepSeek-V3, zu verstehen.
- Datensätze vorbereiten und Daten für die Feinabstimmung vorverarbeiten.
- Feinabstimmung von DeepSeek-LLM für domänenspezifische Anwendungen.
- Effiziente Optimierung und Bereitstellung von feinabgestimmten Modellen.
Fine-Tuning Large Language Models Using QLoRA
14 StundenDieser von einem Trainer geleitete Live-Kurs in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Maschinen-Learning-Ingenieure, AI-Entwickler und Datenwissenschaftler, die lernen möchten, wie man QLoRA effizient einsetzt, um große Modelle für spezifische Aufgaben und Anpassungen zu feintunen.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Theorie hinter QLoRA und Quantisierungstechniken für LLMs zu verstehen.
- QLoRA bei der Feinabstimmung großer Sprachmodelle für domänenspezifische Anwendungen umzusetzen.
- Feinabstimmungsleistung unter begrenzten Rechenressourcen durch Quantisierung zu optimieren.
- Fine-tuned Modelle effizient in realen Anwendungen bereitzustellen und zu evaluieren.
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
14 StundenThis instructor-led, live training in Deutschland (online or onsite) is aimed at intermediate-level ML practitioners and AI developers who wish to fine-tune and deploy open-weight models like LLaMA, Mistral, and Qwen for specific business or internal applications.
By the end of this training, participants will be able to:
- Understand the ecosystem and differences between open-source LLMs.
- Prepare datasets and fine-tuning configurations for models like LLaMA, Mistral, and Qwen.
- Execute fine-tuning pipelines using Hugging Face Transformers and PEFT.
- Evaluate, save, and deploy fine-tuned models in secure environments.
Fine-Tuning with Reinforcement Learning from Human Feedback (RLHF)
14 StundenDieser von einem Trainer geleitete Live-Kurs in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Machine-Learning-Engineer und KI-Forscher, die RLHF (Reinforcement Learning from Human Feedback) zur Feinabstimmung großer AI-Modelle für bessere Leistung, Sicherheit und Ausrichtung einsetzen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die theoretischen Grundlagen von RLHF zu verstehen und warum sie für moderne KI-Entwicklung entscheidend sind.
- Reward-Modelle auf Basis menschlicher Rückmeldungen zu implementieren, um Prozesse des Reinforcement Learnings zu leiten.
- Große Sprachmodelle mit RLHF-Techniken zu feinabstimmen, um die Ausgaben den Präferenzen von Menschen anzupassen.
- Best Practices für das Skalieren von RLHF-Arbeitsabläufen für produktionsreife KI-Systeme anzuwenden.
Fine-Tuning Vision-Language Models (VLMs)
14 StundenThis instructor-led, live training in Deutschland (online or onsite) is aimed at advanced-level computer vision engineers and AI developers who wish to fine-tune VLMs such as CLIP and Flamingo to improve performance on industry-specific visual-text tasks.
By the end of this training, participants will be able to:
- Understand the architecture and pretraining methods of vision-language models.
- Fine-tune VLMs for classification, retrieval, captioning, or multimodal QA.
- Prepare datasets and apply PEFT strategies to reduce resource usage.
- Evaluate and deploy customized VLMs in production environments.
Optimizing Large Models for Cost-Effective Fine-Tuning
21 StundenDiese von einem Ausbilder geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken zur Optimierung großer Modelle für eine kosteneffektive Feinabstimmung in realen Szenarien beherrschen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- die Herausforderungen der Feinabstimmung großer Modelle zu verstehen.
- Verteilte Trainingstechniken auf große Modelle anwenden.
- Modellquantisierung und Pruning für mehr Effizienz zu nutzen.
- Optimieren der Hardware-Nutzung für Feinabstimmungsaufgaben.
- Feinabgestimmte Modelle effektiv in Produktionsumgebungen einzusetzen.
Prompt Engineering and Few-Shot Fine-Tuning
14 StundenDiese von einem Ausbilder geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Fachleute auf mittlerem Niveau, die die Leistungsfähigkeit von Prompt-Engineering und Little-Shot-Learning nutzen möchten, um die LLM-Leistung für reale Anwendungen zu optimieren.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- die Prinzipien von Prompt Engineering und few-shot learning zu verstehen.
- Effektive Prompts für verschiedene NLP-Aufgaben zu entwerfen.
- Einsatz von "few-shot" Techniken zur Anpassung von LLMs mit minimalen Daten.
- Die LLM-Leistung für praktische Anwendungen zu optimieren.
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs
14 StundenDieses von einem Trainer geleitete Live-Seminar in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Datenwissenschaftler und KI-Ingenieure, die gern kostengünstiger und effizienter große Sprachmodelle mit Methoden wie LoRA, Adapter Tuning und Prefix Tuning feintunen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die Theorie hinter parameter-effizienten Feintuning-Ansätzen zu verstehen.
- LoRA, Adapter Tuning und Prefix Tuning mit Hugging Face PEFT umzusetzen.
- Die Leistungs- und Kostenverhältnisse von PEFT-Methoden im Vergleich zum vollständigen Feintuning zu bewerten.
- Feingetunete LLMs mit reduzierten Rechen- und Speicheraufwand bereitzustellen und zu skalieren.