Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einführung
- Was sind Large Language Models (LLMs)?
- LLMs im Vergleich zu traditionellen NLP-Modellen
- Überblick über die Merkmale und Architektur von LLMs
- Herausforderungen und Grenzen von LLMs
LLMs verstehen
- Der Lebenszyklus eines LLM
- Wie LLMs funktionieren
- Die Hauptbestandteile eines LLM: Kodierer, Dekodierer, Aufmerksamkeit, Einbettungen, etc.
Erste Schritte
- Einrichten der Entwicklungsumgebung
- Installation eines LLM als Entwicklungswerkzeug, z. B. Google Colab, Hugging Face
Arbeit mit LLMs
- Erkundung der verfügbaren LLM-Optionen
- Erstellen und Verwenden eines LLM
- Feinabstimmung eines LLM für einen benutzerdefinierten Datensatz
Text-Zusammenfassung
- Verstehen der Aufgabe der Textzusammenfassung und ihrer Anwendungen
- Verwendung eines LLM für extraktive und abstrakte Textzusammenfassungen
- Bewertung der Qualität der generierten Zusammenfassungen mit Hilfe von Metriken wie ROUGE, BLEU, etc.
Beantwortung von Fragen
- Verstehen der Aufgabe der Beantwortung von Fragen und ihrer Anwendungen
- Verwendung eines LLM für die Beantwortung von Fragen in offenen und geschlossenen Domänen
- Bewertung der Genauigkeit der generierten Antworten mit Hilfe von Metriken wie F1, EM, etc.
Textgenerierung
- Verstehen der Aufgabe der Texterstellung und ihrer Anwendungen
- Verwendung eines LLM für bedingte und unbedingte Texterzeugung
- Kontrolle des Stils, des Tons und des Inhalts der generierten Texte mit Hilfe von Parametern wie Temperatur, top-k, top-p, usw.
Integration von LLMs mit anderen Frameworks und Plattformen
- Verwendung von LLMs mit PyTorch oder TensorFlow
- Verwendung von LLMs mit Flask oder Streamlit
- Verwendung von LLMs mit Google Cloud oder AWS
Fehlersuche
- Verstehen der häufigen Fehler und Bugs in LLMs
- Verwendung von TensorBoard zur Überwachung und Visualisierung des Trainingsprozesses
- PyTorch Lightning verwenden, um den Trainingscode zu vereinfachen und die Leistung zu verbessern
- Verwendung von Hugging Face Datasets zum Laden und Vorverarbeiten der Daten
Zusammenfassung und nächste Schritte
Voraussetzungen
-
Verständnis von natürlicher Sprachverarbeitung und Deep Learning
Erfahrung mit Python und PyTorch oder TensorFlow
Grundlegende Programmiererfahrung
Publikum
-
Entwickler
NLP-Enthusiasten
Datenwissenschaftler
14 Stunden