Kontakt aufnehmen

Schulungsübersicht

Tag 1

Einführung in generative KI und Prompt Engineering

  • Was generative KI ist und wie sie sich von traditioneller Automatisierung unterscheidet
  • Die Rolle des Prompt Engineering bei der Gestaltung der Qualität der KI-Ausgabe
  • Überblick über das aktuelle Ökosystem von Text-, Bild-, Audio- und Video-Tools
  • Wo Prompt Engineering geschäftlichen Mehrwert bietet

Grundlagen der KI-Modelle für Text- und Bildgenerierung

  • Wie Large Language Models und Diffusion Models tatsächlich funktionieren, einfach erklärt
  • Der Unterschied zwischen Trainingsdaten, Feinabstimmung (Fine-Tuning) und Prompting
  • Stärken und Grenzen vortrainierter Modelle
  • Warum die Modellarchitektur die Art und Weise verändert, wie wir Prompts schreiben

Vergleich der führenden KI-Assistenten

  • Microsoft Copilot: Stärken in der Integration mit Microsoft 365, Word, Excel, Outlook und Teams-Workflows, grounding durch Unternehmensdaten; Schwächen in kreativem Umfang und Tiefe der Schlussfolgerungen im Vergleich zu Mitbewerbern
  • Google Gemini: Stärken in nativer Multimodalität, Workspace-Integration, Echtzeit-Suche als grounding; Schwächen in Inkonsistenz, regionaler Verfügbarkeit und Befolgung von Anweisungen bei komplexen Aufgaben
  • ChatGPT: Stärken in der Reife des Ökosystems, benutzerdefinierten GPTs, Bildgenerierung über DALL-E, Sprachmodus; Schwächen in der faktischen Zuverlässigkeit ohne grounding und strengeren Nutzungslimits bei Premium-Features
  • Claude: Stärken im Umgang mit langen Kontexten, nuancierter Schlussfolgerung, Langform-Schreiben und klarer Analyse; Schwächen in der Breite des Tool-Ökosystems und der Bildgenerierung
  • Das richtige Tool für eine gegebene Aufgabe, Zielgruppe oder Compliance-Einschränkung auswählen
  • Eine Gegenüberstellung derselben Prompt-Anweisung bei allen vier Assistenten

Prinzipien eines effektiven Prompt-Designs

  • Klarheit, Spezifität und Kontext als die drei Säulen eines guten Prompts
  • Strukturierung von Anweisungen, Tonfall, Format und Einschränkungen
  • Häufige Fehler von Anfängern und wie man sie erkennt
  • Iteration von einem schwachen zu einem hochperformanten Prompt

Tag 2

Zero-Shot-, One-Shot- und Few-Shot-Prompting

  • Der Unterschied zwischen den drei Ansätzen und wann jeder geeignet ist
  • Modellverhalten lesen und Beispiele entsprechend anpassen
  • Einem Modell eine neue Aufgabe nur mit wenigen, gut gewählten Beispielen beibringen
  • Praktische Übungen in ChatGPT, Copilot, Gemini und Claude

Fortgeschrittene Techniken des Prompt Engineering

  • Konditionale und kontextbewusste Prompts für nuancierte Ausgaben
  • Stilübertragung, Persona-Prompting und kreative Steuerung
  • Chain-of-Thought und schrittweise Schlussfolgerungen in Prompts
  • Reduzierung von Halluzinationen, Mehrdeutigkeit und Voreingenommenheit in den Antworten

Few-Shot-Fine-Tuning ohne Code

  • Was Few-Shot-Fine-Tuning ist und wie es sich vom vollständigen Model Training unterscheidet
  • Ein Anpassen eines Modells an eine Nischenaufgabe durch exemplarbasierte Prompts
  • Wann man prompt-engineern sollte und wann Fine-Tuning die bessere Investition wäre
  • Beurteilen der Ausgabequalität und iteratives Verfeinern

Hyperrealistische Textgenerierung

  • Generieren von Text mit kontrolliertem Tonfall, Stimme und Länge
  • Erzeugen von Langform-Inhalten, Zusammenfassungen, Berichten und strukturierten Dokumenten
  • Aufrechterhaltung der Kohärenz über mehrstufige Generierung hinweg
  • Kombinieren von Prompt-Patterns für wiederholbare, markenkonforme Ergebnisse

Anwendung von Prompt Engineering auf Geschäftsworkflows

  • Automatisierung von routinemäßigen Entwurfprozessen, Recherche und Informations-Triage
  • Ein kurzer Blick auf Use Cases im Kundensupport und bei Chatbots
  • Gestaltung von Prompt-Templates, die Teams ohne Neustrukturierung wiederverwenden können
  • Qualitätskontrolle, Eskalationslogik und Human-in-the-Loop-Kontrollpunkte

Tag 3

Bildgenerierung und -manipulation

  • Vergleich von DALL-E, Stable Diffusion, MidJourney und Leonardo AI
  • Schreiben von Prompts, die Stil, Komposition, Beleuchtung und Subjekt steuern
  • Negative Prompts, Gewichtung und iterative Verfeinerung
  • Bild-zu-Bild-Transformation und Bearbeitung durch Prompts

Audio und Sprache mit KI

  • Generieren natürlich klingender Sprache aus Text-Prompts
  • Voice Cloning und Synthese auf konzeptioneller Ebene
  • Use Cases in Schulungsinhalten, Barrierefreiheit und Marketing

Videoinhaltserstellung mit generativer KI

  • Überblick über aktuelle Text-zu-Video-Tools und was sie realistisch liefern können
  • Skripting und Storyboarding durch Prompt-Sequenzen
  • Kombinieren von KI-generiertem Text, Bildern, Audio und Video zu einem einzigen Asset
  • Bearbeiten und Verfeinern der KI-generierten Videoausgabe

Multimodale KI und integrierte Workflows

  • Wie multimodale Modelle Text-, Bild-, Audio- und Videoschlussfolgerungen vereinigen
  • Aufbau von End-to-End-Inhalts-Pipelines ohne Code zu schreiben
  • Praxisnahe Fallstudien aus Marketing, Design, Schulung und Werbung

Ethik, verantwortungsvoller Einsatz und was als Nächstes kommt

  • Voreingenommenheit, Urheberrecht, Zuschreibung und Content-Moderation
  • Datenschutz- und Privatsphäre-Betrachtungen bei der Nutzung generativer Plattformen
  • Offenlegung, Transparenz und Vertrauen gegenüber Endkunden
  • Aufstrebende Tools, Modelle und Trends, die es in den nächsten 12 Monaten zu beobachten gilt
  • Zusammenfassung und nächste Schritte

Voraussetzungen

Zielgruppe

Marketing-, Kommunikations- und Kreativfachkräfte, die KI-gestützte Inhaltsproduktion erkunden. Betriebs- und kundenorientierte Teams, die repetitive Interaktionen durch promptgesteuerte Tools automatisieren möchten. Anfänger ohne vorherige KI- oder Programmiererfahrung, die einen strukturierten, tool-fokussierten Einstieg in generative KI suchen.

 21 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (2)

Kommende Kurse

Verwandte Kategorien