Schulungsübersicht

Einführung in Qualität und Observabilität bei WrenAI

  • Warum Observabilität in künstlich-intelligenzgestützten Analysen wichtig ist
  • Herausforderungen bei der NL zu SQL-Bewertung
  • Frameworks für die Qualitätsüberwachung

Bewertung der Genauigkeit von NL zu SQL

  • Erfolgskriterien für generierte Abfragen definieren
  • Benchmarks und Testdatensätze aufbauen
  • Evaluationspipelines automatisieren

Prompt-Tuning-Techniken

  • Prompts für Genauigkeit und Effizienz optimieren
  • Domänenanpassung durch Tuning
  • Verwaltung von Prompt-Bibliotheken für den Unternehmensgebrauch

Tracking von Drift und Abfragezuverlässigkeit

  • Verständnis von Abfrage-Drift in der Produktion
  • Schemen- und Datenentwicklung überwachen
  • Anomalien in Benutzerabfragen erkennen

Instrumentierung der Abfragehistorie

  • Protokollierung und Speicherung von Abfragehistorien
  • Nutzung von Historien für Audits und Troubleshooting
  • Nutzen von Abfrage-Insights zur Leistungssteigerung

Monitoring- und Observabilität-Frameworks

  • Integration in Monitoring-Tools und Dashboards
  • Metriken für Zuverlässigkeit und Genauigkeit
  • Alarmierung und Vorgehen bei Vorfallen

Unternehmensimplementierungsmuster

  • Skalierung der Observabilität über Teams hinweg
  • Balance von Genauigkeit und Leistung in der Produktion
  • Governance und Verantwortlichkeit für AI-Ausgaben

Zukunft von Qualität und Observabilität bei WrenAI

  • KI-gestützte Selbstkorrekturmechanismen
  • Fortgeschrittene Evaluationsframeworks
  • Zukünftige Funktionen für die Unternehmensobservabilität

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Grundlegendes Verständnis von Datenqualität und -zuverlässigkeit
  • Erfahrung mit SQL und Analyseworkflows
  • Kenntnisse in Monitoring- oder Observabilitätstools

Zielgruppe

  • Datenzuverlässigkeitsingenieure
  • BI-Verantwortliche
  • QA-Fachkräfte für Analysen
 14 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Kommende Kurse

Verwandte Kategorien