Schulungsübersicht

Einführung in Ollama

  • Was ist Ollama und wie funktioniert es?
  • Vorteile des lokalen Betriebs von AI-Modellen
  • Überblick über unterstützte LLMs (Llama, DeepSeek, Mistral usw.)

Installation und Einrichtung von Ollama

  • Systemanforderungen und Hardware-Überlegungen
  • Installation von Ollama auf verschiedenen Betriebssystemen
  • Konfiguration von Abhängigkeiten und Umgebungseinrichtung

Lokales Ausführen von AI-Modellen

  • Herunterladen und Laden von AI-Modellen in Ollama
  • Interaktion mit Modellen über die Kommandozeile
  • Grundlagen des Prompt Engineering für lokale AI-Aufgaben

Optimierung der Leistung und Ressourcennutzung

  • Management von Hardware-Ressourcen für effizientes AI-Handling
  • Latenzreduzierung und Verbesserung der Modellantwortzeit
  • Leistungsbewertung für verschiedene Modelle

Anwendungsfälle für lokale AI-Bereitstellungen

  • KI-gestützte Chatbots und virtuelle Assistenten
  • Datenaufbereitung und Automatisierungsaufgaben
  • Datenschutzorientierte AI-Anwendungen

Zusammenfassung und Nächste Schritte

Voraussetzungen

  • Grundverständnis von AI und maschinellem Lernen
  • Vertrautheit mit Kommandozeilen-Interfaces

Zielgruppe

  • Entwickler, die AI-Modelle ohne Cloud-Abhängigkeiten betreiben möchten
  • Geschäftsführung, die sich für AI-Datenschutz und kosteneffiziente Bereitstellungen interessiert
  • AI-Enthusiasten, die lokale Modellbereitstellungen erkunden möchten
 7 Stunden

Teilnehmerzahl


Preis pro Teilnehmer

Kommende Kurse

Verwandte Kategorien