Schulungsübersicht

Modul 1: Einführung in die Confluent Apache Kafka Architektur und Clusterkonfiguration

  • Was sind Apache Kafka und das Confluent Platform?
  • Kafka Broker, Producer, Consumer und Themen-Grundlagen
  • Rolle von Kafka in Datenstrom- und Messaging-Pipelines
  • Confluent-Erweiterungen: REST Proxy, Schema Registry, Control Center
  • Kafka Cluster-Architektur: Brokers, Partitions und Replikation

Modul 2: Zookeeper Quorum-Konfiguration

  • Was ist Zookeeper?
  • Rolle von Zookeeper in einem Kafka-Cluster
  • Zookeeper Quorum-Größe
  • Zookeeper-Konfiguration
  • Implementierung von SSH auf unseren Servern
  • Praktische Übung: Zookeeper-Konfiguration (als Team und als Dienst)
  • Nutzung der Zookeeper Command Line Interface (CLI)
  • Praktische Übung: Konfigurieren des Zookeeper Quorum
  • Zookeeper interne Dateisysteme
  • Leistungsfaktoren, die Zookeeper beeinflussen
  • Demo: Verwaltungstools und Zoonavigator für Zookeeper

Modul 3: Kafka Cluster-Konfiguration

  • Kafka-Grundlagen
  • Kafka-Konfiguration
  • Praktische Übung: Konfigurieren von Kafka auf einem einzigen Broker
  • Praktische Übung: Ausführen von Kafka-Befehlen
  • Praktische Übung: Setzen eines mehrbrokerhaften (Cluster) Kafka-Konfigurationen ein
  • Praktische Übung: Testen des Kafka Clusters
  • Kann ich mich mit meinem Kafka-Cluster verbinden?
  • Konfiguration von Advertised.listeners: Schlüsseleinstellung
  • Themen-Konfiguration
  • Aufbau der Nachrichteneingabe und -auslieferung in Themen
  • Praktische Übung: Vorbereitung der Kafka-Resilienz
  • Kafka-Leistung: I/O, Netzwerk, RAM, CPU, OS
  • Weitere Faktoren für die Kafka-Leistung
  • Praktische Übung: Wie man Broker-Konfigurationen anpasst

Modul 4: Erweiterte Kafka-Konfiguration

  • Konfiguration von Landoop Kafka Topics UI, Confluent REST Proxy und Confluent Schema Registry
  • Versenden und Empfangen von Nachrichten (CLI, Java, Spring Framework)
  • Metriken- und Überwachungstools (Confluent Control Center, Elasticsearch usw.)
  • Logdateien und Offsetverwaltung
  • Hochverfügbarkeit und Katastrophenbewältigung
  • Sicherstellung der Hochverfügbarkeit durch Replikation
  • Leistungsoptimierung (Producer/Consumer)
  • Konzepte für die Katastrophenbewältigung
  • Fehlerübergangssteuerung und Datenwiederherstellung
  • Aufbau von Connectors
  • Implementierung von Kafka Connect
  • Sicherheitsfunktionen von Kafka

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Erfahrung mit Linux-basierten Systemen und Kommandozeilenwerkzeugen
  • Befähigung zu verteilten Systemkonzepten
  • Verständnis grundlegender Netzwerke und Systemkonfigurationen

Zielgruppe

  • DevOps und SRE-Teams, die Kafka-Bereitstellungen verwalten
  • Systemadministratoren, die mit Confluent und Zookeeper arbeiten
  • Kafka-Entwickler und -Architekten, die für skalierbare Systeme verantwortlich sind
 16 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Erfahrungsberichte (5)

Kommende Kurse

Verwandte Kategorien