Schulungsübersicht

1: HDFS (17%)

  • Beschreiben Sie die Funktion der HDFS Daemons
  • Beschreiben Sie den normalen Betrieb einer Apache Hadoop Cluster, sowohl bei Daten speichern als auch bei Daten verarbeiten.
  • Identifizieren Sie aktuelle Merkmale von Rechnersystemen, die ein System wie Apache Hadoop motivieren.
  • Klassifizieren Sie die Hauptziele der HDFS Design
  • Gegeben eine Situation, identifizieren Sie den passenden Anwendungsbereich für HDFS Federation
  • Identifizieren Sie Komponenten und Daemon eines HDFS HA-Quorum Clusters
  • Analyisieren Sie die Rolle der HDFS Sicherheit (Kerberos)
  • Bestimmen Sie die beste Datenserialisierungsoption für eine gegebene Situation
  • Beschreiben Sie den Pfad zur Dateilese- und Schreiboperationen
  • Identifizieren Sie die Befehle zum Manipulieren von Dateien im Hadoop File System Shell

2: YARN und MapReduce Version 2 (MRv2) (17%)

  • Verstehen Sie, wie die Aktualisierung eines Clusters von Hadoop 1 zu Hadoop 2 die Cluster-Einstellungen beeinflusst
  • Verstehen Sie, wie MapReduce v2 (MRv2 / YARN) bereitgestellt wird, einschließlich aller YARN Daemons
  • Verstehen Sie die grundlegende Designstrategie für MapReduce v2 (MRv2)
  • Bestimmen Sie, wie YARN Ressourcen zuweist
  • Identifizieren Sie den Ablauf eines MapReduce Jobs auf YARN
  • Bestimmen Sie, welche Dateien geändert werden müssen und wie, um einen Cluster von MapReduce Version 1 (MRv1) zu MapReduce Version 2 (MRv2) auf YARN zu migrieren.

3: Hadoop Cluster Planung (16%)

  • Hauptpunkte zu berücksichtigen beim Wahl von Hardware und Betriebssysteme für die Hosting eines Apache Hadoop Clusters.
  • Analysieren Sie die Auswahlmöglichkeiten bei der Betriebssystemauswahl
  • Verstehen Sie Kernel-Optimierung und Festplattenaustausch
  • Gegeben eine Situation und ein Arbeitsmuster, identifizieren Sie eine passende Hardware-Konfiguration für die Situation
  • Gegeben eine Situation, bestimmen Sie die Komponenten des Ökosystems, die Ihr Cluster benötigen um die SLA zu erfüllen
  • Clusterskalierung: gegeben eine Situation und Häufigkeit der Ausführung, identifizieren Sie die spezifischen Anforderungen für den Arbeitslasten, einschließlich CPU, Speicher, Speicherplatz, Festplatten I/O
  • Festplattengröße und -Konfiguration, einschließlich JBOD gegen RAID, SANs, Virtualisierung und Festplattengrößenanforderungen in einem Cluster
  • Netztopologien: Verstehen Sie die Netzwerkverwendung in Hadoop (für sowohl HDFS als auch MapReduce) und schlagen oder identifizieren Sie wichtige Komponenten der Netzwerkdesign für eine gegebene Situation vor

4: Hadoop Cluster Installation und Verwaltung (25%)

  • Gegeben eine Situation, identifizieren Sie, wie der Cluster Festplatten- und Maschinenschäden behandelt
  • Analysieren Sie die Konfiguration des Loggings und die Dateiformate der Logging-Konfiguration
  • Verstehen Sie die Grundlagen von Hadoop Metriken und Cluster-Gesundheitsüberwachung
  • Identifizieren Sie die Funktionen und Zwecke der verfügbaren Tools zur Überwachung des Clusters
  • Installieren Sie alle Komponenten des Ökosystems in CDH 5, einschließlich (aber nicht beschränkt auf): Impala, Flume, Oozie, Hue, Manager, Sqoop, Hive und Pig
  • Identifizieren Sie die Funktionen und Zwecke der verfügbaren Tools zur Verwaltung des Apache Hadoop Dateisystems

5: RessourcenManagement (10%)

  • Verstehen Sie die übergeordneten Designziele jedes Hadoop-Scheduler
  • Gegeben eine Situation, bestimmen Sie, wie der FIFO Scheduler Ressourcen des Clusters zuweist
  • Gegeben eine Situation, bestimmen Sie, wie der Fair Scheduler Ressourcen unter YARN zuweist
  • Gegeben eine Situation, bestimmen Sie, wie der Capacity Scheduler Ressourcen des Clusters zuweist

6: Überwachung und Logging (15%)

  • Verstehen Sie die Funktionen und Merkmale der Metrik-Sammlungs-Verfahren von Hadoop
  • Analysieren Sie die NameNode und JobTracker Web UIs
  • Verstehen Sie, wie Cluster-Daemons überwacht werden
  • Identifizieren und überwachen Sie den CPU-Aufwand auf Master-Knoten
  • Beschreiben Sie die Überwachung von Auslagerungs- und Speicherallokation auf allen Knoten
  • Identifizieren Sie, wie Sie Hadoop-Logfiles ansehen und verwalten können
  • Interpretieren Sie eine Logdatei

Voraussetzungen

  • Grundlegende Administrationsfähigkeiten Linux
  • Grundlegende Programmierkenntnisse
 35 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Erfahrungsberichte (3)

Kommende Kurse

Verwandte Kategorien