Schulungsübersicht

  • Einführung in Cloud Computing- und Big Data-Lösungen

  • Apache Hadoop Entwicklung: HDFS, MapReduce, YARN

  • Installation und Konfiguration von Hadoop im Pseudo-Distributionsmodus

  • Ausführen von MapReduce-Jobs auf Hadoop-Clustern

  • Planung, Installation und Konfiguration von Hadoop Clustern

  • Hadoop Ökosystem: Pig, Hive, Sqoop, HBase

  • Big Data Zukunft: Impala, Cassandra

Voraussetzungen

  • Grundkenntnisse Linux in der Verwaltung
  • Grundlegende Programmierkenntnisse
  21 Stunden
 

Teilnehmerzahl


Beginnt

Endet


Die Termine sind abhängig von der Verfügbarkeit und finden zwischen 09:30 und 16:30 statt.

Preis je Teilnehmer

Erfahrungsberichte (3)

Kombinierte Kurse

Verwandte Kategorien