Schulungsübersicht

Einführung in Cloud Computing und Big Data-Lösungen

Apache-Hadoop-Entwicklung: HDFS, MapReduce, YARN

Installation und Konfiguration von Hadoop im Pseudo-verteilten Modus

Ausführen von MapReduce-Aufträgen auf der Hadoop-Cluster

Hadoop-Clusterverwaltung: Planung, Installation und Konfiguration

Hadoop-Ökosystem: Pig, Hive, Sqoop, HBase

  • Zukunft von Big Data: Impala, Cassandra

Voraussetzungen

  • Grundkenntnisse in der Administration Linux
  • Grundkenntnisse in der Programmierung
 21 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (5)

Kommende Kurse

Verwandte Kategorien