Schulungsübersicht

Einleitung

  • Warum und wie sich Projektteams anpassen Hadoop
  • Wie alles begann
  • Die Rolle des Projektmanagers in Hadoop-Projekten

Verstehen der Hadoop-Architektur und Schlüsselkonzepte

  • HDFS
  • MapReduce
  • Andere Teile des Hadoop-Ökosystems

Was macht Big Data aus?

Verschiedene Ansätze zur Speicherung von Big Data

HDFS (Hadoop Distributed File System) als Grundlage

Wie Big Data verarbeitet wird

  • Die Macht der verteilten Verarbeitung

Verarbeitung von Daten mit MapReduce

  • Wie die Daten Schritt für Schritt zerlegt werden

Die Rolle des Clustering bei der verteilten Verarbeitung in großem Maßstab

  • Architektonischer Überblick
  • Clustering-Ansätze

Clustering von Daten und Prozessen mit YARN

Die Rolle der nicht-relationalen Database in der Big Data-Speicherung

Arbeiten mit nicht-relationalen Database von Hadoop: HBase

Architektonischer Überblick über Data Warehousing

Verwalten Ihrer Data Warehouse mit Hive

Ausführen von Hadoop über Shell-Skripte

Arbeiten mit Hadoop Streaming

Andere Hadoop Tools und Dienstprogramme

Erste Schritte in einem Hadoop-Projekt

  • Entmystifizierung der Komplexität

Ein bestehendes Projekt nach Hadoop migrieren

  • Überlegungen zur Infrastruktur
  • Skalierung über die zugewiesenen Ressourcen hinaus

Hadoop Projektbeteiligte und ihre Werkzeuge

  • Entwickler, Datenwissenschaftler, Geschäftsanalysten und Projektmanager

Hadoop als Grundlage für neue Technologien und Ansätze

Schlussbemerkungen

Voraussetzungen

  • Allgemeine Kenntnisse der Programmierung
  • Ein Verständnis für Datenbanken
  • Grundkenntnisse in Linux
  14 Stunden
 

Teilnehmerzahl


Beginnt

Endet


Die Termine sind abhängig von der Verfügbarkeit und finden zwischen 09:30 und 16:30 statt.
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.

Erfahrungsberichte (3)

Kombinierte Kurse

Verwandte Kategorien