Schulungsübersicht

Einführung

  • Überblick über die Funktionen und Architektur von Spark und Hadoop
  • Verstehen von Big Data
  • (4) Grundlagen der Programmierung

Erste Schritte

  • Einrichten von Python, Spark und Hadoop
  • Verstehen der Datenstrukturen in Python
  • Verstehen der PySpark-API
  • Verstehen von HDFS und MapReduce

Integration von Spark und Hadoop mit Python

  • Implementierung von Spark RDD in Python
  • Verarbeitung von Daten mit MapReduce
  • Erstellen verteilter Datensätze in HDFS

Machine Learning mit Spark MLlib

Verarbeitung von Big Data mit Spark Streaming

Arbeiten mit Empfehlungssystemen

Arbeiten mit Kafka, Sqoop, Kafka und Flume

Apache Mahout mit Spark und Hadoop

Fehlersuche

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Erfahrungen mit Spark und Hadoop
  • Python Programmiererfahrung

Publikum

  • Datenwissenschaftler
  • Entwickler
  21 Stunden
 

Teilnehmerzahl


Beginnt

Endet


Die Termine sind abhängig von der Verfügbarkeit und finden zwischen 09:30 und 16:30 statt.
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.

Erfahrungsberichte (3)

Kombinierte Kurse

Verwandte Kategorien