Vielen Dank für Ihre Anfrage! Einer unserer Mitarbeiter wird sich in Kürze mit Ihnen in Verbindung setzen.
Vielen Dank, dass Sie uns Ihre Buchung schicken! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einleitung:
- Apache Spark in Hadoop Ökosystem
- Kurze Einführung für Python, Scala
Grundlagen (Theorie):
- Architektur
- RDD
- Transformation und Aktionen
- Stufe, Aufgabe, Abhängigkeiten
Verwendung der Databricks-Umgebung, um die Grundlagen zu verstehen (praktischer Workshop):
- Übungen mit der RDD-API
- Grundlegende Aktions- und Transformationsfunktionen
- PairRDD
- Join
- Caching-Strategien
- Übungen mit der DataFrame-API
- SparkSQL
- DataFrame: Auswählen, Filtern, Gruppieren, Sortieren
- UDF (Benutzerdefinierte Funktion)
- Einblick in die DataSet-API
- Streaming
Verwendung der AWS-Umgebung, um die Bereitstellung zu verstehen (praktischer Workshop):
- Grundlagen von AWS Glue
- Verstehen der Unterschiede zwischen AWS EMR und AWS Glue
- Beispielaufträge in beiden Umgebungen
- Verstehen der Vor- und Nachteile
Extra:
- Einführung in die Apache Airflow Orchestrierung
Voraussetzungen
Programmierkenntnisse (vorzugsweise Python, Scala)
SQL Grundlagen
21 Stunden
Erfahrungsberichte (3)
Having hands on session / assignments
Poornima Chenthamarakshan - Intelligent Medical Objects
Kurs - Apache Spark in the Cloud
1. Right balance between high level concepts and technical details. 2. Andras is very knowledgeable about his teaching. 3. Exercise
Steven Wu - Intelligent Medical Objects
Kurs - Apache Spark in the Cloud
Get to learn spark streaming , databricks and aws redshift