Schulungsübersicht
Einführung
- Apache Spark vs Hadoop MapReduce
Überblick über die Funktionen und Architektur von Apache Spark
Auswahl der Programmiersprache
Aufbau von Apache Spark
Erstellen einer Beispielanwendung
Auswählen des Datensatzes
Durchführen der Datenanalyse auf den Daten
Verarbeiten strukturierter Daten mit Spark SQL
Verarbeiten von Streaming-Daten mit Spark Streaming
Integrieren von Apache Spark in Drittanbieter-Maschinelles-Lernen-Tools
Verwenden von Apache Spark für Graphverarbeitung
Optimieren von Apache Spark
Fehlerbehebung
Zusammenfassung und Fazit
Voraussetzungen
- Erfahrung mit der Linux-Befehlszeile
- Allgemeine Kenntnisse in Datenverarbeitung
- Programmiererfahrung mit Java, Scala, Python oder R
Zielgruppe
- Entwickler
Erfahrungsberichte (3)
Ich mochte es, dass es praktisch war. Ich liebte es, die theoretischen Kenntnisse mit praktischen Beispielen anzuwenden.
Aurelia-Adriana - Allianz Services Romania
Kurs - Python and Spark for Big Data (PySpark)
Maschinelle Übersetzung
Die Tatsache, dass wir die meisten Informationen, Kurse, Präsentationen und Übungen mitnehmen konnten, sodass wir sie noch einmal durchgehen und eventuell das Wiederholen können, was wir beim ersten Mal nicht verstanden haben, oder das Verbessern, was wir bereits gemacht haben.
Raul Mihail Rat - Accenture Industrial SS
Kurs - Python, Spark, and Hadoop for Big Data
Maschinelle Übersetzung
sehr interaktiv...
Richard Langford
Kurs - SMACK Stack for Data Science
Maschinelle Übersetzung