
Online oder vor Ort durchgeführte Live-Schulungen zu Apache Spark zeigen durch praktische Übungen, wie Spark in das Big Data-Ökosystem passt und wie Spark für die Datenanalyse verwendet wird.
Apache Spark-Schulungen sind als "Online-Live-Schulungen" oder "Vor-Ort-Live-Schulungen" verfügbar. Die Online-Live-Schulung (auch "Remote-Live-Schulung" genannt) wird über einen interaktiven, Remote-Desktop durchgeführt. Onsite-Live-Schulungen können lokal beim Kunden in Deutschland oder in NobleProg Corporate Training Centern in Deutschland durchgeführt werden.
NobleProg -- Ihr lokaler Schulungsanbieter
Machine Translated
Erfahrungsberichte
Engagement und Bereitschaft zur Klärung von Nebenthemen.
Marek - Beata Szylhabel, Krajowy Rejestr Długów Biuro Informacji Gospodarczej S.A.
Kurs: Apache Spark Fundamentals
Machine Translated
Die praktische Erfahrung des Trainers, die die besprochene Lösung nicht färbt, aber auch keine negative Voreingenommenheit einbringt. Ich habe das Gefühl, dass der Trainer mich auf die reale und praktische Anwendung des Tools vorbereitet - diese wertvollen Details findet man normalerweise nicht in Büchern.
Krzysztof Miodek - Beata Szylhabel, Krajowy Rejestr Długów Biuro Informacji Gospodarczej S.A.
Kurs: Apache Spark Fundamentals
Machine Translated
- Schulung mit praktischen Beispielen - sehr gut vorbereitete Materialien und eine Umgebung zum Selbststudium -Häufige Anregungen/Ratschläge aus der Praxis des Trainers.
Beata Szylhabel, Krajowy Rejestr Długów Biuro Informacji Gospodarczej S.A.
Kurs: Apache Spark Fundamentals
Machine Translated
Kein starrer Ansatz bei der Durchführung von Schulungen. Flexibilität. Keine unnötigen Formalitäten wie "Herr", "Frau", "ą", "ę".
Beata Szylhabel, Krajowy Rejestr Długów Biuro Informacji Gospodarczej S.A.
Kurs: Apache Spark Fundamentals
Machine Translated
Apache Spark Subcategories
Spark Course Outlines
-
Erstellen Sie die notwendige Umgebung, um die Verarbeitung von großen Daten mit Spark, Hadoop, und Python zu beginnen.
Verständnis der Eigenschaften, Kernkomponenten und Architektur von Spark und Hadoop.
Erfahren Sie, wie Sie Spark, Hadoop, und Python für die Big Data-Verarbeitung integrieren.
Entdecken Sie die Werkzeuge im Spark-Ökosystem (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka und Flume).
Erstellen Sie zusammenarbeitende Filter Empfehlungssysteme ähnlich wie Netflix, YouTube, Amazon, Spotify und Google.
Verwenden Sie Apache Mahout, um Maschinenlearning-Algorithmen zu skalieren.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
-
Effizient query, parse und join geospatiale datasets auf scale
Implementierung geospatialer Daten in Business Intelligence und voraussichtliche Analyse-Anwendungen
Verwenden Sie Raumkontext, um die Kapazitäten von mobilen Geräten, Sensoren, Logs und Träger zu erweitern
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
-
Entwickeln Sie eine Anwendung mit Alluxio
Verbinden Sie Big Data-Systeme und Anwendungen während der Erhaltung eines Namespaces
Effizient Wert aus großen Daten in jedem Speicherformat extrahieren
Verbesserung der Workload Performance
Entfernen und verwalten Alluxio unabhängig oder klusteriert
-
Datenwissenschaftler
Entwickler
Systemadministrator
-
Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
- um SQL Abfragen auszuführen.
- um Daten aus einer vorhandenen Hive Installation zu lesen. In diesem vom Kursleiter durchgeführten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie verschiedene Arten von Datensätzen mit Spark SQL analysiert werden. Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Spark SQL .
- Führen Sie eine Datenanalyse mit Spark SQL .
- Abfragen von Datensätzen in verschiedenen Formaten.
- Daten visualisieren und Ergebnisse abfragen.
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
- Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
- Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
- Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
- Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
- Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.
- Entwickler
- Software-Architekten
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
- Installieren und konfigurieren Sie Big Data-Analysetools wie Hadoop MapReduce und Spark
- Verstehen Sie die Eigenschaften von medizinischen Daten
- Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen
- Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen
- Entwickler
- Data Scientists
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
- Erstellen Sie Spark-Anwendungen mit der Programmiersprache Scala .
- Verwenden Sie Spark Streaming, um kontinuierliche Datenströme zu verarbeiten.
- Verarbeiten Sie Datenströme in Echtzeit mit Spark Streaming.
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
-
Implementieren Sie eine Datenträgerarchitektur für die Verarbeitung großer Daten.
Entwickeln Sie eine Clusterinfrastruktur mit Apache Mesos und Docker.
Analysieren Sie Daten mit Spark und Scala.
Verwaltung unstrukturierter Daten mit Apache Cassandra.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
-
Installation und Konfiguration Apache Spark.
Die Unterschiede zwischen Apache Spark und Hadoop MapReduce und wann zu verwenden.
Schnell lesen und analysieren Sie sehr große Datensätze.
Integrieren Apache Spark mit anderen Maschinenlernen.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
-
Installieren und konfigurieren Apache Spark.
Erfahren Sie, wie.NET Spark APIs implementiert, damit sie von einer.NET-Anwendung zugänglich sind.
Entwickeln Sie Datenverarbeitungsanwendungen mit Hilfe von C# oder F#, die in der Lage sind, Datensätze zu verarbeiten, deren Größe in Terabiten und Pedabiten gemessen wird.
Entwickeln Sie Maschinenlearning-Funktionen für eine.NET-Anwendung mit Apache Spark Fähigkeiten.
Durchführen Sie die Explorationsanalyse mit SQL Queries auf Big Data Sets.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
-
Installieren und konfigurieren Sie Apache Hadoop.
Die vier Hauptkomponenten des Hadoop Ökosystems verstehen: HDFS, MapReduce, YARN und Hadoop Common.
Verwenden Sie das Distributed File System (HDFS), um einen Cluster auf Hunderte oder Tausende von Knoten zu beschleunigen.
Installieren Sie HDFS, um als Speichermotor für On-Premise Spark-Einstellungen zu funktionieren.
Installieren Sie Spark für den Zugriff auf alternative Speicherlösungen wie Amazon S3 und NoSQL Datenbanksysteme wie Redis, Elasticsearch, Couchbase, Aerospike, usw.
Verwaltungsaufgaben wie die Bereitstellung, Verwaltung, Überwachung und Sicherung eines Apache Hadoop Cluster durchführen.
-
Interaktive Unterricht und Diskussion.
Viele Übungen und Übungen.
Hand-on Implementierung in einem Live-Lab-Umfeld.
-
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
- Set up the necessary development environment to start building NLP pipelines with Spark NLP.
- Understand the features, architecture, and benefits of using Spark NLP.
- Use the pre-trained models available in Spark NLP to implement text processing.
- Learn how to build, train, and scale Spark NLP models for production-grade projects.
- Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
- spark.mllib enthält die ursprüngliche API, die auf RDDs basiert.
- spark.ml bietet eine API auf höherer Ebene, die auf DataFrames zum Erstellen von ML-Pipelines basiert.
- Verstehen Sie, wie Diagrammdaten beibehalten und durchlaufen werden.
- Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis zu Stapelverarbeitungs-Frameworks).
- Implementieren Sie Hadoop , Spark, GraphX und Pregel, um das Graph-Computing auf vielen Maschinen parallel auszuführen.
- Zeigen Sie reale Big-Data-Probleme in Form von Diagrammen, Prozessen und Durchläufen an.
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Last Updated: