Apache Spark Schulungen

Apache Spark Schulungen

Lokale, instruktorierte Live-Kurse von Apache Spark demonstrieren durch praktische Übungen, wie Spark in das Big Data-Ökosystem passt und wie Spark zur Datenanalyse verwendet wird Apache Spark Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Deutschland oder in NobleProg Corporate Trainingszentren in Deutschland Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt NobleProg Ihr lokaler Trainingsanbieter.

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Apache Spark Unterkategorien

Spark Kurspläne

Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
21 Stunden
Python ist eine skalierbare, flexible und weit verbreitete Programmiersprache für die Datenwissenschaft und das Maschinenlernen. Spark ist ein Datenverarbeitungsmotor, der in der Umfrage, Analyse und Transformation von großen Daten verwendet wird, während Hadoop ein Software-Bibliothek-Framework für die Storage und Verarbeitung von großen Daten ist. Diese Live-Training (online oder online) richtet sich an Entwickler, die Spark, Hadoop und Python verwenden und integrieren möchten, um große und komplexe Datensätze zu verarbeiten, zu analysieren und zu transformieren. Am Ende dieser Ausbildung können die Teilnehmer:
    Erstellen Sie die notwendige Umgebung, um die Verarbeitung von großen Daten mit Spark, Hadoop, und Python zu beginnen. Verständnis der Eigenschaften, Kernkomponenten und Architektur von Spark und Hadoop. Erfahren Sie, wie Sie Spark, Hadoop, und Python für die Big Data-Verarbeitung integrieren. Entdecken Sie die Werkzeuge im Spark-Ökosystem (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka und Flume). Erstellen Sie zusammenarbeitende Filter Empfehlungssysteme ähnlich wie Netflix, YouTube, Amazon, Spotify und Google. Verwenden Sie Apache Mahout, um Maschinenlearning-Algorithmen zu skalieren.
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
21 Stunden
In this instructor-led, live training in Deutschland, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to:
  • Learn how to use Spark with Python to analyze Big Data.
  • Work on exercises that mimic real world cases.
  • Use different tools and techniques for big data analysis using PySpark.
21 Stunden
ZIELSETZUNG: Dieser Kurs wird Apache Spark vorstellen. Die Schüler lernen, wie Spark in das Big Data Ökosystem passt und wie Spark für die Datenanalyse verwendet wird. Der Kurs behandelt die Spark-Shell für die interaktive Datenanalyse, Spark-Interna, Spark-APIs, Spark- SQL , Spark-Streaming sowie maschinelles Lernen und graphX. PUBLIKUM: Entwickler / Datenanalysten
21 Stunden
Hortonworks Data Platform (HDP) ist eine Open-Source-Supportplattform für Apache Hadoop , die eine stabile Grundlage für die Entwicklung von Big-Data-Lösungen im Apache Hadoop Ökosystem bietet. In diesem von einem Kursleiter durchgeführten Live-Training (vor Ort oder per Fernzugriff) wird die Hortonworks Data Platform (HDP) und die Teilnehmer durch die Bereitstellung der Spark + Hadoop Lösung geführt. Am Ende dieser Schulung können die Teilnehmer:
  • Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
  • Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
  • Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
  • Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Magellan ist ein Open-Source-distributed-Execution-Motor für geospatiale Analyse von Big-Daten. Implementiert auf der Spitze Apache Spark, erweitert es Spark SQL und bietet eine relative Abstraktion für geospatiale Analyse. Dieser Instructor-leitet, Live-Training führt die Konzepte und Ansätze für die Implementierung von geospatialen Analysen und wandelt die Teilnehmer durch die Schaffung einer vorhersehbaren Analyse-Anwendung mit Magellan auf Spark. Am Ende dieser Ausbildung können die Teilnehmer:
    Effizient query, parse und join geospatiale datasets auf scale Implementierung geospatialer Daten in Business Intelligence und voraussichtliche Analyse-Anwendungen Verwenden Sie Raumkontext, um die Kapazitäten von mobilen Geräten, Sensoren, Logs und Träger zu erweitern
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
7 Stunden
Alluxio ist ein open-source virtuelles verteilte Speicher-System, das unterschiedliche Speicher-Systeme vereint und Anwendungen ermöglicht, mit Daten bei Speichergeschwindigkeit zu interagieren. Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet. In diesem Instructor-leitet, Live-Training lernen die Teilnehmer, wie man Alluxio verschiedene Computing-Frameworks mit Speicher-Systemen zu verwenden und effizient Multi-Petabyte-Skala-Daten zu verwalten, während sie durch die Erstellung einer Anwendung mit Alluxio gehen. Am Ende dieser Ausbildung können die Teilnehmer:
    Entwickeln Sie eine Anwendung mit Alluxio Verbinden Sie Big Data-Systeme und Anwendungen während der Erhaltung eines Namespaces Effizient Wert aus großen Daten in jedem Speicherformat extrahieren Verbesserung der Workload Performance Entfernen und verwalten Alluxio unabhängig oder klusteriert
Publikum
    Datenwissenschaftler Entwickler Systemadministrator
Format des Kurses
    Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
7 Stunden
Spark SQL ist das Modul von Apache Spark zum Arbeiten mit strukturierten und unstrukturierten Daten. Spark SQL bietet Informationen zur Struktur der Daten sowie zur ausgeführten Berechnung. Mit diesen Informationen können Optimierungen durchgeführt werden. Zwei häufige Verwendungen von Spark SQL sind:
- um SQL Abfragen auszuführen.
- um Daten aus einer vorhandenen Hive Installation zu lesen. In diesem vom Kursleiter durchgeführten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie verschiedene Arten von Datensätzen mit Spark SQL analysiert werden. Am Ende dieser Schulung können die Teilnehmer:
  • Installieren und konfigurieren Sie Spark SQL .
  • Führen Sie eine Datenanalyse mit Spark SQL .
  • Abfragen von Datensätzen in verschiedenen Formaten.
  • Daten visualisieren und Ergebnisse abfragen.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Stream Processing bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh das Ausführen von Berechnungen für Daten, während diese empfangen werden. Solche Daten werden als fortlaufende Datenströme aus Datenquellen wie Sensorereignissen, Website-Benutzeraktivitäten, Finanzgeschäften, Kreditkartenüberprüfungen, Klickströmen usw. gelesen. Stream Processing Frameworks können große Datenmengen lesen und wertvolle Erkenntnisse fast augenblicklich liefern. In diesem von Lehrern geführten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie verschiedene Stream Processing Frameworks mit vorhandenen Big Data-Speichersystemen und zugehörigen Softwareanwendungen und Mikrodiensten eingerichtet und integriert werden. Am Ende dieser Schulung können die Teilnehmer:
  • Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
  • Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
  • Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
  • Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
  • Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.
Publikum
  • Entwickler
  • Software-Architekten
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Anmerkungen
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Bei der Big-Data-Analyse werden große Mengen unterschiedlicher Datensätze untersucht, um Korrelationen, verborgene Muster und andere nützliche Erkenntnisse aufzudecken. Die Gesundheitsbranche verfügt über riesige Mengen komplexer heterogener medizinischer und klinischer Daten. Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein großes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung. Die enorme Anzahl dieser Datensätze ist jedoch eine große Herausforderung für Analysen und praktische Anwendungen in einem klinischen Umfeld. In diesem von Lehrern geleiteten Live-Training (Remote) lernen die Teilnehmer, wie Big-Data-Analysen im Gesundheitsbereich durchgeführt werden, während sie eine Reihe von praktischen Live-Laborübungen absolvieren. Am Ende dieser Schulung können die Teilnehmer:
  • Installieren und konfigurieren Sie Big Data-Analysetools wie Hadoop MapReduce und Spark
  • Verstehen Sie die Eigenschaften von medizinischen Daten
  • Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen
  • Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen
Publikum
  • Entwickler
  • Data Scientists
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben.
Hinweis
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Apache Spark Lernkurve von Apache Spark nimmt zu Beginn langsam zu, es erfordert viel Mühe, um die erste Rendite zu erzielen. Dieser Kurs zielt darauf ab, durch den ersten schwierigen Teil zu springen. Nach dem Besuch dieses Kurses werden die Teilnehmer die Grundlagen von Apache Spark verstehen, RDD klar von DataFrame unterscheiden, Python und Scala API erlernen, Ausführende und Aufgaben verstehen usw. Auch nach den bewährten Methoden konzentriert sich dieser Kurs stark auf Cloud-Bereitstellung, Databricks und AWS. Die Schüler werden auch die Unterschiede zwischen AWS EMR und AWS Glue, einem der neuesten Spark-Services von AWS, verstehen. PUBLIKUM: Dateningenieur, DevOps , Datenwissenschaftler
21 Stunden
Scala ist eine komprimierte Version von Java für die groß angelegte funktionale und objektorientierte Programmierung. Apache Spark Streaming ist eine erweiterte Komponente der Spark-API zur Verarbeitung großer Datenmengen als Echtzeit-Streams. Zusammen ermöglichen Spark Streaming und Scala das Streaming von Big Data. Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an Softwareentwickler, die Big Data mit Spark Streaming und Scala streamen möchten. Am Ende dieser Schulung können die Teilnehmer:
  • Erstellen Sie Spark-Anwendungen mit der Programmiersprache Scala .
  • Verwenden Sie Spark Streaming, um kontinuierliche Datenströme zu verarbeiten.
  • Verarbeiten Sie Datenströme in Echtzeit mit Spark Streaming.
Format des Kurses
  • Interaktiver Vortrag und Diskussion.
  • Viele Übungen und Übungen.
  • Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
  • Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
SMACK ist eine Sammlung von Datenplattform-Software, nämlich Apache Spark, Apache Mesos, Apache Akka, Apache Cassandra, und Apache Kafka. Mit dem SMACK Stack können Benutzer Datenverarbeitungsplattformen erstellen und skalieren. Dieser Instructor-Leid, Live-Training (online oder on-site) richtet sich an Datenwissenschaftler, die die SMACK Stack verwenden möchten, um Datenverarbeitungsplattformen für Big Data-Lösungen zu bauen. Am Ende dieser Ausbildung können die Teilnehmer:
    Implementieren Sie eine Datenträgerarchitektur für die Verarbeitung großer Daten. Entwickeln Sie eine Clusterinfrastruktur mit Apache Mesos und Docker. Analysieren Sie Daten mit Spark und Scala. Verwaltung unstrukturierter Daten mit Apache Cassandra.
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
21 Stunden
Apache Spark ist ein Analyse-Motor, der für die Verteilung von Daten über einen Cluster entwickelt wurde, um diese parallel zu verarbeiten. Es enthält Module für Streaming, SQL, Machine Learning und Graphic Processing. Dieser Instructor-leitet, Live-Training (online oder online) richtet sich an Ingenieure, die ein System für die Verarbeitung sehr großer Datenmengen implementieren möchten. Am Ende dieser Ausbildung können die Teilnehmer:
    Installation und Konfiguration Apache Spark. Die Unterschiede zwischen Apache Spark und Hadoop MapReduce und wann zu verwenden. Schnell lesen und analysieren Sie sehr große Datensätze. Integrieren Apache Spark mit anderen Maschinenlernen.
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
21 Stunden
Apache Spark ist ein verteilter Prozessor für die Analyse von sehr großen Datensätzen. Es kann Daten in Batches und in Echtzeit verarbeiten, sowie Machine Learning, Ad-hoc Queries und Graphic Processing durchführen. .NET for Apache Spark ist ein freies, offenes und cross-platformes Big Data-Analytics-Framework, das Anwendungen unterstützt, die in C# oder F# geschrieben sind. Dieser Instructor-Leid, Live-Training (online oder on-site) richtet sich an Entwickler, die eine große Datenanalyse mit Apache Spark in ihren.NET-Anwendungen durchführen möchten. Am Ende dieser Ausbildung können die Teilnehmer:
    Installieren und konfigurieren Apache Spark. Erfahren Sie, wie.NET Spark APIs implementiert, damit sie von einer.NET-Anwendung zugänglich sind. Entwickeln Sie Datenverarbeitungsanwendungen mit Hilfe von C# oder F#, die in der Lage sind, Datensätze zu verarbeiten, deren Größe in Terabiten und Pedabiten gemessen wird. Entwickeln Sie Maschinenlearning-Funktionen für eine.NET-Anwendung mit Apache Spark Fähigkeiten. Durchführen Sie die Explorationsanalyse mit SQL Queries auf Big Data Sets.
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
35 Stunden
Apache Hadoop ist ein beliebtes Datenverarbeitungsrahmen für die Verarbeitung von großen Datensätzen auf vielen Computern. Dieser Instructor-leitet, Live-Training (online oder on-site) richtet sich an Systemadministratoren, die lernen möchten, wie man Hadoop Clusters innerhalb ihrer Organisation einrichten, implementieren und verwalten möchte. Am Ende dieser Ausbildung können die Teilnehmer:
    Installieren und konfigurieren Sie Apache Hadoop. Die vier Hauptkomponenten des Hadoop Ökosystems verstehen: HDFS, MapReduce, YARN und Hadoop Common. Verwenden Sie das Distributed File System (HDFS), um einen Cluster auf Hunderte oder Tausende von Knoten zu beschleunigen.   Installieren Sie HDFS, um als Speichermotor für On-Premise Spark-Einstellungen zu funktionieren. Installieren Sie Spark für den Zugriff auf alternative Speicherlösungen wie Amazon S3 und NoSQL Datenbanksysteme wie Redis, Elasticsearch, Couchbase, Aerospike, usw. Verwaltungsaufgaben wie die Bereitstellung, Verwaltung, Überwachung und Sicherung eines Apache Hadoop Cluster durchführen.
Format des Kurses
    Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
    Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
14 Stunden
This instructor-led, live training in Deutschland (online or onsite) is aimed at data scientists and developers who wish to use Spark NLP, built on top of Apache Spark, to develop, implement, and scale natural language text processing models and pipelines. By the end of this training, participants will be able to:
  • Set up the necessary development environment to start building NLP pipelines with Spark NLP.
  • Understand the features, architecture, and benefits of using Spark NLP.
  • Use the pre-trained models available in Spark NLP to implement text processing.
  • Learn how to build, train, and scale Spark NLP models for production-grade projects.
  • Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
35 Stunden
MLlib ist die ML-Bibliothek (Machine Learning) von Spark. Ziel ist es, praktisches maschinelles Lernen skalierbar und einfach zu machen. Es besteht aus allgemeinen Lernalgorithmen und Dienstprogrammen, einschließlich Klassifizierung, Regression, Clustering, kollaborativer Filterung, Dimensionsreduzierung sowie Optimierungsprimitiven auf niedrigerer Ebene und Pipeline-APIs auf höherer Ebene. Es teilt sich in zwei Pakete:
  • spark.mllib enthält die ursprüngliche API, die auf RDDs basiert.
  • spark.ml bietet eine API auf höherer Ebene, die auf DataFrames zum Erstellen von ML-Pipelines basiert.
Publikum Dieser Kurs richtet sich an Ingenieure und Entwickler, die eine integrierte Maschinenbibliothek für Apache Spark
21 Stunden
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
28 Stunden
Viele Probleme der realen Welt können in Form von Diagrammen beschrieben werden. Zum Beispiel das Webdiagramm, das soziale Netzwerkdiagramm, das Zugnetzwerkdiagramm und das Sprachdiagramm. Diese Diagramme sind in der Regel sehr groß. Ihre Verarbeitung erfordert eine spezielle Reihe von Tools und Prozessen. Diese Tools und Prozesse können als Graph Computing (auch als Graph Analytics bezeichnet) bezeichnet werden. In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Graphendaten kennen. Ziel ist es, reale Objekte, ihre Merkmale und Beziehungen zu identifizieren, diese Beziehungen dann zu modellieren und sie unter Verwendung eines Graph Computing Ansatzes (auch als Graph Analytics bezeichnet) als Daten zu verarbeiten. Wir beginnen mit einem umfassenden Überblick und beschränken uns auf bestimmte Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Bereitstellungen durchgehen. Am Ende dieser Schulung können die Teilnehmer:
  • Verstehen Sie, wie Diagrammdaten beibehalten und durchlaufen werden.
  • Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis zu Stapelverarbeitungs-Frameworks).
  • Implementieren Sie Hadoop , Spark, GraphX und Pregel, um das Graph-Computing auf vielen Maschinen parallel auszuführen.
  • Zeigen Sie reale Big-Data-Probleme in Form von Diagrammen, Prozessen und Durchläufen an.
Format des Kurses
  • Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Last Updated:

Zukünftige Spark Kurse

Apache Spark Schulung, Spark boot camp, Apache Spark Abendkurse, Spark Wochenendkurse, Spark Kurs, Spark Training, Spark Seminar, Spark Seminare, Apache Spark Privatkurs, Apache Spark Coaching, Apache Spark Lehrer

Sonderangebote

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking for a good mixture of IT and soft skills in Germany!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions