Hadoop Schulungen

Hadoop Schulungen

Live-Schulungen von Apache Hadoop vor Ort unter Anleitung von Dozenten demonstrieren durch interaktives praktisches Üben die Kernkomponenten des Hadoop-Ökosystems und wie diese Technologien zur Lösung großer Probleme eingesetzt werden können. Hadoop-Schulungen sind als "Onsite-Live-Training" oder "Remote-Live-Training" verfügbar. Live-Schulungen vor Ort können vor Ort beim Kunden vor Ort durchgeführt werden Deutschland oder in NobleProg-Schulungszentren in Deutschland . Das Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Schulungsanbieter

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Apache Hadoop Kurspläne

Title
Duration
Overview
Title
Duration
Overview
7 hours
Overview
Alluxio ist ein virtuelles verteiltes Open-Source-Speichersystem, das unterschiedliche Speichersysteme vereint und es Anwendungen ermöglicht, mit Speichergeschwindigkeit mit Daten zu interagieren. Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Alluxio , um verschiedene Alluxio mit Speichersystemen zu verbinden und Daten im Petabyte-Bereich effizient zu verwalten, während sie mit Alluxio eine Anwendung Alluxio .

Am Ende dieser Schulung können die Teilnehmer:

- Entwickeln Sie eine Anwendung mit Alluxio
- Verbinden Sie Big Data-Systeme und -Anwendungen unter Beibehaltung eines Namespaces
- Extrahieren Sie effizient Werte aus Big Data in jedem Speicherformat
- Verbessern Sie die Workload-Leistung
- Bereitstellen und Verwalten von Alluxio eigenständiges Alluxio oder in Alluxio

Publikum

- Datenwissenschaftler
- Entwickler
- Systemadministrator

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
28 hours
Overview
Publikum:

Dieser Kurs soll Big Data / Hadoop-Technologie entmystifizieren und zeigen, dass es nicht schwer zu verstehen ist.
14 hours
Overview
Sqoop ist ein Open-Source-Software-Tool zum Übertragen von Daten zwischen Hadoop und relationalen Datenbanken oder Mainframes. Es kann zum Importieren von Daten aus einem relationalen Datenbankverwaltungssystem (RDBMS) wie My SQL oder Oracle oder einem Mainframe in das Hadoop Distributed File System (HDFS) verwendet werden. Danach können die Daten in Hadoop MapReduce transformiert und anschließend wieder in ein RDBMS exportiert werden.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie mit Sqoop Daten aus einer traditionellen relationalen Datenbank in einen Hadoop Speicher wie HDFS oder Hive importieren und umgekehrt.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Sqoop
- Importieren Sie Daten aus My SQL in HDFS und Hive
- Importieren Sie Daten aus HDFS und Hive in My SQL

Publikum

- Systemadministratoren
- Dateningenieure

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Overview
Apache Samza ist ein Open-Source-Framework für die asynchrone Stream-Verarbeitung in Echtzeit. Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolation, Sicherheit und Ressourcenverwaltung.

Dieses von Lehrern geleitete Live-Training führt in die Prinzipien von Messaging-Systemen und der verteilten Stream-Verarbeitung ein und führt die Teilnehmer durch die Erstellung eines Samza-basierten Beispielprojekts und die Auftragsausführung.

Am Ende dieser Schulung können die Teilnehmer:

- Verwenden Sie Samza, um den Code zum Erstellen und Verarbeiten von Nachrichten zu vereinfachen.
- Entkoppeln Sie die Verarbeitung von Nachrichten aus einer Anwendung.
- Verwenden Sie Samza, um zeitnahe asynchrone Berechnungen durchzuführen.
- Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene für Messagingsysteme bereitzustellen.

Publikum

- Entwickler

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi .

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
- Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
- Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
- Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Apachi NiFi.
- Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
- Datenflüsse automatisieren.
- Aktivieren Sie die Streaming-Analyse.
- Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
- Verwandeln Sie Big Data in Business Insights.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Overview
Audienz

- Entwickler

Format der

- Vorträge, praktische Übungen, kleine Tests auf dem Weg, um Verständnis zu messen
21 hours
Overview
Cloudera Impala ist eine Open-Source- SQL Abfrage-Engine (MPP = Massively Parallel Processing) für Apache Hadoop Cluster.

Impala können Benutzer SQL Abfragen mit geringer Latenz für Daten ausgeben, die in Hadoop Distributed File System und Apache Hbase gespeichert sind, ohne Daten verschieben oder transformieren zu müssen.

Publikum

Dieser Kurs richtet sich an Analysten und Datenwissenschaftler, die Hadoop Business Intelligence oder SQL Tools in Hadoop gespeicherte Daten analysieren.

Nach diesem Kurs werden die Teilnehmer in der Lage sein

- Extrahieren Sie mit Impala aussagekräftige Informationen aus Hadoop Clustern.
- Schreiben Sie spezielle Programme, um Business Intelligence in Impala SQL Dialect zu vereinfachen.
- Fehlerbehebung bei Impala .
7 hours
Overview
Dieser Kurs behandelt die Verwendung der Hive SQL Sprache (AKA: Hive HQL, SQL in Hive , Hive QL) für Personen, die Daten aus Hive extrahieren
21 hours
Overview
Hortonworks Data Platform (HDP) ist eine Open-Source-Supportplattform für Apache Hadoop , die eine stabile Grundlage für die Entwicklung von Big-Data-Lösungen im Apache Hadoop Ökosystem bietet.

In diesem von einem Kursleiter durchgeführten Live-Training (vor Ort oder per Fernzugriff) wird die Hortonworks Data Platform (HDP) und die Teilnehmer durch die Bereitstellung der Spark + Hadoop Lösung geführt.

Am Ende dieser Schulung können die Teilnehmer:

- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 hours
Overview
In diesem Kurs wird HBase vorgestellt - ein No SQL Speicher über Hadoop . Der Kurs richtet sich an Entwickler, die HBase zum Entwickeln von Anwendungen verwenden, sowie an Administratoren, die HBase-Cluster verwalten.

Wir werden einen Entwickler durch die HBase-Architektur sowie die Datenmodellierung und Anwendungsentwicklung auf HBase führen. Außerdem werden die Verwendung von MapReduce mit HBase und einige Verwaltungsthemen im Zusammenhang mit der Leistungsoptimierung erläutert. Der Kurs ist sehr praktisch mit vielen Laborübungen.

Dauer : 3 Tage

Zielgruppe : Entwickler und Administratoren
28 hours
Overview
Hadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Da immer mehr Software- und IT-Projekte von lokaler Verarbeitung und Datenverwaltung zu verteilter Verarbeitung und Speicherung von Big Data migrieren, müssen die Projektmanager ihre Kenntnisse und Fähigkeiten verbessern, um die Konzepte und Praktiken zu erfassen, die für Big Data Projekte und -Chancen relevant sind.

Dieser Kurs führt Projektmanager in das beliebteste Big Data Verarbeitungsframework ein: Hadoop .

In dieser von Lehrern geleiteten Schulung lernen die Teilnehmer die Kernkomponenten des Hadoop Ökosystems kennen und wie diese Technologien zur Lösung großer Probleme eingesetzt werden können. Durch das Erlernen dieser Grundlagen verbessern die Teilnehmer auch ihre Fähigkeit, mit den Entwicklern und Implementierern dieser Systeme sowie mit den Datenwissenschaftlern und Analysten zu kommunizieren, an denen viele IT-Projekte beteiligt sind.

Publikum

- Projektmanager, die Hadoop in ihre bestehende Entwicklungs- oder IT-Infrastruktur implementieren möchten
- Projektmanager müssen mit funktionsübergreifenden Teams kommunizieren, zu denen Big Data-Ingenieure, Data Scientists und Business Analysten gehören

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 hours
Overview
Apache Ambari ist eine Open-Source-Verwaltungsplattform für die Bereitstellung, Verwaltung, Überwachung und Sicherung von Apache Hadoop Clustern.

In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer die von Ambari bereitgestellten Management-Tools und -Praktiken kennen, um Hadoop Cluster erfolgreich zu verwalten.

Am Ende dieser Schulung können die Teilnehmer:

- Richten Sie mit Ambari einen Live- Big Data Cluster ein
- Wenden Sie die erweiterten Funktionen und Funktionen von Ambari auf verschiedene Anwendungsfälle an
- Fügen Sie Knoten nach Bedarf nahtlos hinzu und entfernen Sie sie
- Verbessern Sie die Leistung eines Hadoop Clusters durch Optimieren und Optimieren

Publikum

- DevOps
- Systemadministratoren
- DBAs
- Hadoop Testprofis

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 hours
Overview
Hadoop ist das beliebteste Big Data-Verarbeitungsframework .
21 hours
Overview
Apache Hadoop ist eines der beliebtesten Frameworks für die Verarbeitung von Big Data auf Serverclustern. Dieser Kurs befasst sich mit Datenmanagement in HDFS, Advanced Pig, Hive und HBase. Diese fortschrittlichen Programmiertechniken sind für erfahrene Hadoop Entwickler von Vorteil.

Zielgruppe : Entwickler

Dauer: drei Tage

Format: Vorträge (50%) und praktische Übungen (50%).
28 hours
Overview
Apache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data auf Serverclustern. In diesem Kurs lernen Entwickler verschiedene Komponenten des Hadoop Ökosystems (HDFS, MapReduce, Pig, Hive und HBase) kennen.
21 hours
Overview
Apache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data Hadoop bietet umfassende und umfassende Analysemöglichkeiten und bahnt sich einen Weg in die tradionelle BI-Analytics-Welt In diesem Kurs wird ein Analyst zu den Kernkomponenten von Hadoop eco system und seinen Analysen vorgestellt Publikum Business Analysten Dauer 3 Tage Format Vorlesungen und praktische Übungen .
21 hours
Overview
Apache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data auf Serverclustern. In diesem dreitägigen (optionalen) Kurs lernen die Teilnehmer die Geschäftsvorteile und Anwendungsfälle für Hadoop und sein Ökosystem kennen, wie Clusterbereitstellung und -wachstum geplant werden, wie Hadoop installiert, gewartet, überwacht, Fehler behoben und optimiert wird. Sie üben auch das Laden von Cluster-Massendaten, machen sich mit verschiedenen Hadoop Distributionen vertraut und üben das Installieren und Verwalten von Hadoop Ökosystemtools. Der Kurs endet mit einer Diskussion über das Sichern von Clustern mit Kerberos.

„… Die Materialien waren sehr gut vorbereitet und gründlich abgedeckt. Das Labor war sehr hilfreich und gut organisiert. “
- Andrew Nguyen, Hauptintegrations-DW-Ingenieur, Microsoft Online Advertising

Publikum

Hadoop Administratoren

Format

Vorlesungen und praktische Übungen, ungefähr 60% Vorlesungen, 40% Übungen.
21 hours
Overview
Der Kurs richtet sich an IT-Spezialisten, die nach einer Lösung zum Speichern und Verarbeiten großer Datenmengen in verteilten Systemumgebungen suchen

Kursziel:

Kenntnisse in Bezug auf die Hadoop Clusterverwaltung erlangen
14 hours
Overview
Datameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Bei der Big-Data-Analyse werden große Mengen unterschiedlicher Datensätze untersucht, um Korrelationen, verborgene Muster und andere nützliche Erkenntnisse aufzudecken.

Die Gesundheitsbranche verfügt über riesige Mengen komplexer heterogener medizinischer und klinischer Daten. Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein großes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung. Die enorme Anzahl dieser Datensätze ist jedoch eine große Herausforderung für Analysen und praktische Anwendungen in einem klinischen Umfeld.

In diesem von Lehrern geleiteten Live-Training (Remote) lernen die Teilnehmer, wie Big-Data-Analysen im Gesundheitsbereich durchgeführt werden, während sie eine Reihe von praktischen Live-Laborübungen absolvieren.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Big Data-Analysetools wie Hadoop MapReduce und Spark
- Verstehen Sie die Eigenschaften von medizinischen Daten
- Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen
- Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen

Publikum

- Entwickler
- Data Scientists

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben.

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 hours
Overview
Dieser Kurs richtet sich an Entwickler, Architekten, Datenwissenschaftler oder jedes Profil, das intensiven oder regelmäßigen Zugriff auf Daten erfordert.

Der Schwerpunkt des Kurses liegt auf der Datenmanipulation und -transformation.

Zu den Tools im Hadoop Ökosystem gehört die Verwendung von Pig und Hive beide häufig für die Datenumwandlung und -manipulation verwendet werden.

Dieses Training befasst sich auch mit Leistungsmetriken und Leistungsoptimierung.

Der Kurs ist ganz praktisch und wird durch Präsentationen der theoretischen Aspekte unterstrichen.
35 hours
Overview
Publikum:

Der Kurs richtet sich an IT-Spezialisten, die eine Lösung zum Speichern und Verarbeiten großer Datenmengen in einer verteilten Systemumgebung suchen

Go al:

Vertiefte Kenntnisse in der Hadoop Clusterverwaltung.
14 hours
Overview
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
Hadoop Schulung, Apache Hadoop boot camp, Hadoop Abendkurse, Apache Hadoop Wochenendkurse, Apache Hadoop Kurs, Apache Hadoop Training, Apache Hadoop Seminar, Apache Hadoop Seminare, Hadoop Privatkurs, Hadoop Coaching, Hadoop Lehrer

Course Discounts

Course Discounts Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

Some of our clients

is growing fast!

We are looking to expand our presence in Germany!

As a Business Development Manager you will:

  • expand business in Germany
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!