Big Data Schulungen

Big Data Schulungen

Lokale, von Ausbildern geführte Live-Big-Data-Schulungen beginnen mit einer Einführung in elementare Konzepte von Big Data und führen dann zu den Programmiersprachen und Methoden, die zur Durchführung der Datenanalyse verwendet werden. Tools und Infrastruktur zur Aktivierung von Big Data Storage, Distributed Processing und Skalierbarkeit werden in Demo-Übungssessions diskutiert, verglichen und implementiert. Big Data Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar. Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Deutschland oder in NobleProg Corporate Trainingszentren in Deutschland . Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Trainingsanbieter

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Big Data Kurspläne

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview
Go al:

Lernen, auf der Ebene der Unabhängigkeit mit SPSS zu arbeiten

Die Adressaten:

Analysten, Forscher, Wissenschaftler, Studenten und alle, die die Fähigkeit erwerben möchten, das SPSS-Paket zu verwenden und gängige Data-Mining-Techniken zu erlernen.
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi .

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
- Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
- Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
- Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 hours
Overview
Apache Drill ist eine schemafreie, verteilte, in Speicher geschriebene SQL-Abfrage-Engine für Hadoop, NoSQL und andere Cloud- und Dateispeichersysteme Die Stärke von Apache Drill liegt in der Fähigkeit, Daten aus mehreren Datenspeichern mit einer einzigen Abfrage zu verknüpfen Apache Drill unterstützt zahlreiche NoSQL-Datenbanken und Dateisysteme, darunter HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blobspeicher, Google Cloud Storage, Swift, NAS und lokale Dateien Apache Drill ist die Open-Source-Version des Google-Dremel-Systems, die als Infrastrukturdienst namens Google BigQuery verfügbar ist In diesem instruierten Live-Training lernen die Teilnehmer die Grundlagen von Apache Drill kennen und nutzen dann die Leistung und den Komfort von SQL, um interaktiv Big Data über mehrere Datenquellen abzufragen, ohne Code zu schreiben Die Teilnehmer lernen außerdem, wie sie ihre Drill-Abfragen für die verteilte SQL-Ausführung optimieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Führen Sie Self-Service-Exploration mit strukturierten und semistrukturierten Daten auf Hadoop durch Abfrage bekannter sowie unbekannter Daten mit SQL-Abfragen Verstehen Sie, wie Apache Drills Abfragen empfängt und ausführt Schreiben Sie SQL-Abfragen, um verschiedene Datentypen zu analysieren, einschließlich strukturierter Daten in Hive, semistrukturierter Daten in HBase- oder MapRDB-Tabellen und Daten, die in Dateien wie Parquet und JSON gespeichert werden Verwenden Sie Apache Drill, um die Schemaermittlung durchzuführen, ohne dass komplexe ETL- und Schemaoperationen erforderlich sind Integrieren Sie Apache Drill mit BI-Tools (Business Intelligence) wie Tableau, Qlikview, MicroStrategy und Excel Publikum Datenanalytiker Datenwissenschaftler SQL-Programmierer Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
MonetDB ist eine Open-Source-Datenbank, die Pionierarbeit bei der Säulenspeichertechnologie geleistet hat.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie man MonetDB einsetzt und wie man den größten Nutzen daraus zieht.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie MonetDB und seine Funktionen
- Installieren und loslegen mit MonetDB
- Lernen Sie verschiedene Funktionen und Aufgaben in MonetDB kennen und führen Sie sie aus
- Beschleunigen Sie die Projektabwicklung, indem Sie die MonetDB-Funktionen maximieren

Publikum

- Entwickler
- Technische Experten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
28 hours
Overview
Mem SQL ist ein speicherinternes, verteiltes SQL Datenbankverwaltungssystem für Clouds und lokale Anwendungen. Es handelt sich um ein Echtzeit-Data-Warehouse, das sofort Einblicke in Live- und Verlaufsdaten bietet.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen von Mem SQL für die Entwicklung und Verwaltung.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die wichtigsten Konzepte und Eigenschaften von Mem SQL
- Installieren, entwerfen, warten und betreiben Sie Mem SQL
- Optimieren Sie Schemata in Mem SQL
- Verbessern Sie Abfragen in Mem SQL
- Benchmark-Leistung in Mem SQL
- Erstellen Sie Echtzeit-Datenanwendungen mit Mem SQL

Publikum

- Entwickler
- Administratoren
- Betriebsingenieure

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
28 hours
Overview
Hadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Python ist eine High-Level-Programmiersprache, die für ihre klare Syntax und Codelesbarkeit bekannt ist. Spark ist eine Datenverarbeitungs-Engine, die zum Abfragen, Analysieren und Transformieren von Big Data verwendet wird. PySpark können Benutzer Spark mit Python .

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Python und Spark zusammen verwenden, um Big Data zu analysieren, während sie an praktischen Übungen arbeiten.

Am Ende dieser Schulung können die Teilnehmer:

- Erfahren Sie, wie Sie Spark mit Python zum Analysieren von Big Data .
- Arbeiten Sie an Übungen, die die realen Umstände nachahmen.
- Verwenden Sie verschiedene Tools und Techniken für die Big-Data-Analyse mit PySpark .

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
35 hours
Overview
Fortschritte bei den Technologien und die zunehmende Menge an Informationen verändern die Art und Weise, in der die Strafverfolgung durchgeführt wird Die Herausforderungen, die Big Data mit sich bringt, sind fast so gewaltig wie die Versprechen von Big Data Die effiziente Speicherung von Daten ist eine dieser Herausforderungen es effektiv zu analysieren ist ein anderes In diesem instruierten Live-Training lernen die Teilnehmer die Denkweise kennen, mit der sie Big Data-Technologien angehen, ihre Auswirkungen auf bestehende Prozesse und Richtlinien bewerten und diese Technologien zum Zweck der Identifizierung krimineller Aktivitäten und zur Verhinderung von Kriminalität einsetzen können Fallstudien von Strafverfolgungsbehörden auf der ganzen Welt werden untersucht, um Einblicke in ihre Adoptionsansätze, Herausforderungen und Ergebnisse zu erhalten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Kombinieren Sie Big-Data-Technologie mit traditionellen Datenerfassungs-Prozessen, um während einer Untersuchung eine Geschichte zusammenzustellen Implementieren Sie industrielle Big-Data-Speicher- und Verarbeitungslösungen für die Datenanalyse Vorbereitung eines Vorschlags für die Einführung der am besten geeigneten Instrumente und Verfahren zur Ermöglichung eines datengestützten Ansatzes bei strafrechtlichen Ermittlungen Publikum Strafverfolgungsspezialisten mit technischem Hintergrund Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Um die Compliance der Regulierungsbehörden zu erfüllen, können CSPs ( Communication Service Provider) auf Big Data Analytics zurückgreifen, die ihnen nicht nur dabei helfen, die Compliance zu erfüllen, sondern im Rahmen desselben Projekts die Kundenzufriedenheit steigern und damit die Abwanderung verringern. Da Compliance mit der Qualität der vertraglich gebundenen Dienstleistungen zusammenhängt, wird jede Initiative zur Einhaltung der Compliance den „Wettbewerbsvorteil“ der CSP verbessern. Daher ist es wichtig, dass die Aufsichtsbehörden in der Lage sind, eine Reihe von Big Data Analyseverfahren für CSPs zu beraten / zu leiten, die für die Aufsichtsbehörden und CSPs von beiderseitigem Nutzen sind.

Der Kurs besteht aus 8 Modulen (4 am 1. Tag und 4 am 2. Tag)
28 hours
Overview
Viele Probleme der realen Welt können in Form von Diagrammen beschrieben werden. Zum Beispiel das Webdiagramm, das soziale Netzwerkdiagramm, das Zugnetzwerkdiagramm und das Sprachdiagramm. Diese Diagramme sind in der Regel sehr groß. Ihre Verarbeitung erfordert eine spezielle Reihe von Tools und Prozessen. Diese Tools und Prozesse können als Graph Computing (auch als Graph Analytics bezeichnet) bezeichnet werden.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Graphendaten kennen. Ziel ist es, reale Objekte, ihre Merkmale und Beziehungen zu identifizieren, diese Beziehungen dann zu modellieren und sie unter Verwendung eines Graph Computing Ansatzes (auch als Graph Analytics bezeichnet) als Daten zu verarbeiten. Wir beginnen mit einem umfassenden Überblick und beschränken uns auf bestimmte Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Bereitstellungen durchgehen.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie, wie Diagrammdaten beibehalten und durchlaufen werden.
- Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis zu Stapelverarbeitungs-Frameworks).
- Implementieren Sie Hadoop , Spark, GraphX und Pregel, um das Graph-Computing auf vielen Maschinen parallel auszuführen.
- Zeigen Sie reale Big-Data-Probleme in Form von Diagrammen, Prozessen und Durchläufen an.

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 hours
Overview
Predictive Analytics ist der Prozess der Verwendung von Datenanalysen, um Vorhersagen über die Zukunft zu treffen Dieser Prozess verwendet Daten zusammen mit Data-Mining-, Statistik- und maschinellen Lerntechniken, um ein Vorhersagemodell für die Vorhersage zukünftiger Ereignisse zu erstellen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Matlab nutzen können, um Vorhersagemodelle zu erstellen und sie auf große Beispieldatensätze anzuwenden, um zukünftige Ereignisse basierend auf den Daten vorherzusagen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie Vorhersagemodelle, um Muster in historischen und transaktionalen Daten zu analysieren Verwenden Sie Predictive Modeling, um Risiken und Chancen zu identifizieren Erstellen Sie mathematische Modelle, die wichtige Trends erfassen Verwenden Sie Daten von Geräten und Geschäftssystemen, um Verschwendung zu reduzieren, Zeit zu sparen oder Kosten zu senken Publikum Entwickler Ingenieure Domain-Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Apachi NiFi.
- Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
- Datenflüsse automatisieren.
- Aktivieren Sie die Streaming-Analyse.
- Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
- Verwandeln Sie Big Data in Business Insights.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 hours
Overview
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Kernkonzepte von MapR Stream Architecture kennen, während sie eine Echtzeit-Streaming-Anwendung entwickeln.

Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Produzenten- und Konsumentenanwendungen für die Datenverarbeitung in Echtzeit zu erstellen.

Publikum

- Entwickler
- Administratoren

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Overview
Apache SolrCloud ist eine verteilte Datenverarbeitungs-Engine, die die Suche und Indizierung von Dateien in einem verteilten Netzwerk erleichtert In diesem instruierten Live-Training lernen die Teilnehmer, wie eine SolrCloud-Instanz auf Amazon AWS eingerichtet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Funktionen von SolCloud und wie diese mit denen herkömmlicher Master Slaves verglichen werden Konfigurieren Sie einen zentralisierten SolCloud-Cluster Automatisiere Prozesse wie die Kommunikation mit Shards, das Hinzufügen von Dokumenten zu den Shards usw Verwenden Sie Zookeeper in Verbindung mit SolrCloud, um Prozesse weiter zu automatisieren Verwenden Sie die Schnittstelle, um Fehlerberichte zu verwalten Lastenausgleich einer SolrCloud-Installation Konfigurieren Sie SolrCloud für kontinuierliche Verarbeitung und Failover Publikum Solr Entwickler Projektmanager Systemadministratoren Suche nach Analysten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
Die Datentresormodellierung ist eine Datenbankmodellierungstechnik, die eine langfristige historische Speicherung von Daten aus mehreren Quellen ermöglicht Ein Datentresor speichert eine einzelne Version der Fakten oder "alle Daten die ganze Zeit" Sein flexibles, skalierbares, konsistentes und anpassungsfähiges Design umfasst die besten Aspekte der 3 Normalform (3NF) und des Sternschemas In diesem instruierten Live-Training lernen die Teilnehmer, wie ein Data Vault erstellt wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Designkonzepte von Data Vault 20 und die Interaktion mit Big Data, NoSQL und AI Verwenden Sie Data-Vaulting-Techniken, um die Überwachung, Verfolgung und Inspektion historischer Daten in einem Data Warehouse zu ermöglichen Entwickeln Sie einen konsistenten und wiederholbaren ETL-Prozess (Extract, Transform, Load) Erstellen und implementieren Sie hoch skalierbare und wiederholbare Warehouses Publikum Datenmodellierer Spezialist für Data Warehousing Business Intelligence-Spezialisten Dateningenieure Datenbankadministratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Datameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
14 hours
Overview
Vespa eine Open-Source-Big-Data-Verarbeitung und Serving-Engine von Yahoo erstellt Es wird verwendet, um auf Benutzeranfragen zu reagieren, Empfehlungen zu geben und personalisierte Inhalte und Werbung in Echtzeit bereitzustellen Dieses instruktorierte Live-Training stellt die Herausforderungen dar, mit denen große Datenmengen bereitgestellt werden, und führt die Teilnehmer durch die Erstellung einer Anwendung, die Antworten auf Benutzeranforderungen über große Datensätze in Echtzeit berechnen kann Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Vespa, um schnell Daten zu berechnen (speichern, suchen, sortieren, organisieren), während der Benutzer wartet Implementieren Sie Vespa in bestehende Anwendungen mit Feature-Suche, Empfehlungen und Personalisierung Integrieren und implementieren Sie Vespa mit bestehenden Big-Data-Systemen wie Hadoop und Storm Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Apache Apex ist eine YARNnative-Plattform, die Stream- und Batch-Verarbeitung vereint Es verarbeitet große Datenbewegungen in einer Weise, die skalierbar, performant, fehlertolerant, zustandsorientiert, sicher, verteilt und einfach zu bedienen ist Dieses integrierte Live-Training stellt Apache Apex's vereinheitlichte Stream-Processing-Architektur vor und führt die Teilnehmer durch die Erstellung einer verteilten Anwendung mit Apex auf Hadoop Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verständnis von Datenverarbeitungs-Pipeline-Konzepten wie Konnektoren für Quellen und Senken, gemeinsame Datentransformationen usw Erstellen, skalieren und optimieren Sie eine Apex-Anwendung Verarbeiten Sie Echtzeitdatenströme zuverlässig und mit minimaler Latenz Verwenden Sie Apex Core und die Apex Malhar-Bibliothek, um eine schnelle Anwendungsentwicklung zu ermöglichen Verwenden Sie die Apex-API, um vorhandenen Java-Code zu schreiben und wiederzuverwenden Integrieren Sie Apex als Verarbeitungsmodul in andere Anwendungen Optimieren, testen und skalieren Sie Apex-Anwendungen Publikum Entwickler Unternehmensarchitekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 hours
Overview
Alluxio ist ein virtuelles verteiltes Open-Source-Speichersystem, das unterschiedliche Speichersysteme vereint und es Anwendungen ermöglicht, mit Speichergeschwindigkeit mit Daten zu interagieren. Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Alluxio , um verschiedene Alluxio mit Speichersystemen zu verbinden und Daten im Petabyte-Bereich effizient zu verwalten, während sie mit Alluxio eine Anwendung Alluxio .

Am Ende dieser Schulung können die Teilnehmer:

- Entwickeln Sie eine Anwendung mit Alluxio
- Verbinden Sie Big Data-Systeme und -Anwendungen unter Beibehaltung eines Namespaces
- Extrahieren Sie effizient Werte aus Big Data in jedem Speicherformat
- Verbessern Sie die Arbeitsauslastung
- Bereitstellen und Verwalten von Alluxio eigenständiges Alluxio oder in Alluxio

Publikum

- Datenwissenschaftler
- Entwickler
- Systemadministrator

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
28 hours
Overview
Apache Flink ist ein Open-Source-Framework für die skalierbare Stream- und Batch-Datenverarbeitung.

Dieses Live-Training unter Anleitung eines Lehrers führt in die Prinzipien und Ansätze der verteilten Stream- und Batch-Datenverarbeitung ein und führt die Teilnehmer durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung in Apache Flink .

Am Ende dieser Schulung können die Teilnehmer:

- Richten Sie eine Umgebung für die Entwicklung von Datenanalyseanwendungen ein.
- Packen, Ausführen und Überwachen von Flink-basierten, fehlertoleranten Daten-Streaming-Anwendungen.
- Verwalten Sie unterschiedliche Workloads.
- Führen Sie erweiterte Analysen mit Flink ML durch.
- Richten Sie einen Flink-Cluster mit mehreren Knoten ein.
- Leistung messen und optimieren.
- Integrieren Sie Flink in verschiedene Big Data Systeme.
- Vergleichen Sie die Flink-Funktionen mit denen anderer Big-Data-Frameworks.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Overview
AI ist eine Sammlung von Technologien zum Aufbau intelligenter Systeme, die in der Lage sind, Daten und die damit verbundenen Aktivitäten zu verstehen, um "intelligente Entscheidungen" zu treffen. Für Telekommunikationsanbieter könnte die Erstellung von Anwendungen und Diensten, die AI verwenden, die Tür für einen verbesserten Betrieb und Service in Bereichen wie Wartung und Netzwerkoptimierung öffnen.

In diesem Kurs untersuchen wir die verschiedenen Technologien, aus denen AI besteht, und die Fähigkeiten, die erforderlich sind, um sie einzusetzen. Während des gesamten Kurses untersuchen wir die spezifischen Anwendungen von AI in der Telekommunikationsbranche.

Publikum

- Netzwerktechniker
- Personal für Netzwerkoperationen
- Technische Manager für Telekommunikation

Format des Kurses

- Teilvorlesung, Teildiskussion, praktische Übungen
7 hours
Overview
Apache Drill ist eine schemafreie, verteilte, in Speicher geschriebene SQL-Abfrage-Engine für Hadoop, NoSQL und andere Cloud- und Dateispeichersysteme Die Stärke von Apache Drill liegt in der Fähigkeit, Daten aus mehreren Datenspeichern mit einer einzigen Abfrage zu verknüpfen Apache Drill unterstützt zahlreiche NoSQL-Datenbanken und Dateisysteme, darunter HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blobspeicher, Google Cloud Storage, Swift, NAS und lokale Dateien Apache Drill ist die Open-Source-Version des Google-Dremel-Systems, die als Infrastrukturdienst namens Google BigQuery verfügbar ist In diesem instruierten Live-Training lernen die Teilnehmer, Apache Drill zu optimieren und zu debuggen, um die Leistung von Abfragen bei sehr großen Datensätzen zu verbessern Der Kurs beginnt mit einem Überblick über die Architektur und bietet einen Vergleich zwischen Apache Drill und anderen interaktiven Datenanalyse-Tools Die Teilnehmer durchlaufen dann eine Reihe von interaktiven praktischen Übungen, die Installation, Konfiguration, Leistungsbewertung, Abfrageoptimierung, Datenpartitionierung und Debugging einer Apache Drill-Instanz in einer Live-Laborumgebung umfassen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Drill Verstehen Sie die Architektur und die Funktionen von Apache Drill Verstehen Sie, wie Apache Drills Abfragen empfängt und ausführt Optimieren Sie Drill-Abfragen für die verteilte SQL-Ausführung Debug Apache Drill Publikum Entwickler Systemadministratoren Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Anmerkungen Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
14 hours
Overview
Apache Zeppelin ist ein webbasiertes Notebook zum Erfassen, Erkunden, Visualisieren und Teilen von Hadoop- und Spark-basierten Daten Dieses instruierte Live-Training stellt die Konzepte hinter der interaktiven Datenanalyse vor und führt die Teilnehmer durch die Bereitstellung und Nutzung von Zeppelin in einer Singleuser- oder Multiuser-Umgebung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Zeppelin Entwickeln, organisieren, ausführen und teilen Sie Daten in einer browserbasierten Oberfläche Visualisieren Sie Ergebnisse, ohne auf die Befehlszeilen- oder Clusterdetails Bezug zu nehmen Führen Sie lange Workflows aus und arbeiten Sie mit ihnen zusammen Arbeiten Sie mit einer Reihe von Sprach- / Datenverarbeitungsbackbacks für Plugins wie Scala (mit Apache Spark), Python (mit Apache Spark), Spark SQL, JDBC, Markdown und Shell Integrieren Sie Zeppelin mit Spark, Flink und Map Reduce Sichere Multiuser-Instanzen von Zeppelin mit Apache Shiro Publikum Dateningenieure Datenanalytiker Datenwissenschaftler Softwareentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache Arrow ist ein Open-Source-Framework für die In-Memory-Datenverarbeitung. Es wird häufig zusammen mit anderen Data-Science-Tools für den Zugriff auf unterschiedliche Datenspeicher zur Analyse verwendet. Es lässt sich gut in andere Technologien wie GPU Datenbanken, Bibliotheken und Tools für maschinelles Lernen, Ausführungs-Engines und Datenvisualisierungs-Frameworks integrieren.

In diesem von Lehrern geleiteten Live-Training vor Ort lernen die Teilnehmer, wie Apache Arrow in verschiedene Data Science Frameworks integriert wird, um auf Daten aus unterschiedlichen Datenquellen zuzugreifen.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Apache Arrow in einer verteilten Clusterumgebung
- Verwenden Sie Apache Arrow um auf Daten aus unterschiedlichen Datenquellen zuzugreifen
- Verwenden Sie Apache Arrow , um die Notwendigkeit zu umgehen, komplexe ETL-Pipelines zu erstellen und zu warten
- Analysieren Sie Daten aus unterschiedlichen Datenquellen, ohne sie in einem zentralen Repository konsolidieren zu müssen

Publikum

- Datenwissenschaftler
- Dateningenieure

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 hours
Overview
Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an technische Personen, die lernen möchten, wie eine Strategie für maschinelles Lernen implementiert und gleichzeitig die Nutzung von Big Data maximiert wird.

Am Ende dieser Schulung werden die Teilnehmer:

- Verstehen Sie die Entwicklung und Trends des maschinellen Lernens.
- Wissen, wie maschinelles Lernen branchenübergreifend eingesetzt wird.
- Machen Sie sich mit den Tools, Fähigkeiten und Diensten vertraut, die für die Implementierung von maschinellem Lernen in einer Organisation verfügbar sind.
- Verstehen Sie, wie maschinelles Lernen zur Verbesserung von Data Mining und Analyse eingesetzt werden kann.
- Erfahren Sie, was ein Data Middle Backend ist und wie es von Unternehmen verwendet wird.
- Verstehen Sie, welche Rolle Big Data und intelligente Anwendungen branchenübergreifend spielen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Overview
Teradata is a popular Relational Database Management System for building large scale data warehousing applications. Teradata achieves this by way of parallelism.

This instructor-led, live training (onsite or remote) is aimed at application developers and engineers who wish to master more sophisticated usages of the Teradata database.

By the end of this training, participants will be able to:

- Manage Teradata space.
- Protect and distribute data in Teradata.
- Read Explain Plan.
- Improve SQL proficiency.
- Use main utilities of Teradata.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
35 hours
Overview
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 hours
Overview
Pivotal Greenplum is a Massively Parallel Processing (MPP) Data Warehouse platform based on PostgreSQL.

This instructor-led, live training (onsite or remote) is aimed at developers who wish to set up a multi-node Greenplum database.

By the end of this training, participants will be able to:

- Install and configure Pivotal Greenplum.
- Model data in accordance to current needs and future expansion plans.
- Carry out different techniques for distributing data across multiple nodes.
- Improve database performance through tuning.
- Monitor and troubleshoot a Greenplum database.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Germany!

As a Business Development Manager you will:

  • expand business in Germany
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!