Big Data Schulungen

Big Data Schulungen

Lokale, von Ausbildern geführte Live-Big-Data-Schulungen beginnen mit einer Einführung in elementare Konzepte von Big Data und führen dann zu den Programmiersprachen und Methoden, die zur Durchführung der Datenanalyse verwendet werden. Tools und Infrastruktur zur Aktivierung von Big Data Storage, Distributed Processing und Skalierbarkeit werden in Demo-Übungssessions diskutiert, verglichen und implementiert. Big Data Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar. Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Deutschland oder in NobleProg Corporate Trainingszentren in Deutschland . Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Trainingsanbieter

Erfahrungsberichte

★★★★★
★★★★★

Big Data Kurspläne

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview
Tor:

Lernen, mit SPSS auf der Ebene der Unabhängigkeit zu arbeiten

Die Adressaten:

Analysten, Forscher, Wissenschaftler, Studenten und alle, die SPSS-Pakete nutzen und beliebte Data-Mining-Techniken erlernen möchten.
28 hours
Overview
Die Datentresormodellierung ist eine Datenbankmodellierungstechnik, die eine langfristige historische Speicherung von Daten aus mehreren Quellen ermöglicht Ein Datentresor speichert eine einzelne Version der Fakten oder "alle Daten die ganze Zeit" Sein flexibles, skalierbares, konsistentes und anpassungsfähiges Design umfasst die besten Aspekte der 3 Normalform (3NF) und des Sternschemas In diesem instruierten Live-Training lernen die Teilnehmer, wie ein Data Vault erstellt wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Designkonzepte von Data Vault 20 und die Interaktion mit Big Data, NoSQL und AI Verwenden Sie Data-Vaulting-Techniken, um die Überwachung, Verfolgung und Inspektion historischer Daten in einem Data Warehouse zu ermöglichen Entwickeln Sie einen konsistenten und wiederholbaren ETL-Prozess (Extract, Transform, Load) Erstellen und implementieren Sie hoch skalierbare und wiederholbare Warehouses Publikum Datenmodellierer Spezialist für Data Warehousing Business Intelligence-Spezialisten Dateningenieure Datenbankadministratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist Spark ist eine Datenverarbeitungsmaschine, die große Daten abfragt, analysiert und transformiert PySpark ermöglicht Benutzern, Spark mit Python zu verbinden In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Python und Spark zusammen verwenden, um Big Data zu analysieren, während sie an Hands-on-Übungen arbeiten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erfahren Sie, wie Sie Spark mit Python verwenden, um Big Data zu analysieren Arbeite an Übungen, die reale Lebensumstände nachahmen Verwenden Sie verschiedene Tools und Techniken für die Analyse großer Datenmengen mit PySpark Publikum Entwickler IT-Fachleute Datenwissenschaftler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
35 hours
Overview
Fortschritte bei den Technologien und die zunehmende Menge an Informationen verändern die Art und Weise, in der die Strafverfolgung durchgeführt wird Die Herausforderungen, die Big Data mit sich bringt, sind fast so gewaltig wie die Versprechen von Big Data Die effiziente Speicherung von Daten ist eine dieser Herausforderungen es effektiv zu analysieren ist ein anderes In diesem instruierten Live-Training lernen die Teilnehmer die Denkweise kennen, mit der sie Big Data-Technologien angehen, ihre Auswirkungen auf bestehende Prozesse und Richtlinien bewerten und diese Technologien zum Zweck der Identifizierung krimineller Aktivitäten und zur Verhinderung von Kriminalität einsetzen können Fallstudien von Strafverfolgungsbehörden auf der ganzen Welt werden untersucht, um Einblicke in ihre Adoptionsansätze, Herausforderungen und Ergebnisse zu erhalten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Kombinieren Sie Big-Data-Technologie mit traditionellen Datenerfassungs-Prozessen, um während einer Untersuchung eine Geschichte zusammenzustellen Implementieren Sie industrielle Big-Data-Speicher- und Verarbeitungslösungen für die Datenanalyse Vorbereitung eines Vorschlags für die Einführung der am besten geeigneten Instrumente und Verfahren zur Ermöglichung eines datengestützten Ansatzes bei strafrechtlichen Ermittlungen Publikum Strafverfolgungsspezialisten mit technischem Hintergrund Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Um die Compliance der Regulierungsbehörden zu erfüllen, können CSPs (Communication Service Provider) auf Big zugreifen Data Analytics, die ihnen nicht nur dabei helfen, Compliance zu erfüllen, sondern auch im Rahmen derselben Projekt können sie die Kundenzufriedenheit erhöhen und somit die Abwanderung reduzieren In der Tat seit Compliance bezieht sich auf Servicequalität, die an einen Vertrag geknüpft ist, jegliche Initiative zur Erfüllung des Vertrags Compliance, wird den "Wettbewerbsvorteil" der CSPs verbessern Daher ist es wichtig, dass Die Aufsichtsbehörden sollten in der Lage sein, eine Reihe von Big-Data-Analysepraktiken für CSPs zu beraten / zu leiten von gegenseitigem Nutzen zwischen den Regulierungsbehörden und CSPs sein 2 Tage natürlich: 8 Module, jeweils 2 Stunden = 16 Stunden .
28 hours
Overview
Eine große Anzahl von realen Problemen kann anhand von Graphen beschrieben werden Zum Beispiel das Web-Diagramm, das Diagramm des sozialen Netzwerks, das Diagramm des Zugnetzwerks und das Sprachen-Diagramm Diese Graphen neigen dazu, extrem groß zu sein; ihre Verarbeitung erfordert einen speziellen Satz von Werkzeugen und Prozessen Diese Werkzeuge und Prozesse können als Graph Computing (auch Graph Analytics genannt) bezeichnet werden In diesem instruierten Live-Training lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Grafikdaten kennen Ziel ist es, Realworld-Objekte, ihre Eigenschaften und Beziehungen zu identifizieren, diese Beziehungen zu modellieren und als Daten zu verarbeiten Wir beginnen mit einem breiten Überblick und konzentrieren uns auf bestimmte Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Implementierungen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen, wie Diagrammdaten beibehalten und durchlaufen werden Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis hin zu Frameworks für die Stapelverarbeitung) Implementieren Sie Hadoop, Spark, GraphX ​​und Pregel, um Graph-Computing parallel auf vielen Maschinen auszuführen Betrachten Sie reale Datenprobleme in Form von Graphen, Prozessen und Traversalen Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Predictive Analytics ist der Prozess der Verwendung von Datenanalysen, um Vorhersagen über die Zukunft zu treffen Dieser Prozess verwendet Daten zusammen mit Data-Mining-, Statistik- und maschinellen Lerntechniken, um ein Vorhersagemodell für die Vorhersage zukünftiger Ereignisse zu erstellen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Matlab nutzen können, um Vorhersagemodelle zu erstellen und sie auf große Beispieldatensätze anzuwenden, um zukünftige Ereignisse basierend auf den Daten vorherzusagen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie Vorhersagemodelle, um Muster in historischen und transaktionalen Daten zu analysieren Verwenden Sie Predictive Modeling, um Risiken und Chancen zu identifizieren Erstellen Sie mathematische Modelle, die wichtige Trends erfassen Verwenden Sie Daten von Geräten und Geschäftssystemen, um Verschwendung zu reduzieren, Zeit zu sparen oder Kosten zu senken Publikum Entwickler Ingenieure Domain-Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine in Echtzeit integrierte Datenlogistik und einfache Ereignisverarbeitungsplattform, die das Bewegen, Tracking und die Automatisierung von Daten zwischen den Systemen ermöglicht. Es wird mit einer flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Dataflows in Echtzeit zu verwalten.

In diesem von Ausbildern geleiteten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, wenn sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln

.

Am Ende dieses Trainings können die Teilnehmer:

- Verstehen Sie die Architektur und die Dataflow-Konzepte von NiFi & #39;.
- Erweiterungen mit NiFi und Drittanbieter-APIs
. - Custom entwickeln ihren eigenen Apache Nifi-Prozessor.
- Ingest und verarbeiten
Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.

Format der

- interaktiven Vortrag und Diskussion
. - Viele Übungen und Übungen
. - Hands-on-Umsetzung in einem Live-Labor-Umfeld
.

- Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um
zu arrangieren.
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung bereitgestellt und verwaltet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apachi NiFi Quelle, Transformation und Verwaltung von Daten aus verschiedenen verteilten Datenquellen, einschließlich Datenbanken und Big Data Seen Datenflüsse automatisieren Aktiviere Streaming-Analysen Wenden Sie verschiedene Ansätze für die Datenaufnahme an Transformieren Sie Big Data und Business Insights Publikum Systemadministratoren Dateningenieure Entwickler DevOps Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache SolrCloud ist eine verteilte Datenverarbeitungs-Engine, die die Suche und Indizierung von Dateien in einem verteilten Netzwerk erleichtert In diesem instruierten Live-Training lernen die Teilnehmer, wie eine SolrCloud-Instanz auf Amazon AWS eingerichtet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Funktionen von SolCloud und wie diese mit denen herkömmlicher Master Slaves verglichen werden Konfigurieren Sie einen zentralisierten SolCloud-Cluster Automatisiere Prozesse wie die Kommunikation mit Shards, das Hinzufügen von Dokumenten zu den Shards usw Verwenden Sie Zookeeper in Verbindung mit SolrCloud, um Prozesse weiter zu automatisieren Verwenden Sie die Schnittstelle, um Fehlerberichte zu verwalten Lastenausgleich einer SolrCloud-Installation Konfigurieren Sie SolrCloud für kontinuierliche Verarbeitung und Failover Publikum Solr Entwickler Projektmanager Systemadministratoren Suche nach Analysten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Datameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
MemSQL ist ein verteiltes SQL-Datenbankmanagementsystem für Cloud und On-Premises Es ist ein Echtzeit-Data-Warehouse, das sofort Erkenntnisse aus Live- und historischen Daten liefert In diesem instruierten Live-Training lernen die Teilnehmer das Wesentliche von MemSQL für Entwicklung und Administration kennen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Schlüsselkonzepte und Eigenschaften von MemSQL Installation, Design, Wartung und Betrieb von MemSQL Optimiere Schemas in MemSQL Verbessere Abfragen in MemSQL Benchmark-Leistung in MemSQL Erstellen Sie Echtzeit-Datenanwendungen mit MemSQL Publikum Entwickler Administratoren Betriebsingenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache Ignite ist eine Computer-Plattform im Speicher, die zwischen der Anwendung und der Datenschicht sitzt, um Geschwindigkeit, Skala und Verfügbarkeit zu verbessern.

In diesem von Ausbildern geleiteten Live-Training lernen die Teilnehmer die Prinzipien hinter einem dauerhaften und reinen In-Memory-Speicher kennen, wenn sie ein Proben-in-Memory-Computing-Projekt erstellen

.

Am Ende dieses Trainings können die Teilnehmer:

- Verwenden Sie Ignite für den Speicher, die Hartnäckigkeit auf der Festplatte sowie eine rein verteilte In-Memory-Datenbank
. - Durchhaltevermögen erreichen
, ohne Daten wieder in eine relationale Datenbank zu synchronisieren. - Verwenden Sie Ignite, um SQL und verteilte Joins auszuführen.
- die Leistung verbessern, indem die Daten näher an die CPU rücken, indem RAM als Speicher verwendet wird
- Spread-Daten über einen Cluster,
um eine horizontale Skalierbarkeit zu erreichen. - mit RDBMS, NoSQL, Hadoop und maschinellen Lernprozessoren
integrieren.

Format der

- interaktiven Vortrag und Diskussion
. - Viele Übungen und Übungen
. - Hands-on-Umsetzung in einem Live-Labor-Umfeld
.

- Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um
zu arrangieren.
14 hours
Overview
Vespa eine Open-Source-Big-Data-Verarbeitung und Serving-Engine von Yahoo erstellt Es wird verwendet, um auf Benutzeranfragen zu reagieren, Empfehlungen zu geben und personalisierte Inhalte und Werbung in Echtzeit bereitzustellen Dieses instruktorierte Live-Training stellt die Herausforderungen dar, mit denen große Datenmengen bereitgestellt werden, und führt die Teilnehmer durch die Erstellung einer Anwendung, die Antworten auf Benutzeranforderungen über große Datensätze in Echtzeit berechnen kann Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Vespa, um schnell Daten zu berechnen (speichern, suchen, sortieren, organisieren), während der Benutzer wartet Implementieren Sie Vespa in bestehende Anwendungen mit Feature-Suche, Empfehlungen und Personalisierung Integrieren und implementieren Sie Vespa mit bestehenden Big-Data-Systemen wie Hadoop und Storm Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Apache Apex ist eine YARNnative-Plattform, die Stream- und Batch-Verarbeitung vereint Es verarbeitet große Datenbewegungen in einer Weise, die skalierbar, performant, fehlertolerant, zustandsorientiert, sicher, verteilt und einfach zu bedienen ist Dieses integrierte Live-Training stellt Apache Apex's vereinheitlichte Stream-Processing-Architektur vor und führt die Teilnehmer durch die Erstellung einer verteilten Anwendung mit Apex auf Hadoop Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verständnis von Datenverarbeitungs-Pipeline-Konzepten wie Konnektoren für Quellen und Senken, gemeinsame Datentransformationen usw Erstellen, skalieren und optimieren Sie eine Apex-Anwendung Verarbeiten Sie Echtzeitdatenströme zuverlässig und mit minimaler Latenz Verwenden Sie Apex Core und die Apex Malhar-Bibliothek, um eine schnelle Anwendungsentwicklung zu ermöglichen Verwenden Sie die Apex-API, um vorhandenen Java-Code zu schreiben und wiederzuverwenden Integrieren Sie Apex als Verarbeitungsmodul in andere Anwendungen Optimieren, testen und skalieren Sie Apex-Anwendungen Publikum Entwickler Unternehmensarchitekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 hours
Overview
Alexio ist ein virtuelles virtuelles verteiltes Speichersystem, das verteilte Speichersysteme vereint und Anwendungen mit Daten mit Speichergeschwindigkeit interagieren lässt Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Alexio verschiedene Berechnungs-Frameworks mit Speichersystemen überbrücken und Multipetabyte-Daten effizient verwalten können, während sie mit Alluxio eine Anwendung erstellen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Entwickeln Sie eine Anwendung mit Alluxio Verbinden Sie Big-Data-Systeme und -Anwendungen unter Beibehaltung eines Namespace Effiziente Extraktion von Werten aus Big Data in jedem Speicherformat Verbessern Sie die Arbeitslastleistung Bereitstellen und Verwalten von Alluxio Standalone oder Clustered Publikum Datenwissenschaftler Entwickler Systemadministrator Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
Apache Flink ist ein Open-Source-Framework für die skalierbare Stream-und Batch-Datenverarbeitung

.

Dieses von Lehrern geleitete Live-Training stellt die Prinzipien und Ansätze hinter der verteilten Stream-und Batch-Datenverarbeitung vor und geht die Teilnehmer durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung in Apache Flink

.

Am Ende dieses Trainings können die Teilnehmer:

- Eine Umgebung für die Entwicklung von Datenanalyse-Anwendungen
einrichten. -
, die Flink-basierte, fehlertolerante Datenstreaming-Anwendungen. - unterschiedliche Arbeitsbelastung
verwalten. - mit Flink ML. erweiterte Analytik
- Setzen Sie einen Multi-Knoden-Flink-Cluster
. - die Leistung messen und optimieren
. -
die Flink mit verschiedenen Big-Data-Systemen integrieren. - Vergleichen Sie die Flink-Fähigkeiten mit denen anderer
Big Data Processing.

Format des Kurses

- Teil-Vortrag, Teilbesprechung, Übungen und schwere Hands-on-Praxis
14 hours
Overview
Apache Samza ist ein OpenSource-Echtzeit-asynchrones Berechnungs-Framework für die Stream-Verarbeitung Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolierung, Sicherheit und Ressourcenverwaltung Dieses instruierte Live-Training stellt die Prinzipien vor, die hinter Messaging-Systemen und verteilter Stream-Verarbeitung stehen, während die Teilnehmer durch die Erstellung eines Samzabased-Beispielprojekts und der Jobausführung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Samza, um den Code zu vereinfachen, der zum Erstellen und Verwenden von Nachrichten benötigt wird Entkoppeln Sie die Handhabung von Nachrichten aus einer Anwendung Verwenden Sie Samza, um die asynchrone Echtzeitberechnung zu implementieren Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene als Messaging-Systeme bereitzustellen Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache Zeppelin ist ein webbasiertes Notebook zum Erfassen, Erkunden, Visualisieren und Teilen von Hadoop- und Spark-basierten Daten Dieses instruierte Live-Training stellt die Konzepte hinter der interaktiven Datenanalyse vor und führt die Teilnehmer durch die Bereitstellung und Nutzung von Zeppelin in einer Singleuser- oder Multiuser-Umgebung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Zeppelin Entwickeln, organisieren, ausführen und teilen Sie Daten in einer browserbasierten Oberfläche Visualisieren Sie Ergebnisse, ohne auf die Befehlszeilen- oder Clusterdetails Bezug zu nehmen Führen Sie lange Workflows aus und arbeiten Sie mit ihnen zusammen Arbeiten Sie mit einer Reihe von Sprach- / Datenverarbeitungsbackbacks für Plugins wie Scala (mit Apache Spark), Python (mit Apache Spark), Spark SQL, JDBC, Markdown und Shell Integrieren Sie Zeppelin mit Spark, Flink und Map Reduce Sichere Multiuser-Instanzen von Zeppelin mit Apache Shiro Publikum Dateningenieure Datenanalytiker Datenwissenschaftler Softwareentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Magellan ist eine OpenSource-Engine für die verteilte Ausführung von geospatialen Analysen auf Big Data Es wurde auf Apache Spark implementiert und erweitert Spark SQL und bietet eine relationale Abstraktion für Geospatial Analytics Dieses instruierte Live-Training stellt die Konzepte und Ansätze für die Implementierung von Geospacial-Analysen vor und führt die Teilnehmer durch die Erstellung einer Anwendung zur Vorhersageanalyse mithilfe von Magellan on Spark Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Effizientes Abfragen, Analysieren und Verknüpfen von Geodatensätzen im Maßstab Implementieren Sie Geodaten in Business Intelligence- und Predictive Analytics-Anwendungen Verwenden Sie räumlichen Kontext, um die Funktionen von mobilen Geräten, Sensoren, Protokollen und Wearables zu erweitern Publikum Anwendungsentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
Hadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
MonetDB ist eine Open-Source-Datenbank, die den Columnstore-Technologieansatz vorangebracht hat In diesem instruierten Live-Training lernen die Teilnehmer, wie sie MonetDB nutzen und den größtmöglichen Nutzen daraus ziehen können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie MonetDB und seine Funktionen Installieren und starten Sie mit MonetDB Erforschen und führen Sie verschiedene Funktionen und Aufgaben in MonetDB aus Beschleunigen Sie die Bereitstellung Ihres Projekts, indem Sie die MonetDB-Funktionen maximieren Publikum Entwickler Technische Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Pentaho Data Integration ist ein Open Source-Datenintegrationstool zur Definition von Jobs und Datentransformationen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie die leistungsstarken ETL-Funktionen und die umfangreiche GUI von Pentaho Data Integration nutzen können, um den gesamten Lebenszyklus von Big Data zu verwalten und den Wert von Daten für das Unternehmen zu maximieren Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, zeigen Sie eine Vorschau an und führen Sie grundlegende Datenumwandlungen mit Schritten und Hops aus Konfigurieren und sichern Sie das Pentaho Enterprise Repository Nutzen Sie unterschiedliche Datenquellen und generieren Sie eine einheitliche Version der Wahrheit in einem analytikbereiten Format Bereitstellung von Ergebnissen für Drittanwendungen zur weiteren Verarbeitung Publikum Daten Analyst ETL-Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Die Stream-Verarbeitung bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh auf Berechnungen von Daten während des Empfangs Diese Daten werden als kontinuierliche Datenströme aus Datenquellen wie Sensorereignisse, Website-Benutzeraktivitäten, Finanzgeschäfte, Kreditkarten-Swipes, Klick-Streams usw gelesen Stream-Processing-Frameworks können große Mengen eingehender Daten lesen und liefern nahezu unmittelbar wertvolle Informationen In diesem instruierten Live-Training (vor Ort oder Remote) lernen die Teilnehmer, wie sie verschiedene Stream-Processing-Frameworks mit bestehenden Big-Data-Storage-Systemen und zugehörigen Software-Anwendungen und Microservices einrichten und integrieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie verschiedene Stream Processing-Frameworks, z B Spark Streaming und Kafka Streaming Verstehen und wählen Sie das am besten geeignete Framework für den Job aus Prozess von Daten kontinuierlich, gleichzeitig und in einer Aufzeichnung durch Aufzeichnungsmodus Integration von Stream-Processing-Lösungen in bestehende Datenbanken, Data Warehouses, Data Lakes usw Integration der am besten geeigneten Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices Publikum Entwickler Software-Architekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Anmerkungen Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
14 hours
Overview
Dieses von Lehrern geleitete Live-Training (vor Ort oder Remote) richtet sich an Datenanalysten und Datenwissenschaftler, die mit Python fortschrittlichere Datenanalysetechniken für das Data Mining implementieren wollen.

Am Ende dieses Trainings können die Teilnehmer:

- Verstehen Sie wichtige Bereiche des Data Mining, einschließlich des Verbandsregisterbergbaus, der Analyse der Textstimmung, der automatischen Textzusammenfassung und der Erkennung von Daten.
- verschiedene Strategien zur Lösung von Problemen im Data Mining in der realen Welt zu vergleichen und umzusetzen.
- Verstehen und interpretieren.

Format der

- interaktiven Vortrag und Diskussion
. - Viele Übungen und Übungen
. - Hands-on-Umsetzung in einem Live-Labor-Umfeld
.

- Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um
zu arrangieren.
21 hours
Overview
Apache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
21 hours
Overview
Big Data Analytics umfasst den Prozess der Untersuchung großer Mengen verschiedener Datensätze, um Korrelationen, verborgene Muster und andere nützliche Erkenntnisse aufzudecken Die Gesundheitsindustrie verfügt über enorme Mengen komplexer heterogener medizinischer und klinischer Daten Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein enormes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung Die Ungeheuerlichkeit dieser Datensätze stellt jedoch große Herausforderungen bei Analysen und praktischen Anwendungen in einem klinischen Umfeld dar In diesem instruierten Live-Training (remote) lernen die Teilnehmer, wie sie Big-Data-Analysen in der Gesundheit durchführen, während sie eine Reihe von Hands-on-Liveslab-Übungen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Big-Data-Analysetools wie Hadoop MapReduce und Spark Verstehen Sie die Eigenschaften von medizinischen Daten Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen Publikum Entwickler Datenwissenschaftler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
14 hours
Overview
Apache Arrow ist ein OpenSource InMemory Datenverarbeitungsframework Es wird oft zusammen mit anderen Data Science-Tools für den Zugriff auf verschiedene Datenspeicher für die Analyse verwendet Es lässt sich gut mit anderen Technologien wie GPU-Datenbanken, Maschinenlernbibliotheken und -tools, Ausführungs-Engines und Datenvisualisierungs-Frameworks integrieren In diesem vor Ort abgehaltenen Live-Training lernen die Teilnehmer Apache Arrow mit verschiedenen Data Science-Frameworks zu integrieren, um auf Daten aus unterschiedlichen Datenquellen zuzugreifen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Arrow in einer verteilten Clusterumgebung Verwenden Sie Apache Arrow, um auf Daten aus unterschiedlichen Datenquellen zuzugreifen Verwenden Sie Apache Arrow, um die Notwendigkeit zum Erstellen und Verwalten komplexer ETL-Pipelines zu umgehen Analysieren Sie Daten in verschiedenen Datenquellen, ohne sie in einem zentralen Repository konsolidieren zu müssen Publikum Datenwissenschaftler Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
14 hours
Overview
Sqoop ist ein Open-Source-Software-Tool zum Übertragen von Daten zwischen Hadoop und relationalen Datenbanken oder Mainframes Es kann verwendet werden, um Daten von einem relationalen Datenbankverwaltungssystem (RDBMS) wie MySQL oder Oracle oder einem Mainframe in das Hadoop Distributed File System (HDFS) zu importieren Danach können die Daten in Hadoop MapReduce umgewandelt und dann wieder in ein RDBMS exportiert werden In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Sqoop Daten aus einer traditionellen relationalen Datenbank in Hadoop-Speicher wie HDFS oder Hive und umgekehrt importieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Sqoop Importieren Sie Daten von MySQL nach HDFS und Hive Importieren Sie Daten aus HDFS und Hive in MySQL Publikum Systemadministratoren Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Germany!

As a Business Development Manager you will:

  • expand business in Germany
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!