Big Data Schulungen

Big Data Schulungen

Lokale, von Ausbildern geführte Live-Big-Data-Schulungen beginnen mit einer Einführung in elementare Konzepte von Big Data und führen dann zu den Programmiersprachen und Methoden, die zur Durchführung der Datenanalyse verwendet werden. Tools und Infrastruktur zur Aktivierung von Big Data Storage, Distributed Processing und Skalierbarkeit werden in Demo-Übungssessions diskutiert, verglichen und implementiert. Big Data Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar. Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Deutschland oder in NobleProg Corporate Trainingszentren in Deutschland . Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Trainingsanbieter

Erfahrungsberichte

★★★★★
★★★★★

Big Data Kurspläne

CodeNameDauerÜbersicht
smtwebintSemantic Web Overview7 StundenDas Semantic Web ist eine kollaborative Bewegung, die vom World Wide Web Consortium (W3C) geleitet wird und gemeinsame Formate für Daten im World Wide Web fördert. Das Semantic Web bietet ein allgemeines Framework, das die gemeinsame Nutzung und Wiederverwendung von Daten über die Grenzen von Anwendungen, Unternehmen und Communities hinweg ermöglicht.
tigonTigon: Real-time Streaming for the Real World14 StundenTigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
BDATRBig Data Analytics for Telecom Regulators16 StundenUm die Compliance der Regulierungsbehörden zu erfüllen, können CSPs (Communication Service Provider) auf Big zugreifen Data Analytics, die ihnen nicht nur dabei helfen, Compliance zu erfüllen, sondern auch im Rahmen derselben Projekt können sie die Kundenzufriedenheit erhöhen und somit die Abwanderung reduzieren In der Tat seit Compliance bezieht sich auf Servicequalität, die an einen Vertrag geknüpft ist, jegliche Initiative zur Erfüllung des Vertrags Compliance, wird den "Wettbewerbsvorteil" der CSPs verbessern Daher ist es wichtig, dass Die Aufsichtsbehörden sollten in der Lage sein, eine Reihe von Big-Data-Analysepraktiken für CSPs zu beraten / zu leiten von gegenseitigem Nutzen zwischen den Regulierungsbehörden und CSPs sein 2 Tage natürlich: 8 Module, jeweils 2 Stunden = 16 Stunden .
graphcomputingIntroduction to Graph Computing28 StundenEine große Anzahl von realen Problemen kann anhand von Graphen beschrieben werden Zum Beispiel das Web-Diagramm, das Diagramm des sozialen Netzwerks, das Diagramm des Zugnetzwerks und das Sprachen-Diagramm Diese Graphen neigen dazu, extrem groß zu sein; ihre Verarbeitung erfordert einen speziellen Satz von Werkzeugen und Prozessen Diese Werkzeuge und Prozesse können als Graph Computing (auch Graph Analytics genannt) bezeichnet werden In diesem instruierten Live-Training lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Grafikdaten kennen Ziel ist es, Realworld-Objekte, ihre Eigenschaften und Beziehungen zu identifizieren, diese Beziehungen zu modellieren und als Daten zu verarbeiten Wir beginnen mit einem breiten Überblick und konzentrieren uns auf bestimmte Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Implementierungen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen, wie Diagrammdaten beibehalten und durchlaufen werden Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis hin zu Frameworks für die Stapelverarbeitung) Implementieren Sie Hadoop, Spark, GraphX ​​und Pregel, um Graph-Computing parallel auf vielen Maschinen auszuführen Betrachten Sie reale Datenprobleme in Form von Graphen, Prozessen und Traversalen Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
matlabpredanalyticsMatlab for Predictive Analytics21 StundenPredictive Analytics ist der Prozess der Verwendung von Datenanalysen, um Vorhersagen über die Zukunft zu treffen Dieser Prozess verwendet Daten zusammen mit Data-Mining-, Statistik- und maschinellen Lerntechniken, um ein Vorhersagemodell für die Vorhersage zukünftiger Ereignisse zu erstellen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Matlab nutzen können, um Vorhersagemodelle zu erstellen und sie auf große Beispieldatensätze anzuwenden, um zukünftige Ereignisse basierend auf den Daten vorherzusagen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie Vorhersagemodelle, um Muster in historischen und transaktionalen Daten zu analysieren Verwenden Sie Predictive Modeling, um Risiken und Chancen zu identifizieren Erstellen Sie mathematische Modelle, die wichtige Trends erfassen Verwenden Sie Daten von Geräten und Geschäftssystemen, um Verschwendung zu reduzieren, Zeit zu sparen oder Kosten zu senken Publikum Entwickler Ingenieure Domain-Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
nifidevApache NiFi for Developers7 StundenApache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training erlernen die Teilnehmer die Grundlagen der flowbasierten Programmierung, während sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Datenflusskonzepte von NiFi Entwickeln Sie Erweiterungen mit NiFi und Drittanbieter-APIs Entwickeln Sie Ihren eigenen Apache Nifi-Prozessor Erfassen und Verarbeiten von Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen Publikum Entwickler Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
nifiApache NiFi for Administrators21 StundenApache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung bereitgestellt und verwaltet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apachi NiFi Quelle, Transformation und Verwaltung von Daten aus verschiedenen verteilten Datenquellen, einschließlich Datenbanken und Big Data Seen Datenflüsse automatisieren Aktiviere Streaming-Analysen Wenden Sie verschiedene Ansätze für die Datenaufnahme an Transformieren Sie Big Data und Business Insights Publikum Systemadministratoren Dateningenieure Entwickler DevOps Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
solrcloudSolrCloud14 StundenApache SolrCloud ist eine verteilte Datenverarbeitungs-Engine, die die Suche und Indizierung von Dateien in einem verteilten Netzwerk erleichtert In diesem instruierten Live-Training lernen die Teilnehmer, wie eine SolrCloud-Instanz auf Amazon AWS eingerichtet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Funktionen von SolCloud und wie diese mit denen herkömmlicher Master Slaves verglichen werden Konfigurieren Sie einen zentralisierten SolCloud-Cluster Automatisiere Prozesse wie die Kommunikation mit Shards, das Hinzufügen von Dokumenten zu den Shards usw Verwenden Sie Zookeeper in Verbindung mit SolrCloud, um Prozesse weiter zu automatisieren Verwenden Sie die Schnittstelle, um Fehlerberichte zu verwalten Lastenausgleich einer SolrCloud-Installation Konfigurieren Sie SolrCloud für kontinuierliche Verarbeitung und Failover Publikum Solr Entwickler Projektmanager Systemadministratoren Suche nach Analysten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
datavaultData Vault: Building a Scalable Data Warehouse28 StundenDie Datentresormodellierung ist eine Datenbankmodellierungstechnik, die eine langfristige historische Speicherung von Daten aus mehreren Quellen ermöglicht Ein Datentresor speichert eine einzelne Version der Fakten oder "alle Daten die ganze Zeit" Sein flexibles, skalierbares, konsistentes und anpassungsfähiges Design umfasst die besten Aspekte der 3 Normalform (3NF) und des Sternschemas In diesem instruierten Live-Training lernen die Teilnehmer, wie ein Data Vault erstellt wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Designkonzepte von Data Vault 20 und die Interaktion mit Big Data, NoSQL und AI Verwenden Sie Data-Vaulting-Techniken, um die Überwachung, Verfolgung und Inspektion historischer Daten in einem Data Warehouse zu ermöglichen Entwickeln Sie einen konsistenten und wiederholbaren ETL-Prozess (Extract, Transform, Load) Erstellen und implementieren Sie hoch skalierbare und wiederholbare Warehouses Publikum Datenmodellierer Spezialist für Data Warehousing Business Intelligence-Spezialisten Dateningenieure Datenbankadministratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
datameerDatameer for Data Analysts14 StundenDatameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 StundenApache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Audience

- Developers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
sparkpythonPython and Spark for Big Data (PySpark)21 StundenPython ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist Spark ist eine Datenverarbeitungsmaschine, die große Daten abfragt, analysiert und transformiert PySpark ermöglicht Benutzern, Spark mit Python zu verbinden In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Python und Spark zusammen verwenden, um Big Data zu analysieren, während sie an Hands-on-Übungen arbeiten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erfahren Sie, wie Sie Spark mit Python verwenden, um Big Data zu analysieren Arbeite an Übungen, die reale Lebensumstände nachahmen Verwenden Sie verschiedene Tools und Techniken für die Analyse großer Datenmengen mit PySpark Publikum Entwickler IT-Fachleute Datenwissenschaftler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
vespaVespa: Serving Large-Scale Data in Real-Time14 StundenVespa eine Open-Source-Big-Data-Verarbeitung und Serving-Engine von Yahoo erstellt Es wird verwendet, um auf Benutzeranfragen zu reagieren, Empfehlungen zu geben und personalisierte Inhalte und Werbung in Echtzeit bereitzustellen Dieses instruktorierte Live-Training stellt die Herausforderungen dar, mit denen große Datenmengen bereitgestellt werden, und führt die Teilnehmer durch die Erstellung einer Anwendung, die Antworten auf Benutzeranforderungen über große Datensätze in Echtzeit berechnen kann Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Vespa, um schnell Daten zu berechnen (speichern, suchen, sortieren, organisieren), während der Benutzer wartet Implementieren Sie Vespa in bestehende Anwendungen mit Feature-Suche, Empfehlungen und Personalisierung Integrieren und implementieren Sie Vespa mit bestehenden Big-Data-Systemen wie Hadoop und Storm Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
apexApache Apex: Processing Big Data-in-Motion21 StundenApache Apex ist eine YARNnative-Plattform, die Stream- und Batch-Verarbeitung vereint Es verarbeitet große Datenbewegungen in einer Weise, die skalierbar, performant, fehlertolerant, zustandsorientiert, sicher, verteilt und einfach zu bedienen ist Dieses integrierte Live-Training stellt Apache Apex's vereinheitlichte Stream-Processing-Architektur vor und führt die Teilnehmer durch die Erstellung einer verteilten Anwendung mit Apex auf Hadoop Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verständnis von Datenverarbeitungs-Pipeline-Konzepten wie Konnektoren für Quellen und Senken, gemeinsame Datentransformationen usw Erstellen, skalieren und optimieren Sie eine Apex-Anwendung Verarbeiten Sie Echtzeitdatenströme zuverlässig und mit minimaler Latenz Verwenden Sie Apex Core und die Apex Malhar-Bibliothek, um eine schnelle Anwendungsentwicklung zu ermöglichen Verwenden Sie die Apex-API, um vorhandenen Java-Code zu schreiben und wiederzuverwenden Integrieren Sie Apex als Verarbeitungsmodul in andere Anwendungen Optimieren, testen und skalieren Sie Apex-Anwendungen Publikum Entwickler Unternehmensarchitekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
alluxioAlluxio: Unifying Disparate Storage Systems7 StundenAlexio ist ein virtuelles virtuelles verteiltes Speichersystem, das verteilte Speichersysteme vereint und Anwendungen mit Daten mit Speichergeschwindigkeit interagieren lässt Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Alexio verschiedene Berechnungs-Frameworks mit Speichersystemen überbrücken und Multipetabyte-Daten effizient verwalten können, während sie mit Alluxio eine Anwendung erstellen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Entwickeln Sie eine Anwendung mit Alluxio Verbinden Sie Big-Data-Systeme und -Anwendungen unter Beibehaltung eines Namespace Effiziente Extraktion von Werten aus Big Data in jedem Speicherformat Verbessern Sie die Arbeitslastleistung Bereitstellen und Verwalten von Alluxio Standalone oder Clustered Publikum Datenwissenschaftler Entwickler Systemadministrator Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
flinkFlink for Scalable Stream and Batch Data Processing28 StundenApache Flink ist ein Open Source-Framework für skalierbare Stream- und Batch-Datenverarbeitung In diesem instruierten Live-Training werden die Prinzipien und Vorgehensweisen für die verteilte Datenverarbeitung im Stream und Batch vorgestellt und die Teilnehmer durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung geführt Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Richten Sie eine Umgebung für die Entwicklung von Datenanalyseanwendungen ein Paketieren, Ausführen und Überwachen von flinkbasierten, fehlertoleranten Daten-Streaming-Anwendungen Verwalten Sie verschiedene Workloads Führen Sie erweiterte Analysen mit Flink ML durch Richten Sie einen multinode Flink-Cluster ein Messen und optimieren Sie die Leistung Integrieren Sie Flink in verschiedene Big Data Systeme Vergleichen Sie Flink-Funktionen mit denen anderer Big Data-Frameworks Publikum Entwickler Architekten Dateningenieure Analytics-Profis Technische Manager Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
samzaSamza for Stream Processing14 StundenApache Samza ist ein OpenSource-Echtzeit-asynchrones Berechnungs-Framework für die Stream-Verarbeitung Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolierung, Sicherheit und Ressourcenverwaltung Dieses instruierte Live-Training stellt die Prinzipien vor, die hinter Messaging-Systemen und verteilter Stream-Verarbeitung stehen, während die Teilnehmer durch die Erstellung eines Samzabased-Beispielprojekts und der Jobausführung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Samza, um den Code zu vereinfachen, der zum Erstellen und Verwenden von Nachrichten benötigt wird Entkoppeln Sie die Handhabung von Nachrichten aus einer Anwendung Verwenden Sie Samza, um die asynchrone Echtzeitberechnung zu implementieren Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene als Messaging-Systeme bereitzustellen Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
zeppelinZeppelin for Interactive Data Analytics14 StundenApache Zeppelin ist ein webbasiertes Notebook zum Erfassen, Erkunden, Visualisieren und Teilen von Hadoop- und Spark-basierten Daten Dieses instruierte Live-Training stellt die Konzepte hinter der interaktiven Datenanalyse vor und führt die Teilnehmer durch die Bereitstellung und Nutzung von Zeppelin in einer Singleuser- oder Multiuser-Umgebung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Zeppelin Entwickeln, organisieren, ausführen und teilen Sie Daten in einer browserbasierten Oberfläche Visualisieren Sie Ergebnisse, ohne auf die Befehlszeilen- oder Clusterdetails Bezug zu nehmen Führen Sie lange Workflows aus und arbeiten Sie mit ihnen zusammen Arbeiten Sie mit einer Reihe von Sprach- / Datenverarbeitungsbackbacks für Plugins wie Scala (mit Apache Spark), Python (mit Apache Spark), Spark SQL, JDBC, Markdown und Shell Integrieren Sie Zeppelin mit Spark, Flink und Map Reduce Sichere Multiuser-Instanzen von Zeppelin mit Apache Shiro Publikum Dateningenieure Datenanalytiker Datenwissenschaftler Softwareentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
magellanMagellan: Geospatial Analytics on Spark14 StundenMagellan ist eine OpenSource-Engine für die verteilte Ausführung von geospatialen Analysen auf Big Data Es wurde auf Apache Spark implementiert und erweitert Spark SQL und bietet eine relationale Abstraktion für Geospatial Analytics Dieses instruierte Live-Training stellt die Konzepte und Ansätze für die Implementierung von Geospacial-Analysen vor und führt die Teilnehmer durch die Erstellung einer Anwendung zur Vorhersageanalyse mithilfe von Magellan on Spark Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Effizientes Abfragen, Analysieren und Verknüpfen von Geodatensätzen im Maßstab Implementieren Sie Geodaten in Business Intelligence- und Predictive Analytics-Anwendungen Verwenden Sie räumlichen Kontext, um die Funktionen von mobilen Geräten, Sensoren, Protokollen und Wearables zu erweitern Publikum Anwendungsentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
hdpHortonworks Data Platform (HDP) for Administrators21 StundenDie Hortonworks Data Platform ist eine Open-Source Apache Hadoop-Support-Plattform, die eine stabile Grundlage für die Entwicklung von Big Data-Lösungen für das Apache Hadoop-Ökosystem bietet Dieses instruierte Live-Training stellt Hortonworks vor und führt die Teilnehmer durch den Einsatz der Spark + Hadoop-Lösung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Hortonworks, um Hadoop in großem Umfang zuverlässig auszuführen Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit Sparks agilen analytischen Workflows Verwenden Sie Hortonworks, um jede Komponente in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturiert, unstrukturiert, Inmotion und atrest Publikum Hadoop-Administratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 StundenFortschritte bei den Technologien und die zunehmende Menge an Informationen verändern die Art und Weise, in der die Strafverfolgung durchgeführt wird Die Herausforderungen, die Big Data mit sich bringt, sind fast so gewaltig wie die Versprechen von Big Data Die effiziente Speicherung von Daten ist eine dieser Herausforderungen es effektiv zu analysieren ist ein anderes In diesem instruierten Live-Training lernen die Teilnehmer die Denkweise kennen, mit der sie Big Data-Technologien angehen, ihre Auswirkungen auf bestehende Prozesse und Richtlinien bewerten und diese Technologien zum Zweck der Identifizierung krimineller Aktivitäten und zur Verhinderung von Kriminalität einsetzen können Fallstudien von Strafverfolgungsbehörden auf der ganzen Welt werden untersucht, um Einblicke in ihre Adoptionsansätze, Herausforderungen und Ergebnisse zu erhalten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Kombinieren Sie Big-Data-Technologie mit traditionellen Datenerfassungs-Prozessen, um während einer Untersuchung eine Geschichte zusammenzustellen Implementieren Sie industrielle Big-Data-Speicher- und Verarbeitungslösungen für die Datenanalyse Vorbereitung eines Vorschlags für die Einführung der am besten geeigneten Instrumente und Verfahren zur Ermöglichung eines datengestützten Ansatzes bei strafrechtlichen Ermittlungen Publikum Strafverfolgungsspezialisten mit technischem Hintergrund Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
hadooppythonHadoop with Python28 StundenHadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
TalendDITalend Open Studio for Data Integration 28 StundenTalend Open Studio für Datenintegration ist ein Open Source-Datenintegrationsprodukt, das zum Kombinieren, Konvertieren und Aktualisieren von Daten an verschiedenen Standorten in einem Unternehmen verwendet wird In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mit dem Talend ETL-Tool Datentransformation, Datenextraktion und Konnektivität mit Hadoop, Hive und Pig durchführen können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein Erläutern Sie die Konzepte hinter ETL (Extract, Transform, Load) und Propagation Definieren Sie ETL-Methoden und ETL-Tools für die Verbindung mit Hadoop Sammeln, erfassen, verdauen, konsumieren, transformieren und gestalten Sie Big Data effizient gemäß den Geschäftsanforderungen Hochladen und Extrahieren großer Datensätze aus Hadoop-Datenbanken (optional), Hive-Datenbanken (optional) und NoSQL-Datenbanken Publikum Business Intelligence-Experten Projektmanager Datenbankprofis SQL-Entwickler ETL Entwickler Lösungsarchitekten Datenarchitekten Data-Warehousing-Profis Systemadministratoren und Integratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
sparksqlApache Spark SQL7 StundenSpark SQL ist das Modul von Apache Spark zum Arbeiten mit strukturierten und unstrukturierten Daten Spark SQL liefert Informationen über die Struktur der Daten sowie die durchgeführte Berechnung Diese Information kann verwendet werden, um Optimierungen durchzuführen Zwei häufige Anwendungen für Spark SQL sind: SQL-Abfragen ausführen um Daten von einer vorhandenen Hive-Installation zu lesen In diesem instruierten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie sie verschiedene Arten von Datensätzen mit Spark SQL analysieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Spark SQL Führen Sie eine Datenanalyse mit Spark SQL durch Abfrage von Datensätzen in verschiedenen Formaten Visualisieren Sie Daten und Abfrageergebnisse Publikum Datenanalytiker Datenwissenschaftler Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Anmerkungen Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
sparkcloudApache Spark in the Cloud21 StundenApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
bigdataanahealthBig Data Analytics in Health21 StundenBig Data Analytics umfasst den Prozess der Untersuchung großer Mengen verschiedener Datensätze, um Korrelationen, verborgene Muster und andere nützliche Erkenntnisse aufzudecken Die Gesundheitsindustrie verfügt über enorme Mengen komplexer heterogener medizinischer und klinischer Daten Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein enormes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung Die Ungeheuerlichkeit dieser Datensätze stellt jedoch große Herausforderungen bei Analysen und praktischen Anwendungen in einem klinischen Umfeld dar In diesem instruierten Live-Training (remote) lernen die Teilnehmer, wie sie Big-Data-Analysen in der Gesundheit durchführen, während sie eine Reihe von Hands-on-Liveslab-Übungen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Big-Data-Analysetools wie Hadoop MapReduce und Spark Verstehen Sie die Eigenschaften von medizinischen Daten Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen Publikum Entwickler Datenwissenschaftler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
arrowApache Arrow for Data Analysis across Disparate Data Sources14 StundenApache Arrow ist ein OpenSource InMemory Datenverarbeitungsframework Es wird oft zusammen mit anderen Data Science-Tools für den Zugriff auf verschiedene Datenspeicher für die Analyse verwendet Es lässt sich gut mit anderen Technologien wie GPU-Datenbanken, Maschinenlernbibliotheken und -tools, Ausführungs-Engines und Datenvisualisierungs-Frameworks integrieren In diesem vor Ort abgehaltenen Live-Training lernen die Teilnehmer Apache Arrow mit verschiedenen Data Science-Frameworks zu integrieren, um auf Daten aus unterschiedlichen Datenquellen zuzugreifen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Arrow in einer verteilten Clusterumgebung Verwenden Sie Apache Arrow, um auf Daten aus unterschiedlichen Datenquellen zuzugreifen Verwenden Sie Apache Arrow, um die Notwendigkeit zum Erstellen und Verwalten komplexer ETL-Pipelines zu umgehen Analysieren Sie Daten in verschiedenen Datenquellen, ohne sie in einem zentralen Repository konsolidieren zu müssen Publikum Datenwissenschaftler Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 StundenSqoop ist ein Open-Source-Software-Tool zum Übertragen von Daten zwischen Hadoop und relationalen Datenbanken oder Mainframes Es kann verwendet werden, um Daten von einem relationalen Datenbankverwaltungssystem (RDBMS) wie MySQL oder Oracle oder einem Mainframe in das Hadoop Distributed File System (HDFS) zu importieren Danach können die Daten in Hadoop MapReduce umgewandelt und dann wieder in ein RDBMS exportiert werden In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Sqoop Daten aus einer traditionellen relationalen Datenbank in Hadoop-Speicher wie HDFS oder Hive und umgekehrt importieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Sqoop Importieren Sie Daten von MySQL nach HDFS und Hive Importieren Sie Daten aus HDFS und Hive in MySQL Publikum Systemadministratoren Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
beamUnified Batch and Stream Processing with Apache Beam14 StundenApache Beam ist ein Open-Source-Programm zur einheitlichen Definition und Ausführung von parallelen Datenverarbeitungspipelines Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung durch eines der von Beam unterstützten verteilten Verarbeitungs-Backends ausgeführt wird: Apache Apex, Apache Fink, Apache Spark und Google Cloud Dataflow Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden), z B zum Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, zum Umwandeln von Daten in ein wünschenswertes Format und zum Laden von Daten in ein neues System In diesem instruierten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie sie die Apache Beam SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zum Zerlegen eines großen Datensatzes in kleinere Blöcke für die unabhängige, parallele Verarbeitung definiert Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Beam Verwenden Sie ein einzelnes Programmiermodell, um sowohl die Batch- als auch die Stream-Verarbeitung auszuführen, indem Sie ihre Java- oder Python-Anwendung verwenden Führen Sie Pipelines über mehrere Umgebungen hinweg aus Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Dieser Kurs wird in Zukunft Scala zur Verfügung stehen Bitte kontaktieren Sie uns, um zu vereinbaren .
pentahoPentaho Open Source BI Suite Community Edition (CE)28 StundenPentaho Open Source Die BI Suite Edition (CE) ist ein Business-Intelligence-Paket, das Datenintegration, Berichterstellung, Dashboards und Ladefunktionen bietet In diesem instruierten Live-Training lernen die Teilnehmer, wie sie die Funktionen der Open Source BI Suite Community Edition (CE) von Pentaho maximieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und Konfigurieren von Pentaho Open Source BI Suite Community Edition (CE) Verstehen Sie die Grundlagen der Pentaho CE-Tools und ihrer Funktionen Erstellen Sie Berichte mit Pentaho CE Integrieren Sie Daten von Drittanbietern in Pentaho CE Arbeiten Sie mit Big Data und Analytics in Pentaho CE Publikum Programmierer BI-Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .

Zukünftige Big Data Kurse

CourseSchulungsdatumKurspreis (Fernkurs / Schulungsraum)
AI Awareness for Telecom - HamburgDi, 2019-01-01 09:303500EUR / 4100EUR
AI Awareness for Telecom - KölnMi, 2019-01-02 09:303500EUR / 4100EUR
AI Awareness for Telecom - BremenDo, 2019-01-03 09:303500EUR / 4100EUR
AI Awareness for Telecom - DüsseldorfMi, 2019-01-09 09:303500EUR / 4100EUR
AI Awareness for Telecom - Frankfurt am MainMo, 2019-01-14 09:303500EUR / 4100EUR
Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

CourseOrtSchulungsdatumKurspreis (Fernkurs / Schulungsraum)
Comprehensive C# and .NET Application SecurityFrankfurt am MainMi, 2019-01-02 09:304725EUR / 5525EUR
Building Microservice Architectures DresdenMi, 2019-02-13 09:303150EUR / 3750EUR
Monax: Build a Smart Contract ApplicationKölnMi, 2019-03-06 09:301575EUR / 1975EUR
Introduction to the use of neural networksLeipzigDo, 2019-05-02 09:301575EUR / 1975EUR
RLeipzigMi, 2019-06-19 09:304725EUR / 5525EUR

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Germany!

As a Business Development Manager you will:

  • expand business in Germany
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!