Big Data Schulungen

Big Data Schulungen

Lokale, von Ausbildern geführte Live-Big-Data-Schulungen beginnen mit einer Einführung in elementare Konzepte von Big Data und führen dann zu den Programmiersprachen und Methoden, die zur Durchführung der Datenanalyse verwendet werden. Tools und Infrastruktur zur Aktivierung von Big Data Storage, Distributed Processing und Skalierbarkeit werden in Demo-Übungssessions diskutiert, verglichen und implementiert. Big Data Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar. Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Deutschland oder in NobleProg Corporate Trainingszentren in Deutschland . Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Trainingsanbieter

Erfahrungsberichte

★★★★★
★★★★★

Big Data Kurspläne

Title
Duration
Overview
Title
Duration
Overview
21 hours
Overview
Apache Accumulo ist ein sortierter, verteilter Schlüssel / Wert-Speicher, der robuste, skalierbare Datenspeicherung und -abfrage bietet Es basiert auf dem Design von Googles BigTable und basiert auf Apache Hadoop, Apache Zookeeper und Apache Thrift Dieser Kurs behandelt die Arbeitsprinzipien hinter Accumulo und führt die Teilnehmer durch die Entwicklung einer Beispielanwendung auf Apache Accumulo Publikum Anwendungsentwickler Software-Ingenieure Technische Berater Format des Kurses Teilvortrag, Teildiskussion, Handson-Entwicklung und Implementierung, gelegentliche Tests zum Verständnis .
21 hours
Overview
Die Stream-Verarbeitung bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh auf Berechnungen von Daten während des Empfangs Diese Daten werden als kontinuierliche Datenströme aus Datenquellen wie Sensorereignisse, Website-Benutzeraktivitäten, Finanzgeschäfte, Kreditkarten-Swipes, Klick-Streams usw gelesen Stream-Processing-Frameworks können große Mengen eingehender Daten lesen und liefern nahezu unmittelbar wertvolle Informationen In diesem instruierten Live-Training (vor Ort oder Remote) lernen die Teilnehmer, wie sie verschiedene Stream-Processing-Frameworks mit bestehenden Big-Data-Storage-Systemen und zugehörigen Software-Anwendungen und Microservices einrichten und integrieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie verschiedene Stream Processing-Frameworks, z B Spark Streaming und Kafka Streaming Verstehen und wählen Sie das am besten geeignete Framework für den Job aus Prozess von Daten kontinuierlich, gleichzeitig und in einer Aufzeichnung durch Aufzeichnungsmodus Integration von Stream-Processing-Lösungen in bestehende Datenbanken, Data Warehouses, Data Lakes usw Integration der am besten geeigneten Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices Publikum Entwickler Software-Architekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Anmerkungen Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
28 hours
Overview
MemSQL ist ein verteiltes SQL-Datenbankmanagementsystem für Cloud und On-Premises Es ist ein Echtzeit-Data-Warehouse, das sofort Erkenntnisse aus Live- und historischen Daten liefert In diesem instruierten Live-Training lernen die Teilnehmer das Wesentliche von MemSQL für Entwicklung und Administration kennen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Schlüsselkonzepte und Eigenschaften von MemSQL Installation, Design, Wartung und Betrieb von MemSQL Optimiere Schemas in MemSQL Verbessere Abfragen in MemSQL Benchmark-Leistung in MemSQL Erstellen Sie Echtzeit-Datenanwendungen mit MemSQL Publikum Entwickler Administratoren Betriebsingenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Predictive Analytics ist der Prozess der Verwendung von Datenanalysen, um Vorhersagen über die Zukunft zu treffen Dieser Prozess verwendet Daten zusammen mit Data-Mining-, Statistik- und maschinellen Lerntechniken, um ein Vorhersagemodell für die Vorhersage zukünftiger Ereignisse zu erstellen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Matlab nutzen können, um Vorhersagemodelle zu erstellen und sie auf große Beispieldatensätze anzuwenden, um zukünftige Ereignisse basierend auf den Daten vorherzusagen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie Vorhersagemodelle, um Muster in historischen und transaktionalen Daten zu analysieren Verwenden Sie Predictive Modeling, um Risiken und Chancen zu identifizieren Erstellen Sie mathematische Modelle, die wichtige Trends erfassen Verwenden Sie Daten von Geräten und Geschäftssystemen, um Verschwendung zu reduzieren, Zeit zu sparen oder Kosten zu senken Publikum Entwickler Ingenieure Domain-Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 hours
Overview
In diesem instruierten Live-Training lernen die Teilnehmer die Kernkonzepte von MapR Stream Architecture kennen, während sie eine Echtzeit-Streaming-Anwendung entwickeln Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Producer- und Consumer-Anwendungen für Echtzeit-Stream-Datenverarbeitung zu erstellen Publikum Entwickler Administratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
14 hours
Overview
Magellan ist eine OpenSource-Engine für die verteilte Ausführung von geospatialen Analysen auf Big Data Es wurde auf Apache Spark implementiert und erweitert Spark SQL und bietet eine relationale Abstraktion für Geospatial Analytics Dieses instruierte Live-Training stellt die Konzepte und Ansätze für die Implementierung von Geospacial-Analysen vor und führt die Teilnehmer durch die Erstellung einer Anwendung zur Vorhersageanalyse mithilfe von Magellan on Spark Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Effizientes Abfragen, Analysieren und Verknüpfen von Geodatensätzen im Maßstab Implementieren Sie Geodaten in Business Intelligence- und Predictive Analytics-Anwendungen Verwenden Sie räumlichen Kontext, um die Funktionen von mobilen Geräten, Sensoren, Protokollen und Wearables zu erweitern Publikum Anwendungsentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache Kylin ist eine extreme, verteilte Analyse-Engine für Big Data In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mit Apache Kylin ein Echtzeit-Data-Warehouse aufbauen können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verbrauchen Sie Echtzeit-Streaming-Daten mit Kylin Nutzen Sie die leistungsstarken Funktionen von Apache Kylin, einschließlich der Unterstützung von Snowflake-Schemata, einer umfangreichen SQL-Schnittstelle, Spark-Cubing und einer Latenz für die Abfrage in Folge Hinweis Wir verwenden die neueste Version von Kylin (zum jetzigen Zeitpunkt Apache Kylin v20) Publikum Big Data-Ingenieure Big Data-Analysten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Knowledge Discovery in Datenbanken (KDD) ist der Prozess der Entdeckung nützlichen Wissens aus einer Sammlung von Daten Reallife-Anwendungen für diese Data Mining-Technik umfassen Marketing, Betrugserkennung, Telekommunikation und Fertigung In diesem Kurs stellen wir die Prozesse vor, die an KDD beteiligt sind, und führen eine Reihe von Übungen durch, um die Implementierung dieser Prozesse zu üben Publikum Datenanalytiker oder jeder, der lernen möchte, Daten zu interpretieren, um Probleme zu lösen Format des Kurses Nach einer theoretischen Diskussion über KDD wird der Instruktor Fallbeispiele vorstellen, die die Anwendung von KDD zur Lösung eines Problems erfordern Die Teilnehmer bereiten Musterdatensätze vor, wählen sie aus und bereinigen sie und nutzen ihr Vorwissen über die Daten, um auf der Grundlage der Ergebnisse ihrer Beobachtungen Lösungen vorzuschlagen .
7 hours
Overview
Kafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Microservices, deren Daten an ein Kafka-Messaging-System übergeben werden Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm verlassen, um Daten zwischen Nachrichtenproduzenten und Konsumenten zu verarbeiten Durch den Aufruf der Kafka Streams API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Kafka Streams in eine Reihe von Java-Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von dort weiterleiten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks zur Stream-Verarbeitung Verarbeiten Sie Daten direkt in einem Kafka-Cluster Schreiben Sie eine Java- oder Scala-Anwendung oder einen Microservice, der in Kafka und Kafka Streams integriert ist Schreiben Sie prägnanten Code, der eingegebene Kafka-Themen in Kafka-Ausgabethemen umwandelt Erstellen, verpacken und implementieren Sie die Anwendung Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Anmerkungen Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
21 hours
Overview
Unlike other technologies, IoT is far more complex encompassing almost every branch of core Engineering-Mechanical, Electronics, Firmware, Middleware, Cloud, Analytics and Mobile. For each of its engineering layers, there are aspects of economics, standards, regulations and evolving state of the art. This is for the firs time, a modest course is offered to cover all of these critical aspects of IoT Engineering.

Summary

-

An advanced training program covering the current state of the art in Internet of Things

-

Cuts across multiple technology domains to develop awareness of an IoT system and its components and how it can help businesses and organizations.

-

Live demo of model IoT applications to showcase practical IoT deployments across different industry domains, such as Industrial IoT, Smart Cities, Retail, Travel & Transportation and use cases around connected devices & things

Target Audience

-

Managers responsible for business and operational processes within their respective organizations and want to know how to harness IoT to make their systems and processes more efficient.

-

Entrepreneurs and Investors who are looking to build new ventures and want to develop a better understanding of the IoT technology landscape to see how they can leverage it in an effective manner.

Estimates for Internet of Things or IoT market value are massive, since by definition the IoT is an integrated and diffused layer of devices, sensors, and computing power that overlays entire consumer, business-to-business, and government industries. The IoT will account for an increasingly huge number of connections: 1.9 billion devices today, and 9 billion by 2018. That year, it will be roughly equal to the number of smartphones, smart TVs, tablets, wearable computers, and PCs combined.

In the consumer space, many products and services have already crossed over into the IoT, including kitchen and home appliances, parking, RFID, lighting and heating products, and a number of applications in Industrial Internet.

However, the underlying technologies of IoT are nothing new as M2M communication existed since the birth of Internet. However what changed in last couple of years is the emergence of number of inexpensive wireless technologies added by overwhelming adaptation of smart phones and Tablet in every home. Explosive growth of mobile devices led to present demand of IoT.

Due to unbounded opportunities in IoT business, a large number of small and medium sized entrepreneurs jumped on a bandwagon of IoT gold rush. Also due to emergence of open source electronics and IoT platform, cost of development of IoT system and further managing its sizable production is increasingly affordable. Existing electronic product owners are experiencing pressure to integrate their device with Internet or Mobile app.

This training is intended for a technology and business review of an emerging industry so that IoT enthusiasts/entrepreneurs can grasp the basics of IoT technology and business.

Course Objective

Main objective of the course is to introduce emerging technological options, platforms and case studies of IoT implementation in home & city automation (smart homes and cities), Industrial Internet, healthcare, Govt., Mobile Cellular and other areas.

-

Basic introduction of all the elements of IoT-Mechanical, Electronics/sensor platform, Wireless and wireline protocols, Mobile to Electronics integration, Mobile to enterprise integration, Data-analytics and Total control plane

-

M2M Wireless protocols for IoT- WiFi, Zigbee/Zwave, Bluetooth, ANT+ : When and where to use which one?

-

Mobile/Desktop/Web app- for registration, data acquisition and control –Available M2M data acquisition platform for IoT-–Xively, Omega and NovoTech, etc.

-

Security issues and security solutions for IoT

-

Open source/commercial electronics platform for IoT-Raspberry Pi, Arduino , ArmMbedLPC etc

-

Open source /commercial enterprise cloud platform for AWS-IoT apps, Azure -IOT, Watson-IOT cloud in addition to other minor IoT clouds

-

Studies of business and technology of some of the common IoT devices like Home automation, Smoke alarm, vehicles, military, home health etc.
14 hours
Overview
Dieser Kurs ist für bestimmt Entwickler Format des Kurses Vorträge, praktische Übungen, kleine Tests auf dem Weg zum Verständnis des Verständnisses .
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung bereitgestellt und verwaltet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apachi NiFi Quelle, Transformation und Verwaltung von Daten aus verschiedenen verteilten Datenquellen, einschließlich Datenbanken und Big Data Seen Datenflüsse automatisieren Aktiviere Streaming-Analysen Wenden Sie verschiedene Ansätze für die Datenaufnahme an Transformieren Sie Big Data und Business Insights Publikum Systemadministratoren Dateningenieure Entwickler DevOps Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Cloudera Impala ist eine Open-Source-SQL-Abfrage-Engine für massiv parallele Verarbeitung (MPP) für Apache Hadoop-Cluster Mit Impala können Benutzer SQL-Abfragen mit niedriger Latenz für Daten ausführen, die in Hadoop Distributed File System und Apache Hbase gespeichert sind, ohne dass Daten verschoben oder transformiert werden müssen Publikum Dieser Kurs richtet sich an Analysten und Datenwissenschaftler, die eine Analyse von in Hadoop gespeicherten Daten über Business Intelligence- oder SQL-Tools durchführen Nach diesem Kurs werden die Delegierten in der Lage sein Extrahieren Sie aussagekräftige Informationen aus Hadoop-Clustern mit Impala Schreiben Sie spezifische Programme, um Business Intelligence in Impala SQL Dialekt zu erleichtern Problembehandlung bei Impala .
7 hours
Overview
Dieser Kurs behandelt die Verwendung der Hive SQL-Sprache (Hive HQL, SQL on Hive, HiveQL) für Personen, die Daten aus Hive extrahieren .
21 hours
Overview
Die Hortonworks Data Platform ist eine Open-Source Apache Hadoop-Support-Plattform, die eine stabile Grundlage für die Entwicklung von Big Data-Lösungen für das Apache Hadoop-Ökosystem bietet Dieses instruierte Live-Training stellt Hortonworks vor und führt die Teilnehmer durch den Einsatz der Spark + Hadoop-Lösung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Hortonworks, um Hadoop in großem Umfang zuverlässig auszuführen Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit Sparks agilen analytischen Workflows Verwenden Sie Hortonworks, um jede Komponente in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturiert, unstrukturiert, Inmotion und atrest Publikum Hadoop-Administratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Dieser Kurs stellt HBase vor - einen NoSQL-Speicher über Hadoop Der Kurs richtet sich an Entwickler, die HBase zur Entwicklung von Anwendungen nutzen, und an Administratoren, die HBase-Cluster verwalten Wir werden einen Entwickler durch HBase-Architektur und Datenmodellierung und Anwendungsentwicklung auf HBase gehen Es wird auch die Verwendung von MapReduce mit HBase und einige Verwaltungsthemen im Zusammenhang mit der Leistungsoptimierung besprochen Der Kurs ist sehr praktisch mit vielen Laborübungen Dauer : 3 Tage Zielgruppe : Entwickler und Administratoren .
28 hours
Overview
Hadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
Publikum:

Dieser Kurs soll die Big Data / Hadoop-Technologie entmystifizieren und zeigen, dass sie nicht schwer zu verstehen ist.
14 hours
Overview
Da immer mehr Software- und IT-Projekte von der lokalen Verarbeitung und Datenverwaltung zu verteilter Verarbeitung und Big Data Storage migrieren, müssen Projektmanager ihre Kenntnisse und Fähigkeiten verbessern, um die für Big Data-Projekte und -Möglichkeiten relevanten Konzepte und Praktiken zu erfassen In diesem Kurs werden Projektmanager in das gängigste Big Data-Verarbeitungsframework eingeführt: Hadoop In diesem Training lernen die Teilnehmer die Kernkomponenten des Hadoop-Ökosystems kennen und erfahren, wie diese Technologien zur Lösung großer Probleme eingesetzt werden können Beim Lernen dieser Grundlagen verbessern die Teilnehmer auch ihre Fähigkeit, mit den Entwicklern und Implementierern dieser Systeme sowie den Datenwissenschaftlern und Analysten, die in vielen IT-Projekten involviert sind, zu kommunizieren Publikum Projektmanager, die Hadoop in ihre bestehende Entwicklungs- oder IT-Infrastruktur implementieren möchten Projektmanager, die mit crossfunktionalen Teams kommunizieren müssen, darunter Big Data-Ingenieure, Data Scientists und Business Analysten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Hadoop ist das beliebteste Big Data-Verarbeitungsframework .
21 hours
Overview
Apache Hadoop ist eines der beliebtesten Frameworks für die Verarbeitung von Big Data auf Server-Clustern Dieser Kurs befasst sich mit Datenmanagement in HDFS, fortgeschrittenem Schwein, Hive und HBase Diese fortgeschrittenen Programmiertechniken sind für erfahrene Hadoop-Entwickler von Vorteil Zielgruppe : Entwickler Dauer: drei Tage Format: Vorträge (50%) und Handson Labs (50%) .
28 hours
Overview
MonetDB ist eine Open-Source-Datenbank, die den Columnstore-Technologieansatz vorangebracht hat In diesem instruierten Live-Training lernen die Teilnehmer, wie sie MonetDB nutzen und den größtmöglichen Nutzen daraus ziehen können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie MonetDB und seine Funktionen Installieren und starten Sie mit MonetDB Erforschen und führen Sie verschiedene Funktionen und Aufgaben in MonetDB aus Beschleunigen Sie die Bereitstellung Ihres Projekts, indem Sie die MonetDB-Funktionen maximieren Publikum Entwickler Technische Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training erlernen die Teilnehmer die Grundlagen der flowbasierten Programmierung, während sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Datenflusskonzepte von NiFi Entwickeln Sie Erweiterungen mit NiFi und Drittanbieter-APIs Entwickeln Sie Ihren eigenen Apache Nifi-Prozessor Erfassen und Verarbeiten von Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen Publikum Entwickler Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Apache Hadoop ist das beliebteste Framework für die Verarbeitung von Big Data Hadoop bietet umfassende und umfassende Analysemöglichkeiten und bahnt sich einen Weg in die tradionelle BI-Analytics-Welt In diesem Kurs wird ein Analyst zu den Kernkomponenten von Hadoop eco system und seinen Analysen vorgestellt Publikum Business Analysten Dauer 3 Tage Format Vorlesungen und praktische Übungen .
35 hours
Overview
MLlib ist Sparks Machine Learning (ML) -Bibliothek Ziel ist es, praktisches maschinelles Lernen skalierbar und einfach zu machen Es besteht aus gemeinsamen Lernalgorithmen und Dienstprogrammen, einschließlich Klassifizierung, Regression, Clustering, kollaboratives Filtern, Dimensionalitätsreduktion sowie Optimierungsgrundelementen auf unterer Ebene und Pipeline-APIs auf höherer Ebene Es teilt sich in zwei Pakete: sparkmllib enthält die ursprüngliche API, die auf RDDs aufbaut sparkml bietet eine API höherer Ebene, die auf DataFrames zum Erstellen von ML-Pipelines aufgebaut ist Publikum Dieser Kurs richtet sich an Ingenieure und Entwickler, die eine integrierte Maschinenbibliothek für Apache Spark verwenden möchten .
14 hours
Overview
Apache Zeppelin ist ein webbasiertes Notebook zum Erfassen, Erkunden, Visualisieren und Teilen von Hadoop- und Spark-basierten Daten Dieses instruierte Live-Training stellt die Konzepte hinter der interaktiven Datenanalyse vor und führt die Teilnehmer durch die Bereitstellung und Nutzung von Zeppelin in einer Singleuser- oder Multiuser-Umgebung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Zeppelin Entwickeln, organisieren, ausführen und teilen Sie Daten in einer browserbasierten Oberfläche Visualisieren Sie Ergebnisse, ohne auf die Befehlszeilen- oder Clusterdetails Bezug zu nehmen Führen Sie lange Workflows aus und arbeiten Sie mit ihnen zusammen Arbeiten Sie mit einer Reihe von Sprach- / Datenverarbeitungsbackbacks für Plugins wie Scala (mit Apache Spark), Python (mit Apache Spark), Spark SQL, JDBC, Markdown und Shell Integrieren Sie Zeppelin mit Spark, Flink und Map Reduce Sichere Multiuser-Instanzen von Zeppelin mit Apache Shiro Publikum Dateningenieure Datenanalytiker Datenwissenschaftler Softwareentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Vespa eine Open-Source-Big-Data-Verarbeitung und Serving-Engine von Yahoo erstellt Es wird verwendet, um auf Benutzeranfragen zu reagieren, Empfehlungen zu geben und personalisierte Inhalte und Werbung in Echtzeit bereitzustellen Dieses instruktorierte Live-Training stellt die Herausforderungen dar, mit denen große Datenmengen bereitgestellt werden, und führt die Teilnehmer durch die Erstellung einer Anwendung, die Antworten auf Benutzeranforderungen über große Datensätze in Echtzeit berechnen kann Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Vespa, um schnell Daten zu berechnen (speichern, suchen, sortieren, organisieren), während der Benutzer wartet Implementieren Sie Vespa in bestehende Anwendungen mit Feature-Suche, Empfehlungen und Personalisierung Integrieren und implementieren Sie Vespa mit bestehenden Big-Data-Systemen wie Hadoop und Storm Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Teradata ist eines der beliebtesten relationalen Datenbank-Management-System Es eignet sich hauptsächlich für den Aufbau umfangreicher Data-Warehousing-Anwendungen Teradata erreicht dies durch das Konzept der Parallelität Dieser Kurs stellt die Delegierten von Teradata vor .
28 hours
Overview
Talend Open Studio für Datenintegration ist ein Open Source-Datenintegrationsprodukt, das zum Kombinieren, Konvertieren und Aktualisieren von Daten an verschiedenen Standorten in einem Unternehmen verwendet wird In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mit dem Talend ETL-Tool Datentransformation, Datenextraktion und Konnektivität mit Hadoop, Hive und Pig durchführen können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein Erläutern Sie die Konzepte hinter ETL (Extract, Transform, Load) und Propagation Definieren Sie ETL-Methoden und ETL-Tools für die Verbindung mit Hadoop Sammeln, erfassen, verdauen, konsumieren, transformieren und gestalten Sie Big Data effizient gemäß den Geschäftsanforderungen Hochladen und Extrahieren großer Datensätze aus Hadoop-Datenbanken (optional), Hive-Datenbanken (optional) und NoSQL-Datenbanken Publikum Business Intelligence-Experten Projektmanager Datenbankprofis SQL-Entwickler ETL Entwickler Lösungsarchitekten Datenarchitekten Data-Warehousing-Profis Systemadministratoren und Integratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .

Zukünftige Big Data Kurse

Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Germany!

As a Business Development Manager you will:

  • expand business in Germany
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!