
Lokale, von Ausbildern geführte Live-Big-Data-Schulungen beginnen mit einer Einführung in elementare Konzepte von Big Data und führen dann zu den Programmiersprachen und Methoden, die zur Durchführung der Datenanalyse verwendet werden. Tools und Infrastruktur zur Aktivierung von Big Data Storage, Distributed Processing und Skalierbarkeit werden in Demo-Übungssessions diskutiert, verglichen und implementiert. Big Data Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar. Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Deutschland oder in NobleProg Corporate Trainingszentren in Deutschland . Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Trainingsanbieter
Machine Translated
Erfahrungsberichte
Übungen
Capgemini Polska Sp. z o.o.
Kurs: Hadoop Administration on MapR
Machine Translated
Ressourcen
Hafiz Rana - Birmingham City University
Kurs: Foundation R
Machine Translated
Go od Erklärungen darüber , wie wir Dinge tun
Birmingham City University
Kurs: Foundation R
Machine Translated
Ich bin jetzt sicherer mit dem Codieren. Ich habe es noch nie gemacht, aber jetzt verstehe ich, dass es keine Raketenwissenschaft ist und ich es tun kann, wenn es nötig ist.
Anna Yartseva - Birmingham City University
Kurs: Foundation R
Machine Translated
Nützlichkeit von Übungen
Algomine sp.z.o.o sp.k.
Kurs: Apache NiFi for Administrators
Machine Translated
Ich fand das Training gut, sehr informativ ... hätte aber über 4 oder 5 Tage verteilt sein können, sodass wir auf verschiedene Aspekte näher eingehen konnten.
Veterans Affairs Canada
Kurs: Hadoop Administration
Machine Translated
Ich habe das Training sehr genossen. Anton verfügt über viel Wissen und hat die nötige Theorie sehr gut zugänglich angelegt. Es ist großartig, dass das Training eine Menge interessanter Übungen war, so dass wir von Anfang an mit der Technologie in Kontakt waren, die wir kennen.
Szymon Dybczak - Algomine sp.z.o.o sp.k.
Kurs: Apache NiFi for Administrators
Machine Translated
Ich fand, dass dieser Kurs einen großartigen Überblick gab und schnell einige Bereiche berührte, die ich nicht einmal in Betracht gezogen hatte.
Veterans Affairs Canada
Kurs: Hadoop Administration
Machine Translated
Die breite Abdeckung der Themen
Roche
Kurs: Big Data Storage Solution - NoSQL
Machine Translated
Small group (4 trainees) and we could progress together. Also the trainer could so help everybody.
ICE International Copyright Enterprise Germany GmbH
Kurs: Spark for Developers
Ajay war sehr freundlich, hilfsbereit und kannte sich auch mit dem Thema aus, über das er diskutierte.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Kurs: Spark for Developers
Machine Translated
Die Laborübungen. Anwendung der Theorie ab dem ersten Tag in den folgenden Tagen.
Dell
Kurs: A Practical Introduction to Stream Processing
Machine Translated
* Organization * Trainer's expertise with the subject
ENGIE- 101 Arch Street
Kurs: Python and Spark for Big Data (PySpark)
The trainer was passionate and well-known what he said I appreciate his help and answers all our questions and suggested cases.
Kurs: A Practical Introduction to Stream Processing
the good energy of the trainer, he explained everything clearly and precisely
MicroStrategy Poland Sp. z o.o.
Kurs: Teradata Fundamentals
Materials (code, presentation) were good
MicroStrategy Poland Sp. z o.o.
Kurs: Teradata Fundamentals
Nice training, full of interesting topics. After each topic helpful examples were provided.
Pawel Wojcikowski - MicroStrategy Poland Sp. z o.o.
Kurs: Teradata Fundamentals
Ich mag die umfassende Herangehensweise an das gelehrte Fach. Der Kurs war gut strukturiert, die Themen wurden vorbereitet und in einer guten Reihenfolge präsentiert, damit wir Schritt für Schritt verstehen, wie bestimmte Aspekte von Teradata funktionieren. Besonders gefällt mir, dass das Thema Indizes stark beeinflusst wurde. Pablo ist eine sehr sympathische Person und ein guter Lehrer. Die Zeit, die für dieses Training aufgewendet wurde, war definitiv gut.
MicroStrategy Poland Sp. z o.o.
Kurs: Teradata Fundamentals
Machine Translated
interaction
Maastricht University | UMIO
Kurs: Teradata Fundamentals
Discussing many examples.
Emily Chesworth - Maastricht University | UMIO
Kurs: Teradata Fundamentals
exercises & subquery
Maastricht University | UMIO
Kurs: Teradata Fundamentals
I liked the depth of the training. I was able to understand most of it and definitely learned from this training
Maastricht University | UMIO
Kurs: Teradata Fundamentals
passionate trainer
Sylvia Baniak - Maastricht University | UMIO
Kurs: Teradata Fundamentals
x
Maastricht University | UMIO
Kurs: Teradata Fundamentals
New learned skills
Maastricht University | UMIO
Kurs: Teradata Fundamentals
The enthusiasm of the trainer
Maastricht University | UMIO
Kurs: Teradata Fundamentals
Erläutern des Schritts, den Sie ausführen müssen, wenn Sie versuchen, eine Frage über SQL zu beantworten
Maastricht University | UMIO
Kurs: Teradata Fundamentals
Machine Translated
The Topic
Accenture Inc.
Kurs: Data Vault: Building a Scalable Data Warehouse
Content was good
Northrop Grumman
Kurs: Apache Accumulo Fundamentals
Instructor very knowledgeable and very happy to stop and explain stuff to the group or to an individual.
Paul Anstee - Northrop Grumman
Kurs: Apache Accumulo Fundamentals
the follow along style instead of just sitting and listening.
Jack Gallacher - Northrop Grumman
Kurs: Apache Accumulo Fundamentals
The ability of the trainer to break down complex topics to simple topics.
Northrop Grumman
Kurs: Apache Accumulo Fundamentals
Fulvio took time and attention from the outset to check what delegates wanted most out of their training days and in particular I liked that he focused quite a lot of attention to working with the Shell e.g. scan, grep, egrep commands – particularly filtering over a system time period e.g. last hour. Fulvio's style and pace can be quite quick at times which mostly suited me as there were a lot of topics covered especially in the last 2 days. I realise that the class was a bit of a mixed audience with varying technical skills, so it was good to see that he was able to allow others to catchup and to help them fix their problems whenever encountered. Nothing seemed to be too much trouble for Fulvio and enjoyed this course a lot.
Northrop Grumman
Kurs: Apache Accumulo Fundamentals
Sehr gut vermitteltes Wissen des Lehrers, keine unbeantworteten Fragen.
Karolin Papaj - Mowi Poland SA
Kurs: Data Mining and Analysis
Machine Translated
Covered a lot in a short space of time. Gained a good overall knowledge of Accumulo and knowledge gained will be useful for other NoSQL databases.
Lauren Rees - Northrop Grumman
Kurs: Apache Accumulo Fundamentals
Ich mochte wirklich Arbeitsübungen mit Cluster, um die Leistung von Knoten über Cluster und erweiterte Funktionalität zu sehen.
CACI Ltd
Kurs: Apache NiFi for Developers
Machine Translated
The trainers in depth knowledge of the subject
CACI Ltd
Kurs: Apache NiFi for Administrators
Ajay war ein sehr erfahrener Berater und konnte all unsere Fragen beantworten und sogar Vorschläge zu Best Practices für das Projekt machen, an dem wir gerade arbeiten.
CACI Ltd
Kurs: Apache NiFi for Administrators
Machine Translated
That I had it in the first place.
Peter Scales - CACI Ltd
Kurs: Apache NiFi for Developers
content & detail to the point
Sirat Khwaja - Northrop Grumman
Kurs: Apache Accumulo Fundamentals
Codebeispiele folgen in praktischen Übungen.
Northrop Grumman
Kurs: Apache Accumulo Fundamentals
Machine Translated
Der Lehrer hat das Trainingsprogramm an unsere aktuellen Bedürfnisse angepasst.
EduBroker Sp. z o.o.
Kurs: Python and Spark for Big Data (PySpark)
Machine Translated
The NIFI workflow excercises
Politiets Sikkerhetstjeneste
Kurs: Apache NiFi for Administrators
New knowledge about SOAP and Rest API.
Total Access Communication Public Company Limited
Kurs: Talend Open Studio for Data Integration
It Good for many exercise.
Gun Thepinjai - Total Access Communication Public Company Limited
Kurs: Talend Open Studio for Data Integration
The trainer was passionate and well-known what he said I appreciate his help and answers all our questions and suggested cases.
Kurs: A Practical Introduction to Stream Processing
Big Data Kurspläne
Dieser von Lehrern geführte Live-Kurs behandelt die Arbeitsweise von Accumulo und führt die Teilnehmer durch die Entwicklung einer Beispielanwendung für Apache Accumulo .
Format des Kurses
- Teilvorlesung, Teildiskussion, praktische Entwicklung und Implementierung, gelegentliche Tests zur Beurteilung des Verständnisses
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Kafka-Streams in eine Reihe von Java Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von diesem weitergeben.
Am Ende dieser Schulung können die Teilnehmer:
- Verstehen der Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks für die Stream-Verarbeitung
- Verarbeiten Sie Stream-Daten direkt in einem Kafka-Cluster
- Schreiben Sie eine Java oder Scala Anwendung oder einen Microservice, der sich in Kafka und Kafka Streams integrieren lässt
- Schreiben Sie prägnanten Code, der Eingabe-Kafka-Themen in Ausgabe-Kafka-Themen umwandelt
- Erstellen, packen und implementieren Sie die Anwendung
Publikum
- Entwickler
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Anmerkungen
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen von Mem SQL für die Entwicklung und Verwaltung.
Am Ende dieser Schulung können die Teilnehmer:
- Verstehen Sie die wichtigsten Konzepte und Eigenschaften von Mem SQL
- Installieren, entwerfen, warten und betreiben Sie Mem SQL
- Optimieren Sie Schemata in Mem SQL
- Verbessern Sie Abfragen in Mem SQL
- Benchmark-Leistung in Mem SQL
- Erstellen Sie Echtzeit-Datenanwendungen mit Mem SQL
Publikum
- Entwickler
- Administratoren
- Betriebsingenieure
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Produzenten- und Konsumentenanwendungen für die Datenverarbeitung in Echtzeit zu erstellen.
Publikum
- Entwickler
- Administratoren
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Hinweis
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Dieses von Lehrern geleitete Live-Training führt in die Konzepte und Ansätze zur Implementierung von Geospacial Analytics ein und führt die Teilnehmer durch die Erstellung einer Predictive Analysis-Anwendung mit Magellan on Spark.
Am Ende dieser Schulung können die Teilnehmer:
- Effizientes Abfragen, Parsen und Verknüpfen von Geodatensätzen im Maßstab
- Implementieren Sie Geodaten in Business Intelligence- und Predictive Analytics-Anwendungen
- Verwenden Sie den räumlichen Kontext, um die Funktionen von Mobilgeräten, Sensoren, Protokollen und Wearables zu erweitern
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer, wie sie mit Apache Kylin ein Echtzeit-Data Warehouse einrichten.
Am Ende dieser Schulung können die Teilnehmer:
- Verbrauchen Sie Echtzeit-Streaming-Daten mit Kylin
- Nutzen Sie die leistungsstarken Funktionen von Apache Kylin , die reichhaltige SQL Oberfläche, das Spark Cubing und die Latenz von Abfragen im Sekundentakt
Hinweis
- Wir verwenden die neueste Version von Kylin (zum Zeitpunkt des Schreibens Apache Kylin v2.0).
Publikum
- Big Data-Ingenieure
- Big Data Analysten
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an Entwickler, die die Apache Kafka Stream-Verarbeitung implementieren möchten, ohne Code schreiben zu müssen.
Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Confluent K SQL .
- Richten Sie eine Stream-Verarbeitungs-Pipeline nur mit SQL Befehlen ein (keine Java oder Python Codierung).
- Führen Sie Datenfilterung, -transformationen, -aggregationen, -verknüpfungen, -fenster und -sitzungen vollständig in SQL .
- Entwerfen und implementieren Sie interaktive, fortlaufende Abfragen für das Streaming von ETL- und Echtzeitanalysen.
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
Dieser Kurs für die KNIME Analytics-Plattform ist eine ideale Gelegenheit für Anfänger, fortgeschrittene Benutzer und KNIME Experten, um sich mit KNIME zu machen, seine effektivere Verwendung zu erlernen und klare, umfassende Berichte auf der Grundlage von KNIME Workflows zu erstellen
In diesem von Lehrern geführten Live-Kurs stellen wir die mit KDD verbundenen Prozesse vor und führen eine Reihe von Übungen durch, um die Implementierung dieser Prozesse zu üben.
Publikum
- Datenanalysten oder Personen, die lernen möchten, wie Daten interpretiert werden, um Probleme zu lösen
Format des Kurses
- Nach einer theoretischen Diskussion über KDD wird der Ausbilder reale Fälle vorstellen, in denen die Anwendung von KDD zur Lösung eines Problems erforderlich ist. Die Teilnehmer werden Probendatensätze vorbereiten, auswählen und bereinigen und ihre Vorkenntnisse in Bezug auf die Daten nutzen, um basierend auf den Ergebnissen ihrer Beobachtungen Lösungen vorzuschlagen.
Zusammenfassung
-
Ein Fortbildungsprogramm zum aktuellen Stand der Technik im Internet der Dinge
-
Schneidet über mehrere Technologiedomänen hinweg, um das Bewusstsein für ein IoT-System und seine Komponenten zu entwickeln und wie es Unternehmen und Organisationen helfen kann.
-
Live-Demo von Modell-IoT-Anwendungen zur Demonstration praktischer IoT-Bereitstellungen in verschiedenen Industriebereichen, z. B. Industrie-IoT, Smart Cities, Einzelhandel, Reisen und Transport sowie Anwendungsfälle für verbundene Geräte und Dinge
Zielgruppe
-
Manager, die in ihren jeweiligen Organisationen für Geschäfts- und Betriebsprozesse verantwortlich sind und wissen möchten, wie sie das Internet der Dinge nutzen können, um ihre Systeme und Prozesse effizienter zu gestalten.
-
Unternehmer und Investoren, die neue Projekte aufbauen und ein besseres Verständnis der IoT-Technologielandschaft entwickeln möchten, um zu sehen, wie sie diese auf effektive Weise nutzen können.
Die Schätzungen für das Internet der Dinge oder den IoT-Marktwert sind enorm, da das IoT per Definition eine integrierte und diffuse Schicht aus Geräten, Sensoren und Rechenleistung ist, die die gesamte Verbraucher-, Business-to-Business- und Regierungsbranche überlagert. Das Internet der Dinge wird für eine immer größere Anzahl von Verbindungen verantwortlich sein: 1,9 Milliarden Geräte heute und 9 Milliarden bis 2018. In diesem Jahr wird es in etwa der Anzahl von Smartphones, Smart-TVs, Tablets, tragbaren Computern und PCs entsprechen.
Im Consumer-Bereich sind bereits viele Produkte und Dienstleistungen in das Internet der Dinge übergegangen, einschließlich Küchen- und Haushaltsgeräten, Parkplätzen, RFID, Beleuchtungs- und Heizungsprodukten sowie einer Reihe von Anwendungen im industriellen Internet.
Die zugrunde liegenden Technologien des IoT sind jedoch nichts Neues, da M2M-Kommunikation seit der Geburt des Internets existierte. Was sich in den letzten Jahren jedoch geändert hat, ist die zunehmende Anzahl kostengünstiger Funktechnologien, die durch die überwältigende Anpassung von Smartphones und Tablets in jedem Haushalt hinzugefügt wurden. Das explosive Wachstum mobiler Geräte führte zu einer aktuellen Nachfrage nach IoT.
Aufgrund der unbegrenzten Möglichkeiten im IoT-Geschäft stieg eine große Anzahl kleiner und mittlerer Unternehmer in einen Zug des IoT-Goldrausches ein. Aufgrund des Aufkommens von Open Source-Elektronik und IoT-Plattform werden die Kosten für die Entwicklung des IoT-Systems und die weitere Verwaltung seiner umfangreichen Produktion zunehmend erschwinglicher. Bestehende Besitzer elektronischer Produkte stehen unter dem Druck, ihr Gerät in das Internet oder die mobile App zu integrieren.
Diese Schulung ist für einen Technologie- und Geschäftsüberblick über eine aufstrebende Branche gedacht, damit IoT-Enthusiasten / -Unternehmer die Grundlagen der IoT-Technologie und des Geschäfts erlernen können.
Kursziel
Hauptziel des Kurses ist es, neue technologische Optionen, Plattformen und Fallstudien der IoT-Implementierung in den Bereichen Heim- und Stadtautomation (Smart Homes und Städte), Industrielles Internet, Gesundheitswesen, Go vt., Mobile Cellular und anderen Bereichen vorzustellen.
-
Grundlegende Einführung in alle Elemente von IoT-Mechanical, Electron / Sensor-Plattform, Wireless- und Wireline-Protokollen, Integration von Mobile zu Electron Integration von Mobile zu Enterprise, Datenanalyse und Total Control Plane
-
M2M Wireless-Protokolle für IoT-WiFi, ZigBee / Zwave, Bluetooth, ANT +: Wann und wo welche verwenden?
-
Mobile / Desktop / Web-App - für Registrierung, Datenerfassung und Steuerung - Verfügbare M2M-Datenerfassungsplattform für IoT - Xively, Omega und NovoTech usw.
-
Sicherheitsprobleme und Sicherheitslösungen für das Internet der Dinge
-
Open Source / kommerzielle Elektronikplattform für IoT- Raspberry Pi , Arduino , ArmMbedLPC etc
-
Open-Source- / kommerzielle Enterprise-Cloud-Plattform für AWS-IoT-Apps, Azure IOT-, Watson-IOT-Cloud sowie andere kleinere IoT-Clouds
-
Betriebswirtschaftliche und technische Studien zu einigen der gängigen IoT-Geräte wie Heimautomation, Rauchmelder, Fahrzeuge, Militär, Heimgesundheit usw.
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie man MonetDB einsetzt und wie man den größten Nutzen daraus zieht.
Am Ende dieser Schulung können die Teilnehmer:
- Verstehen Sie MonetDB und seine Funktionen
- Installieren und loslegen mit MonetDB
- Lernen Sie verschiedene Funktionen und Aufgaben in MonetDB kennen und führen Sie sie aus
- Beschleunigen Sie die Projektabwicklung, indem Sie die MonetDB-Funktionen maximieren
Publikum
- Entwickler
- Technische Experten
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
In diesem von Lehrern geführten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie verschiedene Stream Processing Frameworks mit vorhandenen Big Data-Speichersystemen und zugehörigen Softwareanwendungen und Mikrodiensten eingerichtet und integriert werden.
Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
- Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
- Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
- Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
- Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.
Publikum
- Entwickler
- Software-Architekten
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Anmerkungen
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
- Entwickler
Format der
- Vorträge, praktische Übungen, kleine Tests auf dem Weg, um Verständnis zu messen
Impala können Benutzer SQL Abfragen mit geringer Latenz für Daten ausgeben, die in Hadoop Distributed File System und Apache Hbase gespeichert sind, ohne Daten verschieben oder transformieren zu müssen.
Publikum
Dieser Kurs richtet sich an Analysten und Datenwissenschaftler, die Hadoop Business Intelligence oder SQL Tools in Hadoop gespeicherte Daten analysieren.
Nach diesem Kurs werden die Teilnehmer in der Lage sein
- Extrahieren Sie mit Impala aussagekräftige Informationen aus Hadoop Clustern.
- Schreiben Sie spezielle Programme, um Business Intelligence in Impala SQL Dialect zu vereinfachen.
- Fehlerbehebung bei Impala .
In diesem von einem Kursleiter durchgeführten Live-Training (vor Ort oder per Fernzugriff) wird die Hortonworks Data Platform (HDP) und die Teilnehmer durch die Bereitstellung der Spark + Hadoop Lösung geführt.
Am Ende dieser Schulung können die Teilnehmer:
- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Wir werden einen Entwickler durch die HBase-Architektur sowie die Datenmodellierung und Anwendungsentwicklung auf HBase führen. Außerdem werden die Verwendung von MapReduce mit HBase und einige Verwaltungsthemen im Zusammenhang mit der Leistungsoptimierung erläutert. Der Kurs ist sehr praktisch mit vielen Laborübungen.
Dauer : 3 Tage
Zielgruppe : Entwickler und Administratoren
Dieser Kurs soll Big Data / Hadoop-Technologie entmystifizieren und zeigen, dass es nicht schwer zu verstehen ist.
Dieser Kurs führt Projektmanager in das beliebteste Big Data Verarbeitungsframework ein: Hadoop .
In dieser von Lehrern geleiteten Schulung lernen die Teilnehmer die Kernkomponenten des Hadoop Ökosystems kennen und wie diese Technologien zur Lösung großer Probleme eingesetzt werden können. Durch das Erlernen dieser Grundlagen verbessern die Teilnehmer auch ihre Fähigkeit, mit den Entwicklern und Implementierern dieser Systeme sowie mit den Datenwissenschaftlern und Analysten zu kommunizieren, an denen viele IT-Projekte beteiligt sind.
Publikum
- Projektmanager, die Hadoop in ihre bestehende Entwicklungs- oder IT-Infrastruktur implementieren möchten
- Projektmanager müssen mit funktionsübergreifenden Teams kommunizieren, zu denen Big Data-Ingenieure, Data Scientists und Business Analysten gehören
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Am Ende dieser Schulung werden die Teilnehmer:
- Verstehen Sie die Entwicklung und Trends des maschinellen Lernens.
- Wissen, wie maschinelles Lernen branchenübergreifend eingesetzt wird.
- Machen Sie sich mit den Tools, Fähigkeiten und Diensten vertraut, die für die Implementierung von maschinellem Lernen in einer Organisation verfügbar sind.
- Verstehen Sie, wie maschinelles Lernen zur Verbesserung von Data Mining und Analyse eingesetzt werden kann.
- Erfahren Sie, was ein Data Middle Backend ist und wie es von Unternehmen verwendet wird.
- Verstehen Sie, welche Rolle Big Data und intelligente Anwendungen branchenübergreifend spielen.
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird.
Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Apachi NiFi.
- Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
- Datenflüsse automatisieren.
- Aktivieren Sie die Streaming-Analyse.
- Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
- Verwandeln Sie Big Data in Business Insights.
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Zielgruppe : Entwickler
Dauer: drei Tage
Format: Vorträge (50%) und praktische Übungen (50%).
- um SQL Abfragen auszuführen.
- um Daten aus einer vorhandenen Hive Installation zu lesen.
In diesem vom Kursleiter durchgeführten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie verschiedene Arten von Datensätzen mit Spark SQL analysiert werden.
Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Spark SQL .
- Führen Sie eine Datenanalyse mit Spark SQL .
- Abfragen von Datensätzen in verschiedenen Formaten.
- Daten visualisieren und Ergebnisse abfragen.
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Dieser Kurs führt die Delegierten in Teradata .