SMACK Stack for Data Science Schulung
SMACK ist eine Sammlung von Datenplattform-Software, nämlich Apache Spark, Apache Mesos, Apache Akka, Apache Cassandra, und Apache Kafka. Mit dem SMACK Stack können Benutzer Datenverarbeitungsplattformen erstellen und skalieren.
Dieser Instructor-Leid, Live-Training (online oder on-site) richtet sich an Datenwissenschaftler, die die SMACK Stack verwenden möchten, um Datenverarbeitungsplattformen für Big Data-Lösungen zu bauen.
Am Ende dieser Ausbildung können die Teilnehmer:
- Implementieren Sie eine Datenträgerarchitektur für die Verarbeitung großer Daten.
- Entwickeln Sie eine Clusterinfrastruktur mit Apache Mesos und Docker.
- Analysieren Sie Daten mit Spark und Scala.
- Verwaltung unstrukturierter Daten mit Apache Cassandra.
Format des Kurses
- Interaktive Unterricht und Diskussion.
- Viele Übungen und Übungen.
- Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
- Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
Schulungsübersicht
Einführung
SMACK Stack Übersicht
- Was ist Apache Spark? Apache Spark-Funktionen
- Was ist Apache Mesos? Apache Mesos-Funktionen
- Was ist Apache Akka? Apache Akka-Funktionen
- Was ist Apache Cassandra? Apache Cassandra-Merkmale
- Was ist Apache Kafka? Apache Kafka-Funktionen
Scala Sprache
- Scala Syntax und Struktur
- Scala Kontrollfluss
Vorbereiten der Entwicklungsumgebung
- Installieren und Konfigurieren des SMACK-Stacks
- Installieren und Konfigurieren Docker
Apache Akka
- Einsatz von Schauspielern
Apache Cassandra
- Erstellen einer Datenbank für Lesevorgänge
- Arbeiten mit Backups und Wiederherstellung
Steckverbinder
- Erstellen eines Streams
- Aufbau einer Akka-Anwendung
- Speichern von Daten mit Cassandra
- Überprüfen von Konnektoren
Apache Kafka
- Arbeiten mit Clustern
- Erstellen, Veröffentlichen und Konsumieren von Nachrichten
Apache Mesos
- Zuweisung von Ressourcen
- Ausführen von Clustern
- Arbeiten mit Apache Aurora und Docker
- Ausführen von Diensten und Aufträgen
- Einsatz von Spark, Cassandra und Kafka auf Mesos
Apache Spark
- Verwaltung von Datenflüssen
- Arbeiten mit RDDs und Dataframes
- Durchführen von Datenanalysen
Fehlersuche
- Umgang mit dem Ausfall von Diensten und Fehlern
Zusammenfassung und Schlussfolgerung
Voraussetzungen
- Verständnis für Datenverarbeitungssysteme
Publikum
- Datenwissenschaftler
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
SMACK Stack for Data Science Schulung - Booking
SMACK Stack for Data Science Schulung - Enquiry
SMACK Stack for Data Science - Beratungsanfrage
Beratungsanfrage
Erfahrungsberichte (1)
sehr interaktiv...
Richard Langford
Kurs - SMACK Stack for Data Science
Maschinelle Übersetzung
Kommende Kurse
Kombinierte Kurse
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 StundenDieser Kurs richtet sich an Entwickler und Datenwissenschaftler, die KI verstehen und in ihre Anwendungen implementieren wollen. Besonderes Augenmerk wird auf Datenanalyse, verteilte KI und natürliche Sprachverarbeitung gelegt.
Anaconda Ecosystem for Data Scientists
14 StundenDiese von einem Dozenten geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenwissenschaftler, die das Anaconda-Ökosystem zur Erfassung, Verwaltung und Bereitstellung von Paketen und Datenanalyse-Workflows auf einer einzigen Plattform nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Anaconda-Komponenten und -Bibliotheken zu installieren und zu konfigurieren.
- Die Kernkonzepte, Funktionen und Vorteile von Anaconda zu verstehen.
- Pakete, Umgebungen und Kanäle mit Anaconda Navigator zu verwalten.
- Conda, R und Python Pakete für Data Science und maschinelles Lernen verwenden.
- Sie lernen einige praktische Anwendungsfälle und Techniken für die Verwaltung mehrerer Datenumgebungen kennen.
Big Data Business Intelligence for Telecom & Communication Service Providers
35 StundenÜberblick
Communications Service Provider (CSP) stehen unter Druck, um die Kosten zu senken und das durchschnittliche Einkommen pro Benutzer (ARPU) zu maximieren, während eine ausgezeichnete Kundenerfahrung gewährleistet wird, aber Datenvolumen weiter wachsen. Der weltweite mobile Datenverkehr wird bei einer kombinierten jährlichen Wachstumsrate (CAGR) von 78 Prozent bis 2016 auf 10,8 exabytes pro Monat wachsen.
Währenddessen generieren CSPs große Datenvolumen, einschließlich Call Details Records (CDR), Netzwerkdaten und Kundendaten. Unternehmen, die diese Daten vollumfänglich nutzen, gewinnen einen wettbewerbsfähigen Rand. Laut einer jüngsten Umfrage der The Economist Intelligence Unit genießen Unternehmen, die Datenorientierte Entscheidungsfindung nutzen, eine Produktivitätserhöhung von 5-6%. Doch 53% der Unternehmen nutzen nur die Hälfte ihrer wertvollen Daten, und ein Viertel der Befragten bemerkte, dass große Mengen nützlicher Daten unvergesslich sind. Die Datenvolume sind so hoch, dass manuelle Analyse unmöglich ist, und die meisten Legacy-Software-Systeme können nicht aufrechterhalten, was zu wertvollen Daten führt, die abgelehnt oder ignoriert werden.
Mit Big Data & Analytics’ High-Speed, scalable Big Data-Software können CSPs alle ihre Daten für bessere Entscheidungsfindung in weniger Zeit minieren. Verschiedene Big Data Produkte und Techniken bieten eine End-to-End-Software-Plattform für die Sammlung, Vorbereitung, Analyse und Präsentation von Einsichten aus großen Daten. Anwendungsbereiche umfassen Netzwerkleistungsüberwachung, Betrugdetektion, Kundenschurndetektion und Kreditrisikoanalyse. Big Data & Analytics-Produkte schaal, um Terabytes von Daten zu verarbeiten, aber die Implementierung solcher Tools erfordert eine neue Art von Cloud-basiertes Datenbank-System wie Hadoop oder massive schaal parallele Computing-Prozessor (KPU usw.)
Dieser Kurs arbeitet auf Big Data BI für Telco umfasst alle aufstrebenden neuen Bereiche, in denen CSPs für Produktivitätsgewinnung und die Eröffnung neuer Geschäftsausgabenströme investieren. Der Kurs bietet eine vollständige 360 Grad Überblick Big Data BI in Telco, so dass Entscheidungsträger und Manager eine sehr breite und umfassende Überblick über die Möglichkeiten Big Data BI in Telco für Produktivität und Einkommensgewinnung haben können.
Kursziele
Das Hauptziel des Kurses ist es, neue Big Data Business Intelligence-Techniken in 4 Sektoren Telecom Business (Marketing/Sales, Network Operation, Financial Operation und Customer Relation Management) einzuführen. Die Studierenden werden eingeführt, um zu folgen:
- Einführung zu Big Data-was ist 4Vs (Volumen, Geschwindigkeit, Vielfalt und Wahrscheinlichkeit) in Big Data- Generation, Extraction und Management aus Telco Perspektive
- Wie Big Data Analytik unterscheidet sich von Erbe-Datenanalytik
- In-house Begründung von Big Data -Telco Perspektive
- Einführung in Hadoop Ökosystem- Bekanntschaft mit allen Hadoop Tools wie Hive, Pig, SPARC –Wenn und wie sie verwendet werden, um das Problem zu lösen Big Data
- Wie Big Data zur Analyse für Analyse-Tool-Wie Business Analysis’s können ihre Schmerzpunkte der Sammlung und Analyse von Daten durch integrierte Hadoop Dashboard-Ansatz reduzieren
- Grundlegende Einführung in Insight-Analysen, Visualisierungsanalysen und Predictive-Analysen für Telco
- Customer Churn-Analytics und Big Data-how Big Data-Analytics können Customer Churn und Kundenunzufriedenheit in Telco-Case-Studien reduzieren
- Netzwerkfehler- und Servicefehleranalyse aus Netzwerkmetadata und IPDR
- Finanzanalyse - Betrug, Wastage und ROI-Schätzung aus Verkaufs- und Betriebsdaten
- Kundenaufnahme-Problem-Zielmarketing, Kundensegmentation und Cross-Sales von Verkaufsdaten
- Einführung und Zusammenfassung aller Big Data analytischen Produkte und wo sie in den analytischen Raum von Telco passen
- Schlussfolgerung - wie man Schritt für Schritt einen Ansatz zur Einführung Big Data Business Intelligence in Ihre Organisation einnehmen kann
Zielgruppe
- Netzwerkverkehr, Finanzmanager, CRM-Manager und Top-IT-Manager im Telco CIO-Büro.
- Business Analytiker in Telco
- CFO Büro-Manager / Analysten
- Operationsmanager
- QA Manager
Data Science for Big Data Analytics
35 StundenBig Data sind Datenmengen, die so umfangreich und komplex sind, dass herkömmliche Anwendungssoftware für die Datenverarbeitung nicht ausreicht, um mit ihnen umzugehen. Zu den großen Datenherausforderungen gehören Datenerfassung, Datenspeicherung, Datenanalyse, Suche, Freigabe, Übertragung, Visualisierung, Abfrage, Aktualisierung und Datenschutz.
Data Science essential for Marketing/Sales professionals
21 StundenDieser Kurs richtet sich an Marketing Vertriebsprofis, die tiefer in die Anwendung von Data Science im Marketing/Vertrieb einsteigen möchten. Der Kurs bietet eine detaillierte Abdeckung verschiedener datenwissenschaftlicher Techniken, die für „Upsale“, „Cross-Sale“, Marktsegmentierung, Branding und CLV verwendet werden.
Unterschied zwischen Marketing und Vertrieb – Wie unterscheiden sich Vertrieb und Marketing?
In sehr einfachen Worten kann Verkauf als ein Prozess bezeichnet werden, der sich auf Einzelpersonen oder kleine Gruppen konzentriert oder darauf abzielt. Marketing hingegen richtet sich an eine größere Gruppe bzw. die breite Öffentlichkeit. Marketing umfasst Forschung (Identifizierung der Bedürfnisse des Kunden), Entwicklung von Produkten (Herstellung innovativer Produkte) und Werbung für das Produkt (durch Werbung) sowie die Schaffung eines Bewusstseins für das Produkt bei den Verbrauchern. Marketing bedeutet also die Generierung von Leads oder Interessenten. Sobald das Produkt auf dem Markt ist, ist es die Aufgabe des Verkäufers, den Kunden zum Kauf des Produkts zu bewegen. Beim Verkauf geht es darum, Leads oder Interessenten in Käufe und Bestellungen umzuwandeln, während das Marketing auf längere Fristen abzielt, bezieht sich der Verkauf auf kürzere Ziele.
Introduction to Graph Computing
28 StundenIn dieser von einem Trainer geleiteten Live-Schulung in Deutschland lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Graphdaten kennen. Ziel ist es, Objekte der realen Welt, ihre Eigenschaften und Beziehungen zu identifizieren, diese Beziehungen zu modellieren und sie als Daten mit einem Graph Computing (auch bekannt als Graph Analytics) Ansatz zu verarbeiten. Wir beginnen mit einem breiten Überblick und konzentrieren uns auf spezifische Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Einsätzen durchführen.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein
- Verstehen, wie Graphdaten persistiert und durchlaufen werden.
- das beste Framework für eine bestimmte Aufgabe auszuwählen (von Graphdatenbanken bis hin zu Stapelverarbeitungs-Frameworks).
- Implementierung von Hadoop, Spark, GraphX und Pregel, um Graphenberechnungen auf vielen Rechnern parallel durchzuführen.
- Big-Data-Probleme aus der realen Welt in Form von Graphen, Prozessen und Traversalen zu betrachten.
Jupyter for Data Science Teams
7 StundenThis instructor-led, live training in Deutschland (online or onsite) introduces the idea of collaborative development in data science and demonstrates how to use Jupyter to track and participate as a team in the "life cycle of a computational idea". It walks participants through the creation of a sample data science project based on top of the Jupyter ecosystem.
By the end of this training, participants will be able to:
- Install and configure Jupyter, including the creation and integration of a team repository on Git.
- Use Jupyter features such as extensions, interactive widgets, multiuser mode and more to enable project collaboraton.
- Create, share and organize Jupyter Notebooks with team members.
- Choose from Scala, Python, R, to write and execute code against big data systems such as Apache Spark, all through the Jupyter interface.
Kaggle
14 StundenDiese von einem Dozenten geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenwissenschaftler und -entwickler, die Data Science mit Kaggle erlernen und ihre Karriere ausbauen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Über Datenwissenschaft und maschinelles Lernen lernen.
- Datenanalytik erforschen.
- Lernen Sie über Kaggle und wie es funktioniert.
MATLAB Fundamentals, Data Science & Report Generation
35 StundenIm ersten Teil dieser Schulung behandeln wir die Grundlagen von MATLAB und seine Funktion als Sprache und Plattform. Dazu gehört eine Einführung in die MATLAB-Syntax, Arrays und Matrizen, Datenvisualisierung, Skriptentwicklung und objektorientierte Prinzipien.
Im zweiten Teil wird gezeigt, wie MATLAB für Data Mining, maschinelles Lernen und prädiktive Analysen verwendet werden kann. Um den Teilnehmern eine klare und praktische Perspektive des Ansatzes und der Leistungsfähigkeit von MATLAB zu vermitteln, ziehen wir Vergleiche zwischen der Verwendung von MATLAB und der Verwendung anderer Tools wie Tabellenkalkulationen, C, C++ und Visual Basic.
Im dritten Teil der Schulung lernen die Teilnehmer, wie sie ihre Arbeit durch Automatisierung der Datenverarbeitung und Berichterstellung rationalisieren können.
Während des gesamten Kurses werden die Teilnehmer die erlernten Ideen durch praktische Übungen in einer Laborumgebung in die Praxis umsetzen. Am Ende des Kurses werden die Teilnehmer die Möglichkeiten von MATLAB genau kennen und in der Lage sein, sie zur Lösung realer Data-Science-Probleme sowie zur Rationalisierung ihrer Arbeit durch Automatisierung einzusetzen.
Während des gesamten Kurses werden Beurteilungen durchgeführt, um den Fortschritt zu messen.
Format des Kurses
- Der Kurs umfasst theoretische und praktische Übungen, einschließlich Falldiskussionen, Code-Beispielen und praktischer Implementierung.
Hinweis
- Die praktischen Übungen werden auf der Grundlage von vorab vereinbarten Musterdatenberichten durchgeführt. Wenn Sie spezielle Anforderungen haben, kontaktieren Sie uns bitte, um dies zu vereinbaren.
Machine Learning for Data Science with Python
21 StundenDieser von einem Trainer geleitete Live-Kurs in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Datenanalysten, Entwickler oder zukünftige Data Scientists, die maschinelles Lernen in Python einsetzen möchten, um Erkenntnisse zu gewinnen, Vorhersagen zu treffen und datengesteuerte Entscheidungen zu automatisieren.
Am Ende des Kurses werden die Teilnehmer in der Lage sein:
- Die wichtigsten Paradigmen des maschinellen Lernens zu verstehen und voneinander abzugrenzen.
- Daten vorzubereiten und Metriken zur Bewertung von Modellen zu erkunden.
- Maschinelles Lernen-Algorithmus anhand realer Datenprobleme anzuwenden.
- Python-Bibliotheken und Jupyter Notebooks für die praktische Entwicklung zu nutzen.
- Modelle zur Vorhersage, Klassifizierung, Empfehlung und Clustering aufzubauen.
Accelerating Python Pandas Workflows with Modin
14 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenwissenschaftler und Entwickler, die Modin verwenden möchten, um parallele Berechnungen mit Pandas für eine schnellere Datenanalyse zu erstellen und zu implementieren.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- die notwendige Umgebung einzurichten, um mit der Entwicklung von Pandas-Workflows in großem Maßstab mit Modin zu beginnen.
- die Funktionen, die Architektur und die Vorteile von Modin zu verstehen.
- Die Unterschiede zwischen Modin, Dask und Ray kennen.
- Schnellere Durchführung von Pandas-Vorgängen mit Modin.
- Implementierung der gesamten Pandas API und Funktionen.
Python Programming for Finance
35 StundenPython ist eine Programmiersprache, die in der Finanzbranche große Popularität erlangt hat. Angenommen von den größten Investmentbanken und Hedgefonds, wird es verwendet, um eine breite Palette von Finanzanwendungen aufzubauen, die von Kernhandelsprogrammen bis hin zu Risikomanagementsystemen reichen.
In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer, wie sie mit Python praktische Anwendungen zur Lösung einer Reihe spezifischer finanzbezogener Probleme entwickeln.
Am Ende dieser Schulung können die Teilnehmer:
- Die Grundlagen der Python-Programmiersprache verstehen
- Die besten Entwicklungstools zum Erstellen von Finanzanwendungen in Python herunterladen, installieren und warten
- Geeignete Python-Pakete und Programmiertechniken auswählen und nutzen, um Finanzdaten aus verschiedenen Quellen (CSV, Excel, Datenbanken, Web usw.) zu organisieren, zu visualisieren und zu analysieren
- Anwendungen entwickeln, die Probleme im Zusammenhang mit Asset Allocation, Risikoanalyse, Investment Performance und mehr lösen
- Eine Python-Anwendung beheben, integrieren, bereitstellen und optimieren
Publikum
- Entwickler
- Analysten
- Quants
Format des Kurses
- Teil Vortrag, Teil Diskussion, Übungen und intensive praktische Anwendung
Hinweis
- Dieses Training zielt darauf ab, Lösungen für einige der Hauptprobleme zu bieten, mit denen Finanzexperten konfrontiert sind. Wenn Sie jedoch ein bestimmtes Thema, Tool oder eine bestimmte Technik haben, die Sie vertiefen oder weiter ausführen möchten, kontaktieren Sie uns bitte, um dies zu vereinbaren.
GPU Data Science with NVIDIA RAPIDS
14 StundenDiese von einem Dozenten geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenwissenschaftler und Entwickler, die RAPIDS nutzen möchten, um GPU-beschleunigte Datenpipelines, Workflows und Visualisierungen zu erstellen und dabei Algorithmen des maschinellen Lernens wie XGBoost, cuML usw. anzuwenden.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Einrichten der erforderlichen Entwicklungsumgebung zur Erstellung von Datenmodellen mit NVIDIA RAPIDS.
- Die Funktionen, Komponenten und Vorteile von RAPIDS zu verstehen.
- Nutzung von GPU zur Beschleunigung von End-to-End-Daten- und Analysepipelines.
- Implementierung von GPU-beschleunigter Datenvorbereitung und ETL mit cuDF und Apache Arrow.
- Lernen Sie, wie Sie maschinelle Lernaufgaben mit XGBoost- und cuML-Algorithmen durchführen können.
- Erstellen Sie Datenvisualisierungen und führen Sie Graphanalysen mit cuXfilter und cuGraph durch.
Python and Spark for Big Data (PySpark)
21 StundenIn dieser von einem Trainer geleiteten Live-Schulung in Deutschland lernen die Teilnehmer anhand praktischer Übungen, wie sie Python und Spark gemeinsam zur Analyse von Big Data einsetzen können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Lernen, wie man Spark mit Python verwendet, um Big Data zu analysieren.
- An Übungen arbeiten, die reale Fälle nachahmen.
- Verschiedene Tools und Techniken für die Big-Data-Analyse mit PySpark verwenden.
Apache Spark MLlib
35 StundenMLlib ist die ML-Bibliothek (Machine Learning) von Spark. Ziel ist es, praktisches maschinelles Lernen skalierbar und einfach zu machen. Es besteht aus allgemeinen Lernalgorithmen und Dienstprogrammen, einschließlich Klassifizierung, Regression, Clustering, kollaborativer Filterung, Dimensionsreduzierung sowie Optimierungsprimitiven auf niedrigerer Ebene und Pipeline-APIs auf höherer Ebene.
Es teilt sich in zwei Pakete:
spark.mllib enthält die ursprüngliche API, die auf RDDs basiert.
spark.ml bietet eine API auf höherer Ebene, die auf DataFrames zum Erstellen von ML-Pipelines basiert.
Publikum
Dieser Kurs richtet sich an Ingenieure und Entwickler, die eine integrierte Maschinenbibliothek für Apache Spark