SMACK Stack for Data Science Schulung
SMACK ist eine Sammlung von Datenplattform-Software, nämlich Apache Spark, Apache Mesos, Apache Akka, Apache Cassandra, und Apache Kafka. Mit dem SMACK Stack können Benutzer Datenverarbeitungsplattformen erstellen und skalieren.
Dieser Instructor-Leid, Live-Training (online oder on-site) richtet sich an Datenwissenschaftler, die die SMACK Stack verwenden möchten, um Datenverarbeitungsplattformen für Big Data-Lösungen zu bauen.
Am Ende dieser Ausbildung können die Teilnehmer:
- Implementieren Sie eine Datenträgerarchitektur für die Verarbeitung großer Daten.
- Entwickeln Sie eine Clusterinfrastruktur mit Apache Mesos und Docker.
- Analysieren Sie Daten mit Spark und Scala.
- Verwaltung unstrukturierter Daten mit Apache Cassandra.
Format des Kurses
- Interaktive Unterricht und Diskussion.
- Viele Übungen und Übungen.
- Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
- Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
Schulungsübersicht
Einführung
SMACK Stack Übersicht
- Was ist Apache Spark? Apache Spark-Funktionen
- Was ist Apache Mesos? Apache Mesos-Funktionen
- Was ist Apache Akka? Apache Akka-Funktionen
- Was ist Apache Cassandra? Apache Cassandra-Merkmale
- Was ist Apache Kafka? Apache Kafka-Funktionen
Scala Sprache
- Scala Syntax und Struktur
- Scala Kontrollfluss
Vorbereiten der Entwicklungsumgebung
- Installieren und Konfigurieren des SMACK-Stacks
- Installieren und Konfigurieren Docker
Apache Akka
- Einsatz von Schauspielern
Apache Cassandra
- Erstellen einer Datenbank für Lesevorgänge
- Arbeiten mit Backups und Wiederherstellung
Steckverbinder
- Erstellen eines Streams
- Aufbau einer Akka-Anwendung
- Speichern von Daten mit Cassandra
- Überprüfen von Konnektoren
Apache Kafka
- Arbeiten mit Clustern
- Erstellen, Veröffentlichen und Konsumieren von Nachrichten
Apache Mesos
- Zuweisung von Ressourcen
- Ausführen von Clustern
- Arbeiten mit Apache Aurora und Docker
- Ausführen von Diensten und Aufträgen
- Einsatz von Spark, Cassandra und Kafka auf Mesos
Apache Spark
- Verwaltung von Datenflüssen
- Arbeiten mit RDDs und Dataframes
- Durchführen von Datenanalysen
Fehlersuche
- Umgang mit dem Ausfall von Diensten und Fehlern
Zusammenfassung und Schlussfolgerung
Voraussetzungen
- Verständnis für Datenverarbeitungssysteme
Publikum
- Datenwissenschaftler
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
SMACK Stack for Data Science Schulung - Booking
SMACK Stack for Data Science Schulung - Enquiry
SMACK Stack for Data Science - Beratungsanfrage
Beratungsanfrage
Erfahrungsberichte (1)
very interactive...
Richard Langford
Kurs - SMACK Stack for Data Science
Kommende Kurse
Kombinierte Kurse
Kaggle
14 StundenDiese von einem Dozenten geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenwissenschaftler und -entwickler, die Data Science mit Kaggle erlernen und ihre Karriere ausbauen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Über Datenwissenschaft und maschinelles Lernen lernen.
- Datenanalytik erforschen.
- Lernen Sie über Kaggle und wie es funktioniert.
Accelerating Python Pandas Workflows with Modin
14 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenwissenschaftler und Entwickler, die Modin verwenden möchten, um parallele Berechnungen mit Pandas für eine schnellere Datenanalyse zu erstellen und zu implementieren.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- die notwendige Umgebung einzurichten, um mit der Entwicklung von Pandas-Workflows in großem Maßstab mit Modin zu beginnen.
- die Funktionen, die Architektur und die Vorteile von Modin zu verstehen.
- Die Unterschiede zwischen Modin, Dask und Ray kennen.
- Schnellere Durchführung von Pandas-Vorgängen mit Modin.
- Implementierung der gesamten Pandas API und Funktionen.
GPU Data Science with NVIDIA RAPIDS
14 StundenDiese von einem Dozenten geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenwissenschaftler und Entwickler, die RAPIDS nutzen möchten, um GPU-beschleunigte Datenpipelines, Workflows und Visualisierungen zu erstellen und dabei Algorithmen des maschinellen Lernens wie XGBoost, cuML usw. anzuwenden.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Einrichten der erforderlichen Entwicklungsumgebung zur Erstellung von Datenmodellen mit NVIDIA RAPIDS.
- Die Funktionen, Komponenten und Vorteile von RAPIDS zu verstehen.
- Nutzung von GPU zur Beschleunigung von End-to-End-Daten- und Analysepipelines.
- Implementierung von GPU-beschleunigter Datenvorbereitung und ETL mit cuDF und Apache Arrow.
- Lernen Sie, wie Sie maschinelle Lernaufgaben mit XGBoost- und cuML-Algorithmen durchführen können.
- Erstellen Sie Datenvisualisierungen und führen Sie Graphanalysen mit cuXfilter und cuGraph durch.
Anaconda Ecosystem for Data Scientists
14 StundenDiese von einem Dozenten geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenwissenschaftler, die das Anaconda-Ökosystem zur Erfassung, Verwaltung und Bereitstellung von Paketen und Datenanalyse-Workflows auf einer einzigen Plattform nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Anaconda-Komponenten und -Bibliotheken zu installieren und zu konfigurieren.
- Die Kernkonzepte, Funktionen und Vorteile von Anaconda zu verstehen.
- Pakete, Umgebungen und Kanäle mit Anaconda Navigator zu verwalten.
- Conda, R und Python Pakete für Data Science und maschinelles Lernen verwenden.
- Sie lernen einige praktische Anwendungsfälle und Techniken für die Verwaltung mehrerer Datenumgebungen kennen.
Python and Spark for Big Data (PySpark)
21 StundenIn dieser von einem Trainer geleiteten Live-Schulung in Deutschland lernen die Teilnehmer anhand praktischer Übungen, wie sie Python und Spark gemeinsam zur Analyse von Big Data einsetzen können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Lernen, wie man Spark mit Python verwendet, um Big Data zu analysieren.
- An Übungen arbeiten, die reale Fälle nachahmen.
- Verschiedene Tools und Techniken für die Big-Data-Analyse mit PySpark verwenden.
Introduction to Graph Computing
28 StundenIn dieser von einem Trainer geleiteten Live-Schulung in Deutschland lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Graphdaten kennen. Ziel ist es, Objekte der realen Welt, ihre Eigenschaften und Beziehungen zu identifizieren, diese Beziehungen zu modellieren und sie als Daten mit einem Graph Computing (auch bekannt als Graph Analytics) Ansatz zu verarbeiten. Wir beginnen mit einem breiten Überblick und konzentrieren uns auf spezifische Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Einsätzen durchführen.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein
- Verstehen, wie Graphdaten persistiert und durchlaufen werden.
- das beste Framework für eine bestimmte Aufgabe auszuwählen (von Graphdatenbanken bis hin zu Stapelverarbeitungs-Frameworks).
- Implementierung von Hadoop, Spark, GraphX und Pregel, um Graphenberechnungen auf vielen Rechnern parallel durchzuführen.
- Big-Data-Probleme aus der realen Welt in Form von Graphen, Prozessen und Traversalen zu betrachten.
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 StundenDieser Kurs richtet sich an Entwickler und Datenwissenschaftler, die KI verstehen und in ihre Anwendungen implementieren wollen. Besonderes Augenmerk wird auf Datenanalyse, verteilte KI und natürliche Sprachverarbeitung gelegt.
Apache Spark MLlib
35 StundenMLlib ist die ML-Bibliothek (Machine Learning) von Spark. Ziel ist es, praktisches maschinelles Lernen skalierbar und einfach zu machen. Es besteht aus allgemeinen Lernalgorithmen und Dienstprogrammen, einschließlich Klassifizierung, Regression, Clustering, kollaborativer Filterung, Dimensionsreduzierung sowie Optimierungsprimitiven auf niedrigerer Ebene und Pipeline-APIs auf höherer Ebene.
Es teilt sich in zwei Pakete:
spark.mllib enthält die ursprüngliche API, die auf RDDs basiert.
spark.ml bietet eine API auf höherer Ebene, die auf DataFrames zum Erstellen von ML-Pipelines basiert.
Publikum
Dieser Kurs richtet sich an Ingenieure und Entwickler, die eine integrierte Maschinenbibliothek für Apache Spark
Introduction to Data Science and AI using Python
35 StundenDies ist eine fünftägige Einführung in Data Science und AI.
Der Kurs wird mit Beispielen und Übungen mit Python geliefert
Apache Airflow for Data Science: Automating Machine Learning Pipelines
21 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Teilnehmer auf mittlerem Niveau, die Arbeitsabläufe des maschinellen Lernens automatisieren und verwalten möchten, einschließlich der Schulung, Validierung und Bereitstellung von Modellen mit Apache Airflow.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein
- Apache Airflow für die Orchestrierung von Workflows für maschinelles Lernen einzurichten.
- Datenvorverarbeitung, Modelltraining und Validierungsaufgaben zu automatisieren.
- Airflow mit Frameworks und Tools für maschinelles Lernen zu integrieren.
- Einsatz von Machine-Learning-Modellen mithilfe automatisierter Pipelines.
- Überwachung und Optimierung von Workflows für maschinelles Lernen in der Produktion.
AWS Cloud9 for Data Science
28 StundenDiese von einem Ausbilder geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Data Scientists und Analysten, die AWS Cloud9 für optimierte Data Science-Workflows nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Einrichten einer Data Science-Umgebung in AWS Cloud9.
- Datenanalyse mit Python, R und Jupyter Notebook in Cloud9 durchführen.
- AWS Cloud9 mit AWS-Datendiensten wie S3, RDS und Redshift zu integrieren.
- Nutzen Sie AWS Cloud9 für die Entwicklung und Bereitstellung von Modellen für maschinelles Lernen.
- Optimieren Sie Cloud-basierte Arbeitsabläufe für die Datenanalyse und -verarbeitung.
Big Data Business Intelligence for Telecom and Communication Service Providers
35 StundenÜberblick
Communications Service Provider (CSP) stehen unter Druck, um die Kosten zu senken und das durchschnittliche Einkommen pro Benutzer (ARPU) zu maximieren, während eine ausgezeichnete Kundenerfahrung gewährleistet wird, aber Datenvolumen weiter wachsen. Der weltweite mobile Datenverkehr wird bei einer kombinierten jährlichen Wachstumsrate (CAGR) von 78 Prozent bis 2016 auf 10,8 exabytes pro Monat wachsen.
Währenddessen generieren CSPs große Datenvolumen, einschließlich Call Details Records (CDR), Netzwerkdaten und Kundendaten. Unternehmen, die diese Daten vollumfänglich nutzen, gewinnen einen wettbewerbsfähigen Rand. Laut einer jüngsten Umfrage der The Economist Intelligence Unit genießen Unternehmen, die Datenorientierte Entscheidungsfindung nutzen, eine Produktivitätserhöhung von 5-6%. Doch 53% der Unternehmen nutzen nur die Hälfte ihrer wertvollen Daten, und ein Viertel der Befragten bemerkte, dass große Mengen nützlicher Daten unvergesslich sind. Die Datenvolume sind so hoch, dass manuelle Analyse unmöglich ist, und die meisten Legacy-Software-Systeme können nicht aufrechterhalten, was zu wertvollen Daten führt, die abgelehnt oder ignoriert werden.
Mit Big Data & Analytics’ High-Speed, scalable Big Data-Software können CSPs alle ihre Daten für bessere Entscheidungsfindung in weniger Zeit minieren. Verschiedene Big Data Produkte und Techniken bieten eine End-to-End-Software-Plattform für die Sammlung, Vorbereitung, Analyse und Präsentation von Einsichten aus großen Daten. Anwendungsbereiche umfassen Netzwerkleistungsüberwachung, Betrugdetektion, Kundenschurndetektion und Kreditrisikoanalyse. Big Data & Analytics-Produkte schaal, um Terabytes von Daten zu verarbeiten, aber die Implementierung solcher Tools erfordert eine neue Art von Cloud-basiertes Datenbank-System wie Hadoop oder massive schaal parallele Computing-Prozessor (KPU usw.)
Dieser Kurs arbeitet auf Big Data BI für Telco umfasst alle aufstrebenden neuen Bereiche, in denen CSPs für Produktivitätsgewinnung und die Eröffnung neuer Geschäftsausgabenströme investieren. Der Kurs bietet eine vollständige 360 Grad Überblick Big Data BI in Telco, so dass Entscheidungsträger und Manager eine sehr breite und umfassende Überblick über die Möglichkeiten Big Data BI in Telco für Produktivität und Einkommensgewinnung haben können.
Kursziele
Das Hauptziel des Kurses ist es, neue Big Data Business Intelligence-Techniken in 4 Sektoren Telecom Business (Marketing/Sales, Network Operation, Financial Operation und Customer Relation Management) einzuführen. Die Studierenden werden eingeführt, um zu folgen:
- Einführung zu Big Data-was ist 4Vs (Volumen, Geschwindigkeit, Vielfalt und Wahrscheinlichkeit) in Big Data- Generation, Extraction und Management aus Telco Perspektive
- Wie Big Data Analytik unterscheidet sich von Erbe-Datenanalytik
- In-house Begründung von Big Data -Telco Perspektive
- Einführung in Hadoop Ökosystem- Bekanntschaft mit allen Hadoop Tools wie Hive, Pig, SPARC –Wenn und wie sie verwendet werden, um das Problem zu lösen Big Data
- Wie Big Data zur Analyse für Analyse-Tool-Wie Business Analysis’s können ihre Schmerzpunkte der Sammlung und Analyse von Daten durch integrierte Hadoop Dashboard-Ansatz reduzieren
- Grundlegende Einführung in Insight-Analysen, Visualisierungsanalysen und Predictive-Analysen für Telco
- Customer Churn-Analytics und Big Data-how Big Data-Analytics können Customer Churn und Kundenunzufriedenheit in Telco-Case-Studien reduzieren
- Netzwerkfehler- und Servicefehleranalyse aus Netzwerkmetadata und IPDR
- Finanzanalyse - Betrug, Wastage und ROI-Schätzung aus Verkaufs- und Betriebsdaten
- Kundenaufnahme-Problem-Zielmarketing, Kundensegmentation und Cross-Sales von Verkaufsdaten
- Einführung und Zusammenfassung aller Big Data analytischen Produkte und wo sie in den analytischen Raum von Telco passen
- Schlussfolgerung - wie man Schritt für Schritt einen Ansatz zur Einführung Big Data Business Intelligence in Ihre Organisation einnehmen kann
Zielgruppe
- Netzwerkverkehr, Finanzmanager, CRM-Manager und Top-IT-Manager im Telco CIO-Büro.
- Business Analytiker in Telco
- CFO Büro-Manager / Analysten
- Operationsmanager
- QA Manager
Introduction to Google Colab for Data Science
14 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenwissenschaftler und IT-Experten, die die Grundlagen der Datenwissenschaft mit Google Colab erlernen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Einrichten und Navigieren in Google Colab.
- Grundlegenden PythonCode schreiben und ausführen.
- Datensätze importieren und bearbeiten.
- Visualisierungen mit Python-Bibliotheken zu erstellen.
A Practical Introduction to Data Science
35 StundenDie Teilnehmer, die diese Schulung absolvieren, erhalten ein praktisches, praxisnahes Verständnis von Data Science und den damit verbundenen Technologien, Methoden und Werkzeugen.
Die Teilnehmer haben die Möglichkeit, dieses Wissen durch praktische Übungen in die Praxis umzusetzen. Die Interaktion in der Gruppe und das Feedback des Kursleiters sind ein wichtiger Bestandteil des Kurses.
Der Kurs beginnt mit einer Einführung in die grundlegenden Konzepte von Data Science und geht dann auf die in Data Science verwendeten Werkzeuge und Methoden ein.
Teilnehmerkreis
- Entwickler
- Technische Analysten
- IT-Berater
Format des Kurses
- Teilweise Vorlesung, teilweise Diskussion, Übungen und umfangreiche praktische Übungen
Hinweis
- Wenn Sie eine maßgeschneiderte Schulung für diesen Kurs wünschen, nehmen Sie bitte Kontakt mit uns auf, um dies zu vereinbaren.
Data Science for Big Data Analytics
35 StundenBig Data sind Datenmengen, die so umfangreich und komplex sind, dass herkömmliche Anwendungssoftware für die Datenverarbeitung nicht ausreicht, um mit ihnen umzugehen. Zu den großen Datenherausforderungen gehören Datenerfassung, Datenspeicherung, Datenanalyse, Suche, Freigabe, Übertragung, Visualisierung, Abfrage, Aktualisierung und Datenschutz.