Schulungsübersicht
Einführung
Installation und Konfiguration von Dataiku Data Science Studio (DSS)
- Systemanforderungen für Dataiku DSS
- Einrichten der Integrationen mit Apache Hadoop und Apache Spark
- Konfigurieren von Dataiku DSS mit Web-Proxy-Servers
- Migration von anderen Plattformen zu Dataiku DSS
Überblick über die Funktionen und Architektur von Dataiku DSS
- Kernobjekte und Graphen, die für Dataiku DSS grundlegend sind
- Was ist ein Rezept in Dataiku DSS?
- Arten von Datensätzen, die von Dataiku DSS unterstützt werden
Erstellen eines Dataiku DSS-Projekts
Definieren von Datensätzen zur Verbindung mit Datenressourcen in Dataiku DSS
- Arbeiten mit DSS-Connectors und Dateiformaten
- Standard-DSS-Formate im Vergleich zu Hadoop-spezifischen Formaten
- Hochladen von Dateien für ein Dataiku DSS-Projekt
Überblick über das Servers Dateisystem in Dataiku DSS
Erstellen und Verwenden von verwalteten Ordnern
- Dataiku DSS-Rezept für den Merge-Ordner
- Lokale vs. nicht lokale verwaltete Ordner
Erstellen eines Dateisystem-Datensatzes mit Inhalten von verwalteten Ordnern
- Durchführen von Bereinigungen mit einem DSS-Code-Rezept
Arbeiten mit dem Metriken-Datensatz und dem internen Statistiken-Datensatz
Implementieren des DSS-Download-Rezepts für HTTP-Datensätze
Verschieben von SQL- und HDFS-Datensätzen mit Dataiku DSS
Anordnen von Datensätzen in Dataiku DSS
- Schreibzeit-Anordnung vs. Lesezeit-Anordnung
Erkunden und Vorbereiten von Datenvisualisierungen für ein Dataiku DSS-Projekt
Überblick über Dataiku-Schemas, Speichertypen und Bedeutungen
Durchführen von Datensäuberung, Normalisierung und Bereicherungsskripten in Dataiku DSS
Arbeiten mit der Dataiku DSS-Charts-Oberfläche und Arten von visuellen Aggregationen
Nutzung der interaktiven Statistikfunktionen von DSS
- Univariate Analyse vs. bivariate Analyse
- Nutzen der Hauptkomponentenanalyse (PCA)-Funktion von DSS
Überblick über maschinelles Lernen mit Dataiku DSS
- Supervised ML vs. unsupervised ML
- Referenzen für DSS-ML-Algorithmen und Merkmalsverarbeitung
- Tiefes Lernen mit Dataiku DSS
Überblick über den Workflow, der aus DSS-Datensätzen und -Rezepten abgeleitet wird
Transformieren vorhandener Datensätze in DSS mit visuellen Rezepten
Nutzen von DSS-Rezepten basierend auf benutzerdefiniertem Code
Optimieren der Codeerforschung und -experimentierung mit DSS-Code-Notebooks
Erstellen fortschrittlicher DSS-Visualisierungen und benutzerdefinierter Frontend-Funktionen mit Webanwendungen
Arbeiten mit der Dataiku DSS-Code-Berichte-Funktion
Teilen von Elementen eines Datenprojekts und Vertrautwerden mit dem DSS-Dashboard
Entwerfen und Verpacken eines Dataiku DSS-Projekts als wiederverwendbare Anwendung
Überblick über fortgeschrittene Methoden in Dataiku DSS
- Implementieren von optimierten Datensatz-Partitionierungen mit DSS
- Ausführen spezifischer DSS-Verarbeitungsteile durch Berechnungen in Kubernetes-Containern
Überblick über Zusammenarbeit und Versionskontrolle in Dataiku DSS
Implementieren von Automatisierungsszenarien, Metriken und Prüfungen für das Testen eines DSS-Projekts
Bereitstellen und Aktualisieren eines Projekts mit dem DSS-Automatisierungs-Node und -Bundles
Arbeiten mit Echtzeit-APIs in Dataiku DSS
- Zusätzliche APIs und REST-APIs in DSS
Analysieren und Prognostizieren von Time Series-Datensätzen in Dataiku DSS
Sichern eines Projekts in Dataiku DSS
- Verwalten von Projektberechtigungen und Dashboard-Autorisierungen
- Implementieren fortgeschrittener Sicherheitsoptionen
Integrieren von Dataiku DSS mit der Cloud
Problembehandlung
Zusammenfassung und Schlussfolgerung
Voraussetzungen
- Erfahrung mit den Programmiersprachen Python, SQL und R
- Grundkenntnisse in der Datenverarbeitung mit Apache Hadoop und Spark
- Verständnis von Konzepten des maschinellen Lernens und Datenmodellen
- Hintergrundwissen über statistische Analysen und Konzepte der Data Science
- Erfahrung mit der Visualisierung und Kommunikation von Daten
Zielgruppe
- Ingenieure
- Data Scientists
- Datenanalysten