KNIME Analytics Platform für BI Schulung
KNIME Analytics Platform ist eine führende Open-Source-Lösung für datengetriebene Innovation. Es hilft Ihnen, das in Ihren Daten verborgene Potenzial zu entdecken, frische Einblicke zu gewinnen oder neue Zukunftsszenarien vorherzusagen. Mit mehr als 1000 Modulen, Hunderten von fertigen Beispielen, einem umfassenden Spektrum integrierter Werkzeuge und der breitesten Auswahl an fortgeschrittenen Algorithmen ist KNIME Analytics Platform die perfekte Werkzeugkiste für jeden Datenwissenschaftler und Business-Analyst.
Dieses Kurs zum KNIME Analytics Platform bietet Anfängern, Fortgeschrittenen und KNIME-Experten die ideale Gelegenheit, sich mit KNIME vertraut zu machen, effektiver damit umzugehen zu lernen und klare, umfassende Berichte basierend auf KNIME-Arbeitsabläufen zu erstellen.
Zertifikat
Schulungsübersicht
Erste Schritte mit KNIME
- KNIME Überblick über die Analyseplattform
- Installation
- GUI-basiert Programming
- Arbeitsabläufe
- Knotenpunkte
- Importieren von Arbeitsabläufen
Daten Access
- Lesen aus einer Textdatei
- Database Access
- Externe REST-Dienste
- Künstliche Datenerzeugung
Visualisierung
- Data Visualization
- JavaSkriptbasierte Visualisierung
- Datenansichten
- Hervorhebung
- Grafiken durch R
- ETL und Datenmanipulation
Datenfilterung
- Daten-Aggregationen
- Verkettung und Join
- Daten-Transformationen
- Workflow-Bereinigung
- Datetime-Manipulation
- In-Database Verarbeitung
Data Mining
- Prozess-Übersicht
- Trainieren und Anwenden eines Entscheidungsbaums
- Bewertung eines Modells
- PMML
- K-Means-Clustering
- Recommendation Engines
- Andere verfügbare Modelle
Berichterstattung
- Übersicht
- BIRT-Integration
- KNIME WebPortal
Fazit
Voraussetzungen
Eine grundlegende Fähigkeit, Daten sinnvoll zu nutzen.
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
KNIME Analytics Platform für BI Schulung - Buchung
KNIME Analytics Platform für BI Schulung - Anfrage
KNIME Analytics Platform für BI - Beratungsanfrage
Erfahrungsberichte (1)
Sehr nützlich, weil es mir hilft zu verstehen, was wir mit den Daten in unserem Kontext tun können. Es wird mir auch helfen,
Nicolas NEMORIN - Adecco Groupe France
Kurs - KNIME Analytics Platform for BI
Maschinelle Übersetzung
Kommende Kurse
Kombinierte Kurse
Cognos 11
14 StundenDiese von einem Ausbilder geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an fortgeschrittene Datenanalysten, die die theoretischen Aspekte von Cognos 11 verstehen und lernen möchten, wie man sie effektiv einsetzt.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Unterschiede und Verbesserungen in Cognos 11 im Vergleich zu Cognos 10 zu verstehen.
- das verbesserte Datenmodul und die Datenverwaltungsfunktionen für eine effizientere Datenverarbeitung zu nutzen.
- Implementierung von Best Practices für einen reibungslosen Übergang und eine optimale Nutzung von Cognos 11.
Cognos Analytics für Finanzen: Prüfungsvorbereitung
28 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Einsteiger bis hin zu fortgeschrittenen Beratern und Finanzfachleuten, die sich auf die Cognos Analytics-Zertifizierung vorbereiten und Fachkenntnisse in der Finanzdatenanalyse, einschließlich der Module für Kreditoren, Treasury und Ausgaben, erwerben möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Effiziente Navigation und Nutzung der Cognos Analytics-Oberfläche.
- Finanzberichte und Dashboards zu entwickeln und anzupassen.
- Datenmodelle zu verwalten und Abfragen zu optimieren.
- sich auf die Cognos Analytics-Zertifizierungsprüfung vorzubereiten.
IBM Cognos Analytics
14 StundenDiese Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Unternehmensanalysten, die IBM Cognos für die Datenanalyse und das Berichtswesen nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Daten zu analysieren und Erkenntnisse zu teilen.
- Unternehmensleistung zu visualisieren.
- KI-gestützte Vorbereitung zur Bereinigung und Kombination von Datenquellen nutzen.
- Verborgene Muster in Daten mit den in IBM Cognos Analytics integrierten KI-Funktionen aufdecken.
Business-Intelligence und Datenanalyse mit Metabase
14 StundenDiese von einem Trainer geleitete Live-Schulung in Deutschland (online oder vor Ort) richtet sich an Datenanalysten und Datenwissenschaftler, die Metabase zum Sammeln, Abfragen und Visualisieren von Daten für Business Intelligence-Analysen und -Berichte verwenden möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Metabase einzurichten und zu installieren, um mit der Erstellung von Datenvisualisierungen und Dashboards zu beginnen.
- Abfragen, Aggregieren und Visualisieren von Daten in Metabase zu lernen.
- die Funktionen und Tools in Metabase zum Schreiben von SQL-Abfragen zu nutzen.
- Erstellen Sie Analysediagramme und Dashboards, um Geschäftseinblicke zu erhalten.
- Kennen Sie die besten Praktiken und Tipps zur Verwendung von Metabase und zur Behebung häufiger Probleme.
Oracle GoldenGate
14 StundenDieser von Dozenten begleitete Live-Training in Deutschland (online oder vor Ort) richtet sich an Sysadmins und Entwickler, die Oracle GoldenGate für Datenverarbeitung einrichten, bereitstellen und verwalten möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Oracle GoldenGate zu installieren und einzurichten.
- Datenbank-Replikation mit dem Tool Oracle GoldenGate zu verstehen.
- Die Architektur von Oracle GoldenGate zu verstehen.
- Eine Datenbanksynchronisierung und -migration einzurichten und durchzuführen.
- Die Leistungsfähigkeit von Oracle GoldenGate zu optimieren und Probleme auszumerzen.
Pentaho Open Source BI Suite Community Edition (CE)
28 StundenPentaho Open Source BI Suite Community Edition (CE) ist ein Business-Intelligence-Paket, das Datenintegration, Berichterstellung, Dashboards und Ladevorgänge bereitstellt.
In diesem von einem Trainer angeleiteten Live-Training lernen die Teilnehmer, wie sie die Funktionen der Pentaho Open Source BI Suite Community Edition (CE) optimal nutzen können.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Pentaho Open Source BI Suite Community Edition (CE) zu installieren und zu konfigurieren
- Die Grundlagen von Pentaho CE-Tools und ihren Funktionen zu verstehen
- Mit Pentaho CE Berichte erstellen
- Dritte Daten in Pentaho CE zu integrieren
- Big Data und Analysen mit Pentaho CE zu verarbeiten
Zielgruppe
- Programmierer
- BI-Entwickler
Kursformat
- Theorieteil, Diskussionsteil, Übungen und viel praktische Anwendung
Hinweis
- Um ein angepasstes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte.
Grundlagen der Pentaho Data Integration
21 StundenPentaho Data Integration ist ein Open-Source-Datenintegrationstool zur Definition von Aufträgen und Datentransformationen.
In dieser von einem Trainer geleiteten Live-Schulung lernen die Teilnehmer, wie sie die leistungsstarken ETL-Funktionen und die reichhaltige grafische Benutzeroberfläche von Pentaho Data Integration nutzen können, um den gesamten Lebenszyklus von Big Data zu verwalten und den Wert der Daten in ihrem Unternehmen zu maximieren.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Erstellung, Vorschau und Ausführung grundlegender Datentransformationen mit Schritten und Sprüngen
- das Pentaho Enterprise Repository zu konfigurieren und zu sichern
- Unterschiedliche Datenquellen zu nutzen und eine einzige, einheitliche Version der Wahrheit in einem für Analysen geeigneten Format zu erzeugen.
- Bereitstellung der Ergebnisse für Drittanwendungen zur weiteren Verarbeitung
Zielgruppe
- Datenanalysten
- ETL-Entwickler
Format des Kurses
- Teilweise Vorlesung, teilweise Diskussion, Übungen und umfangreiche praktische Übungen
Pentaho Data Integration Advanced
21 StundenPentaho Data Integration ist eine umfassende Plattform zur Gestaltung unternehmensweiter ETL- und Datenpipelines.
Dieses von einem Dozenten geführte, live-Schulung (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure, die hochperformante, unternehmensskalige und stark automatisierte PDI-Lösungen meistern möchten.
Nach Abschluss dieses Kurses werden die Teilnehmer in der Lage sein:
- Großdimensionale ETL-Pipelines mit fortgeschrittener Orchestrierung zu architekten.
- Komplexe Transformationen zur hohen Performance zu optimieren.
- Skripting, Automatisierung und hybride Integrationsmuster umzusetzen.
- Robuste, wartbare und produktionstaugliche Workflows zu gestalten.
Kursformat
- Expertenführige Demonstrationen und architektonische Diskussionen.
- Ausgedehnte Laborübungen zu fortgeschrittenen, realweltlichen ETL-Herausforderungen.
- Praktisches Entwickeln in einer produktionssimulierenden Umgebung.
Kursanpassungsoptionen
- Kontaktieren Sie uns, wenn Sie eine angepasste Version dieser Schulung benötigen.
Pentaho Data Integration Intermediate
21 StundenPentaho Data Integration ist eine Plattform für die Extraktion, Transformation und das Laden von Daten.
Dieses von einem Dozenten angeleitete Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Praktiker, die ihre PDI-Fähigkeiten für komplexere Transformationszenarien verbessern möchten.
Nach Abschluss dieses Trainings werden die Teilnehmer in der Lage sein:
- Mehrstufige Transformationen mit verbessertem Leistungsniveau zu entwerfen.
- Mit Variablen, Parametern und wiederverwendbaren Komponenten zu arbeiten.
- PDI mit Datenbanken, APIs und externen Systemen zu integrieren.
- Best Practices für wartbare und skalierte ETL-Pipelines anzuwenden.
Kursformat
- Interaktive Demos und Erklärungen des Dozenten.
- Geleitete Übungen und praxisorientierte Übungen.
- Praktische Arbeit in einer realen ETL-Projektumgebung.
Kursanpassungsoptionen
- Wenn Sie eine angepasste Version dieses Kurses benötigen, kontaktieren Sie uns für die Anpassung.
Sensor-Fusion-Algorithmen
14 StundenSensor Fusion ist die Kombination und Integration von Daten aus mehreren Sensoren, um eine genauere, zuverlässigere und kontextbezogene Sicht auf die Daten zu erhalten.
Die Sensor Fusion-Implementierung erfordert Algorithmen zur Filterung und Integration verschiedener Datenquellen.
Zielgruppe
Dieser Kurs richtet sich an Ingenieure, Programmierer und Architekten, die sich mit Multi-Sensor-Implementierungen beschäftigen.
Talend Administration Center (TAC)
14 StundenDieses von einem Instructor angeführte Live-Training in Deutschland (online oder vor Ort) richtet sich an Systemadministratoren, Datenwissenschaftler und Business-Analysten, die Talend Administration Center einrichten möchten, um die Rollen und Aufgaben der Organisation zu verwalten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Talend Administration Center zu installieren und einzurichten.
- Talend-Management-Grundlagen zu verstehen und umzusetzen.
- Geschäftliche Projekte oder Aufgaben in Talend aufzubauen, bereitzustellen und auszuführen.
- Die Sicherheit von Datensätzen zu überwachen und Geschäftsabläufe basierend auf dem TAC-Framework zu entwickeln.
- Eine umfassendere Kenntnis von Big-Data-Anwendungen zu erlangen.
Talend Big Data Integration
28 StundenDieses von einem Trainer geleitete Live-Training in Deutschland (online oder vor Ort) richtet sich an technische Fachkräfte, die Talend Open Studio for Big Data einsetzen möchten, um den Prozess des Lesens und Verarbeitens von Big Data zu vereinfachen.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Talend Open Studio for Big Data zu installieren und zu konfigurieren.
- Sich mit Big Data-Systemen wie Cloudera, HortonWorks, MapR, Amazon EMR und Apache zu verbinden.
- Die Big Data-Komponenten und -Connectoren von Open Studio zu verstehen und einzurichten.
- Parameter zu konfigurieren, um MapReduce-Code automatisch zu generieren.
- Die Drag-and-Drop-Oberfläche von Open Studio zu verwenden, um Hadoop-Aufträge auszuführen.
- Big Data-Pipelines zu prototypieren.
- Big Data-Integration-Projekte zu automatisieren.
Talend Cloud
7 StundenDieses von einem Trainer geleitete Live-Training in Deutschland (online oder vor Ort) richtet sich an Datenadministratoren und Entwickler, die lernen möchten, Datenintegrationsprozesse mithilfe der Talend Cloud-Dienste zu verwalten, zu überwachen und zu betreiben.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Talend Management Console zu navigieren, um Benutzer und Rollen auf der Plattform zu verwalten.
- Daten auszuwerten, um relevante Datensätze zu finden und zu verstehen.
- Eine Pipeline zu erstellen, um ruhende oder aktive Daten zu verarbeiten und zu überwachen.
- Daten für die Analyse vorzubereiten, um Erkenntnisse zu generieren, die für das Unternehmen relevant sind.
Talend Data Stewardship
14 StundenDieses von einem Dozenten angeführte Live-Training in Deutschland (online oder vor Ort) richtet sich an Anfänger bis fortgeschrittene Datenanalytiker, die ihr Verständnis und ihre Fähigkeiten im Management und Verbessern der Datenqualität unter Verwendung von Talend Data Stewardship vertiefen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Eine umfassende Kenntnis der Rolle des Datenmanagement bei der Aufrechterhaltung der Datenqualität zu erlangen.
- Talend Data Stewardship für die Verwaltung von Datenqualitätsaufgaben zu verwenden.
- Aufgaben in Talend Data Stewardship zu erstellen, zuzuweisen und zu verwalten, einschließlich der Anpassung von Workflows.
- Die Berichterstellungs- und Überwachungsfunktionen des Tools zur Verfolgung der Datenqualität und der Stewardship-Bemühungen zu nutzen.
Talend Open Studio for ESB
21 StundenIn diesem von einem Dozenten angeleiteten Live-Training in Deutschland lernen die Teilnehmer, wie sie Talend Open Studio für ESB nutzen können, um Dienste und deren Interaktionen zu erstellen, zu verbinden, zu vermitteln und zu verwalten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- ESB-Technologien als einzelne Pakete in verschiedenen Bereitstellungsumgebungen zu integrieren, zu erweitern und bereitzustellen.
- Die am häufigsten verwendeten Komponenten von Talend Open Studio zu verstehen und zu nutzen.
- Jede Anwendung, Datenbank, API oder Webdienste zu integrieren.
- Heterogene Systeme und Anwendungen nahtlos zu integrieren.
- Bestehende Java-Codebibliotheken einzubinden, um Projekte zu erweitern.
- Kommunikationskomponenten und Code der Community zu nutzen, um Projekte zu erweitern.
- Systeme, Anwendungen und Datenquellen schnell in einer drag-and-drop-fähigen Eclipse-Umgebung zu integrieren.
- Die Entwicklungszeit und die Wartungskosten durch die Erstellung optimierter, wiederverwendbarer Codes zu reduzieren.