Schulungsübersicht

Aufschlüsselung der Themen auf Tagesbasis: (Jede Sitzung dauert 2 Stunden)

Tag-1: Sitzung -1: Business Überblick über das Warum Big Data Business Intelligenz in der Telekommunikation.

  • Fallstudien von T-Mobile, Verizon usw.
  • Big Data Anpassungsrate in nordamerikanischen Telekommunikationsunternehmen & und wie sie ihr zukünftiges Geschäftsmodell und ihren Betrieb auf Big Data BI ausrichten
  • Breit angelegter Anwendungsbereich
  • Netz- und Servicemanagement
  • Kundenabwanderung Management
  • Data Integration & Dashboard-Visualisierung
  • Betrugsmanagement
  • Business Regelerstellung
  • Kundenprofilierung
  • Lokalisierte Anzeigenschaltung

Tag 1: Sitzung 2: Einführung in Big Data-1

  • Hauptmerkmale von Big Data-Volumen, Vielfalt, Schnelligkeit und Wahrhaftigkeit. MPP-Architektur für Volumen.
  • Data Warehouses - statisches Schema, sich langsam entwickelnder Datensatz
  • MPP Databases wie Greenplum, Exadata, Teradata, Netezza, Vertica usw.
  • Hadoop-basierte Lösungen - keine Bedingungen an die Struktur der Datenmenge.
  • Typisches Muster: HDFS, MapReduce (Crunch), Abruf aus HDFS
  • Batch- geeignet für analytische/nicht interaktive
  • Volumen: CEP-Streaming-Daten
  • Typische Wahl - CEP-Produkte (z. B. Infostreams, Apama, MarkLogic usw.)
  • Weniger produktionstauglich - Storm/S4
  • NoSQL Databases - (spaltenweise und Key-Value): Am besten geeignet als analytische Ergänzung zu Data Warehouse/Datenbank

Tag-1 : Sitzung -3 : Einführung in Big Data-2

NoSQL Lösungen

  • KV-Speicher - Keyspace, Flare, SchemaFree, RAMCloud, Oracle NoSQL Database (OnDB)
  • KV-Speicher - Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
  • KV-Speicher (Hierarchisch) - GT.m, Cache
  • KV-Speicher (geordnet) - TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
  • KV-Cache - Memcached, Repcached, Coherence, Infinispan, EXtremeScale, JBossCache, Velocity, Terracoqua
  • Tupel-Speicher - Gigaspaces, Coord, Apache River
  • Objekt Database - ZopeDB, DB40, Shoal
  • Dokumentenspeicher - CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML-Databases, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
  • Breiter spaltenförmiger Speicher - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI

Arten von Daten: Einführung in Data Cleaning Thema in Big Data

  • RDBMS - statische Struktur/Schema, fördert nicht die agile, forschende Umgebung.
  • NoSQL - halbstrukturiert, genügend Struktur zum Speichern von Daten ohne genaues Schema vor dem Speichern von Daten
  • Fragen der Datenbereinigung

Tag-1 : Sitzung-4 : Big Data Einführung-3 : Hadoop

  • Wann sollte man Hadoop wählen?
  • STRUKTURIERT - Data-Warehouses/Datenbanken für Unternehmen können große Datenmengen speichern (was mit Kosten verbunden ist), erzwingen aber eine Strukturierung (nicht gut für eine aktive Erkundung)
  • SEMI STRUKTURIERTE Daten - mit herkömmlichen Lösungen (DW/DB) schwer zu realisieren
  • Warehousing von Daten = RIESIGer Aufwand und auch nach der Implementierung statisch
  • Für die Vielfalt und das Volumen der Daten, die auf handelsüblicher Hardware verarbeitet werden - HADOOP
  • Commodity-Hardware erforderlich, um einen Hadoop Cluster zu erstellen

Einführung in MapReduce /HDFS

  • MapReduce - Verteilen der Datenverarbeitung auf mehrere Server
  • HDFS - stellt Daten lokal für den Rechenprozess zur Verfügung (mit Redundanz)
  • Daten - können unstrukturiert/schemafrei sein (im Gegensatz zu RDBMS)
  • Verantwortung des Entwicklers, die Daten sinnvoll zu nutzen
  • Programming MapReduce = Arbeit mit Java (Vor- und Nachteile), manuelles Laden von Daten in HDFS

Tag-2: Sitzung-1.1: Spark: Verteilte In-Memory-Datenbank

  • Was ist "In-Memory"-Verarbeitung?
  • Spark SQL
  • Spark SDK
  • Spark-API
  • RDD
  • Spark Lib
  • Hanna
  • Wie man ein bestehendes Hadoop-System auf Spark migriert

Tag-2 Session -1.2: Storm -Echtzeitverarbeitung in Big Data

  • Streams
  • Sprossen
  • Bolzen
  • Topologien

Tag-2: Sitzung-2: Big Data Management System

  • Bewegliche Teile, Rechenknoten starten/fallen aus :ZooKeeper - Für Konfiguration/Koordination/Benennungsdienste
  • Komplexe Pipeline/Workflow: Oozie - Verwaltung von Arbeitsabläufen, Abhängigkeiten, Daisy Chain
  • Bereitstellung, Konfiguration, Cluster-Management, Upgrade usw. (Systemadministrator) :Ambari
  • In der Cloud: Whirr
  • Sich entwickelnde Big Data Plattform-Tools zur Verfolgung von
  • ETL-Schicht Anwendungsprobleme

Tag-2: Sitzung-3: Prädiktive Analytik in Business Intelligence -1: Grundlegende Techniken und auf maschinellem Lernen basierende BI :

  • Einführung in maschinelles Lernen
  • Klassifizierungstechniken lernen
  • Bayessche Vorhersage - Vorbereitung der Trainingsdatei
  • Markov-Zufallsfeld
  • Überwachtes und unüberwachtes Lernen
  • Merkmalsextraktion
  • Support-Vektor-Maschine
  • Neuronales Netz
  • Verstärkendes Lernen
  • Big Data Problem der großen Variablen -Random Forest (RF)
  • Repräsentationslernen
  • Tiefes Lernen
  • Big Data Automatisierungsproblem - Multimodel-Ensemble RF
  • Automatisierung durch Soft10-M
  • LDA und Themenmodellierung
  • Agile Lernen
  • Agentenbasiertes Lernen - Beispiel aus dem Telco-Betrieb
  • Verteiltes Lernen - Beispiel aus dem Telco-Betrieb
  • Einführung in Open-Source-Tools für prädiktive Analytik: R, Rapidminer, Mahut
  • Skalierbarere Analytik-Apache Hama, Spark und CMU Graph lab

Tag-2: Sitzung-4 Prädiktive Analytik-Ökosystem-2: Gemeinsame prädiktive analytische Probleme in Telecom

  • Einsicht-Analytik
  • Visualisierung Analytik
  • Strukturierte prädiktive Analytik
  • Unstrukturierte prädiktive Analytik
  • Kundenprofilierung
  • Empfehlungsmaschine
  • Erkennung von Mustern
  • Regel-/Szenarioerkennung - Fehler, Betrug, Optimierung
  • Entdeckung der Grundursache
  • Sentiment-Analyse
  • CRM-Analytik
  • Netzwerk-Analytik
  • Text-Analyse
  • Technologiegestützte Überprüfung
  • Betrugsanalytik
  • Echtzeit-Analytik

Tag 3: Sesion-1: Analyse des Netzwerkbetriebs - Ursachenanalyse von Netzwerkausfällen, Serviceunterbrechungen anhand von Metadaten, IPDR und CRM:

  • CPU-Nutzung
  • Speicherauslastung
  • QoS-Warteschlangenauslastung
  • Gerätetemperatur
  • Schnittstellenfehler
  • IoS-Versionen
  • Routing-Ereignisse
  • Latenzschwankungen
  • Syslog-Analysen
  • Paketverlust
  • Last-Simulation
  • Topologie-Inferenz
  • Leistungsschwellenwert
  • Geräte-Traps
  • Erfassung und Verarbeitung von IPDR-Daten (IP Detailed Record)
  • Verwendung von IPDR-Daten für den Bandbreitenverbrauch des Teilnehmers, die Auslastung der Netzwerkschnittstelle, den Modemstatus und die Diagnose
  • HFC-Informationen

Tag 3: Sitzung 2: Tools für die Analyse von Netzwerkdienstausfällen:

  • Network Summary Dashboard: Überwachen Sie den gesamten Netzwerkeinsatz und verfolgen Sie die wichtigsten Leistungsindikatoren Ihres Unternehmens
  • Peak Period Analysis Dashboard: Verstehen der Anwendungs- und Teilnehmertrends, die die Spitzenauslastung bestimmen, mit standortspezifischer Granularität
  • Routing Efficiency Dashboard: Kontrollieren Sie die Netzwerkkosten und erstellen Sie Business Cases für Investitionsprojekte mit einem vollständigen Verständnis der Interconnect- und Transitbeziehungen
  • Real-Time Entertainment Dashboard: Zugriffsmetriken, die von Bedeutung sind, einschließlich Videoaufrufe, Dauer und Qualität der Videoerfahrung (QoE)
  • IPv6 Transition Dashboard: Untersuchen Sie die laufende Einführung von IPv6 in Ihrem Netzwerk und gewinnen Sie Einblicke in die Anwendungen und Geräte, die die Trends vorantreiben
  • Fallstudie 1: Der Alcatel-Lucent Big Network Analytics (BNA) Data Miner
  • Mehrdimensionale mobile Intelligenz (m.IQ6)

Tag 3: Session 3: Big Data BI für Marketing/Vertrieb - Verstehen von Vertrieb/Marketing anhand von Vertriebsdaten: (Alle Themen werden anhand einer Live-Demo zur prädiktiven Analytik gezeigt)

  • Identifizierung von Kunden mit der höchsten Umsatzgeschwindigkeit
  • Identifizierung von Kunden für ein bestimmtes Produkt
  • Identifizierung der richtigen Produkte für einen Kunden (Recommendation Engine)
  • Technik der Marktsegmentierung
  • Cross-Sale und Upsale Technik
  • Technik der Kundensegmentierung
  • Technik zur Vorhersage von Verkaufserlösen

Tag 3: Sitzung 4: BI für das CFO-Büro von Telekommunikationsunternehmen:

  • Überblick über Business Analytische Arbeiten, die in einem CFO-Büro benötigt werden
  • Risikoanalyse bei Neuinvestitionen
  • Umsatz- und Gewinnprognose
  • Prognosen zur Neukundengewinnung
  • Verlustprognose
  • Betrugsanalyse der Finanzen (Details in der nächsten Sitzung)

Tag 4: Sitzung 1: Betrugsprävention BI von Big Data in Telco-Betrugsanalyse:

  • Bandbreitenverluste/Bandbreitenbetrug
  • Lieferantenbetrug/Überfakturierung für Projekte
  • Betrug bei Kundenrückerstattungen/-ansprüchen
  • Betrug bei der Reisekostenrückerstattung

Tag 4: Sitzung 2: Von der Churning-Vorhersage zur Churning-Prävention:

  • 3 Arten von Abwanderung: aktiv/absichtlich, rotierend/unbeabsichtigt, passiv/unfreiwillig
  • 3 Klassifizierungen von abgewanderten Kunden: Vollständig, versteckt, partiell
  • Verständnis der CRM-Variablen für Abwanderung
  • Datenerhebung zum Kundenverhalten
  • Erhebung von Daten zur Kundenwahrnehmung
  • Erhebung von demografischen Kundendaten
  • Bereinigung von CRM-Daten
  • Unstrukturierte CRM-Daten (Kundenanrufe, Tickets, E-Mails) und ihre Umwandlung in strukturierte Daten für die Analyse der Kundenabwanderung
  • Social Media CRM - ein neuer Weg zur Extraktion des Kundenzufriedenheitsindex
  • Fallstudie 1: T-Mobile USA: Verringerung der Kundenabwanderung um 50

Tag 4: Sitzung 3: Wie man prädiktive Analysen für die Ursachenanalyse von Kundenunzufriedenheit nutzt:

  • Fallstudie -1: Verknüpfung von Unzufriedenheit mit Problemen - Buchhaltung, technische Fehler wie Serviceunterbrechungen, schlechter Bandbreitenservice
  • Fallstudie-2: Big Data QA-Dashboard zur Verfolgung des Kundenzufriedenheitsindex anhand verschiedener Parameter wie Anrufeskalationen, Kritikalität von Problemen, anstehende Serviceunterbrechungen usw.

4. Tag: Session-4: Big Data Dashboard für den schnellen Zugriff auf verschiedene Daten und deren Anzeige:

  • Integration der bestehenden Anwendungsplattform mit Big Data Dashboard
  • Big Data-Verwaltung
  • Fallstudie zu Big Data Dashboard: Tableau und Pentaho
  • Verwendung der Big Data-App, um ortsbezogene Werbung zu schalten
  • Tracking-System und Verwaltung

Tag 5: Sitzung 1: Wie rechtfertigt man die Big Data BI-Implementierung in einer Organisation?

  • Definition des ROI für die Big Data-Implementierung
  • Fallstudien zur Einsparung von Analystenzeit für die Sammlung und Aufbereitung von Daten - Steigerung der Produktivität
  • Fallstudien zur Umsatzsteigerung durch Kundenabwanderung
  • Umsatzsteigerung durch standortbezogene und andere gezielte Werbung
  • Ein integrierter Tabellenkalkulationsansatz zur Berechnung der ungefähren Kosten im Vergleich zu den Einnahmegewinnen/Einsparungen aus der Big Data-Implementierung.

Tag 5: Sitzung 2: Schrittweises Vorgehen bei der Ablösung eines alten Datensystems durch ein Big Data-System:

  • Verstehen des praktischen Big Data-Migrationsfahrplans
  • Welche wichtigen Informationen sind vor der Planung einer Big Data-Implementierung erforderlich?
  • Welches sind die verschiedenen Methoden zur Berechnung von Datenvolumen, -geschwindigkeit, -vielfalt und -wahrheit?
  • Wie kann man das Datenwachstum abschätzen?
  • Fallstudien in 2 Telekommunikationsunternehmen

Tag 5: Sitzung 3 & 4: Überblick über die Big Data-Anbieter und ihre Produkte. Q/A-Sitzung:

  • AccentureAlcatel-Lucent
  • Amazon - A9
  • APTEAN (ehemals CDC Software)
  • Cisco Systeme
  • Cloudera
  • Dell
  • EMC
  • GoodData Gesellschaft
  • Guavus
  • Hitachi Datensysteme
  • Hortonworks
  • Huawei
  • HP
  • IBM
  • Informatica
  • Intel
  • Jaspersoft
  • Microsoft
  • MongoDB (ehemals 10Gen)
  • MU Sigma
  • Netapp
  • Opera-Lösungen
  • Oracle
  • Pentaho
  • Platfora
  • Qliktech
  • Quantum
  • Rackspace
  • Revolution Analytik
  • Salesforce
  • SAP
  • SAS Institut
  • Sisense
  • Software AG/Terracotta
  • Soft10 Automatisierung
  • Splunk
  • Sqrrl
  • Supermicro
  • Tableau Software
  • Teradata
  • Think Big Analytik
  • Tidemark-Systeme
  • VMware (Teil von EMC)

Voraussetzungen

  • Basiswissen über Geschäftsabläufe und Datensysteme in Telecom in ihrem Bereich
  • Muss über Grundkenntnisse in SQL/Oracle oder relationalen Datenbanken verfügen
  • Grundkenntnisse in Statistik (auf Excel-Niveau)
 35 Stunden

Teilnehmerzahl



Preis je Teilnehmer

Erfahrungsberichte (2)

Kombinierte Kurse

Kaggle

14 Stunden

Accelerating Python Pandas Workflows with Modin

14 Stunden

GPU Data Science with NVIDIA RAPIDS

14 Stunden

Anaconda Ecosystem for Data Scientists

14 Stunden

Data Analysis with Redash

14 Stunden

Business Intelligence and Data Analysis with Metabase

14 Stunden

QlikView for Business Users

7 Stunden

QlikView for Developers

14 Stunden

Google Sheets for Excel Users

14 Stunden

Cognos 11

14 Stunden

IBM Cognos Analytics

14 Stunden

Alteryx Advanced

14 Stunden

Alteryx for Data Analysis

7 Stunden

Alteryx for Developers

14 Stunden

Data Preparation with Alteryx

7 Stunden

Verwandte Kategorien