
KONFERENZPROGRAMM MÄRZ
Track: DATA MANAGEMENT
- Dienstag
14.03.
Der Vortrag zeigt die Entwicklung der Pentaho basierten KARE Self-Service Datenplattform von der Einführung bis zum aktuellen Entwicklungsstand. Der Fokus liegt darauf, Pentaho aus Reportingsicht zu präsentieren und Dashboards für die weltweit verteilten Franchisenehmer zu zeigen. Die Dashboards wurden mit C-Tools in Kombination mit PDI entwickelt und geben Auskunft über Umsatz und Kosten im Self-Service und dienen sogar für die Planung von KARE-Shops.
ÜBER PENTAHO
Pentaho ist die perfekte Datenplattform, die BI-, Big Data- und DHW-Verantwortlichen mächtige Tools zur Datenintegration, -aufbereitung und -analyse zur Verfügung stellt. Grafische ETL-Werkzeuge runden das Gesamtpaket als komplette Analytics-Suite ab.
Habt Ihr diese Erfahrungen auch gemacht?
The Good: Wir starten mit ambitionierten Vorsätzen, um ein bestehendes Analytics System auf ein neues Level zu heben. Modernisierung heißt hier das Zauberwort. Durch ein modernes Data Management erreichen wir, dass mehr Daten in Echtzeit verarbeitet und bereitstellt werden können. Dank einem passgenauen Datenmodell, integrieren wir schnell und automatisiert neue Datenquellen in unsere Anwendung. Mit dem modernen Frontend Tool, beglücken wir Data Consumer mit neuen Features, damit sie ihre Daten endlich effektiv nutzen können. Wir zielen auf viele Verbesserungen ab.
The Bad: Dumm nur, wenn unsere Ambitionen und Vorsätze durch die Realität auf eine harte Probe gestellt werden.
The Ugly: Wir zeigen anhand von mehreren Beispielen auf, was in unseren Modernisierungsvorhaben nicht auf Anhieb funktioniert hat. Mit diesen Beispielen zeigen wir reale Fälle auf, die wir als Berater:innen in unseren Projekten selbst miterlebt haben. Wir zeigen, dass Pauschalaussagen gefährlich sind und das jedes Vorhaben von individuellen Gegebenheiten geprägt sind, für die es keine Musterlösungen gibt. Und wir sind überzeugt: Modernisierungen lohnen sich (trotzdem)!
In this presentation, Thomas Mager, Head of Data and Analytics Platforms at PartnerRe, will talk you through their core data management architecture. It will help you understand how he and his team placed data virtualization in the overall architecture framework within their core data management architecture to deliver value faster. This foundation for an adaptive environment is based on the data integration platform, Data Virtuality, in combination with the highly scalable cloud compute, Snowflake.
The focus of this presentation will be on three key areas that could be enabled with this architecture:
- Connecting components and data delivery styles (data virtualization, ELT) in one single platform
- Building a core business logic layer for data-intense IT-driven applications
- Developing Data Citizens
Über Data Virtuality:
Data Virtuality, the sole provider of advanced data virtualization, provides data teams the flexibility and agility to meet the increasing business requirements. By uniquely combining data virtualization and SQL-based ETL/ELT, financial services can enable modern architecture including hybrid- and multi-cloud, data fabric, and data mesh. The solution is deployable on-premises and in SaaS. Organizations benefit from 5-times faster time-to-market, and total cost savings of up to 80%. The international customer base includes Crédit Agricole, BSH, and PGGM.
Thomas is Head of Data and Analytics Platforms at PartnerRe, a global multi-line reinsurance company. He joined PartnerRe in 2008 after having worked in data management functions at Credit Suisse and UBS. With his team, he has built a global data platform that supports all key business areas. Building an agile truly cloud-native environment is the key driver for him and his team.
In vielen Data Vault Projekten wird Code zur Befüllung der Staging-Tabellen sowie der RawVault generiert. Dies ist aber nur ein kleines Puzzlestück im Rahmen einer DWH-Automatisierung. Der Vortrag zeigt anhand eines konkreten Projektes, wie die DWH-Automatisierung auf alle Projektschritte angewendet wurde. Dies betrifft:
• Struktur BusinessVault / Datamarts sowie Beladung mit fachlicher Logik
• Test von Änderungen und Bereitstellung aller daraus resultierenden Datenabweichungen als Entscheidungsgrundlage für eine fachliche Abnahme
• Deployment mit Hilfe risikofreier Methoden
• Erstellen aller für den produktiven Betrieb notwendigen Skripte und Prozesssteuerungsinformationen
• komplettes Lineage auf Feld-, Tabellen- und Prozessebene
• technische und fachliche Data Quality Checks
• DSGVO Konformität
• Datenmodellmigrationen technisch (Tabellenstrukturen) und fachlich (Dateninhalte in kompletter fachlicher Historie)
Da sämtliche technischen Umsetzungen im Projekt vollständig automatisiert abliefen, konnte die Projektarbeit sich auf die Klärung fachlicher Fragestellungen konzentrieren. Die Erfahrungen und best-practices sollen in diesem Vortrag geteilt werden.
Seit über zwei Jahrzehnten ist Jörg Stahnke DWH Architekt bei der PPI AG und erstellt Data Warehouses. Bei der Beratung von PPI-Kunden hat er umfangreiche Erfahrungen gesammelt. Seit seinem ersten Data Warehouse mit Codegeneratoren im Jahr 1997 ließ ihn der Automatisierungsgedanke nicht mehr los. Deshalb hat ihn auch die Automatisierung und Standardisierung von Data Vault überzeugt. Neben Data Vault setzt er Rule Engines und weitere Features ein, um die gesamte Datenbereitstellung im DWH zu automatisieren.
Ambitionierte und zukunftsorientierte Unternehmen arbeiten möglichst „datengesteuert“ und verlassen sich auf detaillierte Einblicke höchster Qualität als Grundlage fundierter Entscheidungen. Unsere „neue Normalität“, der permanente, unberechenbare Wandel, stellt Unternehmen vor beispiellose Herausforderungen. Daraus entstehen neue Chancen nicht nur für den Fortbestand dieser Unternehmen, sondern für ihren Erfolg mit Datenanalyse in Echtzeit. Erfahren Sie in diesem Vortrag mehr darüber, wie führende, datengesteuerte Unternehmen
• die „neue Normalität“ annehmen und eine Kultur entwickeln können, unerwartete Veränderungen datengestützt zu meistern;
• ihre Vision und Ziele zur Verbesserung ihrer Geschäftsprozesse mit Hilfe von Daten schneller erreichen und
• eine Grundlage für die Bereitstellung zeitnaher, relevanter, vertrauenswürdiger und gesetzeskonformer Daten in großem Umfang schaffen können.
Robert Gorsuch verfügt über mehr als 30 Jahre Erfahrung in den Bereichen IT-Architektur, Design und der Implementierung von Daten-Management, -Integration und – Daten-Analyse Softwarelösungen. Er hat mehrere Zertifizierungen in Warenwirtschaftsapplikationen, Kundenmanagementsystemen und diversen SaaS Anwendungen mit langjährigen Erfahrungen in Branchen wie Produktion , Finanz-, Gesundheits- und Transportwesen. Sein Arbeitsschwerpunkt und seine Leidenschaft als Vertriebsingenieur bei Actian sind die Automatisierung und Optimierung von Geschäftsprozessen in Unternehmen.
Vortrag Teilen