
KONFERENZPROGRAMM MÄRZ
Thema: Data Management
- Dienstag
14.03. - Mittwoch
15.03.
Der Vortrag zeigt die Entwicklung der Pentaho basierten KARE Self-Service Datenplattform von der Einführung bis zum aktuellen Entwicklungsstand. Der Fokus liegt darauf, Pentaho aus Reportingsicht zu präsentieren und Dashboards für die weltweit verteilten Franchisenehmer zu zeigen. Die Dashboards wurden mit C-Tools in Kombination mit PDI entwickelt und geben Auskunft über Umsatz und Kosten im Self-Service und dienen sogar für die Planung von KARE-Shops.
ÜBER PENTAHO
Pentaho ist die perfekte Datenplattform, die BI-, Big Data- und DHW-Verantwortlichen mächtige Tools zur Datenintegration, -aufbereitung und -analyse zur Verfügung stellt. Grafische ETL-Werkzeuge runden das Gesamtpaket als komplette Analytics-Suite ab.
Habt Ihr diese Erfahrungen auch gemacht?
The Good: Wir starten mit ambitionierten Vorsätzen, um ein bestehendes Analytics System auf ein neues Level zu heben. Modernisierung heißt hier das Zauberwort. Durch ein modernes Data Management erreichen wir, dass mehr Daten in Echtzeit verarbeitet und bereitstellt werden können. Dank einem passgenauen Datenmodell, integrieren wir schnell und automatisiert neue Datenquellen in unsere Anwendung. Mit dem modernen Frontend Tool, beglücken wir Data Consumer mit neuen Features, damit sie ihre Daten endlich effektiv nutzen können. Wir zielen auf viele Verbesserungen ab.
The Bad: Dumm nur, wenn unsere Ambitionen und Vorsätze durch die Realität auf eine harte Probe gestellt werden.
The Ugly: Wir zeigen anhand von mehreren Beispielen auf, was in unseren Modernisierungsvorhaben nicht auf Anhieb funktioniert hat. Mit diesen Beispielen zeigen wir reale Fälle auf, die wir als Berater:innen in unseren Projekten selbst miterlebt haben. Wir zeigen, dass Pauschalaussagen gefährlich sind und das jedes Vorhaben von individuellen Gegebenheiten geprägt sind, für die es keine Musterlösungen gibt. Und wir sind überzeugt: Modernisierungen lohnen sich (trotzdem)!
In this presentation, Thomas Mager, Head of Data and Analytics Platforms at PartnerRe, will talk you through their core data management architecture. It will help you understand how he and his team placed data virtualization in the overall architecture framework within their core data management architecture to deliver value faster. This foundation for an adaptive environment is based on the data integration platform, Data Virtuality, in combination with the highly scalable cloud compute, Snowflake.
The focus of this presentation will be on three key areas that could be enabled with this architecture:
- Connecting components and data delivery styles (data virtualization, ELT) in one single platform
- Building a core business logic layer for data-intense IT-driven applications
- Developing Data Citizens
Über Data Virtuality:
Data Virtuality, the sole provider of advanced data virtualization, provides data teams the flexibility and agility to meet the increasing business requirements. By uniquely combining data virtualization and SQL-based ETL/ELT, financial services can enable modern architecture including hybrid- and multi-cloud, data fabric, and data mesh. The solution is deployable on-premises and in SaaS. Organizations benefit from 5-times faster time-to-market, and total cost savings of up to 80%. The international customer base includes Crédit Agricole, BSH, and PGGM.
Thomas is Head of Data and Analytics Platforms at PartnerRe, a global multi-line reinsurance company. He joined PartnerRe in 2008 after having worked in data management functions at Credit Suisse and UBS. With his team, he has built a global data platform that supports all key business areas. Building an agile truly cloud-native environment is the key driver for him and his team.
Dieser Vortrag gibt einen Überblick über moderne Datenarchitekturen, einschließlich Data Fabric und Data Mesh. Diese Ansätze ermöglichen Unternehmen eine flexible, skalierbare und widerstandsfähige Datenverwaltung. Wir diskutieren Vorteile, Herausforderungen und Integrationsoptionen, um den aktuellen und zukünftigen Herausforderungen ihres Unternehmens gerecht zu werden.
Dr. Hebach kam 2014 als Senior Solutions Architect zu Informatica. Er unterstützt Kunden und Partnerunternehmen bei der Konzeption von Datenmanagementlösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Vor seiner Tätigkeit bei Informatica war Dr. Hebach in den Bereichen IT-Management, Unternehmensarchitektur und Beratung tätig.
In vielen Data Vault Projekten wird Code zur Befüllung der Staging-Tabellen sowie der RawVault generiert. Dies ist aber nur ein kleines Puzzlestück im Rahmen einer DWH-Automatisierung. Der Vortrag zeigt anhand eines konkreten Projektes, wie die DWH-Automatisierung auf alle Projektschritte angewendet wurde. Dies betrifft:
• Struktur BusinessVault / Datamarts sowie Beladung mit fachlicher Logik
• Test von Änderungen und Bereitstellung aller daraus resultierenden Datenabweichungen als Entscheidungsgrundlage für eine fachliche Abnahme
• Deployment mit Hilfe risikofreier Methoden
• Erstellen aller für den produktiven Betrieb notwendigen Skripte und Prozesssteuerungsinformationen
• komplettes Lineage auf Feld-, Tabellen- und Prozessebene
• technische und fachliche Data Quality Checks
• DSGVO Konformität
• Datenmodellmigrationen technisch (Tabellenstrukturen) und fachlich (Dateninhalte in kompletter fachlicher Historie)
Da sämtliche technischen Umsetzungen im Projekt vollständig automatisiert abliefen, konnte die Projektarbeit sich auf die Klärung fachlicher Fragestellungen konzentrieren. Die Erfahrungen und best-practices sollen in diesem Vortrag geteilt werden.
Seit über zwei Jahrzehnten ist Jörg Stahnke DWH Architekt bei der PPI AG und erstellt Data Warehouses. Bei der Beratung von PPI-Kunden hat er umfangreiche Erfahrungen gesammelt. Seit seinem ersten Data Warehouse mit Codegeneratoren im Jahr 1997 ließ ihn der Automatisierungsgedanke nicht mehr los. Deshalb hat ihn auch die Automatisierung und Standardisierung von Data Vault überzeugt. Neben Data Vault setzt er Rule Engines und weitere Features ein, um die gesamte Datenbereitstellung im DWH zu automatisieren.
Ambitionierte und zukunftsorientierte Unternehmen arbeiten möglichst „datengesteuert“ und verlassen sich auf detaillierte Einblicke höchster Qualität als Grundlage fundierter Entscheidungen. Unsere „neue Normalität“, der permanente, unberechenbare Wandel, stellt Unternehmen vor beispiellose Herausforderungen. Daraus entstehen neue Chancen nicht nur für den Fortbestand dieser Unternehmen, sondern für ihren Erfolg mit Datenanalyse in Echtzeit. Erfahren Sie in diesem Vortrag mehr darüber, wie führende, datengesteuerte Unternehmen
• die „neue Normalität“ annehmen und eine Kultur entwickeln können, unerwartete Veränderungen datengestützt zu meistern;
• ihre Vision und Ziele zur Verbesserung ihrer Geschäftsprozesse mit Hilfe von Daten schneller erreichen und
• eine Grundlage für die Bereitstellung zeitnaher, relevanter, vertrauenswürdiger und gesetzeskonformer Daten in großem Umfang schaffen können.
Robert Gorsuch verfügt über mehr als 30 Jahre Erfahrung in den Bereichen IT-Architektur, Design und der Implementierung von Daten-Management, -Integration und – Daten-Analyse Softwarelösungen. Er hat mehrere Zertifizierungen in Warenwirtschaftsapplikationen, Kundenmanagementsystemen und diversen SaaS Anwendungen mit langjährigen Erfahrungen in Branchen wie Produktion , Finanz-, Gesundheits- und Transportwesen. Sein Arbeitsschwerpunkt und seine Leidenschaft als Vertriebsingenieur bei Actian sind die Automatisierung und Optimierung von Geschäftsprozessen in Unternehmen.
Vortrag Teilen
Die Qlik Cloud Data Integration Plattform ist eine Data Integration Fabric mit deren Hilfe Data Engineers nicht nur Daten aus Quellsystemen in real-time in andere Zielsysteme streamen können, sondern diese auch transformieren, bereinigen und für Anwendungen und Business-User analytics-ready zur Verfügung stellen können - und das alles über automatisierte und orchestrierte Data Pipelines in einer zentralen Oberfläche.
Folgende Data Services sind zentrale Bausteine der Qlik Cloud Data Integration Plattform:
• Data Movement Service - replizieren Sie Daten nahezu in Echtzeit von lokalen (on-premise) und Cloud Datenquellen in die Qlik Cloud oder andere Cloudlösungen.
• Application Automation - erstellen Sie problemlos Workflows mit einem visuellen Editor ohne Code, der Ihre Daten- und Analyseprozesse rationalisiert und optimiert.
• Katalogisierung - als grundlegende Services in der Qlik Cloud helfen die Katalog- und Lineage-Funktionen Kunden, den Lebenszyklus von Daten vollständig zu verstehen und aktiv zu überwachen, unabhängig von der Quelle oder der Analyseumgebung des Endanwenders.
Profitieren auch Sie von dieser neuen Art der Datenbereitstellung. Lernen Sie die Vorteile in dieser Session kennen.
Seit ca. 20 Jahren ist Christian Götz im Bereich Business Intelligence sowohl national als auch international erfolgreich tätig. Unmittelbar, bevor er zu Qlik kam, wechselte er in den Bereich End-to-End Big Data Analytics. Zurzeit beschäftigt er sich hauptsächlich mit der Multi-Cloud-Strategie von Qlik.
Vortrag Teilen
Unter dem Titel "Unleash the value of SAP data in Databricks" wird Julius von Ketelhodt eine eigenentwickelte Lösung zur direkten Anbindung von SAP an Databricks präsentieren, die kein Third-Party ETL Werkzeug erfordert.
Mit nur ein paar Zeilen Notebook-Code können Data Scientists damit unabhängig und schnell auf Daten aus SAP zugreifen. Diese Lösung bietet Funktionen, wie das Mapping von Datentypen auf Databricks Delta-Format, nutzt modernste native SAP-Schnittstellen im Hintergrund und ist auf hohe Stabilität, Skalierung, Datenvolumen und Frequenzen ausgelegt.
Die Präsentation beinhaltet eine kurze theoretische Einführung und eine Live-Demo der sogenannten "Direct Data Extraction" (DDE) Lösung.
Julius von Ketelhodt hat Geophysik und Geoinformationswissenschaften an den Universitäten Witwatersrand (Südafrika) und Freiberg studiert und in Geophysik und Seismologie promoviert.
Seit mehreren Jahren beschäftigt er sich in Data & Analytics Projekten von Großkunden unterschiedlichster Industrien explizit mit der Fragestellung, wie betrachtungsrelevante Daten aus verschiedenen SAP Quellsystemen in Cloud Data Plattformen führender Hersteller integriert werden können. Zudem hat er das Konzept des Common-Data-Models (CMD) in Zusammenarbeit mit SAP, Microsoft und Adobe aus der Taufe gehoben und weiterentwickelt.
Beim Data & AI Beratungshaus initions ist er seit knapp 4 Jahren als BI-Consultant tätig und zeichnet gleichzeitig als Product Lead im hauseigenen SAP Product Team verantwortlich.
Julius von Ketelhodt ist verheiratet und lebt mit seiner Frau und seinen zwei Kindern in Hamburg.
Erfahren Sie im Praxisbericht von Oliver Scheffert, General Manager von APARAVI, wie Organisationen durch nachhaltiges Management ihrer unstrukturierten Daten erfolgreich werden. Das Ziel ist „lean & clean data“, also ein kontinuierlich bereinigter, transparenter Datenbestand:
-Verdienen Sie Geld mit bislang ungenutzten Datenpotentialen, z.B. um KI/ML anzulernen
-Verringern Sie den Energieverbrauch & CO2-Ausstoss - und dokumentieren Sie diese Ergebnisse schnell, transparent & lückenlos in ESG-Reports
-Vermeiden Sie Dark Data Risiken z.B. durch unerkannte personenbezogene Daten oder Geschäftsgeheimnisse
-Verbessern Sie die Prävention von Data Breaches durch Dateninventarisierung & bereinigen Sie 10x schneller kompromittierte Datenbestände
Von Data Profiling über Data Governance zu echter Daten-Wertschöpfung: Die APARAVI Plattform hilft Unternehmen, all ihre unstrukturierten Daten zu finden, zu verstehen, zu bereinigen und sicher nutzbar zu machen. Egal, ob On-Premises, Hybrid, Cloud – auf klassischen File-Servern, Sharepoint und OneDrive.
Oliver Scheffert ist seit Oktober 2022 General Manager bei APARAVI Software Europe GmbH und zählt als kreativer Kopf zu den erfolgreichsten Managern, Mentoren und Rednern Bayerns. Der Karriereweg dieser vielseitigen Persönlichkeit begann 2001 bei der Raiffeisenbank in Rosenheim, bei der Oliver seine Ausbildung zum Bankkaufmann sowie parallel zum Netzwerktechniker absolvierte. Schon damals galt sein Interesse wirtschaftlichen Zusammenhängen und Technologie! Von 2003 bis 2007 studierte er Internationale Wirtschaft und Management an der FH Kufstein, AT. Von 2009 bis 2014 konnte er zudem im Rahmen eines Doktoratsprogramms der FH Kufstein & Universität von Latvia, LV seine Expertisen in Business Administration vertiefen und als Dozent an verschiedenen Bildungseinrichtungen sowie durch Veröffentlichungen wissenschaftlicher Vorträge und Artikel diese unter Beweis stellen.
Im Laufe seiner Karriere bewies sich Oliver Scheffert in unterschiedlichsten Rollen und Führungspositionen. Dadurch wurde er Experte in diversen Disziplinen und entwickelte sich gleichzeitig zum Allrounder rund um Technologie, Marketing, Business Development sowie Vertrieb. In seinen fast 13 Jahre bei Microsoft etablierte er neue technische Communities, verantwortete das Microsoft Startup Business in Deutschland, Österreich, Schweiz und den Niederlanden und stand mit Steve Ballmer und Satya Nadella auf der Bühne. Während seiner letzten Station als Bereichsleiter Partner Lead – ISV & Innovation/Transformation entwickelte er das Cloud-Geschäft mit unabhängigen Softwareanbietern (ISVs) in Deutschland binnen 36 Monaten auf einen jährlichen Umsatz von über einer Milliarde EUR. Aufgrund seiner vorbildlichen Leistungen wurde Oliver von Microsoft über die Jahre mit unterschiedlichen Auszeichnungen gewürdigt. Dazu zählen mitunter der Circle of Excellence Gold Award (2014), der Customer and Partner Experience Champions Award (2015) sowie der Circle of Excellence Platinum Award (2017).
Vortrag Teilen
Business Intelligence und die intelligente Nutzung von Daten sind klare Wettbewerbsvorteil und trotz aller Entwicklung der letzten Jahre in vielen Unternehmen noch nicht oder nur rudimentär etabliert. Eine der Hauptherausforderungen hierbei ist es, die passenden Mitarbeiter zu finden, zu halten und dauerhaft zu motivieren. Dieser Vortrag soll aufzeigen, wie durch die Wahl einer passenden Infrastruktur diese Herausforderung gemeistert werden kann und man schnell und effizient die entscheidenden Schritte zur Implementierung einer stabilen Datenplattform geht.
Vortrag Teilen