
KONFERENZPROGRAMM MÄRZ
- Dienstag
14.03. - Mittwoch
15.03.
This session looks at the emergence of Data Observability and looks at what it is about, what Data Observability can observe, vendors in the market and examples of what vendors are capturing about data. The presentation will also look at Data Observability requirements, the strengths and weaknesses of current offerings, where the gaps are and tool complexity (overlaps, inability to share metadata) from a customer perspective. It will explore the link between Data Observability, data catalogs, data intelligence and the move towards augmented data governance and discuss how Data Observability and data intelligence can be used in a real-time automated Data Governance Action Framework to govern data across multiple tools and data stores in next generation Data governance.
- What’s happening with data in business today and why there may be problems ahead
- Requirements to avoid problems and strengthen data governance
- What is data observability and what is it trying to help you do?
- What is it that can be observed?
- The data observability process – what are the steps and how does it work?
- Vendors in the market and what they are capturing
- The link between data observability and data catalogs
- Data observability, prescriptive analytics, and real-time automated data governance
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Der Vortrag zeigt die Entwicklung der Pentaho basierten KARE Self-Service Datenplattform von der Einführung bis zum aktuellen Entwicklungsstand. Der Fokus liegt darauf, Pentaho aus Reportingsicht zu präsentieren und Dashboards für die weltweit verteilten Franchisenehmer zu zeigen. Die Dashboards wurden mit C-Tools in Kombination mit PDI entwickelt und geben Auskunft über Umsatz und Kosten im Self-Service und dienen sogar für die Planung von KARE-Shops.
ÜBER PENTAHO
Pentaho ist die perfekte Datenplattform, die BI-, Big Data- und DHW-Verantwortlichen mächtige Tools zur Datenintegration, -aufbereitung und -analyse zur Verfügung stellt. Grafische ETL-Werkzeuge runden das Gesamtpaket als komplette Analytics-Suite ab.
Die Entwicklung von cloud-nativen Microservices hat uns vor viele neue Herausforderungen gestellt. Eine der schwierigsten ist es, zuverlässige Microservice-Integrationen und deren Datenaustauschmuster zu entwickeln. In diesem Vortrag werde ich meine 10-jährige Erfahrung mit der Entwicklung von Microservices und Anwendungslaufzeitplattformen bei einigen der größten europäischen Unternehmen mit euch teilen.
Habt Ihr diese Erfahrungen auch gemacht?
The Good: Wir starten mit ambitionierten Vorsätzen, um ein bestehendes Analytics System auf ein neues Level zu heben. Modernisierung heißt hier das Zauberwort. Durch ein modernes Data Management erreichen wir, dass mehr Daten in Echtzeit verarbeitet und bereitstellt werden können. Dank einem passgenauen Datenmodell, integrieren wir schnell und automatisiert neue Datenquellen in unsere Anwendung. Mit dem modernen Frontend Tool, beglücken wir Data Consumer mit neuen Features, damit sie ihre Daten endlich effektiv nutzen können. Wir zielen auf viele Verbesserungen ab.
The Bad: Dumm nur, wenn unsere Ambitionen und Vorsätze durch die Realität auf eine harte Probe gestellt werden.
The Ugly: Wir zeigen anhand von mehreren Beispielen auf, was in unseren Modernisierungsvorhaben nicht auf Anhieb funktioniert hat. Mit diesen Beispielen zeigen wir reale Fälle auf, die wir als Berater:innen in unseren Projekten selbst miterlebt haben. Wir zeigen, dass Pauschalaussagen gefährlich sind und das jedes Vorhaben von individuellen Gegebenheiten geprägt sind, für die es keine Musterlösungen gibt. Und wir sind überzeugt: Modernisierungen lohnen sich (trotzdem)!
In dem Vortrag beleuchten wir die aktuell vorherrschenden Paradigmen im Bereich Data & Analytics, mit dem Schwerpunkt auf Data Mesh. An einem Umsetzungsbeispiel wird erklärt, wie wir ein Data Mesh aufgebaut haben und wie uns dabei Snowflake mit seinen Technologien unterstützten konnte.
Daniel Raß arbeitet seit 2011 bei saracus consulting in Münster. In seinen Rollen als Consultant und Senior Consultant hat er in einer Vielzahl an Projekten verschiedenste Architekturen in on-premises und Cloud Data Warehouses mitgestaltet. Als Bereichsleiter für Data Warehousing und ETL Systeme ist er bei saracus consulting seit 2020 für die Weiterentwicklung von Themen wie Data Mesh, Cloud Data Warehousing, Snowflake und moderne ETL und ELT Technologien zuständig.
In this presentation, Thomas Mager, Head of Data and Analytics Platforms at PartnerRe, will talk you through their core data management architecture. It will help you understand how he and his team placed data virtualization in the overall architecture framework within their core data management architecture to deliver value faster. This foundation for an adaptive environment is based on the data integration platform, Data Virtuality, in combination with the highly scalable cloud compute, Snowflake.
The focus of this presentation will be on three key areas that could be enabled with this architecture:
- Connecting components and data delivery styles (data virtualization, ELT) in one single platform
- Building a core business logic layer for data-intense IT-driven applications
- Developing Data Citizens
Über Data Virtuality:
Data Virtuality, the sole provider of advanced data virtualization, provides data teams the flexibility and agility to meet the increasing business requirements. By uniquely combining data virtualization and SQL-based ETL/ELT, financial services can enable modern architecture including hybrid- and multi-cloud, data fabric, and data mesh. The solution is deployable on-premises and in SaaS. Organizations benefit from 5-times faster time-to-market, and total cost savings of up to 80%. The international customer base includes Crédit Agricole, BSH, and PGGM.
Thomas is Head of Data and Analytics Platforms at PartnerRe, a global multi-line reinsurance company. He joined PartnerRe in 2008 after having worked in data management functions at Credit Suisse and UBS. With his team, he has built a global data platform that supports all key business areas. Building an agile truly cloud-native environment is the key driver for him and his team.
Dieser Vortrag gibt einen Überblick über moderne Datenarchitekturen, einschließlich Data Fabric und Data Mesh. Diese Ansätze ermöglichen Unternehmen eine flexible, skalierbare und widerstandsfähige Datenverwaltung. Wir diskutieren Vorteile, Herausforderungen und Integrationsoptionen, um den aktuellen und zukünftigen Herausforderungen ihres Unternehmens gerecht zu werden.
Dr. Hebach kam 2014 als Senior Solutions Architect zu Informatica. Er unterstützt Kunden und Partnerunternehmen bei der Konzeption von Datenmanagementlösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Vor seiner Tätigkeit bei Informatica war Dr. Hebach in den Bereichen IT-Management, Unternehmensarchitektur und Beratung tätig.
In vielen Data Vault Projekten wird Code zur Befüllung der Staging-Tabellen sowie der RawVault generiert. Dies ist aber nur ein kleines Puzzlestück im Rahmen einer DWH-Automatisierung. Der Vortrag zeigt anhand eines konkreten Projektes, wie die DWH-Automatisierung auf alle Projektschritte angewendet wurde. Dies betrifft:
• Struktur BusinessVault / Datamarts sowie Beladung mit fachlicher Logik
• Test von Änderungen und Bereitstellung aller daraus resultierenden Datenabweichungen als Entscheidungsgrundlage für eine fachliche Abnahme
• Deployment mit Hilfe risikofreier Methoden
• Erstellen aller für den produktiven Betrieb notwendigen Skripte und Prozesssteuerungsinformationen
• komplettes Lineage auf Feld-, Tabellen- und Prozessebene
• technische und fachliche Data Quality Checks
• DSGVO Konformität
• Datenmodellmigrationen technisch (Tabellenstrukturen) und fachlich (Dateninhalte in kompletter fachlicher Historie)
Da sämtliche technischen Umsetzungen im Projekt vollständig automatisiert abliefen, konnte die Projektarbeit sich auf die Klärung fachlicher Fragestellungen konzentrieren. Die Erfahrungen und best-practices sollen in diesem Vortrag geteilt werden.
Seit über zwei Jahrzehnten ist Jörg Stahnke DWH Architekt bei der PPI AG und erstellt Data Warehouses. Bei der Beratung von PPI-Kunden hat er umfangreiche Erfahrungen gesammelt. Seit seinem ersten Data Warehouse mit Codegeneratoren im Jahr 1997 ließ ihn der Automatisierungsgedanke nicht mehr los. Deshalb hat ihn auch die Automatisierung und Standardisierung von Data Vault überzeugt. Neben Data Vault setzt er Rule Engines und weitere Features ein, um die gesamte Datenbereitstellung im DWH zu automatisieren.
Hybride Cloud-Strukturen setzen sich immer mehr durch. Der Grund: Unternehmen können dadurch die Performanz ihrer IT steigern, bestehende On-Prem Komponenten temporär oder dauerhaft weiter verwenden und Flexibilität gewinnen. Die Komplexität solcher Umgebungen ist allerdings nicht zu unterschätzen. Organisationen müssen sowohl gewaltige Datenmengen als auch eine Wachsende Anzahl neuer, heterogener Datenquellen unter einen Hut bekommen und die Governance robust implementieren. Eine Lösung bietet eine moderne Data-Fabric Architektur.
In diesem Vortrag erfahren Sie:
• Warum eine (Cloud) Data-Fabric komplexe Multi-Cloud-Umgebungen stark vereinfacht
• Wie Sie Ihre Dateninfrastruktur flexibel modernisieren und ohne Downtime in die Cloud migrieren
• Wie Sie Daten-Silos – sei es in Clouds oder On-Prem – überwinden und alle Daten für das Business nutzbar machen
Leendert Kollmer ist als Senior Sales Engineer bei Denodo Technologies in der Region Central Europe tätig und Ansprechpartner für Daten-Architekturen und komplexe technische Fragestellung. Hierbei begleitet er Unternehmen aus unterschiedlichen Branchen bei der Einführung der Denodo Plattform im Rahmen von komplexen Datenmanagement-Projekten.
Durch seine langjährige Zusammenarbeit mit technischen Projektteams verfügt Leendert Kollmer über detaillierte Kenntnisse in Bezug auf die Umsetzung von datenbasierten Lösungen für unterschiedlichste Anwendungsfälle, u.a. aus den Bereichen BI & Analytics, Data Governance, Big Data und Datenverwaltung.
Vortrag Teilen
Ambitionierte und zukunftsorientierte Unternehmen arbeiten möglichst „datengesteuert“ und verlassen sich auf detaillierte Einblicke höchster Qualität als Grundlage fundierter Entscheidungen. Unsere „neue Normalität“, der permanente, unberechenbare Wandel, stellt Unternehmen vor beispiellose Herausforderungen. Daraus entstehen neue Chancen nicht nur für den Fortbestand dieser Unternehmen, sondern für ihren Erfolg mit Datenanalyse in Echtzeit. Erfahren Sie in diesem Vortrag mehr darüber, wie führende, datengesteuerte Unternehmen
• die „neue Normalität“ annehmen und eine Kultur entwickeln können, unerwartete Veränderungen datengestützt zu meistern;
• ihre Vision und Ziele zur Verbesserung ihrer Geschäftsprozesse mit Hilfe von Daten schneller erreichen und
• eine Grundlage für die Bereitstellung zeitnaher, relevanter, vertrauenswürdiger und gesetzeskonformer Daten in großem Umfang schaffen können.
Robert Gorsuch verfügt über mehr als 30 Jahre Erfahrung in den Bereichen IT-Architektur, Design und der Implementierung von Daten-Management, -Integration und – Daten-Analyse Softwarelösungen. Er hat mehrere Zertifizierungen in Warenwirtschaftsapplikationen, Kundenmanagementsystemen und diversen SaaS Anwendungen mit langjährigen Erfahrungen in Branchen wie Produktion , Finanz-, Gesundheits- und Transportwesen. Sein Arbeitsschwerpunkt und seine Leidenschaft als Vertriebsingenieur bei Actian sind die Automatisierung und Optimierung von Geschäftsprozessen in Unternehmen.
Vortrag Teilen
In this session, we will dive into the steps Business Developers and Strategists, together with Solution Architects, should take when planning a new business process, or a digital service, whether a mobile application or a browser-based interface.
Mika Haikonen, Pre-Sales Architect at Frends, will unlock the secret ingredients of successful service digitalization:
- How do you evaluate where your organization stands in terms of integrations and process automation?
- How can you enable best-of-breed development?
- What elements should you have to build a modern, resilient Solution Architecture for digital services?
(Will be held in English)
For a shorter presentation segment, Jan Steinberger, Region Manager for DACH, will introduce the capabilities of a modern iPaaS Integration Platform as a Service on the example of Frends iPaaS. He will talk about how an iPaaS can be one of the secret ingredients to digital success. (Will be held in German)
Mika is a Digital Transformation, Business Processes & Project leader with over 20 years of experience in international ICT and Process Development in global organizations.
In his role as a Pre-Sales architect, Mika works in close cooperation with clients, looking for solutions to integration challenges for businesses of all sizes and industries.
By nature, Mika is a curious generalist. He is especially interested in Services, Business Processes, Data & Information, and how technology can be used to support business growth and digitalization.
Jan is an experienced Sales Leader with deep knowledge of the iPaaS market and its business challenges.
In his role as Region Sales Manager, Jan works with his team in the DACH region to understand and adapt to the needs of the industry to support them in their Digital Transformation challenges.
In particular, Jan is interested in the holistic tasks associated with a company's Digital Transformation processes and is passionate about the idea of a best-of-breed strategy enabled by an iPaaS platform.
Was sind die Learnings aus einem Projekt dieser Größenordnung? Welche Rolle spielen die Menschen und die Organisation? Begleiten Sie mich auf einer Reise durch die Implementierung einer zentralen Datenplattform und erfahren Sie, wie wir agile Projektmethoden nutzen, um für die User das bestmögliche Ergebnis zu erarbeiten.
Stefanie Kostorz ist Senior Project Managerin und auf Finanzprojekte spezialisiert. Ursprünglich als Controllerin tätig, entwickelte sie ein ausgeprägtes Verständnis für Geschäftsanforderungen und die Fähigkeit, diese in Datenanforderungen zu übersetzen. Sie ist an der Entwicklung einer völlig neuen Datenanalyselösung für die CHRIST Group beteiligt. Ihr Fokus liegt darauf, die digitale Transformation voranzutreiben. Wer gerne personalisierte oder handgefertigte Geschenke sucht, wird in ihrem eigenen Onlineshop fündig. Mit ihrer Familie und Rauhaardackel Lumpi lebt sie in Menden (Sauerland).
Die Qlik Cloud Data Integration Plattform ist eine Data Integration Fabric mit deren Hilfe Data Engineers nicht nur Daten aus Quellsystemen in real-time in andere Zielsysteme streamen können, sondern diese auch transformieren, bereinigen und für Anwendungen und Business-User analytics-ready zur Verfügung stellen können - und das alles über automatisierte und orchestrierte Data Pipelines in einer zentralen Oberfläche.
Folgende Data Services sind zentrale Bausteine der Qlik Cloud Data Integration Plattform:
• Data Movement Service - replizieren Sie Daten nahezu in Echtzeit von lokalen (on-premise) und Cloud Datenquellen in die Qlik Cloud oder andere Cloudlösungen.
• Application Automation - erstellen Sie problemlos Workflows mit einem visuellen Editor ohne Code, der Ihre Daten- und Analyseprozesse rationalisiert und optimiert.
• Katalogisierung - als grundlegende Services in der Qlik Cloud helfen die Katalog- und Lineage-Funktionen Kunden, den Lebenszyklus von Daten vollständig zu verstehen und aktiv zu überwachen, unabhängig von der Quelle oder der Analyseumgebung des Endanwenders.
Profitieren auch Sie von dieser neuen Art der Datenbereitstellung. Lernen Sie die Vorteile in dieser Session kennen.
Seit ca. 20 Jahren ist Christian Götz im Bereich Business Intelligence sowohl national als auch international erfolgreich tätig. Unmittelbar, bevor er zu Qlik kam, wechselte er in den Bereich End-to-End Big Data Analytics. Zurzeit beschäftigt er sich hauptsächlich mit der Multi-Cloud-Strategie von Qlik.
Vortrag Teilen
Organizations today are collecting more data than ever and depending on the IT architecture, it can live anywhere. With executives pushing to move to cloud and reimagine existing processes, it can be difficult for teams to answer the call and integrate data from all of their mission-critical systems. And, even if you can find a way to integrate the data, how do you know that data can be trusted and accurately represent what is happening in real-time?
Join the session to learn how to expand existing uses for data that already exists in your enterprise through a streaming first lens.
The technology we depend on today provides the knowledge and insights for our future”. Charles has a career spanning more than 30 years in the IT working for several companies and in various roles as support engineer, trainer, consultant and currently as a senior sales engineer at Precisely. Since a young age Charles was, and still is, highly interested in state-of-the-art technology in many different areas inside and outside the IT. With a strong background in programming, operating systems, networking, database technology and distributed computing he has worked on many data migration and modernization projects.
Vortrag Teilen
Unter dem Titel "Unleash the value of SAP data in Databricks" wird Julius von Ketelhodt eine eigenentwickelte Lösung zur direkten Anbindung von SAP an Databricks präsentieren, die kein Third-Party ETL Werkzeug erfordert.
Mit nur ein paar Zeilen Notebook-Code können Data Scientists damit unabhängig und schnell auf Daten aus SAP zugreifen. Diese Lösung bietet Funktionen, wie das Mapping von Datentypen auf Databricks Delta-Format, nutzt modernste native SAP-Schnittstellen im Hintergrund und ist auf hohe Stabilität, Skalierung, Datenvolumen und Frequenzen ausgelegt.
Die Präsentation beinhaltet eine kurze theoretische Einführung und eine Live-Demo der sogenannten "Direct Data Extraction" (DDE) Lösung.
Julius von Ketelhodt hat Geophysik und Geoinformationswissenschaften an den Universitäten Witwatersrand (Südafrika) und Freiberg studiert und in Geophysik und Seismologie promoviert.
Seit mehreren Jahren beschäftigt er sich in Data & Analytics Projekten von Großkunden unterschiedlichster Industrien explizit mit der Fragestellung, wie betrachtungsrelevante Daten aus verschiedenen SAP Quellsystemen in Cloud Data Plattformen führender Hersteller integriert werden können. Zudem hat er das Konzept des Common-Data-Models (CMD) in Zusammenarbeit mit SAP, Microsoft und Adobe aus der Taufe gehoben und weiterentwickelt.
Beim Data & AI Beratungshaus initions ist er seit knapp 4 Jahren als BI-Consultant tätig und zeichnet gleichzeitig als Product Lead im hauseigenen SAP Product Team verantwortlich.
Julius von Ketelhodt ist verheiratet und lebt mit seiner Frau und seinen zwei Kindern in Hamburg.
Unternehmen, die in ihre Dateninfrastruktur investieren, ohne ihre Unternehmenskultur auf Collaboration und Data Sharing auszurichten, verpassen die Chance, den größten Mehrwert aus ihren Daten zu holen.
Viele Organisationen haben erkannt, dass der Weg zum langfristigen Erfolg unbedingt auf Daten beruhen muss, aber zu oft reicht der Enthusiasmus nur für die Systeme und der richtig große Erfolg bleibt aus.
In diesem Vortrag stellt Eva Murray, Lead Evangelist bei Snowflake, Möglichkeiten vor, wie Mitarbeiter im Unternehmen besser auf Basis von Daten zusammenarbeiten können und welche Chancen sich daraus ergeben, neue Innovationen zu schaffen, Produkte und Dienstleistungen für die Kunden zu verbessern und das Unternehmen nachhaltig zu verändern.
Eva Murray ist Snowflake’s Lead Evangelist für die EMEA Region und anerkannte Expertin im Bereich Datenvisualisierung. Sie hat vier Bücher veröffentlicht, unter anderem zu den Themen wie man Data Communities aufbaut und wie man die Investitionen in Dateninfrastruktur im Profi-Fussball optimiert.
Bei Snowflake hilft Eva Murray Unternehmen, ihre Mitarbeiter für Daten und Technologien zu begeistern und dadurch Aspekte der Datenstrategie, wie z.B. Datenkultur, Datendemokratisierung und Datenkompetenzen zu verwirklichen.
Eva Murray ist seit vielen Jahren aktiver Teil der Datenanalyse- und Data Visualisierungs-Community und engagiert sich für Frauen in Data- und Tech-Berufen.
Vortrag Teilen
Erfahren Sie im Praxisbericht von Oliver Scheffert, General Manager von APARAVI, wie Organisationen durch nachhaltiges Management ihrer unstrukturierten Daten erfolgreich werden. Das Ziel ist „lean & clean data“, also ein kontinuierlich bereinigter, transparenter Datenbestand:
-Verdienen Sie Geld mit bislang ungenutzten Datenpotentialen, z.B. um KI/ML anzulernen
-Verringern Sie den Energieverbrauch & CO2-Ausstoss - und dokumentieren Sie diese Ergebnisse schnell, transparent & lückenlos in ESG-Reports
-Vermeiden Sie Dark Data Risiken z.B. durch unerkannte personenbezogene Daten oder Geschäftsgeheimnisse
-Verbessern Sie die Prävention von Data Breaches durch Dateninventarisierung & bereinigen Sie 10x schneller kompromittierte Datenbestände
Von Data Profiling über Data Governance zu echter Daten-Wertschöpfung: Die APARAVI Plattform hilft Unternehmen, all ihre unstrukturierten Daten zu finden, zu verstehen, zu bereinigen und sicher nutzbar zu machen. Egal, ob On-Premises, Hybrid, Cloud – auf klassischen File-Servern, Sharepoint und OneDrive.
Oliver Scheffert ist seit Oktober 2022 General Manager bei APARAVI Software Europe GmbH und zählt als kreativer Kopf zu den erfolgreichsten Managern, Mentoren und Rednern Bayerns. Der Karriereweg dieser vielseitigen Persönlichkeit begann 2001 bei der Raiffeisenbank in Rosenheim, bei der Oliver seine Ausbildung zum Bankkaufmann sowie parallel zum Netzwerktechniker absolvierte. Schon damals galt sein Interesse wirtschaftlichen Zusammenhängen und Technologie! Von 2003 bis 2007 studierte er Internationale Wirtschaft und Management an der FH Kufstein, AT. Von 2009 bis 2014 konnte er zudem im Rahmen eines Doktoratsprogramms der FH Kufstein & Universität von Latvia, LV seine Expertisen in Business Administration vertiefen und als Dozent an verschiedenen Bildungseinrichtungen sowie durch Veröffentlichungen wissenschaftlicher Vorträge und Artikel diese unter Beweis stellen.
Im Laufe seiner Karriere bewies sich Oliver Scheffert in unterschiedlichsten Rollen und Führungspositionen. Dadurch wurde er Experte in diversen Disziplinen und entwickelte sich gleichzeitig zum Allrounder rund um Technologie, Marketing, Business Development sowie Vertrieb. In seinen fast 13 Jahre bei Microsoft etablierte er neue technische Communities, verantwortete das Microsoft Startup Business in Deutschland, Österreich, Schweiz und den Niederlanden und stand mit Steve Ballmer und Satya Nadella auf der Bühne. Während seiner letzten Station als Bereichsleiter Partner Lead – ISV & Innovation/Transformation entwickelte er das Cloud-Geschäft mit unabhängigen Softwareanbietern (ISVs) in Deutschland binnen 36 Monaten auf einen jährlichen Umsatz von über einer Milliarde EUR. Aufgrund seiner vorbildlichen Leistungen wurde Oliver von Microsoft über die Jahre mit unterschiedlichen Auszeichnungen gewürdigt. Dazu zählen mitunter der Circle of Excellence Gold Award (2014), der Customer and Partner Experience Champions Award (2015) sowie der Circle of Excellence Platinum Award (2017).
Vortrag Teilen
Business Intelligence und die intelligente Nutzung von Daten sind klare Wettbewerbsvorteil und trotz aller Entwicklung der letzten Jahre in vielen Unternehmen noch nicht oder nur rudimentär etabliert. Eine der Hauptherausforderungen hierbei ist es, die passenden Mitarbeiter zu finden, zu halten und dauerhaft zu motivieren. Dieser Vortrag soll aufzeigen, wie durch die Wahl einer passenden Infrastruktur diese Herausforderung gemeistert werden kann und man schnell und effizient die entscheidenden Schritte zur Implementierung einer stabilen Datenplattform geht.
Vortrag Teilen
Nowadays, the use of various cloud services is increasing. Each cloud provider often has different strengths and weaknesses, so that many companies find themselves in a multi-cloud architecture. Many companies are also confronted with a grown IT landscape in their own data center and are migrating to the cloud in some cases. A central question is still how data can be exchanged efficiently, securely and in real time in hybrid cloud environments. Topics such as security, WAN optimization, performance, robustness, integration, vendor lock-in and costs are of central importance. The idea of an event mesh that dynamically and transparently connects the various public clouds with on-premise and private cloud environments provides exciting solutions to these challenges. The mesh is based on a network of event brokers designed to automatically distribute events across the distributed enterprise, whether applications are deployed in the data center, on a private cloud, or on a public cloud.
Event Meshes are the asynchronous pendants of Data Meshes and serve all publish-subscribe communication patterns in enterprise architectures.
In this talk you will learn how an Event Mesh works based on use cases that are ideally served by this architectural pattern.
"
Markus Hebach is a Senior Solution Architect at Solace. He has over 30 years of practical experience in the field of software architecture, integration and software development, which he gained as co-founder of the magazine "Der Entwickler" and at companies such as Borland, TogetherSoft, Versant, TIBCO, Kony, QuinScape and SnapLogic as well as an independent consultant and trainer.
Auch, wenn immer wieder formuliert wird, dass Daten nun zur wertvollen bis hin zur wertvollsten Ressource geworden sind, so ist deren aktive Steuerung längst noch nicht in allen Unternehmen angekommen. Für ein zielgerichtetes Management der Daten ist es hierbei unter anderem notwendig, einen Rahmen in Form einer Data Governance zu definieren – der dann auch zu leben ist. Wir berichten offen und nachvollziehbar, woran solche Projekte scheitern und zeigen anhand von echten Beispielen, welche Erfolgsfaktoren existieren.
In diesem Vortrag führen wir eine praxisorientierte Fachdiskussion zu Data Governance Konzepten und zeigen echte Beispiele mit Erfolg und Misserfolg auf.
Was ist Governance?
Rollen existieren und welche braucht man wirklich?
Erfolg nur durch ein Prozessmodell einer Governance?
Technik? Wie viel Technik braucht man wirklich?
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Vortrag Teilen