Zunächst setzt sich der Vortrag mit aktuellen Trends und Herausforderungen des Marktes
auseinander. Inwieweit tragen Ansätze wie Data Driven Enterprise oder Data Democracy zur Hebung
der Potentiale aus Daten bei. Wo legen Unternehmen aktuell ihre Schwerpunkte oder wo sehen sie
die größten Herausforderungen.
Im zweiten Teil geht es darum Umgang mit Daten neu zu fokussieren. Welche etablierten und auch
implementierten Lösungsbausteine können weiterverwendet werden und wo sind neue Ansätze
notwendig. Wie tragen die stärkere Fokussierung auf Business Case Kategorien, die Orientierung
am Anwender und Data Governance zur Lösung von aktuellen Herausforderungen bei. Daten sind bei
diesen Ansätzen Rohstoff und Produktionsfaktor, aber nicht mehr der Treiber der Entwicklung.
In seinem Vortrag stellt Sven Knop vor, warum Kafka immer noch ein bisschen besser geht, wie man
dies schnell umsetzen kann und wie diese Änderungen auch umgehend getestet werden können.
Außerdem wollen wir beleuchten, welche Kompromisse man dabei machen kann und welche nicht
vermeidbar sind.
Wir zeigen Ihnen, wie mithilfe des Konzepts eines logischen Data Warehouses die unbestreitbaren
Vorteile des EDWs mit den Anforderungen von modernen Data-driven-Businesses (Cloud first, „All
the data, All the time“) verbunden werden können. Das Webcast richtet sich an Data-, BI- und
Analytics-Spezialisten.
Der Vortrag zeigt anhand verschiedener Use-Cases entlang der gesamten Wertschöpfungskette einen
neuartigen Lösungsansatz. Dieser ermöglicht ein agiles, visuell-gestütztes und konsequent an den
Erfordernissen der Fachabteilungen ausgerichtetes Vorgehen. Modulare Microservices unter Nutzung
eines fortgeschrittenen Natural Language Understanding ermöglichen das flexible Mapping und
Interpretieren von Daten verschiedenster Formate und Herkunft und einen schnellen Kundenutzen.
Gleichzeitig unterstützt die Lösung die zyklische Entwicklung und Umsetzung einer
bereichsübergreifenden Datenstrategie. Die Plattformarchitektur für Management und Analyse der
Daten bietet einen bestmöglichen Kompromiss aus Agilität und Qualität und steht zwischen
technisch orientierten Data-Warehouse-Lösungen und Einzelanwendungen mit lokaler Intelligenz.
As any good scientist knows, and any good data scientist should know, most discoveries begin
with a hypothesis. We see a lot of surveys about the CDO role but don’t really have much of a
point to make or look at the impact a CDO makes. This study examined over 500 organizations to
determine how businesses with a CDO operate differently, including:
– Do organizations with a CDO benefit in any way?
– How does having a CDO affect the level of data quality and data governance?
– How does having a CDO affect data democratization and monetization?
– How does having a CDO affect the ability of an organization’s to value its data?
– Is there a difference between actual C-level CDOs and those who are not?
– How do investors feel about companies with a CDO?
– Where do great CDOs come from and what is their desired career path?
Ultimately, is the CDO really making a difference?
Ohne eine einfach skalierbare Architektur, die Datenintegrationsprozesse automatisiert und
Echtzeit-Streaming ermöglicht, kommt heute kein Unternehmen mehr aus. Erfahren Sie in unserem
Vortrag das Erfolgsrezept für eine ausgefeilte „DataOps for Analytics“ Strategie und hören Sie
spannende Customer Cases von der Challenge bis hin zum Mehrwert, der generiert werden konnte.
Daher soll in diesem Vortrag eine praxiserprobte Architektur einer Analytics Plattform, welche
wir für einen unserer Kunden aufgebaut haben, dargestellt werden. Es wird außerdem erläutert,
warum Hadoop allein für eine moderne Analytics Plattform nicht mehr ausreichend ist und welche
zusätzlichen Komponenten (Containerplattform, Suchindex, relationale DB) enthalten sein sollten.
Zudem wird im Detail auf die Herausforderungen, die sich beim Aufbau und Betrieb einer
On-Premise Analytics Plattform ergeben, eingegangen. Hierbei wird auf die Provisionierung der
Infrastruktur und Softwarekomponenten, mittels Ansible und Terraform beschrieben, sowie die
spätere Skalierung der clusterbasierten Systeme. Am Rande wird auf die zwingende Notwendigkeit
von sauberem Metadatenmanagement, sowie lückenlosem Monitoring eingegangen, um einen stabilen
Betrieb einer solchen Plattform gewährleisten zu können.
KX Insights is a cloud-first streaming analytics platform that drives the world’s fastest and
best-informed real-time decision-making capabilities. Using KX Insights, market data for all
asset classes can be analyzed by quantitative data scientists for portfolio optimization or FX
trade surveillance.
Join us as we delve into real life use cases implemented at leading financial institutions, as
well as provide an overview how KX Insights integrates seamlessly with leading cloud providers
ensuring the delivery of scalable and cost-effective real-time analytics to your organization,
whatever your need.
Diese agile Vorgehensweise stellen wir Ihnen spielerisch an einem fiktiven Use Case vor. Mittels
BEAM Canvas, den Model Stormer und einer Eventmatrix entwickeln Stakeholder, Product Owner und
Developer ein gemeinsames Datenmodell. Es dient anschließend als Grundlage für das
Entwicklerteam und für Abnahme durch die Stakeholder.
Die Ergebnisse der Datenmodellierung sind auch der ideale Startpunkt für die Entwicklung des
ETL-Schritts zur Beladung des Datamarts.
Lernen Sie die Konzepte und Methoden dieser agilen Data Warehouse-Designmethode kennen, um
fachliche als auch technische Anforderungen umfassend und abgestimmt abzudecken.
In diesem Workshop zeigen wir Ihnen, wie KI BI in die Lage versetzen kann, aus den analysierten
Daten klare und nützliche Erkenntnisse zu gewinnen, und wie Unternehmen große Datenmengen zu
kohärenten Aktionsplänen synthetisieren können – und das alles auf einer Plattform und mit hoher
Geschwindigkeit.