KONFERENZPROGRAMM

Mit der TDWI Virtual möchten wir als TDWI am 05. und 06. März eine Plattform schaffen, auf welcher unsere Community auch remote und standortunabhängig zusammenkommen und ihre Leidenschaft für Data & Analytics gemeinsam in die Praxis umsetzen kann. Sie ist damit DIE kostenfreie Online-Konferenz für Data, BI und Analytics.

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    05.03.
  • Mittwoch
    06.03.
09:00 - 09:50
DiKey
Zeitenwechsel statt Zeilenwechsel: Die Kommandozeile von ChatGPT
Zeitenwechsel statt Zeilenwechsel: Die Kommandozeile von ChatGPT

Die Einführung von ChatGPT im November 2022 markiert ein bemerkenswertes Comeback der hausbackenen Kommandozeile. Denn die Geschichte der Mensch-Computer-Interaktion kennt bisher zwei wichtige Entwicklungssprünge: In den 1940er Jahren bedient man Computer wie den ENIAC ausschließlich mittels Stapelverarbeitung; ab den 1960er Jahren erfordert der gleichzeitige Zugriff mehrerer Benutzer, wie beim CTSS des MIT, neue Lösungen. Die Kommandozeile ist geboren und avanciert rasch zum neuen Standard der Mensch-Maschine-Kommunikation. Drei Jahrzehnte später finden deren Prinzipien auch Einzug in die grafische Benutzeroberfläche des Apple Macintosh – ändern aber keineswegs das Paradigma! Deshalb haben wir uns über 60 Jahre an diese Art der Computernutzung gewöhnt, und der Paradigmenwechsel durch ChatGPT mit seiner „intelligenten“ Kommandozeile trifft uns aus heiterem Himmel. Deren Fähigkeiten hinterfragen jahrzehntelang erlernte und milliardenfach geschulte Fähigkeiten für die effiziente Computernutzung. Die genauere Betrachtung zeigt, dass diese Veränderung überraschend grundsätzliche Fragen aufwirft, für die wir noch keine Antworten haben.

Stefan Holtel ist Informatiker, Wissensmanager und Trainer für LEGO Serious Play. Er arbeitete viele Jahre in der Forschung und Entwicklung von Vodafone. Regelmäßig präsentiert, publiziert und doziert er zur Frage, wie Unternehmen die digitale Transformation meistern können. Seit 2018 ist er Kurator für digitalen Wandel bei PricewaterhouseCoopers. Derzeit entwickelt er neuartige Ausbildungskonzepte, um Prompt Engineering in großen Organisationen erfolgreich zu skalieren. Im Januar erschien im Franz Vahlen Verlag sein neues Buch "Droht das Ende der Experten? ChatGPT und die Zukunft der Wissensarbeit".

Stefan Holtel
Stefan Holtel
Track: KEYNOTE
Vortrag: DiKey

Vortrag Teilen

10:00 - 10:40
Di1.1
Optimierung von KI-Systemen durch effektives Datenmanagement: Innovationen und Best Practices
Optimierung von KI-Systemen durch effektives Datenmanagement: Innovationen und Best Practices

Datenmanagement für KI ist ein entscheidender Aspekt für die Entwicklung und den Betrieb von KI-Systemen, da es die Integrität, Sicherheit und Benutzbarkeit der Daten sicherstellt. Dies trägt maßgeblich zur Effektivität und Zuverlässigkeit von KI-Technologien bei. KI für Datenmanagement verbessert darüber hinaus die Leistungsfähigkeit von Datenmanagementsystemen, indem sie diese effizienter, sicherer und anpassungsfähiger an die ständig wachsende und sich entwickelnde Datenlandschaft gestaltet.
In diesem Vortrag werden die neuesten Innovationen in der Informatica Intelligent Data Management Cloud (IDMC) präsentiert, die wichtige Geschäftsinitiativen wie Customer Experience und ERP-Modernisierung unter Einhaltung von regulatorischen Vorgaben wie den EU AI Act unterstützen.

Dr. Martin Hebach verantwortet als Senior Solutions Architect bei Informatica seit beinahe 9 Jahren die Konzeption und kontinuierliche Weiterentwicklung der Architektur von cloudbasierten Datenmanagement-Lösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Dr. Hebach verfügt über eine langjährige Erfahrung in den Bereichen IT-Management, Unternehmensarchitektur und Beratung bei internationalen und größeren mittelständischen Unternehmen aus Finanz, Automotive und Bioscience. 

Martin Hebach
Martin Hebach
Track: Track 1
Vortrag: Di1.1

Vortrag Teilen

10:00 - 10:40
Di2.1
Generative AI with Kafka, Flink, LangChain and OpenAI
Generative AI with Kafka, Flink, LangChain and OpenAI

Generative AI (GenAI) enables automation and innovation across industries. This talk shows a simple but powerful architecture and live demo for the combination of Python, and LangChain with OpenAI LLM, Apache Kafka for event streaming and data integration, and Apache Flink for stream processing. The use case shows how data streaming and GenAI help to correlate data from Salesforce CRM, searching for lead information in public datasets like Google and LinkedIn, and recommending ice-breaker conversations for sales reps.

Kai Waehner is Field CTO at Confluent. He works with customers and partners across the globe and with internal teams like engineering and marketing. Kai’s main area of expertise lies within the fields of Data Streaming, Analytics, Hybrid Cloud Architectures and Internet of Things. Kai is a regular speaker at international conferences, writes articles for professional journals, and shares his experiences with industry use cases and new technologies on his blog: www.kai-waehner.de. Contact: kai.waehner@confluent.io / @KaiWaehner / linkedin.com/in/kaiwaehner.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/kai.waehner

Kai Waehner
Kai Waehner
Track: Track 2
Vortrag: Di2.1

Vortrag Teilen

10:50 - 11:30
Di1.2
Clean Data, Lean Data, RAG: Schnellere Umsetzung durch transparente Datenaufbereitung für KI-Systeme
Clean Data, Lean Data, RAG: Schnellere Umsetzung durch transparente Datenaufbereitung für KI-Systeme

In dem kompakten Vortrag beleuchtet Dr. Rembor effektive Strategien zur Optimierung der Datenaufbereitung für die Entwicklung von KI-Systemen. Er fokussiert sich auf die Bereinigung von Datenbeständen (Clean Data), die Reduktion auf essenzielle Datenmengen (Lean Data) und die Anwendung von retrieval-augmentierter Generierung (RAG), um die Effizienz und Effektivität von KI-Anwendungen zu steigern. Ziel ist es aufzuzeigen, wie Unternehmen ihre Datenverarbeitungsprozesse optimieren und so die Umsetzung von KI-Projekten beschleunigen können.

Dr. Ralph-Peter Rembor ist eine erfahrene Führungskraft im Bereich Sales & Marketing mit Fokus auf Datenintelligenz, Automatisierung und Sicherheitstechnologie. Seit November 2023 arbeitet er als Vice President Sales & Marketing EMEA bei APARAVI in München. Davor war er bei Materna Virtual Solution GmbH und gründete nikkin Sports and Entertainment Technology, spezialisiert auf Community Management. Frühere Positionen umfassen Geschäftsführer bei KWP INSIDE HR und inside Unternehmensberatung GmbH sowie verschiedene leitende Rollen bei SAP Deutschland AG & Co. KG, einschließlich VP Sales Cloud und Head of Public Sector & Healthcare. Dr. Rembors professionelle Entwicklung zeigt, wie er technische Innovationen erfolgreich vorantreibt.

Ralph-Peter Rembor
Ralph-Peter Rembor
Track: Track 1
Vortrag: Di1.2

Vortrag Teilen

10:50 - 11:30
Di2.2
Den Nutzen des Datenkatalogs messbar machen – der Schlüssel zum Erfolg für Ihr Datenkatalog-Projekt
Den Nutzen des Datenkatalogs messbar machen – der Schlüssel zum Erfolg für Ihr Datenkatalog-Projekt

Datenkataloge werden inzwischen als ein unverzichtbares Teil im Puzzle eines effizienten Datenmanagements angesehen. Sie versprechen als eine Art Google für die Unternehmensdaten, zentral das wertvolle Wissen der Experten über die Daten zu sammeln und mit den technischen Metadaten zusammenzuführen. All das mit der Zielsetzung, den Zugang zu den Daten zu vereinfachen und somit den maximalen Nutzen daraus ziehen zu können.

Einem initialen Hype bei der Einführung folgt oft die Ernüchterung, dass die Nutzung des Katalogs zurückgeht und sich somit der erhoffte Nutzen für das Unternehmen nicht einstellt. Dies frühzeitig zu erkennen und geeignete Maßnahmen zur Gegensteuerung einzuleiten, ist eine wichtige Aufgabe, um den Datenkatalog erfolgreich bei der Unterstützung des datengetriebenen Arbeitens zu etablieren.

In diesem Vortrag erfahren Sie, wie man über die Messung, das Monitoring und die Analyse der Nutzung des Datenkatalogs Lücken erkennt – und lernen ein Vorgehensmodell kennen, um diese zu schließen und somit über die Attraktivität des Datenkatalogs den erhofften Nutzen für das Unternehmen zu realisieren.

Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in unterschiedlichen
Branchen (Telekommunikation, Banken und Handel). In seiner Funktion als COO der Synabi verantwortet er die Konzeption und Umsetzung von Metadaten- und Data-Governance-Projekten.

Wolf Erlewein
Wolf Erlewein
Track: Track 2
Vortrag: Di2.2

Vortrag Teilen

11:40 - 12:20
Di1.3
KI in der Datenanalyse - Chancen und Risiken
KI in der Datenanalyse - Chancen und Risiken

Künstliche Intelligenz hat in kürzester Zeit viele Bereiche unseres Lebens im Sturm erobert - von der Automatisierung in Prozessen bis zur Hausübung bei Schülern. Auch wenn es naheliegend ist, diese Werkzeuge in der Datenanalyse einzusetzen, gibt es dabei doch viele Herausforderungen und auch so manche Risiken. MicroStrategy hat als einer der ersten Anbieter im Analytics-Bereich generative KI in seine Produkten integriert. 

Erfahren sie in diesem Vortrag, wie dadurch nicht nur Ihre Ergebnisse verbessert, sondern vor allem auch die damit verbundenen Aufwände drastisch reduziert werden können.

Johannes Silhan ist Principal Solution Engineer bei MicroStrategy, nachdem er mehrere Jahre lang den Bereich Services in Österreich geleitet hat. Davor hat er bei unterschiedlichen Unternehmen Projekte im Business Intelligence und Outsourcing Bereich erfolgreich umgesetzt. Seit seinem Studienabschluss an der Technischen Universität Wien hat er über 25 Jahre Erfahrung im Bereich Business Intelligence.

Johannes Silhan
Johannes Silhan
Track: Track 1
Vortrag: Di 1.3

Vortrag Teilen

11:40 - 12:20
Di2.3
KI-Governance: Grundlagen, Herausforderungen und Best Practices
KI-Governance: Grundlagen, Herausforderungen und Best Practices

Künstliche Intelligenz ist ein Gamechanger für Wirtschaft und Gesellschaft. Neben den technologischen und wirtschaftlichen Herausforderungen werden Unternehmen mit komplexen rechtlichen Regelungen wie dem EU AI Act, der KI-Haftungsrichtline oder dem EU Data Act und ethischen Anforderungen konfrontiert.
Die Antwort auf diese Herausforderungen ist eine unternehmensindividuelle KI-Governance. Als Framework vereint sie zielorientiert Richtlinien, Prozesse und Tools, um den gesamten KI-Lebenszyklus zu steuern.

Lernen Sie die zentralen Inhalte einer guten KI-Governance kennen:
- Wie ist das Zusammenspiel von IT-Governance, Data Governance und 
   KI-Governance? 
- Wie sehen die konkreten Schritte zu einer KI-Governance aus?
- Welche Empfehlungen und Best-Practices existieren?

Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Banken und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik und aktuellen Technologien wie Blockchain und KI.

Sonja Maria Lehmann
Sonja Maria Lehmann
Track: Track 2
Vortrag: Di2.3

Vortrag Teilen

09:00 - 09:50
MiKey
The Three Pillars of Data and AI Strategy: Experiences, Economy, Ecosystem
The Three Pillars of Data and AI Strategy: Experiences, Economy, Ecosystem

The past few years have been profoundly disruptive, compelling organizations to adapt their strategies. Cloud technology, data, and artificial intelligence (AI) now play an even more central role in navigating this transformation. This session will explore the three essential pillars of a data and AI strategy: data-AI experiences, data-AI economy, and data-AI ecosystem.  We'll delve into the fundamentals of building a robust foundation for Data Analytics and AI. You'll learn why organizations are actively democratizing access to data-driven insights and how generative AI synergizes with unified data-AI platforms.  We'll talk around the powerful outcomes that emerge when you combine structured and unstructured data within your platform and leverage LLMs (Large Language Models) to uncover valuable insights

Firat Tekiner, PhD Machine Learning & HPC, MBA, is a Senior Staff Product Manager in Data Analytics and AI at Google Cloud. Firat is a leader with nearly 20 years of experience in developing new products, designing and delivering bespoke information systems for some of the world’s largest research, education, telecommunications, finance and retail organisations.  Following roles within National Supercomputing Services and National Centre for Text Mining, he worked as a senior consultant at Ab Initio software prior to joining Google. He has over 50 publications in the areas of Parallel Computing, Big Data, Artificial Intelligence and Computer Communications. He is an Author: Architecting Data and Machine Learning Platforms, O'Reilly, Nov2023.

Firat Tekiner
Firat Tekiner
Track: KEYNOTE
Vortrag: MiKey

Vortrag Teilen

10:00 - 10:40
Mi1.1
Daten effektiv managen: Ein Einstieg in Datenkataloge
Daten effektiv managen: Ein Einstieg in Datenkataloge

Im Zeitalter von Big Data steht die Notwendigkeit einer soliden Datenmanagementstrategie außer Frage. Doch die Komplexität wächst und mit ihr die Herausforderungen. Mit Blick auf diese Herausforderungen zeigen wir auf, wie ein Datenkatalog, insbesondere der Pentaho Data Catalog, nicht nur eine „Single Source of Information“ schafft, sondern auch die Datenqualität erhöht und den Self-Service-Zugang zu Datenbeständen verbessert. 

Sie erfahren, wie die Verknüpfung von Datenquellen, die Automatisierung von Prozessen und die Erstellung eines Business-Glossars zu einem verbesserten ""Data Speak"" beitragen können. Weiterhin werden die Bedeutung der Metadatenverwaltung, die Förderung der Zusammenarbeit durch Datenbewertung und Informationsaustausch sowie die Überwachung und Wartung zur Sicherstellung der Datenqualität diskutiert. Abschließend stellen wir einen klaren Implementierungsweg für die Einführung eines Datenkatalogs vor. 

Agenda 
- Herausforderungen im Datenmanagement 
- Kernfunktionalitäten eines Datenkatalogs 
- Beispiel: Pentaho Data Catalog 
- How to Start: Erste Schritte bei der DC-Einführung 
 

Philipp Heck ist ein begeisterter Vertreter von Open Source und gehört zu den führenden Spezialisten für die Lösungen von Pentaho, Jedox und ThingsBoard. Er verfügt über ausgeprägtes technisches Knowhow, verliert dabei aber nie den Fachanwender aus dem Blick. 

Philipp Heck
Philipp Heck
Track: Track 1
Vortrag: Mi1.1

Vortrag Teilen

10:00 - 10:40
Mi2.1
Generative AI und Data Management: Trends, Innovationen und Best Practices
Generative AI und Data Management: Trends, Innovationen und Best Practices

KI für das Datenmanagement:
Daten- und KI-verantwortliche stehen vor der aktuellen Herausforderung, die Möglichkeiten generativer KI zu verstehen und in ihre Datenverwaltungsstrategien zu integrieren.

Datenmanagement für KI:
Gleichzeitig müssen Dateninfrastrukturen anhand der richtigen Architekturkonzepte so ausgerichtet werden, dass sie für KI-Anwendungen optimiert sind.

Im Vortrag erkundet Leendert Kollmer die Trends und Innovationen für beide Perspektiven und teilt Best-Practices für die bestmögliche Datennutzung von und mit KI. 

Leendert Kollmer ist als Senior Sales Engineer bei Denodo Technologies in der Region Central Europe tätig und Ansprechpartner für Daten-Architekturen und komplexe technische Fragestellung. Hierbei begleitet er Unternehmen aus unterschiedlichen Branchen bei der Einführung der Denodo Plattform im Rahmen von komplexen Datenmanagement-Projekten.

Durch seine langjährige Zusammenarbeit mit technischen Projektteams verfügt Leendert Kollmer über detaillierte Kenntnisse in Bezug auf die Umsetzung von datenbasierten Lösungen für unterschiedlichste Anwendungsfälle, u.a. aus den Bereichen BI & Analytics, Data Governance, Big Data und Datenverwaltung.

Leendert Kollmer
Leendert Kollmer
Track: Track 2
Vortrag: Mi2.1

Vortrag Teilen

10:50 - 11:30
Mi2.2
The secret sauce to deliver on the data mesh promise
The secret sauce to deliver on the data mesh promise

Is it just another buzzword or maybe something new?  Do your data products require the same level of discipline and rigor as your actual products?  Precisely discusses the ingredients for delivering on the promise of data mesh using real-world customer examples.

Ralf Krämer studierte in Heidelberg Geographie, Geologie und Öffentliches Recht. Anschließend arbeitete er mehrere Jahre als Consultant im Rahmen von Geo-Informationsprojekten für Energieversorger. 1997 wechselte er als Pre-Sales Consultant zur damaligen MapInfo GmbH, wo er nach mehreren internen Stationen 2002 schließlich das Accountmanagement übernahm. In diesem Bereich verantwortete er verschiedene Branchen und Großkunden aus dem Bereich B2C. 2008 erfolgte der Wechsel zu Pitney Bowes. Im Vordergrund seiner Tätigkeit steht die Kundenberatung bei der Auswahl und Einführung von Enterprise Softwarelösungen zur Datenqualität- Sicherheit- und Integration. Pitney Bowes Software & Data ist 2019 in Precisely übergegangen.

Jean-Paul Otte has over 30 years of experience in the technology industry in data management. As a former CDO that has executed multiple value-based data programs, Jean- Paul Otte focuses on building business-driven data management processes that prioritize continuous improvement and the enrichment of a data centric knowledge base.  Currently, Jean-Paul leads the EMEA Data Strategic Services team at Precisely where he continues to share this experience and expertise in his customer engagements.

Ralf Krämer, Jean-Paul Otte
Ralf Krämer, Jean-Paul Otte
Track: Track 2
Vortrag: Mi2.2

Vortrag Teilen

11:40 - 12:20
Mi1.3
Data Governance - Erfahrungswerte & Best Practices
Data Governance - Erfahrungswerte & Best Practices

Data Governance wird als zentraler Aspekt im Data Management von Unternehmen auch im Rahmen von Data & Analytics Projekten zunehmend aufgegriffen.

INFOMOTION begleitet in Kundenprojekten die Definition, Aufbau und Einführung von Data Governance Organisationen, inkl.. Zielbilder und Maßnahmen für Organisation, Prozessen und Technologie.

Im Vortrag stellen wir unterschiedliche Vorgehensweisen vor und fassen unsere Erfahrungen und auch Best Practices zusammen.

Bernd Heßbrügge
Bernd Heßbrügge
Track: Track 1
Vortrag: Mi1.3

Vortrag Teilen

11:40 - 12:20
Mi2.3
From ingestion to insights in the Google ecosystem
From ingestion to insights in the Google ecosystem

This presentation aims to provide a comprehensive understanding of the effective utilization of Google Cloud Platform (GCP) in optimizing a Data Analytics Landscape. The session will focus on demonstrating advanced techniques in data ingestion, data modeling and improving data quality, with insights into how Xpand IT integrates GCP tools to streamline these processes.

Key Points:

  • Utilization of GCP for Enhanced Data Solutions: Demonstrating the use of Google Cloud Platform tools to create sophisticated, scalable data solutions that improve analytics processes.
  • Improvement of Data Quality: Showcasing techniques to ensure high data integrity and quality during data ingestion and processing using GCP.
  • Practical Demonstrations GCP technologies: Highlighting practical applications that leverage GCP for more efficient data handling.
  • Advanced Data Management Techniques: Exploring the use of tools like Google Cloud Composer, BigQuery, and DataPlex for comprehensive data management, including lineage, versioning, and quality insights.

Participants will gain valuable insights into the practical applications of GCP for data ingestion and analytics. They will learn how to leverage Google Cloud tools like Composer, Big Query, Dataforms, and DataPlex to create a more efficient, scalable, and robust data analytics environment.

IT professional with experience in architecting and administration of cloud-based, on-premises and hybrid solutions. These solutions may use a range of different technologies such as Kubernetes (e.g. OpenShift), NoSQL databases (e.g. MongoDB), scalable datawarehouse solutions (e.g. BigQuery), among others.

He currently leads the Platform Engineering Division and plays a major role in architecting data-related solutions for Xpand IT's customers.

Stefan Müller ist der General Manager von Xpand IT in Deutschland. Mit über 15 Jahren Erfahrung in den Bereichen Daten und Analytics hat er für diverse IT-Beratungsunternehmen gearbeitet. Stefan schreibt Artikel, hält Vorträge auf Konferenzen und ist ständig auf der Suche nach neuen Wegen, wie Daten Unternehmen voranbringen können.

Paulo Nunes, Stefan Müller
Paulo Nunes, Stefan Müller
Track: Track 2
Vortrag: Mi2.3

Vortrag Teilen

Zurück