KONFERENZPROGRAMM
Die Konferenz ist gestartet!
» Hier geht es direkt zu den Live-Vorträgen
Track: TRACK 1
- Dienstag
24.10. - Mittwoch
25.10.
Data Warehouses (die Single-Source-of-Truth) mit der zugehörigen ETL-Landschaft gehören zum Standard vieler Unternehmen. Im Laufe der letzten Jahre wurden sie um Data Lakes und andere Datentöpfe erweitert. In vielen Unternehmen hat sich daher ein regelrechter Datendschungel gebildet, der durch klassische ETL-Architekturen nur noch schwer zu handhaben ist und hohe Kosten verursacht.
Unternehmen werden dazu gezwungen, neue Alternativen zu suchen, um eine einheitliche Sicht auf die Daten zu bekommen, ohne komplexe Datenprozesse und Architekturen zu implementieren. Datenvirtualisierung löst hier die Probleme der klassischen ETL-Architekturen.
In unserem Vortrag beschreiben wir die technischen Bestandteile einer Datenvirtualiserungslösung und deren massive Vorteile für Unternehmen. Aber wir gehen auch auf Bedenken ein, die gegen den Einsatz von Virtualisierung sprechen. Achtung Spoiler: Die Bedenken erweisen sich als unbegründet.
Christopher Keller leitet den Bereich Big Data Analytics & IoT bei it-novum. Er ist Experte für Business Intelligence-Lösungen, der Entwicklung von Data Warehouses in Verbindung mit SAP sowie der Beratung und Einführung von Daten- und IoT-Plattformen auf Open Source Basis. Seit 2009 haben er und sein Team erfolgreich Kundenprojekte in verschiedenen Branchen mit offenen Technologien umgesetzt.
Arne Ottens ist Teil des Solution Architecture Teams hier bei Starburst Data. Arne ist ein Technologie- und Daten-Enthusiast mit den Schwerpunkten Datenmanagement, Big Data und Cloud-Technologien. Seine Erfahrung hat er aus zahlreichen internationalen Projekten in verschiedensten Branchen und freut sich nun Ihnen Starburst näher zu bringen.
Die Investitionsbank Sachsen-Anhalt (IB-LSA) wurde zum 01.03.2023 von einem Geschäftsbereich der Norddeutschen Landesbank (Nord/LB) zu einem eigenständigen Kreditinstitut mit eigener Banklizenz weiterentwickelt, was u.a. ein aufsichtsrechtlich konformes Datenmanagement erfordert. In dem dazu aufgesetzten Projekt hat sich die IB-LSA dafür entschieden, einen auf einer Datenvirtualisierungs-Software basierenden Single Point of Truth (SPOT) für das Weiterverarbeiten von Daten entschieden. In diesem Artikel wird beschrieben, wie mit Hilfe dieses Ansatzes eine Datenzentrale sowohl für die Datenversorgung von Statistiken und Datenauswertungen als auch für den Datenaustausch zwischen den einzelnen bankfachlichen Anwendungen unter Einhaltung der aufsichtsrechtlichen Vorgaben für das Datenmanagement in Banken geschaffen wurde.
Nach seinem Informatikstudium an der Otto-von-Guericke-Universität mit
Schwerpunkt Datenbanken und einer sich anschließenden zweijährigen Tätigkeit als wissenschaftlicher Mitarbeiter wechselte Andreas Christiansen 1998 in die Investitionsbank Sachsen-Anhalt. Dort leitete er bis 2021 den IT-Bereich und leitete in jüngster Vergangenheit 2 Teilprojekte im Rahmen der Verselbständigung der Investitionsbank Sachsen-Anhalt.
In unserem Vortrag betrachten wir Probleme unserer Kunden auf dem Weg zum datengetriebenen Unternehmen und stellen einen Lösungsansatz vor, mit dem wir die Power der Daten durch den Human Factor nutzbar machen.
Manuel Juschkewitz ist Manager Transformation und Coach. Er unterstützt Kunden durch methodische und fachliche Beratung in Change Prozessen und entwickelt im engen Kundenaustausch nutzerorientierte Lösungen. Seine Arbeitsweise kombiniert systemische und agile Frameworks und wird durch Erfahrungen aus verschiedensten Branchen (Automotive, Banken, Wirtschaftsprüfer, öffentlicher Dienst und Maschinenbau) bereichert.
In Zeiten wachsender Datenmengen lebt die Berlin Hyp AG Data Governance im gesamten Unternehmen. Komplexer werdende Systemlandschaften erfordern effiziente, fachliche Prozesse zur effektiven Handhabung, Pflege und Nutzung von Daten.
Wie es dazu kam und wie es die Berlin Hyp schafft, diese Prozesse fest in der Organisationsstruktur sowie in den Köpfen der Mitarbeiter zu verankern und sie durch die Einführung eines Data Management Tools stetig weiterzuentwickeln – das zeigen Ihnen Julia Kämner (Berlin Hyp AG) und Pia Potrikus (Synabi Business Solutions GmbH) in diesem Vortrag.
Sie erhalten einen Einblick in den Data Governance-Bereich der Berlin Hyp AG und die dortige Verwendung des Metadaten Management Tools D–QUANTUM. Was sind Ziele und Mehrwerte der Einführung eines Data Catalogs und warum wird er meist als das „zentrale Werkzeug zur Einführung von Data Governance“ in Unternehmen gesehen?
In Form von Praxisbeispielen zeigt Ihnen Pia Potrikus, wie die Berlin Hyp AG durch die Anbindung externer Datenquellen die Grundlage für eine vollumfängliche Ansicht der fachlichen Verwendung technischer Metadaten schafft und welchen Vorteil fachliche, technische und kombinierte Lineages den Mitarbeitern bieten.
Den Abschluss des Vortrags bildet ein Ausblick auf weitere Themen in der Entwicklung, der zeigt, wieso die manuelle Erfassung von Datenfeldern und die Anbindung von weiteren IT-Systemen wichtige Zwischenschritte auf dem Weg zu einem erfolgreichen Datenqualitätsmanagement sind.
Pia Potrikus verfügt über langjährige Erfahrung in innovativen IT-Projekten im Bereich des digitalen Zahlungsverkehrs, Reportinglösungen, Datenmodellierung und Metadatenmanagement. In ihrer Funktion als Manager und Teamleitung im Bereich Product Consulting der Synabi verantwortet sie die Einführung von D-QUANTUM bei Neukunden sowie die individuelle Weiterentwicklung von bestehenden Data-Governance-Projekten.
Julia Kämner verfügt über langjährige Erfahrung bei der Implementierung von datenbezogenen, bankspezifischen IT-Projekten inklusive der technischen Umsetzung neuer, regulatorischer Anforderungen nach MaRisk 4.3.4 und dem BCBS 239 Standard. In ihrer Funktion als Fachverantwortlicher für das Softwaretool D-QUANTUM verantwortet Sie den Aufbau eines Datenkatalogs und von Datenflüssen aus vorgelagerten Systemen in die FSDP der SAP sowie die Ausgestaltung eines zentralen Datenqualitätsmanagements (inkl. DQ-Reporting).
Yaskawa Europe mit Hauptsitz in Hattersheim bietet Mechatronik- und Robotiklösungen für Unternehmen in ganz Europa, dem Nahen Osten und in Afrika an. Vor drei Jahren hat Yaskawa Europe entschieden zukünftig Power BI als Business Intelligence System einzusetzen.
- Das Ziel: Gemeinsame Auswertung der Yaskawa Landesgesellschaften mit Power BI.
- Die Herausforderung: Wie führt man SAP, Dynamics NAV, iScala und andere ERP zusammen?
Mit dem Konzept Power BI primär zur Visualisierung einzusetzen und mit TimeXtender ein Azure Modern Data Estate als Datenplattform zu erstellen, hat der langjährige Microsoft Partner datenkultur das Vertrauen der BI Abteilung von Yaskawa Europe gewonnen.
Der Yaskawa BI-Experte Stefan Thurn und der datenkultur CEO Andreas Koblischke stellen das Projekt vor und Berichten von Ihren Erfahrungen.
I’m responsible for the global Yaskawa EMEA BI architecture including the toolchain (Power BI, TimeXtender, IT infrastructure and connections to multiple source systems).
I’ve started as Software developer in database programming and was responsible for global Master Data Management across systems.
I have been involved in the development of enterprise resource planning systems and the evaluation of operational data since 1995. Since 1999 I am self-employed and since 2003 shareholder and managing director of datenkultur. Starting in 2006, I was instrumental in establishing the Jet Reports product in the German market. In the following years I extended my knowledge to Dynamics, data warehouse, analysis services, Azure Synapse, Microsoft Fabric and Power BI. I always keep my knowledge up to date on these topics. I regularly publish articles on these topics and am often invited as a speaker.
Der Vorteile von künstlicher Intelligenz sind, trotz aller Diskussionen, sowohl für private Nutzer als auch Firmen und Behörden offensichtlich. KI ist kein Hype, sondern wird ein neuer Teil eines Software-Lösungs-Stacks. Immer stärker und lauter wird über die Daten, den Brennstoff für KI, diskutiert. Buch-Autoren lösen Urheberrecht-Sammelklagen gegen OpenAI aus, Firmen verbieten den Mitarbeitern die Nutzung und unwissende Politiker wollen mit der Beratungshilfe der KI-Erschaffer über die Regulierung entscheiden.
Wer sich deutlich differenzieren und dauerhafte Wettbewerbsvorteile sichern will, muß seine eigenen Daten mittels KI verarbeiten lassen. Das ist der hochwertigste „Superbrennstoff“ für KI-/ML-Anwendungen! Aber wie schaffen es Unternehmen, diese Daten-Bestände zu finden und so aufzubereiten, dass keine Persönlichkeitsrechte verletzt werden und Firmengeheimnisse verwendet oder von Unbefugten zum Trainieren von Modellen benutzt werden? Wie schafft man Transparenz und Nachverfolgbarkeit? Kann man Zugriffsrechte auf die Ergebnisse regeln bzw. ungewollte Datenabflüsse aus den Resultaten verhindern? Und wie liefert man umfassend und möglichst automatisiert die Ergebnisse in die vorhandenen oder zukünftigen BI- und Analyse-Tools?
Unser Gründer & CEO Adrian Knapp zeigt Risiken und Chancen auf und was er tun würde, um KI besser und schneller im eigenen Unternehmen zu nutzen.
Adrian Knapp ist Visionär, Gründer und CEO von Aparavi. Seit über 30 Jahren beschäftigt er sich mit effizientem Datenmanagement. Zuerst als Mitgründer von Dicom (IPO 1995, AIM London), einem Vorreiter im Bereich Digitale Archivierung (heute Kofax). Dann folgte COPE/Mount10 (IPO 1998, NASDAQ & 2001, Neuer Markt), die sich von einer Data Storage Beratung zum ersten Datacentric Hoster in Europa entwickelte. Außerdem war er Mitgründer der NovaStor AG, einem Dienstleister für Backup-Lösungen, bei der er aktuell als Verwaltungsrat tätig ist. Adrian Knapp ist Schweizer, lebt aber seit vielen Jahren in Kalifornien.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/adrian-knapp/
Join two of Europe's leading SAP data integration experts as they share their invaluable insights and best practices. Delve into the world of SAP data integration and discover a variety of options for extracting data from SAP systems. Learn about efficient methods to seamlessly integrate this data with other sources, making use cases readily available.
In this presentation, our experts will demonstrate how to automate mundane tasks, allowing you to focus on the exciting aspects of your projects. By implementing these best practices, you'll rapidly accelerate the overall value of your SAP system, ensuring that you stay ahead in the world of data integration. Don't miss this opportunity to gain valuable insights and to supercharge your SAP data integration.
Richard Brouwer is a worldwide leading expert in migration and data integration of SAP data. He gained his knowledge during his 30 year career in data working in leading organizations at companies like Ratiopharm, Unilever and Heineken, as well as technology at companies like Accenture, Teradata and HVR. Currently he is applying his expertise as a Sales Engineer at Fivetran as the global go-to-person for all SAP related topics.
Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.
Replication of data is a first and important step to facilitate business decisions. No matter if you are scheduling your data pipelines or constantly streaming changes to get the most current information, your data journey does not stop here. Eventually you want to extract value from your data assets and use acquired insights as the foundation for new initiatives. In this presentation you will learn how we can help you to trust your data by using the Precisely Data Integrity Suite.
Charles has a career spanning more than 30 years in the IT working for several companies and in various roles as support engineer, trainer, consultant and currently as a senior sales engineer at Precisely. Since a young age Charles was, and still is, highly interested in state-of-the-art technology in many different areas inside and outside the IT. With a strong background in programming, operating systems, networking, database technology and distributed computing he has worked on many data migration and modernization projects.
Jeder, der bereits mit Generativer AI wie etwa ChatGPT gearbeitet hat, weiß dass die Ergebnisse oft beeindrucken. Aber stimmen sie auch? Oder erfindet die AI Informationen, halluziniert oder missinterprtiert sie einfach die Frage? Wie lässt sich ein solches Werkzeug in eine Business Intelligence Plattform integrieren, deren Kernaufgabe es ist, Daten zu analysieren und präsize Ergebnisse zu liefern? Mit der aktuellsten Produktrelease gibt MicroStrategy darauf die Antwort.
Johannes Silhan ist Principal Solution Engineer bei MicroStrategy, nachdem er mehrere Jahre lang den Bereich Services in Österreich geleitet hat. Davor hat er bei unterschiedlichen Unternehmen Projekte im Business Intelligence und Outsourcing Bereich erfolgreich umgesetzt. Seit seinem Studienabschluss an der Technischen Universität Wien hat er über 25 Jahre Erfahrung im Bereich Business Intelligence.