KONFERENZPROGRAMM
Die Konferenz ist gestartet!
» Hier geht es direkt zu den Live-Vorträgen
Thema: Data Virtualization
- Dienstag
24.10. - Mittwoch
25.10.
Das Thema Führung, Management, New (and old!) Leadership füllt ganze Bibliotheken. Und es füllt einen bedeutenden Platz in unser aller Berufsleben, denn die meisten von uns haben oder sind Führungskräfte - oder beides.
Stefanie Fröhner berichtet aus 10 Jahren gelebter Führungspositionen im Bereich Data, Analytics & BI. Im Vortrag teilt sie Erfahrungen, Erfolge und Scheitern, gibt Einblick ins Denken einer Führungskraft und Impulse zu folgenden Themen:
• Leadership und warum es nichts mit Management zu tun hat.
• 4 Kompetenzen, die eine Führungskraft haben sollte.
• Gestern noch Kollegen - heute Chef(in) und Mitarbeiter(in): Was nun?
• Teamentwicklung und wann man damit fertig ist.
• Fachkompetenz und wie sie Führungskräften im Weg stehen kann.
• Wenn die Berater kommen: Restrukturierung von Organisationen.
• (Not so) New Work.
Überzeugung: Datenbasierte Entscheidungen erzeugen positiven Business Impact.
Background: Langjährige Erfahrung mit BI, Analytics & Controlling. Aufbau & Management dieser Bereiche im Konzern, u.a. als Direct Report an Vorstand & Geschäftsführung. Zertifizierter Business Coach. Gründerin der Beratungsfirma EnCon Coaching & Consulting.
Herzensthema: „do you speak data?“ – Training & Beratung zu Data Literacy für Alle und zu professioneller Datenkommunikation für Daten- und Insightsprofis.
seit 2021: Leitung Abteilung Digitalisation, Controlling & Analytics im HR-Bereich
2019-2020: Zertifizierung Business Coach & Gründung EnCon Coaching & Consulting
2013-2020: Leitung Business Intelligence
2009-2012: Marktforschung & Research
Data Warehouses (die Single-Source-of-Truth) mit der zugehörigen ETL-Landschaft gehören zum Standard vieler Unternehmen. Im Laufe der letzten Jahre wurden sie um Data Lakes und andere Datentöpfe erweitert. In vielen Unternehmen hat sich daher ein regelrechter Datendschungel gebildet, der durch klassische ETL-Architekturen nur noch schwer zu handhaben ist und hohe Kosten verursacht.
Unternehmen werden dazu gezwungen, neue Alternativen zu suchen, um eine einheitliche Sicht auf die Daten zu bekommen, ohne komplexe Datenprozesse und Architekturen zu implementieren. Datenvirtualisierung löst hier die Probleme der klassischen ETL-Architekturen.
In unserem Vortrag beschreiben wir die technischen Bestandteile einer Datenvirtualiserungslösung und deren massive Vorteile für Unternehmen. Aber wir gehen auch auf Bedenken ein, die gegen den Einsatz von Virtualisierung sprechen. Achtung Spoiler: Die Bedenken erweisen sich als unbegründet.
Christopher Keller leitet den Bereich Big Data Analytics & IoT bei it-novum. Er ist Experte für Business Intelligence-Lösungen, der Entwicklung von Data Warehouses in Verbindung mit SAP sowie der Beratung und Einführung von Daten- und IoT-Plattformen auf Open Source Basis. Seit 2009 haben er und sein Team erfolgreich Kundenprojekte in verschiedenen Branchen mit offenen Technologien umgesetzt.
Arne Ottens ist Teil des Solution Architecture Teams hier bei Starburst Data. Arne ist ein Technologie- und Daten-Enthusiast mit den Schwerpunkten Datenmanagement, Big Data und Cloud-Technologien. Seine Erfahrung hat er aus zahlreichen internationalen Projekten in verschiedensten Branchen und freut sich nun Ihnen Starburst näher zu bringen.
Apache Kafka serves thousands of enterprises as the mission-critical and scalable real-time data fabric for machine learning infrastructures. The evolution of Generative AI (GenAI) with large language models (LLM) like ChatGPT changed how people think about intelligent software and automation. This session explores the relation between data streaming and GenAI and shows the enormous opportunities and some early adopters of GenAI beyond the buzz.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/kai.waehner
Kai Waehner is Field CTO at Confluent. He works with customers and partners across the globe and with internal teams like engineering and marketing. Kai’s main area of expertise lies within the fields of Data Streaming, Analytics, Hybrid Cloud Architectures and Internet of Things. Kai is a regular speaker at international conferences, writes articles for professional journals, and shares his experiences with industry use cases and new technologies on his blog: www.kai-waehner.de. Contact: kai.waehner@confluent.io / @KaiWaehner / linkedin.com/in/kaiwaehner.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/kai-waehner/
Die Investitionsbank Sachsen-Anhalt (IB-LSA) wurde zum 01.03.2023 von einem Geschäftsbereich der Norddeutschen Landesbank (Nord/LB) zu einem eigenständigen Kreditinstitut mit eigener Banklizenz weiterentwickelt, was u.a. ein aufsichtsrechtlich konformes Datenmanagement erfordert. In dem dazu aufgesetzten Projekt hat sich die IB-LSA dafür entschieden, einen auf einer Datenvirtualisierungs-Software basierenden Single Point of Truth (SPOT) für das Weiterverarbeiten von Daten entschieden. In diesem Artikel wird beschrieben, wie mit Hilfe dieses Ansatzes eine Datenzentrale sowohl für die Datenversorgung von Statistiken und Datenauswertungen als auch für den Datenaustausch zwischen den einzelnen bankfachlichen Anwendungen unter Einhaltung der aufsichtsrechtlichen Vorgaben für das Datenmanagement in Banken geschaffen wurde.
Nach seinem Informatikstudium an der Otto-von-Guericke-Universität mit
Schwerpunkt Datenbanken und einer sich anschließenden zweijährigen Tätigkeit als wissenschaftlicher Mitarbeiter wechselte Andreas Christiansen 1998 in die Investitionsbank Sachsen-Anhalt. Dort leitete er bis 2021 den IT-Bereich und leitete in jüngster Vergangenheit 2 Teilprojekte im Rahmen der Verselbständigung der Investitionsbank Sachsen-Anhalt.
Im Vortrag erfahren Sie, mit welchen typischen Herausforderungen System-Integratoren bei der Data Mesh Implementierung begegnen und wie diese aus der Perspektive eines Software-Anbieters mit modernen, Domain-orientierten Architekturkonzepten (wie der Data Fabric) gelöst werden.
- Typische Herausforderungen: Analyse gängiger Probleme und Schwierigkeiten in Kundengesprächen und Projekten.
- Strategien und Techniken zur erfolgreichen Umsetzung eines Data Mesh
- Praxisorientierte Live-Demo: Sehen Sie, wie typische Herausforderungen konkret mit der Denodo Plattform gelöst werden
Jörg Meiners ist Data Architect bei Denodo Technologies. Er berät Unternehmen in Deutschland, Österreich und der Schweiz (DACH Region) über Datenmanagement und insbesondere über die Daten-Integration in heterogenen Landschaften. Ein besonderes Augenmerk legt er dabei auf den praktischen Nutzen und die Agilität von Integrationsarchitekturen.
Der studierte Physiker begann seine IT Karriere 1994 mit Stationen bei der SAP, Sun Microsystems und Oracle. Während seiner beruflichen Laufbahn belegte er Positionen in der Software-Entwicklung, in der Projekt-Implementierung und im Management.
Dr. Johannes Held berät bei der PRODATO umfänglich zu den Themen Datenstrategie und Datenwertschöpfung. Seine Kernthemen dabei sind Berichts- und Datenstrategielösungen. Dabei legt er seinen Fokus auf eine Umsetzung mittels Datenvirtualisierung sowie den Einsatz der moderne NoSQL-Datenbank Couchbase.
Er ist diplomierter Informatiker und promovierte an der FAU zum Thema Datenqualität für Testdaten.
In unserem Vortrag betrachten wir Probleme unserer Kunden auf dem Weg zum datengetriebenen Unternehmen und stellen einen Lösungsansatz vor, mit dem wir die Power der Daten durch den Human Factor nutzbar machen.
Manuel Juschkewitz ist Manager Transformation und Coach. Er unterstützt Kunden durch methodische und fachliche Beratung in Change Prozessen und entwickelt im engen Kundenaustausch nutzerorientierte Lösungen. Seine Arbeitsweise kombiniert systemische und agile Frameworks und wird durch Erfahrungen aus verschiedensten Branchen (Automotive, Banken, Wirtschaftsprüfer, öffentlicher Dienst und Maschinenbau) bereichert.
Du wünscht dir moderne Datenanalyse und schnellere Ergebnisse? Schau vorbei und staune wie einfach man Erkenntnisse mit Tableau finden kann, unterstützt durch Künstliche Intelligenz.
Seit März 2018 hilft Doris Kopić Menschen dabei, ihre Daten zu sehen und zu verstehen. Als Data Rockstar ist Doris bekannt dafür, ihr Tableau-Wissen auf der internationalen Bühne auszuleben, wie bei der Tableau Conference oder dem legendären Iron Viz. Wenn sie nicht gerade Datenmodellierung oder Tableau Server-Architektur erklärt, singt Doris gern Karaoke, engagiert sich in Salesforce’s Rosengarten und optimiert das Supply Chain Management in ihren Lieblings-Video-Games.
In Zeiten wachsender Datenmengen lebt die Berlin Hyp AG Data Governance im gesamten Unternehmen. Komplexer werdende Systemlandschaften erfordern effiziente, fachliche Prozesse zur effektiven Handhabung, Pflege und Nutzung von Daten.
Wie es dazu kam und wie es die Berlin Hyp schafft, diese Prozesse fest in der Organisationsstruktur sowie in den Köpfen der Mitarbeiter zu verankern und sie durch die Einführung eines Data Management Tools stetig weiterzuentwickeln – das zeigen Ihnen Julia Kämner (Berlin Hyp AG) und Pia Potrikus (Synabi Business Solutions GmbH) in diesem Vortrag.
Sie erhalten einen Einblick in den Data Governance-Bereich der Berlin Hyp AG und die dortige Verwendung des Metadaten Management Tools D–QUANTUM. Was sind Ziele und Mehrwerte der Einführung eines Data Catalogs und warum wird er meist als das „zentrale Werkzeug zur Einführung von Data Governance“ in Unternehmen gesehen?
In Form von Praxisbeispielen zeigt Ihnen Pia Potrikus, wie die Berlin Hyp AG durch die Anbindung externer Datenquellen die Grundlage für eine vollumfängliche Ansicht der fachlichen Verwendung technischer Metadaten schafft und welchen Vorteil fachliche, technische und kombinierte Lineages den Mitarbeitern bieten.
Den Abschluss des Vortrags bildet ein Ausblick auf weitere Themen in der Entwicklung, der zeigt, wieso die manuelle Erfassung von Datenfeldern und die Anbindung von weiteren IT-Systemen wichtige Zwischenschritte auf dem Weg zu einem erfolgreichen Datenqualitätsmanagement sind.
Pia Potrikus verfügt über langjährige Erfahrung in innovativen IT-Projekten im Bereich des digitalen Zahlungsverkehrs, Reportinglösungen, Datenmodellierung und Metadatenmanagement. In ihrer Funktion als Manager und Teamleitung im Bereich Product Consulting der Synabi verantwortet sie die Einführung von D-QUANTUM bei Neukunden sowie die individuelle Weiterentwicklung von bestehenden Data-Governance-Projekten.
Julia Kämner verfügt über langjährige Erfahrung bei der Implementierung von datenbezogenen, bankspezifischen IT-Projekten inklusive der technischen Umsetzung neuer, regulatorischer Anforderungen nach MaRisk 4.3.4 und dem BCBS 239 Standard. In ihrer Funktion als Fachverantwortlicher für das Softwaretool D-QUANTUM verantwortet Sie den Aufbau eines Datenkatalogs und von Datenflüssen aus vorgelagerten Systemen in die FSDP der SAP sowie die Ausgestaltung eines zentralen Datenqualitätsmanagements (inkl. DQ-Reporting).
Self-Service-Analytics wird häufig auf Visualisierungen und interaktive Dashboards reduziert. Jedoch ist eine umfassendere Betrachtung essenziell auf dem Weg zur Demokratisierung von Daten und zur Steigerung der unternehmensweiten Datenkompetenz. Wer diese Ziele erreichen will, benötigt mehr als nur Dashboards.
Dieser Vortrag beleuchtet das Thema und präsentiert anhand praxisnaher Beispiele, warum und wie Self-Service-Analytics weit über die Grenzen von Dashboards hinausgeht, um einen nachhaltigen Wettbewerbsvorteil zu erzielen.
Dr. Quan Vuong verbrachte den Hauptteil seiner Karriere im Bereich Data & Analytics bei der renommierten Unternehmensberatung BCG, zuletzt als Manager bis 2022. Er wirkte in zahlreichen Kundenprojekten mit, befasste sich dabei mit diversen datengetriebenen Fragestellungen aus unterschiedlichen Industrien und beobachtete über ein knappes Jahrzehnt hinweg die Zunahme der Datenkompetenz im Unternehmen. Sein umfassendes Wissen und seine vielfältige Erfahrung positionieren ihn als Experten auf dem Gebiet der Datenanalyse.
Bei Alteryx hat er inzwischen die Möglichkeit, seine Vision von Self-Service-Analytics und Data Democratization noch gezielter voranzutreiben und Kunden dabei zu unterstützen, diese Konzepte effektiv umzusetzen.
Yaskawa Europe mit Hauptsitz in Hattersheim bietet Mechatronik- und Robotiklösungen für Unternehmen in ganz Europa, dem Nahen Osten und in Afrika an. Vor drei Jahren hat Yaskawa Europe entschieden zukünftig Power BI als Business Intelligence System einzusetzen.
- Das Ziel: Gemeinsame Auswertung der Yaskawa Landesgesellschaften mit Power BI.
- Die Herausforderung: Wie führt man SAP, Dynamics NAV, iScala und andere ERP zusammen?
Mit dem Konzept Power BI primär zur Visualisierung einzusetzen und mit TimeXtender ein Azure Modern Data Estate als Datenplattform zu erstellen, hat der langjährige Microsoft Partner datenkultur das Vertrauen der BI Abteilung von Yaskawa Europe gewonnen.
Der Yaskawa BI-Experte Stefan Thurn und der datenkultur CEO Andreas Koblischke stellen das Projekt vor und Berichten von Ihren Erfahrungen.
I’m responsible for the global Yaskawa EMEA BI architecture including the toolchain (Power BI, TimeXtender, IT infrastructure and connections to multiple source systems).
I’ve started as Software developer in database programming and was responsible for global Master Data Management across systems.
I have been involved in the development of enterprise resource planning systems and the evaluation of operational data since 1995. Since 1999 I am self-employed and since 2003 shareholder and managing director of datenkultur. Starting in 2006, I was instrumental in establishing the Jet Reports product in the German market. In the following years I extended my knowledge to Dynamics, data warehouse, analysis services, Azure Synapse, Microsoft Fabric and Power BI. I always keep my knowledge up to date on these topics. I regularly publish articles on these topics and am often invited as a speaker.
In seiner Keynote wird Andreas Totok vorstellen, wie aus einem Spielzeugmodell die Idee zu einem wichtigen Anwendungsfall geboren wurde, der sein Team und ihn zwei Jahre lang nicht los gelassen hat. Er geht dabei auf die Herausforderungen und Herangehensweisen für ein nicht alltägliches Projekt ein.
Dr. Andreas Totok beschäftigt sich seit den 1990er Jahren mit Anwendungen zur Datenintegration und -analyse und leitet in der Finanz Informatik Solutions Plus (FI-SP) den Geschäftsbereich Enterprise Information Management. Seine Schwerpunkte liegen in der Architektur- und Organisationsberatung im Kontext von BI- und KI-Projekten in der Sparkassen-Finanzgruppe. Er ist zudem Buchautor“, Referent auf Fachveranstaltungen und engagiert sich in der TDWI-Community, von der er die Auszeichnung „TDWI Europe Fellow“ erhielt. Als stellvertretender Vorsitzender des TDWI kümmert er sich um die kontinuierliche Weiterentwicklung der Vereinskommunikation.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/andreas-totok/
Der Vorteile von künstlicher Intelligenz sind, trotz aller Diskussionen, sowohl für private Nutzer als auch Firmen und Behörden offensichtlich. KI ist kein Hype, sondern wird ein neuer Teil eines Software-Lösungs-Stacks. Immer stärker und lauter wird über die Daten, den Brennstoff für KI, diskutiert. Buch-Autoren lösen Urheberrecht-Sammelklagen gegen OpenAI aus, Firmen verbieten den Mitarbeitern die Nutzung und unwissende Politiker wollen mit der Beratungshilfe der KI-Erschaffer über die Regulierung entscheiden.
Wer sich deutlich differenzieren und dauerhafte Wettbewerbsvorteile sichern will, muß seine eigenen Daten mittels KI verarbeiten lassen. Das ist der hochwertigste „Superbrennstoff“ für KI-/ML-Anwendungen! Aber wie schaffen es Unternehmen, diese Daten-Bestände zu finden und so aufzubereiten, dass keine Persönlichkeitsrechte verletzt werden und Firmengeheimnisse verwendet oder von Unbefugten zum Trainieren von Modellen benutzt werden? Wie schafft man Transparenz und Nachverfolgbarkeit? Kann man Zugriffsrechte auf die Ergebnisse regeln bzw. ungewollte Datenabflüsse aus den Resultaten verhindern? Und wie liefert man umfassend und möglichst automatisiert die Ergebnisse in die vorhandenen oder zukünftigen BI- und Analyse-Tools?
Unser Gründer & CEO Adrian Knapp zeigt Risiken und Chancen auf und was er tun würde, um KI besser und schneller im eigenen Unternehmen zu nutzen.
Adrian Knapp ist Visionär, Gründer und CEO von Aparavi. Seit über 30 Jahren beschäftigt er sich mit effizientem Datenmanagement. Zuerst als Mitgründer von Dicom (IPO 1995, AIM London), einem Vorreiter im Bereich Digitale Archivierung (heute Kofax). Dann folgte COPE/Mount10 (IPO 1998, NASDAQ & 2001, Neuer Markt), die sich von einer Data Storage Beratung zum ersten Datacentric Hoster in Europa entwickelte. Außerdem war er Mitgründer der NovaStor AG, einem Dienstleister für Backup-Lösungen, bei der er aktuell als Verwaltungsrat tätig ist. Adrian Knapp ist Schweizer, lebt aber seit vielen Jahren in Kalifornien.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/adrian-knapp/
Auf dem Weg zur datengetriebenen Organisation, kommen stets Fragen des sinnhaften Umgangs mit der Ressource Daten auf. So sagen 65 Prozent der Vorstände und Geschäftsführer aus, dass ihr Unternehmen über keine Datenstrategie verfügt. Des Weiteren geben drei Viertel der befragten Vorstände an, dass ihr Unternehmen Daten nicht systematisch auswertet und dementsprechend nicht ökonomisch, etwa in Form von datenbasierten Produkten, verwerten kann. [Digital chiefs 2022] Im Webcast erläutern wir, wie man den Wert von verschiedenen Daten für das eigene Unternehmen mittels einer Datenstrategie erkennen kann und wie ein effektives und auch effizientes Management der Ressource Daten unter Erreichung von Datenqualitätszielen aufgesetzt werden muss (Datenmanagement). Es erfordert organisationale Begleitung, damit Instrumente eine Wirkung entfalten können (Data Governance, Data Culture, Data Mesh).
Die Orchestrierung dieser Instrumente unterstützt ein Unternehmen dabei, sich für den richtigen Umgang mit Daten vorzubereiten und die dafür notwendigen Arbeiten durchzuführen.
Key-Take-Aways unserer Session
Sie können für Ihre Organisation strategisch beurteilen, welche Schritte eine erfolgsstiftende Nutzbarmachung von Daten als Ressource ermöglichen;
Sie kennen eine initiale Roadmap zur Umsetzung der Schritte;
Sie können Aufwände einschätzen und verstehen
Sie kennen Erfolgsfaktoren auf dem Weg zur datengetriebenen Organisation
Mehr Inhalte dieser Speaker? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/carsten.felden
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/claudia-koschtial/
Join two of Europe's leading SAP data integration experts as they share their invaluable insights and best practices. Delve into the world of SAP data integration and discover a variety of options for extracting data from SAP systems. Learn about efficient methods to seamlessly integrate this data with other sources, making use cases readily available.
In this presentation, our experts will demonstrate how to automate mundane tasks, allowing you to focus on the exciting aspects of your projects. By implementing these best practices, you'll rapidly accelerate the overall value of your SAP system, ensuring that you stay ahead in the world of data integration. Don't miss this opportunity to gain valuable insights and to supercharge your SAP data integration.
Richard Brouwer is a worldwide leading expert in migration and data integration of SAP data. He gained his knowledge during his 30 year career in data working in leading organizations at companies like Ratiopharm, Unilever and Heineken, as well as technology at companies like Accenture, Teradata and HVR. Currently he is applying his expertise as a Sales Engineer at Fivetran as the global go-to-person for all SAP related topics.
Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.
Dieser Vortrag gibt einen Überblick zu den Möglichkeiten in Microsoft Fabric. Anhand von praxisnahen Demonstrationen zeigen wir, wie die einzelnen Rollen der Data Community vom Data Engineering bis zum Head of Controlling im Unternehmen betroffen sind. Diskutiere gerne mit uns über die zahlreichen Herausforderungen und Chancen, welche es bei der Einführung und Planung von Microsoft Fabric zu berücksichtigen gilt.
Seit über 15 Jahren berät Julian Schütt Kunden bei der Implementierung von smarten Plattformen zur Analyse und Planung. Er verantwortet die Business Unit Smart Data Services mit den Themenschwerpunkten Data Analytics, Data Engineering, Data Platform und Data Science bei der celver AG.
Replication of data is a first and important step to facilitate business decisions. No matter if you are scheduling your data pipelines or constantly streaming changes to get the most current information, your data journey does not stop here. Eventually you want to extract value from your data assets and use acquired insights as the foundation for new initiatives. In this presentation you will learn how we can help you to trust your data by using the Precisely Data Integrity Suite.
Charles has a career spanning more than 30 years in the IT working for several companies and in various roles as support engineer, trainer, consultant and currently as a senior sales engineer at Precisely. Since a young age Charles was, and still is, highly interested in state-of-the-art technology in many different areas inside and outside the IT. With a strong background in programming, operating systems, networking, database technology and distributed computing he has worked on many data migration and modernization projects.
Der Vortrag bietet Einblicke in die Etablierung einer modernen Data Analytics-Implementierung. Er hilft Ihnen, Hindernisse zu überwinden, zeigt Best Practices auf und deren exemplarische Umsetzung mit Microsoft Fabric.
Sind Sie frustriert über die Ergebnisse Ihrer Datenprojekte und fehlt es an einer klaren Strategie und Richtung? Jedes Unternehmen hat seine eigenen Herausforderungen. Bei transformierenden Initiativen ist es besonders wichtig, einen zuverlässigen Weg zu finden und eine Data Analytics-Strategie zu entwickeln. Erfahren Sie, wie Sie Self-Service-Analytics mit der notwendigen Datenqualität und -Governance effektiv in Ihre Geschäftsprozesse integrieren können. Entdecken Sie, wie eine durchdachte Analytics-Strategie Risiken minimiert, die Effizienz steigert und neue Erkenntnisse ermöglicht. Wir zeigen Ihnen konkrete Schritte zur Umsetzung der entsprechenden Best Practices.
Nehmen Sie an unserem Vortrag teil, um zu erfahren, wie datengesteuerte Lösungen Ihnen dabei helfen können, Ihr Unternehmen effizienter zu gestalten und neue Erkenntnisse zu gewinnen.
Vortrag-Highlights:
Vorstellung bewährter Herangehensweisen für Data Analytics-Projekte.
Praxiserprobte Frameworks und Accelerators für erfolgreiche Data Analytics-Projekte.
Vorstellung von Best Practices mit Microsoft Fabric.
Stefan Müller ist der General Manager von Xpand IT in Deutschland. Mit über 15 Jahren Erfahrung in den Bereichen Daten und Analytics hat er für diverse IT-Beratungsunternehmen gearbeitet. Stefan schreibt Artikel, hält Vorträge auf Konferenzen und ist ständig auf der Suche nach neuen Wegen, wie Daten Unternehmen voranbringen können.
Francisco Candeias ist Data Analytics Engineer bei Xpand IT und verfügt über Erfahrungen in verschiedenen Branchen wie dem Bank- und Versicherungswesen. Während seiner beruflichen Laufbahn hatte er die Gelegenheit, an der Implementierung von Business Intelligence-Lösungen mit Technologien wie Azure Synapse, SSAS, SSIS und Power BI zu arbeiten. Er hat ein tiefgreifendes Verständnis für die verschiedenen Phasen der Implementierung komplexer Datenanalyseprojekte erworben, einschließlich der Datenextraktion, -transformation und Berichtsimplementierung. Er ist ein Datenenthusiast!
Jeder, der bereits mit Generativer AI wie etwa ChatGPT gearbeitet hat, weiß dass die Ergebnisse oft beeindrucken. Aber stimmen sie auch? Oder erfindet die AI Informationen, halluziniert oder missinterprtiert sie einfach die Frage? Wie lässt sich ein solches Werkzeug in eine Business Intelligence Plattform integrieren, deren Kernaufgabe es ist, Daten zu analysieren und präsize Ergebnisse zu liefern? Mit der aktuellsten Produktrelease gibt MicroStrategy darauf die Antwort.
Johannes Silhan ist Principal Solution Engineer bei MicroStrategy, nachdem er mehrere Jahre lang den Bereich Services in Österreich geleitet hat. Davor hat er bei unterschiedlichen Unternehmen Projekte im Business Intelligence und Outsourcing Bereich erfolgreich umgesetzt. Seit seinem Studienabschluss an der Technischen Universität Wien hat er über 25 Jahre Erfahrung im Bereich Business Intelligence.
Why Data Mesh?
Did you ever pull at the loose thread of a data fabric only to watch it unravel?
Join this session to learn how the combination of Qlik and Talend delivers a data fabric for modern data
architectures that serve the widest range of use cases and personas. Qlik Talend offers data integration, data
quality, application integration and data governance that work with virtually any data source, target,
architecture or methodology.
Adam is in the Global Product Marketing team at Qlik, responsible for CDC Streaming. He is experienced in covering the entire Qlik product
portfolio and has delivered the company’s Internet of Things (IoT) and
GDPR go-to-market strategy. With a strong technical background in
computing, underpinned by an incisive engineering perspective, Adam
is an avid follower of new technology and holds a deep fascination of
all things IoT, particularly on the data streaming and analytics side, and
loves finding new ways to make it as translatable, visual, and
understandable to as many people as possible. Adam is passionate
about the space and believes that IoT data needs to be approached
with an open mind, rather than looking for an answer. It needs to be
interacted with for hidden insights and gems that organisations might
not have thought about looking for. He has over 20 years of B2B
customer facing experience within the IT and automotive sectors,
having previously held positions at Canon, Sony, Tevo, Fujitsu and
Toshiba. Adam lives in Sandhurst, UK, with his partner, daughter and
cat.