PROGRAMM

Hier finden Sie das Programm der ersten TDWI Virtual vom 23. und 24. Juni auf einen Blick!

Empfehlen Sie uns doch auch Freunden und Kollegen:

Expand All +
  • 25. Oktober 2022


  • - Was sind die wichtigen Faktoren, um aus Daten Business value zu erzeugen?
    - Dos & Don´ts aus Data Strategy Projekten
    - Next to come: Data Product Management & Data mesh
    Track 1 | 25.10.2022

  • Wie gelingt erfolgreichen Organisationen die Transformation zu einem „Intelligent Enterprise“ - dem ultimativen datengesteuerten Unternehmen? Eine „Single Version of Truth“ für vertrauenswürdige Analysen, ein modernes Design-Erlebnis und die Möglichkeit, bestehende Applikationen mit datenbasierten Erkenntnissen zu erweiterten, spielen in diesen Unternehmen eine zentrale Rolle. In dieser Session erfahren Sie anhand von zahlreichen Praxisbeispielen, wie die Umstellung funktioniert und welche Vorteile sich für unterschiedliche Nutzergruppen ergeben. Gleichzeitig lernen Sie die Möglichkeiten von moderner Self-Service BI sowie der innovativen Zero-Click Analytcis Lösung „HyperIntelligence“ kennen, die Ihnen helfen, Ihre Daten in konkrete Ergebnisse umzuwandeln.
    Track 1 | 25.10.2022

  • Snowflake gewinnt mit seinem Cloud Data Warehouse seit 2014 mehr und mehr an Bedeutung und entwickelt sich stetig weiter. Dabei legt Snowflake großen Wert darauf, die Plattform mit unterschiedlichsten Tools und Programmiersprachen nutzen zu können. Mit Snowpark bietet Snowflake einen vertrauten DataFrame Ansatz in Kombination mit benutzerdefinierter Logik, um leistungsstarke und effiziente Datenpipelines zu erstellen. In diesem Abschnitt wird zunächst Snowpark selbst und anschließend ein Use-Case zur Abfrage einer GraphQL API und Verarbeitung der Antworten mit Snowpark vorgestellt und wie dies in eine CI/CD Pipeline integriert werden kann.
    Track 2 | 25.10.2022

  • Beschäftigen Sie sich auch gerade mit Data Mesh? Eine Lösung, die dezentrale, moderne Ansätze wie Domain-driven Design (DDD), produktorientiertes Denken und Self-Service-Infrastrukturplattformen verbindet und diese auf Daten anwendet. In unserem Vortrag zeigen wir, wie Sie Data Mesh umsetzen und was das Data Mesh-Konzept von anderen Ansätzen wie DWH, Data Mart oder Data Lake unterscheidet. Außerdem erfahren Sie, wie sich Data Mesh mit Streaming- bzw. Event-basierten Architekturen kombinieren lässt. Ein klarer Vorteil für Sie: mit nur einer Technologie decken Sie alle Datenquellen für schnelle und unkomplizierte Datenabfragen und -analysen ab. it-novum implementiert Ihr Datenprojekt mit langjähriger Erfahrung, sorgt für einen sicheren Betrieb und unterstützt mit kompetentem Support.
    Track 1 | 25.10.2022

  • Suchen Sie nach einer Möglichkeit, Ihren Workflow für maschinelles Lernen zu optimieren? In diesem Vortrag erfahren Sie alles rund um die aktuellen Machine Learning Funktionen bei Snowflake.
    Track 2 | 25.10.2022

  • Infrastructure as Code (IaC) verspricht schnelle Ergebnisse mit hoher Skalierbarkeit. In diesem Webinar machen wir den Praxistest und zeigen, wie innerhalb weniger Minuten ein komplett einsatzbereites Data Science Dashboard entstehen kann. Sehen Sie live, welche Möglichkeiten das Trendthema IaC bietet und wofür Sie die AWS-Infrastruktur mit Terraform über den gezeigten Use Case hinaus verwenden können. Im Fokus der Demo: • Wann macht es Sinn Infrastructure as Code einzusetzen? • Welche Vorteile kann ich durch IaC nutzen? • Worauf gilt es zu achten, wenn ich Code-Module über Terraform deploye? • Ist IaC der erste Schritt in Richtung serverloser Architekturen? Zusammengefasst sehen Sie ein optimales Zusammenspiel der Technologien und Konzepte rund um AWS, Terraform, Plotly Dash, GitHub, CI/CD und Docker-Containerisierung. Zudem erfahren Sie, worauf es beim Start mit Infrastructure as Code zu achten gilt.
    Track 1 | 25.10.2022

  • Es wird immer schwerer neue Talente für das Unternehmen zu gewinnen. Das führt zur Gefahr, vorhandenes Personal zu überlasten, denn die Aufgabenmenge wird nicht weniger. Die Befreiung des Personals von repetitiven und weitgehend standardisierten Aufgaben führt erfahrungsgemäß zur Reduktion der Arbeitslast und zur Steigerung der Zufriedenheit. Innerhalb der Session erhalten Sie einen Einblick, wie konkrete Maßnahmen und Umsetzungen in die Komponenten der Microsoft Power Platform (Power Apps, Power Automate, Power Virtual Agents, …) und deren realen Use-Cases aussehen. Zudem präsentieren wir Ihnen innerhalb einer Demo wie Sie Ihren Rechnungseingang mit Hilfe der Power Plattform in wenigen Minuten automatisieren können.
    Track 2 | 25.10.2022

  • In Politik, Wissenschaft, Wirtschaft und Gesellschaft wird der Ruf nach ethischen Leitlinien für den KI-Einsatz immer lauter. Die meisten Initiativen und Regelwerke beschränken sich auf wenige, allgemein formulierte Grundsätze. Konkrete Methoden, Tools und Arbeitshilfen für die Implementierung in Unternehmen fehlen. In diesem Vortrag geht es um praxisbezogene Ansätze und Tipps - von der Ableitung der ethischen Anforderungen über die Strategieentwicklung bis zur operativen Implementierung. Die Referentin stellt u. a. konkrete Tools wie ein Vorgehensmodell, einen Ethik-Canvas und ein Lifecycle-Modell vor.
    Track 1 | 25.10.2022

  • Microservices ermöglichen es Hermes, Geschäftsanwendungen separat zu entwickeln. Aber wie können Services aus verschiedenen Bereichen miteinander kommunizieren, ohne eine enge Kopplung einzugehen, die eine dynamische Entwicklung blockieren würde? Wie vermeiden wir Call Chains und erreichen, dass Informationen für Millionen von Paketen und Sendungen in kürzester Zeit dort sind, wo sie gebraucht werden? Als Antwort auf diese Fragen etabliert Hermes unternehmensweit das Prinzip einer event-getriebenen Architektur. Apache Kafka und Confluent Cloud spielen dabei eine zentrale Rolle. In diesem Vortrag wird unter anderem vorgestellt: - Wie sich die Software-Architektur im Kontext von Events verändert - Wie Hermes seine Entwickler mit der selbstentwickelten Open-Source-Software "Galapagos" dabei unterstützt, Kafka event-getrieben einzusetzen - Warum Confluent Cloud den Lösungen der großen Cloud-Anbieter vorgezogen wurde
    Track 1 | 25.10.2022

  • 26. Oktober 2022


  • Der Einsatz von Kundenanalytik sollte strategisch im Unternehmen verankert und eine kundendatengetriebene Kultur eingeführt sein. Denn eine unternehmensweite Zusammenarbeit ist Voraussetzung für die Ermittlung sowie Verwendung der Ergebnisse.
    Track 1 | 26.10.2022

  • Datenintegration ist für jedes Unternehmen ein komplexes Vorhaben. Oft scheitert es an der Planung und den involvierten Datenverantwortlichen, oder der Zeitplan bzw. die Kosten laufen aus dem Ruder. Machen Sie sich die vielfältige Projekterfahrung unserer Experten für Datenintegration zu Nutze. Hören Sie, was in realen Projekten besonders gut funktionierte und was Sie bei Ihren eigenen Projekten besser vermeiden sollten. Themen sind unter anderem: - Was sollte im Vorfeld von Unternehmen bedacht und geklärt werden - Was muss beim Start eines Projektes berücksichtigt werden? - Beispielanforderungen und Ergebnisse aus konkreten Kundenprojekten- Was sind die Ziele und für welchen Zeithorizont werden sie angestrebt? - Abschaffung der Datenkomplexität / Welche Datensilos sollen erreichbar gemacht werden? - Welche Aufgabenstellungen sollen ermöglicht werden? - Wie werden die Anwender mitgenommen? - Wie werden Hersteller mit ins Boot geholt?"
    Track 1 | 26.10.2022

  • Mit dem explosionsartigen Wachstum von DataOps, das schnellere und fundiertere Geschäftsentscheidungen ermöglicht, ist ein proaktives Verständnis Ihres Datenzustandes wichtiger denn je. Data Observability ist eine der grundlegenden Fähigkeiten von DataOps und eine aufstrebende Disziplin, die dazu dient, Anomalien in Daten aufzudecken, indem Daten mithilfe von künstlicher Intelligenz und maschinellem Lernen kontinuierlich überwacht und getestet werden, um bei der Entdeckung von Problemen Warnmeldungen auszulösen. Marco Kopp von Precisely erläutert, wie Data Observability als Teil einer DataOps-Strategie eingesetzt werden kann, um zu verhindern, dass Datenprobleme Ihre Analysen beeinträchtigen, und um sicherzustellen, dass sich Ihr Unternehmen vertrauensvoll auf die Daten verlassen kann, die für erweiterte Analysen und Business Intelligence verwendet werden. In diesem Vortrag erfahren Sie im Detail: • Was Data Observability bedeutet und wie es sich von anderen Überwachungslösungen unterscheidet • Warum es jetzt an der Zeit ist, Data Observability in Ihre DataOps-Strategie einzubauen • Wie Data Observability dazu beiträgt, dass Datenprobleme die nachgelagerten Analysen nicht beeinträchtigen • Beispiele wie Data Observability genutzt werden kann, um Probleme in der Praxis zu verhindern
    Track 2 | 26.10.2022

  • Die Erweiterung von B2B zu D2C ist gerade sehr populär, denn sie bringt viele Vorteile mit sich. Um diese voll ausschöpfen zu können, ist es wichtig, Strukturen, Systeme und Prozesse entsprechend anzupassen. Im Zentrum steht dabei das MDM. Denn es ermöglicht die Konsolidierung und effiziente Aufbereitung sämtlicher Daten – für einen 360° Customer View für erfolgreiches Marketing, Produktmanagement, Sales und mehr.
    Track 1 | 26.10.2022

  • Way of Life ist ein britisches Unternehmen im Gebäude- und Eigentumsmanagement und hat in den vergangenen Jahren von einem boomenden Immobilienmarkt profitiert. Mit wachsenden Umsätzen wächst ebenfalls die Anzahl an Betriebssystemen, die für die erfolgreiche Skalierung des Geschäfts notwendig sind. Biztory hat das Unternehmen dabei unterstützt, die passende Datenarchitektur zu implementieren, um die Daten aller Systeme richtig zu nutzen. Besuchen Sie unseren Vortrag, um mehr darüber zu erfahren, wie das Modern Data Stack Way of Life dazu verholfen hat ein stabiles, customer-first und data-first Unternehmen zu werden.
    Track 2 | 26.10.2022

  • Die Marti AG ist ein Schweizer Bauingenieurunternehmen und Kunde von Ataccama für Data Quality- und Master Data Management-Lösungen. Die Marti stand vor der Herausforderung Ihr altes ERP-System in ein neues ERP zu migrieren. Die Herausforderung bestand darin mehre Datendomänen sauber zu identifizieren und zu konsolidieren, auch war die Datenqualität im alten ERP-System für eine saubere Migration unzureichend. Aus diesem Grunde entschloss sich Marti für die Lösung von Ataccama, welche alle Anforderungen für eine saubere und Effiziente Migration der Kunden- und Materialstammdaten in das neue ERP erfüllte. Dabei wurden mittels DQ-KPIs und Analyse der verschiedenen Daten innerhalb der Ataccama Data Plattform die Daten kontinuierlich geprüft und sowohl automatisch als auch manuell durch einen Data Steward für die Migration vorbereitet. Nach Abschluss der Prüfung, Aufbereitung und Konsolidierung der Daten Mittels der Ataccama ONE Plattform wurden die Daten ins neue ERP geladen. Da die Marti AG sehr gute Erfahrungen mit der Ataccama ONE Plattform während des Migrationsprojektes gemacht hat, wollen Sie die erstellten MDM-Prozesse mit den KPIs und Data Quality Regeln auf die gesamte Organisation und allen Tochtergesellschaften ausweiten. Die Ataccama ONE Plattform kann dabei an die jeweils nötigen lokalen Gegebenheiten, prozessual und konfigurativ angepasst werden.
    Track 1 | 26.10.2022

  • Konzepte wie Data Fabric und Data Mesh stehen im Data & Analytics Bereich hoch im Kurs, denn viele Organisationen spüren bereits heute die Schwächen zentraler Ansätze. Bestehende Data-Warehouses oder Data-Lakes sind einer steigenden Anzahl an anspruchsvollen Use-Cases schlichtweg nicht mehr gewachsen. Besteht die Datenplattform der Zukunft also aus einer Kombination von dezentraler Datenhaltung mit einer zentralisierten Governance? Worin unterscheiden sich die Konzepte Data Fabric und Data Mesh – und wo liegen die Gemeinsamkeiten? Erfahren Sie von Otto Neuer, Regional VP und General Manager bei Denodo, welche Sicht die Analysten und der Markt auf die Ansätze einnehmen und wie Unternehmen eine dezentrale Architektur mit Datenvirtualisierung umsetzen können.
    Track 2 | 26.10.2022

  • Kritische Herausforderungen VOR der Migration erschweren den smarten Weg in die Cloud: Unterschätzt werden die Komplexität, Zeitaufwand und tatsächlichen Ist-Kosten von Cloud-Migrationen (McKinsey Studie 2021: 75% werden teurer und 38% verlängern sich um mind. 3 Monate). Der latente Ressourcen- und Softwaremangel führt zwangsweise dazu, dass versteckte personenbezogene Daten, ungeschütztes geistiges Eigentum und sensible Informationen in unstrukturierten Daten nicht erkannt werden.

    Eine smarte Daten-Migration in die Cloud startet immer mit dem Finden, Analysieren und Verstehen aller geschäftsrelevanten und irrelevanten unstrukturierten Daten. Es gilt vor allem die ungenutzten, überflüssigen, veralteten Dateien (ROT data) in den üblicherweise dezentralisierten Infrastrukturen zu klassifizieren und entsprechend effizient zu speichern oder zu löschen.

    Wir erklären Ihnen die wichtigsten Schritte der Datenbestandsaufnahme, -aufbereitung und -bereinigung. Wir kalkulieren, wie dann die Kosten- und Datenersparnis für eine Cloud Migration aussieht. Und zeigen, warum eine saubere Cloud-Migration vor Data Breaches schützt und Ihre Energiekosten bzw. CO2 Ausstoß reduziert. Helfen Sie dem Wirtschaftsstandort Deutschland und verschwenden Sie keine Energie mit der Speicherung ungenutzter & überflüssiger Daten!
    Track 1 | 26.10.2022