Rückblick TDWI Virtual | Juni

Auf dieser Seite finden Sie den Rückblick zur ersten TDWI Virtual im Juni 2020, eine Übersicht des Programms, der Sponsoren und Speaker. Einen kurzen Rückblicks-Videoclip finden Sie hier auf Youtube.

Empfehlen Sie uns doch auch Freunden und Kollegen:

PROGRAMM JUNI 2020

  • Vergangen | 23. Juni 2020


  • Frauke Kreuter
    10:00 – 10:45
    BEGRÜßUNG + KEYNOTE:
    Datenschätze und wie leicht man sich davon blenden lässt
    By Frauke Kreuter University of Maryland


    Die Begeisterung über digitale Datenschätze ist groß. Firmen, Medien und Politiker preisen Daten als das neue Öl und versprechen evidenzbasierte Entscheidungen. Tatsächlich ergeben sich für Entscheidungsträger durch die Digitalisierung völlig neue Möglichkeiten zur Messung von Aktivitäten der eigenen Firma oder des eigenen Landes. Dabei wird häufig übersehen dass die Qualität der Erkenntnisse nicht nur eine Funktion fortgeschrittener Algorithmen ist sondern ganz entscheidend von der Qualität der Daten abhängt. Selbst die besten Deep Learning Techniken laufen ins leere wenn man aus der Vergangenheit nicht genug lernen kann. Einen Ausweg bieten Stratgien zur Kombination von Datenquellen, allerdings mit Risiken für die Privatsphäre über die wir uns als Gesellschaft Gedanken machen müssen.


  • Markus Enderlein
    11:00 – 11:40
    Erfolgreiche Data & Analytics Lösungen in der Cloud
    By Markus Enderlein INFOMOTION GmbH, Dr. Bernd Heßbrügge INFOMOTION GmbH


    Die Umsetzung von Cloud basierten Data & Analytics Lösungen bringt viele Herausforderungen mit sich. Im Vortrag werden wir uns mit Ihnen anhand verschiedener Kundensituationen einige Herausforderungen und den jeweils gewählten Lösungsansatz ansehen. Darauf aufbauend stellen wir Ihnen unseren Blickwinkel auf die daraus resultierenden Best Practices zur Begegnung ähnlicher Herausforderungen dar.

    Zielpublikum: Entscheider (Linie, Projekt, Betrieb), Architekten
    Voraussetzungen: Erfahrung in der Umsetzung von Data & Analytics-Lösungen
    Schwierigkeitsgrad: Einsteiger


  • Frederik Naessens
    11:00 – 13:00
    WhereScape Data Automation: Virtual Lab
    By Frederik Naessens WhereScape


    After months of staying home and listening to one-size-fits-all webinars, now it’s time for something different.

    Join us for four interactive Data Automation tracks within one workshop. You will hear a brief introduction to Data Automation and its capabilities, then choose the flavour of breakout room that matches your own interest:

    Room 1: Data Vault modelling

    Room 2: Cloud migration (on Snowflake)

    Room 3: Dimensional modelling (on SQL Server)<7br>
    Room 4: Building an automated production line

    What Will You Learn?

    • How Data Automation allows you build, change and operate your data infrastructure by dragging-and-dropping from source to target. The tool then creates the mappings, transformations and ELT code for the underlying platform in native code.
    • How WhereScape Data Automation simplifies and accelerates development with built-in wizards and templates
    • How Data Automation makes your team more Agile by enabling you to react to business requests faster and automate full documentation with one click.

    Who Should Attend?

    This event is suitable for data warehouse developers, data architects, IT management staff, CIOs/CTOs and data warehouse business users.


  • Michael Achtelik
    11:50 – 12:30
    Tatort Data Lake: Aufklärung tut not – Discovery & Tagging Sensibler Daten
    By Michael Achtelik Hitachi Vantara


    Möglicherweise ist Ihr Data Lake schon ein Fall für die Spurensicherung! Viele unserer Kunden stehen vor der Herausforderung, die Kontrolle über den stetig anwachsenden Datenstrom zu behalten. Wer darf welche Daten sehen und wie sind sie zu behandeln? Eigentlich müssten Sie allen Ihren Daten die Fingerabdrücke nehmen, bevor sie in den Data Lake gelangen. Eine große Herausforderung mit hohem Aufwand, während das Business schnell an die Daten kommen möchte.

    Die Forderungen nach Self-Service-Datenzugriff, höherer Business Agility und rasch umsetzbaren Ergebnissen dürfen nicht im Widerspruch stehen zu der korrekten Einhaltung von Datenschutz- und Compliance-Richtlinien. Compliance-Verstöße können nicht nur Geld kosten sondern auch Unternehmensreputation. Diesen Krimi möchten wir Ihnen gerne ersparen. Der automatisierte Fingerabdruck im Data Catalog ist dazu ein Lösungsbaustein.

    Wir zeigen Ihnen anhand von aktuellen Kunden-Use Cases wie Sie automatisiert und AI-unterstützt Ihre sensiblen Unternehmensdaten managen und so einen glasklaren Blick in Ihren Data Lake bekommen können.


  • Matt Krenzel
    12:40 – 13:20
    Von Legacy Datenquellen und wie man den Hunger eines Digitalbären stillt!
    By Matt Krenzel E. Breuninger GmbH & Co., Bojan V. Petrovic Qlik Data Integration Division


    Matt Krenzel, Data Platform Services bei Breuninger und Bojan V. Petrovic, Country Manager DACH/EE bei Qlik Data Integration Division (ehemals Attunity), zeigen, wie Real-Time-Datenintegration in der Praxis funktioniert! Erfahren Sie, wie das Fashion- und Lifestyle-Unternehmen Datenschätze aus verschiedensten existierenden Applikationen wie z.B. SAP extrahiert und im gesamten Unternehmen nutzbar macht – und das nahezu in Echtzeit. Mit der Qlik Data Integration Platform konnte Breuninger Daten ohne Beeinträchtigung des Betriebs in ein einheitliches System überführen und so Prozesse vereinfachen, datengetriebenes Arbeiten ermöglichen und beschleunigen.


  • Thomas Niewel
    13:30 – 14:10
    Virtual Lab – Erfahren Sie die Vorteile von Datenvirtualisierung in der Cloud
    By Thomas Niewel Denodo


    Datenvirtualisierung ist in der Fachwelt omnipräsent und Analysten wie Gartner beschreiben den logischen Integrationsstil als essentiell für eine moderne Datenarchitektur. Am besten aber erfahren Sie die Vorteile von Datenvirtualisierung, indem Sie diese selbst nutzen!

    In diesem Vortrag sehen Sie live, wie in kürzester Zeit eine produktive Datenintegration auf Enterprise-Niveau hergestellt wird. Die Session baut auf dem Azure Cloud-Ökosystem auf, um typische Herausforderungen zu lösen, mit denen Data Scientists und Architekten konfrontiert sind. Der Vortrag führt Sie durch die Anbindung verschiedener Datenquellen, die anschließende Datenmodellierung und gibt Ihnen praktische Einblicke in die mächtigen Funktionen unserer Plattform zur Performance-Optimierung. Und das Beste: Die Session können Sie als Workshop flexibel und zu jeder Zeit in einer „auf Knopfdruck“ bereitgestellten Sandbox-Umgebung selbst nachvollziehen.

    An wen richtet sich der Vortrag?

    • IT / Architekten: Die sich mit schnellen und aktuellen Datenzugriffen beschäftigten
    • Data Scientists: Die Einblicke aus relevanten Datensätzen gewinnen möchten
    • CDOs: Welche die Vorteile von Datenvirtualisierung selbst erfahren möchten


  • Claudia Koschtial
    14:20 – 15:00
    Die Corona-Digitalisierung – Prozesse, Prozessanalyse und Prozessmanagement in veränderten Zeiten
    By Claudia Koschtial Marmeladenbaum GmbH


    Die Vermutung lag schon zu Beginn der COVID19-Pandemie nahe, dass die veränderten Bedingungen Treiber für die Digitalisierung sind. Home-Office, Online-Meetings aber auch veränderte Prozesse gehören zum neuen Standard. Claudia Koschtial und Carsten Felden haben zusammen mit dem TDWI dazu eine entsprechende Studie ausgeführt und sehen eine klare Bestätigung für die Treiberschaft. Zudem sehen wir auch konkrete Ansatzpunkte, um den aktuellen Herausforderungen zu begegnen. So sprechen wir mit Ihnen über Business-Intelligence und Analytics gestütztes Prozessmanagement, nahtlos digitale Prozesse auch für Analytics, Process Mining und welche tatsächlichen Mehrwerte KI in diesem Zusammenhang bieten kann.


  • Vergangen | 24. Juni 2020


  • Dr. habil. Eberhard Schnebel
    10:00 – 10:45
    BEGRÜßUNG + KEYNOTE:
    Datenethik und Digitale Transformation
    By Dr. habil. Eberhard Schnebel Goethe-Universität in Frankfurt


    Datenethik wird mehr und mehr zu einem zentralen Kernbereich der Digitalstrategie. Wir beobachten immer mehr gesetzliche Vorschriften und immer genauere Anweisungen, wie dieses Thema organisatorisch zu handhaben ist – Datenschutzbeauftragte, DSGVO, Veröffentlichungen aus der EU zu „Responsible AI“ und die Datenethik-Kommission der Bundesregierung.

    Wer erfolgreich in diese Richtung gehen will, muss „Datenethik“ als ein Kernelement des Geschäftsmodells etablieren. Wir diskutieren, wie das mit drei entscheidenden Elemente geschehen kann:

    • Fairness: Wissen Kunden, woran sie sind und was sie erwarten können – ist also ihre Unternehmenskommunikation und Werbung funktional gestaltet?
    • Führung: Wo ist Datenethik für Mitarbeiter eine Werte-Orientierung in Transformationsprozessen und eine Hilfestellung in Grauzonen – sind intern die Freiräume definiert und verstanden?
    • Transparenz: Sind die Produkte und Dienstleistungen verständlich und nachvollziehbar? Passen unsere Ziele, unsere Aktivitäten und unsere Produkte zusammen?


  • Kai Wähner
    11:00 – 11:40
    Machine Learning & Apache Kafka: Die nächste Generation intelligenter Software
    By Kai Wähner Confluent


    Machine Learning kann in jeder Branche einen Mehrwert schaffen. Denn Kunden erwartet Informationen nicht nur in Echtzeit, sondern immer öfter auch proaktiv. Zudem ist es eine der größten Herausforderungen für Unternehmen, auf kritische Momente zu reagieren, bevor es zu spät ist – zum Beispiel bei Betrugerkennung von Finanztransaktionen oder vorausschauender Wartung im industriellen Umfeld.

    Apache Kafka wird in immer mehr Unternehmen bereits als zentrales Nervensystem genutzt. Machine Learning ist eine hervorragende Ergänzung! Kafka wird sowohl für die Datenintegration als auch für das Trainieren, Anwenden und Überwachen analytischer Modelle verwendet.

    Welche Mehrwerte wollen wir in diesem Vortrag vorstellen?

    • Vereinfachung von hochverfügbaren Echtzeit-Datenströmen
    • Entkopplung von Training und Wartung von analytischen Modellen
    • Nutzung von Echtzeit oder Batch je nach Bedarf in Kombination mit verschiedenen Technologien

    Dieser Vortrag zeigt, wie Sie eine hochskalierbare und zuverlässige Machine Learning Infrastruktur ohne ein Data Lake aufbauen können. Streaming-Daten werden direkt über Apache Kafka von verschiedenen Quellsystemen integriert, verarbeitet und für Machine Learning eingesetzt.
    Der Vortrag vergleicht diese moderne Streaming-Architektur mit traditionellen Batch- und Big-Data-Alternativen und erklärt die Vor- und Nachteile der Ansätze.


  • Martin Benes
    11:50 – 12:30
    Agiles Vorgehen und DWH Automation in der Praxis bei Angst + Pfister
    By Martin Benes Angst+Pfister AG


    Als führender Lieferant von Industriekomponenten und Anbieter umfangreicher Lösungen für eine Vielzahl von Industriebranchen, gewährleistet Angst+Pfister Geschäftskontinuität und betreut führende Hersteller seit über 100 Jahren. Geführt durch das Gruppencontrolling wurde im Jahr 2019 eine neue Business Intelligence Plattform entwickelt, welche die zentrale Anlaufstelle für analytische Fragestellungen im Unternehmen werden soll. Erfahren Sie aus erster Hand die Hintergründe und Zielsetzungen dieses Vorhabens. Gleichzeitig geben wir Ihnen einen Einblick in das laufende Projekt: Zuerst erläutern wir das agile Projektvorgehen und geben einen Überblick über die gewählte Architektur. Danach sehen Sie, wie wir das System mittels WhereScape RED und Power BI entwickeln.


  • Harald Erb
    12:40 – 13:20
    Snowflake by Example: Lösungsansätze zur Überwindung von Daten- und Wissenssilos
    By Harald Erb Snowflake


    Zu viele Datensilos, zeitaufwändige und fehleranfällige Integrationen von Big Data- und Analytics-Komponenten, verteiltes Wissen bei einzelnen Leuten statt übergreifende Teamarbeit – dies sind (immer noch) gängige erfolgsverhindernde Aspekte für eine unternehmensweite Datennutzung im Arbeitsalltag.

    In diesem Talk betrachten wir rund um Snowflake’s Cloud Data Platform verschiedene Szenarien. Zum einen, wie sich im Sinne der drei Big Data ‚Vs‘ Volume Variety, Velocity (Sie erinnern sich noch?) zentrale Data Repositories aufbauen lassen, die bis in den Petabyte-Bereich skalieren können, Performance On-demand bieten, einfach zu bedienen und nur nach dem „Pay-as-you-use“ Modell zu bezahlen sind. Geplante Beispiele sind:

    1) Fast Data im Data Warehouse: Serverless Data Ingestion mit Snowflake’s Kafka Connector und Snowpipe – Beispiel-Architektur

    2) Fenster zum Data Lake: Externe Parquet-Dateien in Snowflake direkt via SQL analysieren bzw. schnell für BI Anwender bereitstellen

    Zum anderen hilft es bei Data Science-Projekten, wenn fachliches, technisches, methodisches, mathematisches und anderes Spezialwissen mittels einer integrierten Plattform kooperativ und „end-to-end“ zum Einsatz kommt und nicht in „Wissenssilos“ schlummert. In diesem Kontext ist Dataiku DSS als gemeinsame Data Science Plattform für „Coder“ und „Mausschieber“ interessant. Sie ermöglicht allen Beteiligten die enge Kollaboration in einem Data Science Projekt und bietet umfangreiche Möglichkeiten für Data Engineering, Statistik und Machine Learning (inkl. Auto ML) sowie Reporting, Data Governance und Projektmanagement. Technisch gesehen ist Dataiku DSS eine technologie-agnostische Plattform, die es erlaubt, State-of-the-Art Technologien wie Kubernetes, Spark als auch aktuelle Machine Learning Frameworks einzusetzen. Snowflake bringt im Zusammenspiel mit Dataiku nicht nur den zentralen Datenpool mit, sondern auch die notwendige Rechenleistung, die es Dataiku erlaubt, mehrere Data Science-Teams mit zugesicherten Compute Ressourcen gleichzeitig agieren zu lassen. Geplantes (Live-) Beispiel für diesen Talk:

    3) Snowflake für Data Science Workloads: Anhand eines Dataiku Beispielprojekts werden Integrationspunkte zu Snowflake gezeigt, die insbes. bei der Datenbeschaffung, -exploration, -transformation und Feature Engineering interessant sind, z.B. wenn bei der Analyse kleine Sample Datasets nicht ausreichen oder größere Datenmengen zu verarbeiten sind.


  • Stefan Dorn
    13:30 – 14:10
    Mit Analytics schnell und erfolgreich Prozesse automatisieren: ein Kundenbeispiel
    By Stefan Dorn NTT Data Deutschland GmbH, Silvia Moser NTT DATA Deutschland


    Überall wird über Einsparpotenziale diskutiert und in vielen Unternehmen wird eine Hebung dieser Potenziale über Budgetkürzungen oder über die Reduktion der Mitarbeiter angestrebt.
    Mittels Process Mining können Potenziale deutlich zielorientierter ermittelt und die größten Bottlenecks analysiert werden. Durch ein enges Zusammenspiel mit Robotic Process Automation (RPA) können diese Prozesse automatisiert und große Kostenreduktionen ermöglicht werden.
    Wir zeigen nach einer kurzen Einführung in das Thema Process Mining und die Möglichkeiten des Zusammenspiels mit RPA am Beispiel eines Kundenprojektes, wie das Zusammenspiel beider Themen funktionieren kann und wie bei unserem Kunden bereits im 1. Jahr ein Potenzial von 1,4 Mio. € gehoben werden konnte.


  • Thomas Bodenmüller-Dodek
    14:20 – 15:00
    Intelligente Datenintegration für Cloud Data Warehouses
    By Thomas Bodenmüller-Dodek Informatica GmbH, Dominic Walter Informatica GmbH


    Ob Modernisierung oder Neuaufbau, ob Data Lake oder Warehouse, Multicloud oder Hybrid, Realtime oder Batch – Datenmanagement mit Informatica Intelligent Cloud Services kennt keine Grenzen.


  • Jonathan Preston
    15:10 – 15:50
    Data lakes and analytics on AWS -Turn data into insights
    By Jonathan Preston Amazon Web Services, Dr. Jürgen Wirtgen Amazon Web Services


    As we become a more digital society, the amount of data being created and collected is growing and accelerating significantly. Analysis of this ever-growingdata becomes a challenge with traditional analytical tools. We require innovation to bridge the gap between data being generated and data that can be analyzed effectively. Big data tools and technologies offer opportunities and challenges in being able to analyze data efficiently to better understand customer preferences, gain a competitive advantage in the marketplace, and grow your business. Data management architectures have evolved from the traditional data warehousing model to more complex architectures that address more requirements, such as real-time and batch processing; structured and unstructured data; high-velocity transactions; and so on. Amazon Web Services (AWS) provides a broad platform of managed services to help you build, secure, and seamlessly scale end-to-end big data applications quickly and with ease. In this talk we give an overview about the AWS analtics platform with focus on the business intelligence tools.


SPONSOREN JUNI 2020

SPEAKER JUNI 2020

Frauke Kreuter

Frauke Kreuter

University of Maryland
Dr. habil. Eberhard Schnebel

Dr. habil. Eberhard Schnebel

Goethe-Universität in Frankfurt
Harald Erb

Harald Erb

Snowflake
Bojan V. Petrovic

Bojan V. Petrovic

Qlik Data Integration Division

Michael Achtelik

Michael Achtelik

Hitachi Vantara
Matt Krenzel

Matt Krenzel

E. Breuninger GmbH & Co.
Silvia Moser

Silvia Moser

NTT DATA Deutschland
Stefan Dorn

Stefan Dorn

NTT Data Deutschland GmbH

Frederik Naessens

Frederik Naessens

WhereScape
Dominic Walter

Dominic Walter

Informatica GmbH