Auf dieser Seite finden Sie den Rückblick zur ersten TDWI Virtual im Juni 2020, eine Übersicht des Programms, der Sponsoren und Speaker. Einen kurzen Rückblicks-Videoclip finden Sie hier auf Youtube.
Empfehlen Sie uns doch auch Freunden und Kollegen:
Die Umsetzung von Cloud basierten Data & Analytics Lösungen bringt viele Herausforderungen mit sich. Im Vortrag werden wir uns mit Ihnen anhand verschiedener Kundensituationen einige Herausforderungen und den jeweils gewählten Lösungsansatz ansehen. Darauf aufbauend stellen wir Ihnen unseren Blickwinkel auf die daraus resultierenden Best Practices zur Begegnung ähnlicher Herausforderungen dar.
Zielpublikum: Entscheider (Linie, Projekt, Betrieb), Architekten
Voraussetzungen: Erfahrung in der Umsetzung von Data & Analytics-Lösungen
Schwierigkeitsgrad: Einsteiger
After months of staying home and listening to one-size-fits-all webinars, now it’s time for something different.
Join us for four interactive Data Automation tracks within one workshop. You will hear a brief introduction to Data Automation and its capabilities, then choose the flavour of breakout room that matches your own interest:
Room 1: Data Vault modelling
Room 2: Cloud migration (on Snowflake)
Room 3: Dimensional modelling (on SQL Server)<7br>
Room 4: Building an automated production line
What Will You Learn?
Who Should Attend?
This event is suitable for data warehouse developers, data architects, IT management staff, CIOs/CTOs and data warehouse business users.
Möglicherweise ist Ihr Data Lake schon ein Fall für die Spurensicherung! Viele unserer Kunden stehen vor der Herausforderung, die Kontrolle über den stetig anwachsenden Datenstrom zu behalten. Wer darf welche Daten sehen und wie sind sie zu behandeln? Eigentlich müssten Sie allen Ihren Daten die Fingerabdrücke nehmen, bevor sie in den Data Lake gelangen. Eine große Herausforderung mit hohem Aufwand, während das Business schnell an die Daten kommen möchte.
Die Forderungen nach Self-Service-Datenzugriff, höherer Business Agility und rasch umsetzbaren Ergebnissen dürfen nicht im Widerspruch stehen zu der korrekten Einhaltung von Datenschutz- und Compliance-Richtlinien. Compliance-Verstöße können nicht nur Geld kosten sondern auch Unternehmensreputation. Diesen Krimi möchten wir Ihnen gerne ersparen. Der automatisierte Fingerabdruck im Data Catalog ist dazu ein Lösungsbaustein.
Wir zeigen Ihnen anhand von aktuellen Kunden-Use Cases wie Sie automatisiert und AI-unterstützt Ihre sensiblen Unternehmensdaten managen und so einen glasklaren Blick in Ihren Data Lake bekommen können.
Datenvirtualisierung ist in der Fachwelt omnipräsent und Analysten wie Gartner beschreiben den logischen Integrationsstil als essentiell für eine moderne Datenarchitektur. Am besten aber erfahren Sie die Vorteile von Datenvirtualisierung, indem Sie diese selbst nutzen!
In diesem Vortrag sehen Sie live, wie in kürzester Zeit eine produktive Datenintegration auf Enterprise-Niveau hergestellt wird. Die Session baut auf dem Azure Cloud-Ökosystem auf, um typische Herausforderungen zu lösen, mit denen Data Scientists und Architekten konfrontiert sind. Der Vortrag führt Sie durch die Anbindung verschiedener Datenquellen, die anschließende Datenmodellierung und gibt Ihnen praktische Einblicke in die mächtigen Funktionen unserer Plattform zur Performance-Optimierung. Und das Beste: Die Session können Sie als Workshop flexibel und zu jeder Zeit in einer „auf Knopfdruck“ bereitgestellten Sandbox-Umgebung selbst nachvollziehen.
An wen richtet sich der Vortrag?
Datenethik wird mehr und mehr zu einem zentralen Kernbereich der Digitalstrategie. Wir beobachten immer mehr gesetzliche Vorschriften und immer genauere Anweisungen, wie dieses Thema organisatorisch zu handhaben ist – Datenschutzbeauftragte, DSGVO, Veröffentlichungen aus der EU zu „Responsible AI“ und die Datenethik-Kommission der Bundesregierung.
Wer erfolgreich in diese Richtung gehen will, muss „Datenethik“ als ein Kernelement des Geschäftsmodells etablieren. Wir diskutieren, wie das mit drei entscheidenden Elemente geschehen kann:
Machine Learning kann in jeder Branche einen Mehrwert schaffen. Denn Kunden erwartet Informationen nicht nur in Echtzeit, sondern immer öfter auch proaktiv. Zudem ist es eine der größten Herausforderungen für Unternehmen, auf kritische Momente zu reagieren, bevor es zu spät ist – zum Beispiel bei Betrugerkennung von Finanztransaktionen oder vorausschauender Wartung im industriellen Umfeld.
Apache Kafka wird in immer mehr Unternehmen bereits als zentrales Nervensystem genutzt. Machine Learning ist eine hervorragende Ergänzung! Kafka wird sowohl für die Datenintegration als auch für das Trainieren, Anwenden und Überwachen analytischer Modelle verwendet.
Welche Mehrwerte wollen wir in diesem Vortrag vorstellen?
Dieser Vortrag zeigt, wie Sie eine hochskalierbare und zuverlässige Machine Learning Infrastruktur ohne ein Data Lake aufbauen können. Streaming-Daten werden direkt über Apache Kafka von verschiedenen Quellsystemen integriert, verarbeitet und für Machine Learning eingesetzt.
Der Vortrag vergleicht diese moderne Streaming-Architektur mit traditionellen Batch- und Big-Data-Alternativen und erklärt die Vor- und Nachteile der Ansätze.
Zu viele Datensilos, zeitaufwändige und fehleranfällige Integrationen von Big Data- und Analytics-Komponenten, verteiltes Wissen bei einzelnen Leuten statt übergreifende Teamarbeit – dies sind (immer noch) gängige erfolgsverhindernde Aspekte für eine unternehmensweite Datennutzung im Arbeitsalltag.
In diesem Talk betrachten wir rund um Snowflake’s Cloud Data Platform verschiedene Szenarien. Zum einen, wie sich im Sinne der drei Big Data ‚Vs‘ Volume Variety, Velocity (Sie erinnern sich noch?) zentrale Data Repositories aufbauen lassen, die bis in den Petabyte-Bereich skalieren können, Performance On-demand bieten, einfach zu bedienen und nur nach dem „Pay-as-you-use“ Modell zu bezahlen sind. Geplante Beispiele sind:
1) Fast Data im Data Warehouse: Serverless Data Ingestion mit Snowflake’s Kafka Connector und Snowpipe – Beispiel-Architektur
2) Fenster zum Data Lake: Externe Parquet-Dateien in Snowflake direkt via SQL analysieren bzw. schnell für BI Anwender bereitstellen
Zum anderen hilft es bei Data Science-Projekten, wenn fachliches, technisches, methodisches, mathematisches und anderes Spezialwissen mittels einer integrierten Plattform kooperativ und „end-to-end“ zum Einsatz kommt und nicht in „Wissenssilos“ schlummert. In diesem Kontext ist Dataiku DSS als gemeinsame Data Science Plattform für „Coder“ und „Mausschieber“ interessant. Sie ermöglicht allen Beteiligten die enge Kollaboration in einem Data Science Projekt und bietet umfangreiche Möglichkeiten für Data Engineering, Statistik und Machine Learning (inkl. Auto ML) sowie Reporting, Data Governance und Projektmanagement. Technisch gesehen ist Dataiku DSS eine technologie-agnostische Plattform, die es erlaubt, State-of-the-Art Technologien wie Kubernetes, Spark als auch aktuelle Machine Learning Frameworks einzusetzen. Snowflake bringt im Zusammenspiel mit Dataiku nicht nur den zentralen Datenpool mit, sondern auch die notwendige Rechenleistung, die es Dataiku erlaubt, mehrere Data Science-Teams mit zugesicherten Compute Ressourcen gleichzeitig agieren zu lassen. Geplantes (Live-) Beispiel für diesen Talk:
3) Snowflake für Data Science Workloads: Anhand eines Dataiku Beispielprojekts werden Integrationspunkte zu Snowflake gezeigt, die insbes. bei der Datenbeschaffung, -exploration, -transformation und Feature Engineering interessant sind, z.B. wenn bei der Analyse kleine Sample Datasets nicht ausreichen oder größere Datenmengen zu verarbeiten sind.
Überall wird über Einsparpotenziale diskutiert und in vielen Unternehmen wird eine Hebung dieser Potenziale über Budgetkürzungen oder über die Reduktion der Mitarbeiter angestrebt.
Mittels Process Mining können Potenziale deutlich zielorientierter ermittelt und die größten Bottlenecks analysiert werden. Durch ein enges Zusammenspiel mit Robotic Process Automation (RPA) können diese Prozesse automatisiert und große Kostenreduktionen ermöglicht werden.
Wir zeigen nach einer kurzen Einführung in das Thema Process Mining und die Möglichkeiten des Zusammenspiels mit RPA am Beispiel eines Kundenprojektes, wie das Zusammenspiel beider Themen funktionieren kann und wie bei unserem Kunden bereits im 1. Jahr ein Potenzial von 1,4 Mio. € gehoben werden konnte.