KONFERENZPROGRAMM
Mit der TDWI Virtual möchten wir als TDWI am 05. und 06. März eine Plattform schaffen, auf welcher unsere Community auch remote und standortunabhängig zusammenkommen und ihre Leidenschaft für Data & Analytics gemeinsam in die Praxis umsetzen kann. Sie ist damit DIE kostenfreie Online-Konferenz für Data, BI und Analytics.
- Dienstag
05.03. - Mittwoch
06.03.
Die Einführung von ChatGPT im November 2022 markiert ein bemerkenswertes Comeback der hausbackenen Kommandozeile. Denn die Geschichte der Mensch-Computer-Interaktion kennt bisher zwei wichtige Entwicklungssprünge: In den 1940er Jahren bedient man Computer wie den ENIAC ausschließlich mittels Stapelverarbeitung; ab den 1960er Jahren erfordert der gleichzeitige Zugriff mehrerer Benutzer, wie beim CTSS des MIT, neue Lösungen. Die Kommandozeile ist geboren und avanciert rasch zum neuen Standard der Mensch-Maschine-Kommunikation. Drei Jahrzehnte später finden deren Prinzipien auch Einzug in die grafische Benutzeroberfläche des Apple Macintosh – ändern aber keineswegs das Paradigma! Deshalb haben wir uns über 60 Jahre an diese Art der Computernutzung gewöhnt, und der Paradigmenwechsel durch ChatGPT mit seiner „intelligenten“ Kommandozeile trifft uns aus heiterem Himmel. Deren Fähigkeiten hinterfragen jahrzehntelang erlernte und milliardenfach geschulte Fähigkeiten für die effiziente Computernutzung. Die genauere Betrachtung zeigt, dass diese Veränderung überraschend grundsätzliche Fragen aufwirft, für die wir noch keine Antworten haben.
Stefan Holtel ist Informatiker, Wissensmanager und Trainer für LEGO Serious Play. Er arbeitete viele Jahre in der Forschung und Entwicklung von Vodafone. Regelmäßig präsentiert, publiziert und doziert er zur Frage, wie Unternehmen die digitale Transformation meistern können. Seit 2018 ist er Kurator für digitalen Wandel bei PricewaterhouseCoopers. Derzeit entwickelt er neuartige Ausbildungskonzepte, um Prompt Engineering in großen Organisationen erfolgreich zu skalieren. Im Januar erschien im Franz Vahlen Verlag sein neues Buch "Droht das Ende der Experten? ChatGPT und die Zukunft der Wissensarbeit".
Datenmanagement für KI ist ein entscheidender Aspekt für die Entwicklung und den Betrieb von KI-Systemen, da es die Integrität, Sicherheit und Benutzbarkeit der Daten sicherstellt. Dies trägt maßgeblich zur Effektivität und Zuverlässigkeit von KI-Technologien bei. KI für Datenmanagement verbessert darüber hinaus die Leistungsfähigkeit von Datenmanagementsystemen, indem sie diese effizienter, sicherer und anpassungsfähiger an die ständig wachsende und sich entwickelnde Datenlandschaft gestaltet.
In diesem Vortrag werden die neuesten Innovationen in der Informatica Intelligent Data Management Cloud (IDMC) präsentiert, die wichtige Geschäftsinitiativen wie Customer Experience und ERP-Modernisierung unter Einhaltung von regulatorischen Vorgaben wie den EU AI Act unterstützen.
Dr. Martin Hebach verantwortet als Senior Solutions Architect bei Informatica seit beinahe 9 Jahren die Konzeption und kontinuierliche Weiterentwicklung der Architektur von cloudbasierten Datenmanagement-Lösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Dr. Hebach verfügt über eine langjährige Erfahrung in den Bereichen IT-Management, Unternehmensarchitektur und Beratung bei internationalen und größeren mittelständischen Unternehmen aus Finanz, Automotive und Bioscience.
Generative AI (GenAI) enables automation and innovation across industries. This talk shows a simple but powerful architecture and live demo for the combination of Python, and LangChain with OpenAI LLM, Apache Kafka for event streaming and data integration, and Apache Flink for stream processing. The use case shows how data streaming and GenAI help to correlate data from Salesforce CRM, searching for lead information in public datasets like Google and LinkedIn, and recommending ice-breaker conversations for sales reps.
Kai Waehner is Field CTO at Confluent. He works with customers and partners across the globe and with internal teams like engineering and marketing. Kai’s main area of expertise lies within the fields of Data Streaming, Analytics, Hybrid Cloud Architectures and Internet of Things. Kai is a regular speaker at international conferences, writes articles for professional journals, and shares his experiences with industry use cases and new technologies on his blog: www.kai-waehner.de. Contact: kai.waehner@confluent.io / @KaiWaehner / linkedin.com/in/kaiwaehner.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/kai.waehner
In dem kompakten Vortrag beleuchtet Dr. Rembor effektive Strategien zur Optimierung der Datenaufbereitung für die Entwicklung von KI-Systemen. Er fokussiert sich auf die Bereinigung von Datenbeständen (Clean Data), die Reduktion auf essenzielle Datenmengen (Lean Data) und die Anwendung von retrieval-augmentierter Generierung (RAG), um die Effizienz und Effektivität von KI-Anwendungen zu steigern. Ziel ist es aufzuzeigen, wie Unternehmen ihre Datenverarbeitungsprozesse optimieren und so die Umsetzung von KI-Projekten beschleunigen können.
Dr. Ralph-Peter Rembor ist eine erfahrene Führungskraft im Bereich Sales & Marketing mit Fokus auf Datenintelligenz, Automatisierung und Sicherheitstechnologie. Seit November 2023 arbeitet er als Vice President Sales & Marketing EMEA bei APARAVI in München. Davor war er bei Materna Virtual Solution GmbH und gründete nikkin Sports and Entertainment Technology, spezialisiert auf Community Management. Frühere Positionen umfassen Geschäftsführer bei KWP INSIDE HR und inside Unternehmensberatung GmbH sowie verschiedene leitende Rollen bei SAP Deutschland AG & Co. KG, einschließlich VP Sales Cloud und Head of Public Sector & Healthcare. Dr. Rembors professionelle Entwicklung zeigt, wie er technische Innovationen erfolgreich vorantreibt.
Datenkataloge werden inzwischen als ein unverzichtbares Teil im Puzzle eines effizienten Datenmanagements angesehen. Sie versprechen als eine Art Google für die Unternehmensdaten, zentral das wertvolle Wissen der Experten über die Daten zu sammeln und mit den technischen Metadaten zusammenzuführen. All das mit der Zielsetzung, den Zugang zu den Daten zu vereinfachen und somit den maximalen Nutzen daraus ziehen zu können.
Einem initialen Hype bei der Einführung folgt oft die Ernüchterung, dass die Nutzung des Katalogs zurückgeht und sich somit der erhoffte Nutzen für das Unternehmen nicht einstellt. Dies frühzeitig zu erkennen und geeignete Maßnahmen zur Gegensteuerung einzuleiten, ist eine wichtige Aufgabe, um den Datenkatalog erfolgreich bei der Unterstützung des datengetriebenen Arbeitens zu etablieren.
In diesem Vortrag erfahren Sie, wie man über die Messung, das Monitoring und die Analyse der Nutzung des Datenkatalogs Lücken erkennt – und lernen ein Vorgehensmodell kennen, um diese zu schließen und somit über die Attraktivität des Datenkatalogs den erhofften Nutzen für das Unternehmen zu realisieren.
Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in den unterschiedlichen Branchen (Telekommunikation, Banken und Handel). In seiner Funktion als COO der Synabi Business Solutions GmbH verantwortet er die Konzeption und Umsetzung von Metadaten- und Data-Governance-Projekten.
Künstliche Intelligenz hat in kürzester Zeit viele Bereiche unseres Lebens im Sturm erobert - von der Automatisierung in Prozessen bis zur Hausübung bei Schülern. Auch wenn es naheliegend ist, diese Werkzeuge in der Datenanalyse einzusetzen, gibt es dabei doch viele Herausforderungen und auch so manche Risiken. MicroStrategy hat als einer der ersten Anbieter im Analytics-Bereich generative KI in seine Produkten integriert.
Erfahren sie in diesem Vortrag, wie dadurch nicht nur Ihre Ergebnisse verbessert, sondern vor allem auch die damit verbundenen Aufwände drastisch reduziert werden können.
Johannes Silhan ist Principal Solution Engineer bei MicroStrategy, nachdem er mehrere Jahre lang den Bereich Services in Österreich geleitet hat. Davor hat er bei unterschiedlichen Unternehmen Projekte im Business Intelligence und Outsourcing Bereich erfolgreich umgesetzt. Seit seinem Studienabschluss an der Technischen Universität Wien hat er über 25 Jahre Erfahrung im Bereich Business Intelligence.
Künstliche Intelligenz ist ein Gamechanger für Wirtschaft und Gesellschaft. Neben den technologischen und wirtschaftlichen Herausforderungen werden Unternehmen mit komplexen rechtlichen Regelungen wie dem EU AI Act, der KI-Haftungsrichtline oder dem EU Data Act und ethischen Anforderungen konfrontiert.
Die Antwort auf diese Herausforderungen ist eine unternehmensindividuelle KI-Governance. Als Framework vereint sie zielorientiert Richtlinien, Prozesse und Tools, um den gesamten KI-Lebenszyklus zu steuern.
Lernen Sie die zentralen Inhalte einer guten KI-Governance kennen:
- Wie ist das Zusammenspiel von IT-Governance, Data Governance und
KI-Governance?
- Wie sehen die konkreten Schritte zu einer KI-Governance aus?
- Welche Empfehlungen und Best-Practices existieren?
Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Unternehmen und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik, Corporate Digital Responsibility und KI.
The past few years have been profoundly disruptive, compelling organizations to adapt their strategies. Cloud technology, data, and artificial intelligence (AI) now play an even more central role in navigating this transformation. This session will explore the three essential pillars of a data and AI strategy: data-AI experiences, data-AI economy, and data-AI ecosystem. We'll delve into the fundamentals of building a robust foundation for Data Analytics and AI. You'll learn why organizations are actively democratizing access to data-driven insights and how generative AI synergizes with unified data-AI platforms. We'll talk around the powerful outcomes that emerge when you combine structured and unstructured data within your platform and leverage LLMs (Large Language Models) to uncover valuable insights
Firat Tekiner, PhD Machine Learning & HPC, MBA, is a Senior Staff Product Manager in Data Analytics and AI at Google Cloud. Firat is a leader with nearly 20 years of experience in developing new products, designing and delivering bespoke information systems for some of the world’s largest research, education, telecommunications, finance and retail organisations. Following roles within National Supercomputing Services and National Centre for Text Mining, he worked as a senior consultant at Ab Initio software prior to joining Google. He has over 50 publications in the areas of Parallel Computing, Big Data, Artificial Intelligence and Computer Communications. He is an Author: Architecting Data and Machine Learning Platforms, O'Reilly, Nov2023.
Im Zeitalter von Big Data steht die Notwendigkeit einer soliden Datenmanagementstrategie außer Frage. Doch die Komplexität wächst und mit ihr die Herausforderungen. Mit Blick auf diese Herausforderungen zeigen wir auf, wie ein Datenkatalog, insbesondere der Pentaho Data Catalog, nicht nur eine „Single Source of Information“ schafft, sondern auch die Datenqualität erhöht und den Self-Service-Zugang zu Datenbeständen verbessert.
Sie erfahren, wie die Verknüpfung von Datenquellen, die Automatisierung von Prozessen und die Erstellung eines Business-Glossars zu einem verbesserten ""Data Speak"" beitragen können. Weiterhin werden die Bedeutung der Metadatenverwaltung, die Förderung der Zusammenarbeit durch Datenbewertung und Informationsaustausch sowie die Überwachung und Wartung zur Sicherstellung der Datenqualität diskutiert. Abschließend stellen wir einen klaren Implementierungsweg für die Einführung eines Datenkatalogs vor.
Agenda
- Herausforderungen im Datenmanagement
- Kernfunktionalitäten eines Datenkatalogs
- Beispiel: Pentaho Data Catalog
- How to Start: Erste Schritte bei der DC-Einführung
Philipp Heck ist ein begeisterter Vertreter von Open Source und gehört zu den führenden Spezialisten für die Lösungen von Pentaho, Jedox und ThingsBoard. Er verfügt über ausgeprägtes technisches Knowhow, verliert dabei aber nie den Fachanwender aus dem Blick.
Flink and Kafka form a compelling narrative in stream processing, efficient ingestion, and robust data pipelines. But how far can we push the boundaries? This talk explores leveraging Flink, LSTM, Complex Event Pattern (CEP), and Kafka for real-time monitoring of financial assets such as stocks or cryptocurrencies. We discuss establishing a robust system to execute LSTM networks, CEP recognition, or TensorFlow models for dynamically balancing portfolios and flagging risks in real-time.
Dominique Ronde is a seasoned Staff Solution Architect renowned for his expertise in Kafka and Flink. With almost a decade of experience, he's spearheaded successful streaming data initiatives for enterprise insurances and insuretech startups. Dominique is a sought-after speaker at major conferences like Kafka Summit, sharing insights on data streaming, machine learning, and data science.
KI für das Datenmanagement:
Daten- und KI-verantwortliche stehen vor der aktuellen Herausforderung, die Möglichkeiten generativer KI zu verstehen und in ihre Datenverwaltungsstrategien zu integrieren.
Datenmanagement für KI:
Gleichzeitig müssen Dateninfrastrukturen anhand der richtigen Architekturkonzepte so ausgerichtet werden, dass sie für KI-Anwendungen optimiert sind.
Im Vortrag erkundet Leendert Kollmer die Trends und Innovationen für beide Perspektiven und teilt Best-Practices für die bestmögliche Datennutzung von und mit KI.
Leendert Kollmer ist als Senior Sales Engineer bei Denodo Technologies in der Region Central Europe tätig und Ansprechpartner für Daten-Architekturen und komplexe technische Fragestellung. Hierbei begleitet er Unternehmen aus unterschiedlichen Branchen bei der Einführung der Denodo Plattform im Rahmen von komplexen Datenmanagement-Projekten.
Durch seine langjährige Zusammenarbeit mit technischen Projektteams verfügt Leendert Kollmer über detaillierte Kenntnisse in Bezug auf die Umsetzung von datenbasierten Lösungen für unterschiedlichste Anwendungsfälle, u.a. aus den Bereichen BI & Analytics, Data Governance, Big Data und Datenverwaltung.
Is it just another buzzword or maybe something new? Do your data products require the same level of discipline and rigor as your actual products? Precisely discusses the ingredients for delivering on the promise of data mesh using real-world customer examples.
Ralf Krämer studierte in Heidelberg Geographie, Geologie und Öffentliches Recht. Anschließend arbeitete er mehrere Jahre als Consultant im Rahmen von Geo-Informationsprojekten für Energieversorger. 1997 wechselte er als Pre-Sales Consultant zur damaligen MapInfo GmbH, wo er nach mehreren internen Stationen 2002 schließlich das Accountmanagement übernahm. In diesem Bereich verantwortete er verschiedene Branchen und Großkunden aus dem Bereich B2C. 2008 erfolgte der Wechsel zu Pitney Bowes. Im Vordergrund seiner Tätigkeit steht die Kundenberatung bei der Auswahl und Einführung von Enterprise Softwarelösungen zur Datenqualität- Sicherheit- und Integration. Pitney Bowes Software & Data ist 2019 in Precisely übergegangen.
Jean-Paul Otte has over 30 years of experience in the technology industry in data management. As a former CDO that has executed multiple value-based data programs, Jean- Paul Otte focuses on building business-driven data management processes that prioritize continuous improvement and the enrichment of a data centric knowledge base. Currently, Jean-Paul leads the EMEA Data Strategic Services team at Precisely where he continues to share this experience and expertise in his customer engagements.
Data Governance wird als zentraler Aspekt im Data Management von Unternehmen auch im Rahmen von Data & Analytics Projekten zunehmend aufgegriffen.
INFOMOTION begleitet in Kundenprojekten die Definition, Aufbau und Einführung von Data Governance Organisationen, inkl.. Zielbilder und Maßnahmen für Organisation, Prozessen und Technologie.
Im Vortrag stellen wir unterschiedliche Vorgehensweisen vor und fassen unsere Erfahrungen und auch Best Practices zusammen.
This presentation aims to provide a comprehensive understanding of the effective utilization of Google Cloud Platform (GCP) in optimizing a Data Analytics Landscape. The session will focus on demonstrating advanced techniques in data ingestion, data modeling and improving data quality, with insights into how Xpand IT integrates GCP tools to streamline these processes.
Key Points:
- Utilization of GCP for Enhanced Data Solutions: Demonstrating the use of Google Cloud Platform tools to create sophisticated, scalable data solutions that improve analytics processes.
- Improvement of Data Quality: Showcasing techniques to ensure high data integrity and quality during data ingestion and processing using GCP.
- Practical Demonstrations GCP technologies: Highlighting practical applications that leverage GCP for more efficient data handling.
- Advanced Data Management Techniques: Exploring the use of tools like Google Cloud Composer, BigQuery, and DataPlex for comprehensive data management, including lineage, versioning, and quality insights.
Participants will gain valuable insights into the practical applications of GCP for data ingestion and analytics. They will learn how to leverage Google Cloud tools like Composer, Big Query, Dataforms, and DataPlex to create a more efficient, scalable, and robust data analytics environment.
IT professional with experience in architecting and administration of cloud-based, on-premises and hybrid solutions. These solutions may use a range of different technologies such as Kubernetes (e.g. OpenShift), NoSQL databases (e.g. MongoDB), scalable datawarehouse solutions (e.g. BigQuery), among others.
He currently leads the Platform Engineering Division and plays a major role in architecting data-related solutions for Xpand IT's customers.
Stefan Müller ist der General Manager von Xpand IT in Deutschland. Mit über 15 Jahren Erfahrung in den Bereichen Daten und Analytics hat er für diverse IT-Beratungsunternehmen gearbeitet. Stefan schreibt Artikel, hält Vorträge auf Konferenzen und ist ständig auf der Suche nach neuen Wegen, wie Daten Unternehmen voranbringen können.