•  
Generative AI für Developer
Wie sich Generative AI sinnvoll und effizient
in Business-Anwendungen implementieren lässt
27. - 29. Mai 2024 in Bonn
menu

Konferenzprogramm

Konferenzprogramm

Die Sprecherinnen und Sprecher der InfoDays Generative AI für Developer präsentieren, implementieren und diskutieren mit den Teilnehmenden alles von A wie Agents, über Large Language Models, Embeddings, RAG, Fine-Tuning, Frameworks wie Langchain und LlamaIndex bis hin zu Z wie Zero-Shot Prompting.

Track: Track 2

Nach Tracks filtern
Alle ausklappen
  • Montag
    27.05.
  • Dienstag
    28.05.
11:15 - 12:00
Mo2.1
Von generisch zu genial: Die Transformation der Suche durch RAG
Von generisch zu genial: Die Transformation der Suche durch RAG

Eine Suchfunktion, die nicht frustrierend ist? Kann es so etwas überhaupt geben oder wird das ein ewiger Traum bleiben? Es ist kaum zu glauben. Aber die generische Suche steht vor einer Revolution. Retrieval Augmented Generation, kurz RAG, lautet das neue Zauberwort und ist so neu, dass es noch nicht mal einen eigenen Wikipedia Eintrag hat.

  • Was ist es?
  • Was kann es?
  • Was haben die neuen Sprachmodelle damit zu tun?
  • Welche Kernkomponenten hat ein RAG-System?
  • Was können wir von der Technologie noch erwarten?

Zielpublikum: Engineers, Students, Product Managers, Data Scientists
Voraussetzungen: Ich versuche, die meiste Technik rauszuhalten und viel mit Beispielen zu arbeiten und wenn möglich mit Live-Demos. Komplexeste Themen: Semantische Suche, Embedding, HyDE, ReACT Pattern.
Schwierigkeitsgrad: Basic

Sebastian Macke ist Computerenthusiast mit einer Leidenschaft für die Softwareentwicklung und hat Physik studiert und promoviert. Er interessiert sich für alle computernahen Bereiche und hat Kenntnisse in physikalischen Simulationen, Architekturoptimierung, Parallelisierung, Programmierung grafischer Benutzeroberflächen, Webprogrammierung, Reverse Engineering, Sicherheit, Computeremulationen und schließlich KI. Er interessiert sich seit den späten 90er-Jahren für maschinelles Lernen. Zu sehen, wie diese Technologie gerade jetzt explodiert, ist sowohl aufregend als auch bestätigend. Er konzentriert sich derzeit in seinem Arbeitsleben auf dieses Thema.

Sebastian Macke
Empore
Sebastian Macke
Empore
Track: Track 2
Vortrag: Mo2.1

Vortrag Teilen

14:00 - 14:45
Mo2.3
Wieso versteht der Computer mich auf einmal? Wir lüften das Geheimnis von Embeddings
Wieso versteht der Computer mich auf einmal? Wir lüften das Geheimnis von Embeddings

Embeddings, auch bekannt als Embedding-Vektoren, bilden die Grundlage der semantischen Suche. Systeme, die beispielsweise Retrieval Augmented Generation (RAG) nutzen, um Informationen zu suchen und die Antwort durch ein Large Language Model (LLM) formulieren zu lassen, basieren auf diesen. Doch Embeddings bieten weit mehr Möglichkeiten: Sie ermöglichen das schnelle und unkomplizierte Verstehen natürlichsprachlicher Anweisungen. So können wir beispielsweise basierend auf Nutzereingaben die passende Maske in einer Anwendung ansteuern. Ebenso ist es möglich, Kunden-E-Mails mithilfe von Vektoren vorab zu kategorisieren und Tags zuzuweisen, was die Bearbeitung vereinfacht.

In diesem Vortrag erläutert unser Experte Sebastian Gingter, was Embeddings sind, wie und warum sie funktionieren. Er wird Ihnen auch mögliche Einsatzgebiete aufzeigen, um Ihren Business-Anwendungen ein gewisses Maß an Sprachverständnis zu vermitteln – und das auch ohne den Einsatz eines LLM.

Sebastian Gingter blickt auf über 25 Jahre Erfahrung als professioneller Softwareentwickler zurück. Im Zuge seiner Arbeit als Consultant bei der Thinktecture AG ist sein Blick allerdings fest nach vorne gerichtet: auf die Integration von Generative AI im Businessumfeld und auf moderne Technologien sowohl auf dem Client als auch auf dem Server mit C# und .NET. Seit 2008 ist er mit Spaß und Leidenschaft Erklärbär, spricht international auf Konferenzen und publiziert Fachartikel.

Sebastian Gingter
Empore
Sebastian Gingter
Empore
Track: Track 2
Vortrag: Mo2.3

Vortrag Teilen

15:00 - 15:45
Mo2.4
Generative KI für Anwendungsentwickler und -architekten mit AWS
Generative KI für Anwendungsentwickler und -architekten mit AWS

Erfahren Sie, wie Sie generative KI-Services und -Tools nutzen können, um Ihre Anwendungen mit fortschrittlichen maschinellen Lernfunktionen auszustatten. In diesem Vortrag werden Large-Language- und Foundation-Modelle für Anwendungsentwickler vorgestellt und erklärt, wie diese sich in Amazon Bedrock nutzen lassen, um skalierbare und robuste generative KI-Anwendungen zu erstellen. Markus Weyerhäuser und Joachim Aumann werden Sie durch einen Anwendungsfall führen und wichtige Architekturentscheidungen hervorheben. Die beiden Sprecher teilen Best Practices und Codebeispiele, die illustrieren, wie Machine Learning auf AWS in eigenen Anwendungen genutzt werden können.

Zielpublikum: Anwendungsentwickler und Softwarearchitekten
Voraussetzungen: Grundverständnis zu AWS
Schwierigkeitsgrad: Advanced

Joachim Aumann ist seit 2020 bei Amazon Web Services und unterstützt Unternehmenskunden bei der Einführung und Nutzung von AWS-Diensten. Er liebt es, auf der Bühne zu sprechen und Cloud-Wissen zu verbreiten. Sein Lieblingsthemen im Cloud-Bereich sind Serverless und AI/ML. Bevor er zu AWS kam, arbeitete er bei Adidas, Sivantos und einem Reisesoftwareunternehmen als Solution Architect, Development Lead und Senior Developer. Wenn er nicht gerade Kunden auf ihrer Reise in die Cloud unterstützt, spielt und schaut er gerne Sport.

Markus Weyerhäuser ist Principal Solutions Architect bei AWS. Seit 2019 begleitet er in dieser Rolle strategische Großkunden auf ihrem Weg in die Cloud. Markus hat in seiner Laufbahn umfangreiche Erfahrungen aus unterschiedlichen Bereichen wie Unternehmensarchitektur, Anwendungsentwicklung und Strategie-Beratung gesammelt. Darüber hinaus kennt er sich bestens in der Start-up-Szene aus, gründete selbst zwei Start-ups und war CTO eines Company Builder. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei SIGS.de vorbei: https://www.sigs.de/autor/markus.weyerh%C3%A4user

Joachim Aumann, Markus Weyerhäuser
Empore
Joachim Aumann, Markus Weyerhäuser
Empore
Track: Track 2
Vortrag: Mo2.4

Vortrag Teilen

16:15 - 17:00
Mo2.5
Wie baue ich intelligente Apps mit Azure OpenAI
Wie baue ich intelligente Apps mit Azure OpenAI

In diesem Talk gehen wir direkt in die Praxis: Welche Möglichkeiten habe ich auf der Azure-Plattform, wenn ich sogenannte “intelligente Applikationen” entwickeln möchte? Welche Modelle kann ich für meine Zwecke nutzen, wann ist eine Eigenentwicklung sinnvoll und wann sind bereits existierende Copiloten die bessere Wahl. Zudem beleuchten wir, wie man Sicherheit und Compliance im Griff behält. 

Titel, die man Julia schon gegeben hat: Senior Software Engineer, IT Team Lead, Cloud Solution Architect, Technical Specialist, Global Black Belt.

Dinge, die Julia mag: Clean Code, verteilte Software-Architekturen, komplexe Probleme lösen, JavaScript, Hackathons, Feminismus & American Football.

Julia Kordick
Empore
Julia Kordick
Empore
Track: Track 2
Vortrag: Mo2.5

Vortrag Teilen

17:15 - 18:00
Mo2.6
Determinismus? Ist heute leider aus
Determinismus? Ist heute leider aus

Neuronale Netze sind durch (nach Abschluss ihres Trainings unveränderliche) Formeln ausdrückbar und daher mathematisch gesehen deterministisch. Auch LLMs, deren übliche Nutzererfahrung ein anderes Verhalten suggeriert, lassen sich durch Parameter deterministisch gestalten. Soweit die Theorie – jedoch zeigen z.B. die OpenAI-Modelle auch bei Verwendung fester Seeds und einer Temperatur von 0 nichtdeterministisches Verhalten. Verschiedene aktuelle Veröffentlichungen beleuchten dieses Verhaltens und zeigen, dass dies für neuronale Netze im Allgemeinen gilt. Wir stellen diese Forschungsergebnisse in den Zusammenhang, erklären mögliche Gründe für nichtdeterministisches Verhalten neuronaler Netze und erläutern Konsequenzen für deren praktische Anwendung. Abschließend zeigen wir Mitigationsstrategien.

Zielpublikum: Developers, Data Scientists, Project Managers
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic

Gregor Endler erwarb mit seiner Dissertation “Adaptive Data Quality Monitoring with a Focus on the Completeness of Timestamped Data” 2017 den Doktortitel in Informatik. Seitdem ist er als Data Scientist bei der codemanufaktur GmbH tätig. Seine Arbeit umfasst insbesondere Machine Learning, Datenanalyse und Datenvisualisierung.

Daniel Oeh arbeitet seit 2021 bei der codemanufaktur GmbH als Data Scientist und hat seitdem in Projekten mit den Schwerpunkten Visualisierung, Machine Learning und Datenanalyse gearbeitet. Davor promovierte er an der Friedrich-Alexander Universität Erlangen-Nürnberg im Bereich Mathematik.

Gregor Endler, Daniel Oeh
Empore
Gregor Endler, Daniel Oeh
Empore
Track: Track 2
Vortrag: Mo2.6

Vortrag Teilen

09:00 - 09:45
Di2.1
Die Evolution der Arbeitsrollen in einer KI-gestützten Welt
Die Evolution der Arbeitsrollen in einer KI-gestützten Welt

Der Vortrag untersucht die Auswirkungen der KI-Einführung auf Arbeitsumgebungen. Traditionelle Rollen werden kritisch hinterfragt und deren potenzielle Entwicklung in einer AI-gestützten Zukunft diskutiert. Nach einer Einführung in die Grundlagen und Potenziale generativer KI für die Umgestaltung von Arbeitsprozessen folgt eine Betrachtung der Veränderungen in Arbeitsabläufen und Zusammenarbeit durch KI-Technologien. Besonderes Augenmerk liegt auf der Identifizierung neuer Rollen und Verantwortlichkeiten sowie der Bedeutung flexibler Arbeitsstrukturen und kontinuierlicher Weiterbildung. Abschließend wird erörtert, wie Organisationen und Einzelpersonen sich auf diese Veränderungen vorbereiten können, um die Chancen der KI-gestützten Arbeitswelt zu nutzen.

Zielpublikum: AI-Projekt-Manager, Digital Manager, Projekt-Manager, IT-Manager, AI Engineers, Change Manager, Agile Coaches
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic

Esther ist IT-Transformationsexpertin mit Fokus auf Cloud und GenAI. Sie treibt kulturelle und organisatorische Veränderungen voran. Ihr zugänglicher, authentischer Ansatz basiert auf Empathie und Vertrauen. Als Verfechterin von Vielfalt und Inklusion in der IT entwickelt sie menschenzentrierte Strategien, die Mehrwert schaffen. Esther strebt danach, in der Welt der neuen Technologien einen positiven Unterschied zu machen und alle zu befähigen.

Esther Serwaa Poku
Empore
Esther Serwaa Poku
Empore
Track: Track 2
Vortrag: Di2.1

Vortrag Teilen

10:00 - 10:45
Di2.2
SaaS mit GenAI – Von Architektur, Prompting und Pricing [Sponsored Talk]
SaaS mit GenAI – Von Architektur, Prompting und Pricing [Sponsored Talk]

Auch bei der cronn GmbH nutzen wir GenAI, um unser Portfolio an individuellen Softwarelösungen zu erweitern und unseren Kunden innovative Werkzeuge zur Prozessoptimierung zu bieten. In diesem Vortrag gewähren wir einen ehrlichen Einblick in unsere GenAI-Projekte – sowohl die Erfolgsgeschichten als auch die Herausforderungen, denen wir uns stellen mussten.
Auf diesem Weg mussten wir auch von Best Practices in der Architektur abweichen, wurden mit den Grenzen des Prompting und den Herausforderungen der RAG konfrontiert und sind in die Pricing-Falle getappt. Abschließend resümieren wir unsere produktive SaaS-Lösung für die Logistikbranche, zeigen Lessons Learned auf und wagen einen Ausblick auf die weitere Integration von GenAI in unsere Projekte.

Zielpublikum: Project Manager, Business Analyst, Architects, Developer
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic

Toni Fetzer ist bei der cronn GmbH für die strategische Entwicklung der Abteilung KI verantwortlich. Der Fokus liegt dabei auf dem sicheren und vertrauenswürdigen Einsatz von GenAI, auch im geschäftskritischen Umfeld. Als Wissenschaftler an der Universität zu Lübeck forscht er im Bereich der multimodalen probabilistischen Informationsfusion. Er ist Autor und Co-Autor zahlreicher wissenschaftlicher Publikationen und wurde für seine Arbeiten mehrfach ausgezeichnet.

Toni Fetzer
Empore
Toni Fetzer
Empore
Track: Track 2
Vortrag: Di2.2

Vortrag Teilen

11:15 - 12:00
Di2.3
Extended RAG – mit Langchains Multi-Retriever-Ansatz zu Fragen mit AI die beste Antwortquelle auswählen
Extended RAG – mit Langchains Multi-Retriever-Ansatz zu Fragen mit AI die beste Antwortquelle auswählen

Retrieval Augmented Generation (RAG) verwendet Daten aus Retrievern wie Vektor-Datenbanken, damit die relevanten Informationen gefunden werden und Benutzerfragen beantwortet werden können.

Wenn mehrere Retriever (z.B. Support-Tickets, Produkte, Kundenliste) verwendet werden sollen, kann die Auswahl der optimalen Datenquelle zur gestellten Frage eine Herausforderung sein. Marco Frodl wird das MultiRouteChain-Paradigma aus dem LangChain-Framework vorstellen, mit dem die AI dynamisch die Auswahl der besten Antwortquelle übernimmt. Die Live-Coding-Demonstration wird zeigen, wie MultiRouteChain die Leistung von RAG für das Beantworten von Benutzeranfragen verbessert.

Marco Frodl ist Principal Consultant für Generative AI bei der Thinktecture AG und konzentriert sich im Bereich der künstlichen Intelligenz auf Generative AI. Ihn fasziniert die Vision, in natürlicher Sprache mit Apps und Devices kommunizieren zu können. Sein Beratungsfokus ist die Entwicklung von AI-Workflows unter Verwendung von LLMs von OpenAI oder Mistral sowie community-getriebene Large Language Models wie Metas Llama2, Mixtral, Intel NeuralChat oder DeepSeek Coder. Er ist Fan von Langchain und Langfuse, weil sich damit komplexe AI-Abläufe kompakt verpacken und gut tracen lassen.

Marco Frodl
Empore
Marco Frodl
Empore
Track: Track 2
Vortrag: Di2.3

Vortrag Teilen

12:15 - 13:00
Di2.4
Generative AI in der Google Cloud Platform: Warum die Wahl der AI- & Daten-Plattform wichtig ist
Generative AI in der Google Cloud Platform: Warum die Wahl der AI- & Daten-Plattform wichtig ist

Dieser Vortrag befasst sich mit der Google Cloud Data Platform und der zugehörigen KI-Plattform Vertex AI im Kontext von generativen KI-Anwendungsfällen. Denn erfolgreiche Firmen im Bereich AI haben eine Datenplattform geschaffen, die es ihnen ermöglicht, neue Use Cases schnell zu verproben. Die Vorteile von Serverless Services im Bereich Data Management und Data Sharing werden als Grundlage für eine Datenstrategie erläutert, bevor es tiefer in das Themenfeld der "Generativen KI" geht.  

Andreas Ribbrock hat an der Universität Bonn Informatik studiert und dort 2006 im Bereich der Audiosignalverarbeitung und Wissensmanagement promoviert. Das Handwerk des Data Management hat Andreas in seiner Zeit beim Data-Warehouse-Anbieter Teradata gelernt und bei vielen internationalen Kunden angewendet. Im Oktober 2015 wechselte Andreas zu einem AI & Data Startup der Lufthansa Group. Dort entwickelte Andreas mit dem Team Strategien zur personalisierten Kundenansprache, Bildanalysesysteme zum besseren "Turnaround Management" von Flugzeugen und komplexe Applikationen zur Steuerung des Flugbetriebs mittels KI. Seit Oktober 2020 ist Andreas Principal Architect bei Google Cloud und berät führende Unternehmen aus den Bereichen Aviation, Retail und Pharma in den Bereichen Data und KI. 

Andreas Ribbrock
Empore
Andreas Ribbrock
Empore
Track: Track 2
Vortrag: Di2.4

Vortrag Teilen

15:00 - 15:45
Di2.5
Mastering GitHub Copilot – Exclusive Insights & Prompt Engineering
Mastering GitHub Copilot – Exclusive Insights & Prompt Engineering

Diese Session zeigt dir, wie du mit Prompt Engineering und GitHub Copilot deine tägliche Arbeit optimieren kannst. Gregor, der in enger Zusammenarbeit mit dem Microsoft-Produktteam für GitHub Copilot Chat steht, wird seine Insiderkenntnisse teilen und demonstrieren, wie du GitHub Copilot so einsetzt, dass du genau den Code generierst, den du brauchst – effizient und zielgerichtet. Diese Session ist für Entwickler*innen gedacht, die bereit sind, ihre Produktivität zu maximieren und sich von der zeitraubenden Suche nach Lösungen auf Google, in Blog-Posts und auf Stack Overflow zu verabschieden. Es ist Zeit, die Art und Weise, wie du codest, zu transformieren und die neuesten KI-gestützten Werkzeuge zu deinem Vorteil zu nutzen.

Zielpublikum: Fortgeschrittene Entwickler, die mit Copilot bereits arbeiten.
Voraussetzungen: Grundlagen zu GitHub Copilot
Schwierigkeitsgrad: Expert

Gregor Biswanger ist ein renommierter Berater, Trainer, Autor und Sprecher, der für sein Fachwissen in Softwarearchitektur, Cloud, Web und Cross-Platform-Entwicklung mit C# und JavaScript/TypeScript bekannt ist. Als Microsoft MVP, Intel Black Belt und Intel Software Innovator bietet er Beratungsdienstleistungen für große und mittelständische Unternehmen, Organisationen und Agenturen an. Seine Schwerpunkte sind der MEAN-Stack, ASP.NET Core, Docker, Azure, Domain-Driven Design und Microservices. Als freier Autor schreibt Gregor für heise.de und andere Fachzeitschriften. Er ist ein gefragter Sprecher auf internationalen Konferenzen und aktiv in verschiedenen Communities engagiert. Aufgrund seiner umfassenden Erfahrung und seines Engagements im Bereich gilt Gregor Biswanger als einer der bekanntesten .NET- und JavaScript-Experten in Deutschland, Schweiz und Österreich. Sie können Gregor unter http://about.me/gregor.biswanger erreichen.

Gregor Biswanger
Empore
Gregor Biswanger
Empore
Track: Track 2
Vortrag: Di2.5

Vortrag Teilen

16:15 - 17:00
Di2.6
KI-Agenten in der Fabriksimulation
KI-Agenten in der Fabriksimulation

Agenten sind seit den 1940er-Jahren in Simulationen etabliert und zeichnen sich durch autonome Interaktionen untereinander und mit ihrer Umwelt aus. In aktuellen Simulationsanwendungen wird ihr Verhalten oft durch Entscheidungsgraphen modelliert. Dieser Vortrag beleuchtet die Funktionsweisen und Einsatzgebiete von Agenten, insbesondere von KI-Agenten, und vergleicht diese miteinander. Anschließend wird ein Fallbeispiel vorgestellt, in dem KI-Agenten in eine agentenbasierte Fabriksimulation in der Simulationsanwendung AnyLogic 8 integriert werden. Dabei wird die Frage untersucht, ob die Modellierung von Entscheidungsgraphen damit entfällt und die Agenten sich dadurch natürlicher verhalten. Hierzu werden die Frameworks LangChain und LlamaIndex vorgestellt, die zur Erstellung von OpenAI Assistant und ReAct-Agenten unter Verwendung des Modells GPT-3.5 Turbo verwendet werden können.

Zielpublikum: Alle mit einem allgemeinen Interesse an KI-Agenten und Prompt Engineers, die KI-Agenten für Simulationen erstellen möchten.
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic

Dr. Fadil Kallat ist als IT-Berater in der Full-Stack-Entwicklung bei der codecentric AG tätig. Neben der Modernisierung und Qualitätsverbesserung von Anwendungen widmet er sich leidenschaftlich den Potenzialen von KI-Lösungen zur Vereinfachung des Alltages von entwickelnden Personen. In seiner Dissertation erforschte er die komponentenbasierte Synthese zur Generierung von agentenbasierten Fabriksimulationen.

Fadil Kallat
Empore
Fadil Kallat
Empore
Track: Track 2
Vortrag: Di2.6

Vortrag Teilen

Zurück