•  
Generative AI für Developer
Wie sich Generative AI sinnvoll und effizient
in Business-Anwendungen implementieren lässt
27. - 29. Mai 2024 in Bonn
menu

Konferenzprogramm

Konferenzprogramm

Die Sprecherinnen und Sprecher der InfoDays Generative AI für Developer präsentieren, implementieren und diskutieren mit den Teilnehmenden alles von A wie Agents, über Large Language Models, Embeddings, RAG, Fine-Tuning, Frameworks wie Langchain und LlamaIndex bis hin zu Z wie Zero-Shot Prompting.

Nach Tracks filtern
Alle ausklappen
  • Montag
    27.05.
  • Dienstag
    28.05.
  • Mittwoch
    29.05.
09:00 - 09:45
Registrierung
Registrierung
09:45 - 10:00
Begrüßung
Alexander Neumann
Bühne
Track: Keynote
Vortrag:
10:00 - 10:45
KeyMo
Keynote: Jenseits des Promptings: Die Zukunft der Mensch-KI-Interaktion

In einer Ära, in der generative KI-Modelle immer ausgefeilter werden, untersucht dieser Eröffnungsvortrag die Rolle und die Notwendigkeit von Prompts als Mittel zur Kommunikation und Befehlseingabe. Er wirft einen Blick auf die kommenden Innovationen, die das Feld prägen könnten. Er beleuchtet, wie sich die Beziehung zwischen Mensch und Maschine durch fortschrittlichere und intuitiver Prompting-Methoden transformieren könnte, die über traditionelle und auf natürlichsprachliche Interaktionen,…

Mehr lesen
Tobit Esch
Bühne
Track: Keynote
Vortrag: KeyMo
10:45 - 11:15
Kaffeepause
11:15 - 12:00
Mo1.1
Generative AI Architecture Pattern

Dank leistungsstarker Libraries wie LangChain und LlamaIndex lassen sich erste eigene Generative-AI-Anwendungen auf Hello-World-Niveau mit nur wenigen Zeilen Code realisieren. Genauso schnell stoßen diese ersten Gehversuche aber auch an ihre Grenzen. Denn die Realität wartet mit Herausforderungen auf, die sich mit diesem trivialen Ansatz nicht so einfach lösen lassen. Was aber braucht es für eine Generative-AI-Anwendung auf Enterprise-Niveau? Eine Generative AI Architecture muss her.
 
Im Rahmen…

Mehr lesen
Tim Wüllner
Bühne
Track: Track 1
Vortrag: Mo1.1
11:15 - 12:00
Mo2.1
Von generisch zu genial: Die Transformation der Suche durch RAG

Eine Suchfunktion, die nicht frustrierend ist? Kann es so etwas überhaupt geben oder wird das ein ewiger Traum bleiben? Es ist kaum zu glauben. Aber die generische Suche steht vor einer Revolution. Retrieval Augmented Generation, kurz RAG, lautet das neue Zauberwort und ist so neu, dass es noch nicht mal einen eigenen Wikipedia Eintrag hat.

  • Was ist es?
  • Was kann es?
  • Was haben die neuen Sprachmodelle damit zu tun?
  • Welche Kernkomponenten hat ein RAG-System?
  • Was können wir von der Technologie…
Mehr lesen
Sebastian Macke
Empore
Track: Track 2
Vortrag: Mo2.1
12:15 - 13:00
Mo1.2
GenAI – aus Sicht eines Hackers

Während Generative AI aktuell viele Bereiche der Wirtschaft revolutioniert, bietet sie auch denen, die IT-Systeme angreifen, neue Werkzeuge und Einfallstore. Dieser Vortrag zeigt, wie Angreifer GenAI für ihre Zwecke einsetzen und über Schwachstellen in diesen Systemen nachdenken, diese aufspüren und ausnutzen. Es werden aktuelle Trends der Bedrohungslage besprochen und daraus abgeleitet, auf welche Bereiche sich Sicherheitsbemühungen fokussieren sollten und welche aktuellen Maßnahmen es gegen…

Mehr lesen
Paul Zenker
Bühne
Track: Track 1
Vortrag: Mo1.2
13:00 - 14:00
Mittagspause
14:00 - 14:45
Mo1.3
Erfahrungsbericht von der Reise zum modularen RAG: im Framework-Dschungel zwischen LangChain, LlamaIndex und Haystack

Angestoßen durch den Erfolg von ChatGPT fragen sich viele Unternehmen, wie man LLMs mit den eigenen Daten anreichern und nutzen kann. Eine Möglichkeit hierfür ist Retrieval Augmented Generation (RAG). Das Ziel unserer GenAI-Reise ist die Entwicklung eines RAG Systems, dessen einzelne Komponenten ohne großen Aufwand an die vielseitigen Anforderungen des Kunden angepasst werden können. Für den Bau eines solchen RAGs existieren bereits einige Frameworks, wie LangChain, LlamaIndex, oder haystack,…

Mehr lesen
Alina Bos, Patrick Klaus
Bühne
Track: Track 1
Vortrag: Mo1.3
14:00 - 14:45
Mo2.3
Wieso versteht der Computer mich auf einmal? Wir lüften das Geheimnis von Embeddings

Embeddings, auch bekannt als Embedding-Vektoren, bilden die Grundlage der semantischen Suche. Systeme, die beispielsweise Retrieval Augmented Generation (RAG) nutzen, um Informationen zu suchen und die Antwort durch ein Large Language Model (LLM) formulieren zu lassen, basieren auf diesen. Doch Embeddings bieten weit mehr Möglichkeiten: Sie ermöglichen das schnelle und unkomplizierte Verstehen natürlichsprachlicher Anweisungen. So können wir beispielsweise basierend auf Nutzereingaben die…

Mehr lesen
Sebastian Gingter
Empore
Track: Track 2
Vortrag: Mo2.3
15:00 - 15:45
Mo1.4
KI und Recht – Möglichkeiten und Grenzen des KI-Einsatzes im Unternehmen

Texte, Code oder Bilder: KI-Generatoren kommen zunehmend mehr im beruflichen Alltag an. Doch mit der professionellen Nutzung steigt zugleich der Wunsch nach Rechtssicherheit bei der Anwendung der neuen Technologie. Der Vortrag befasst sich mit den rechtlichen Herausforderungen und Chancen des Einsatzes von KI in Unternehmen, insbesondere im Hinblick auf das Urheberrecht und den Datenschutz. 

Unter anderem werden Hilfestellungen zu folgenden Fragen gegeben:

  • Welche Daten darf man eingeben? 
  • Darf…
Mehr lesen
Michael Koch
Bühne
Track: Track 1
Vortrag: Mo1.4
15:00 - 15:45
Mo2.4
Generative KI für Anwendungsentwickler und -architekten mit AWS

Erfahren Sie, wie Sie generative KI-Services und -Tools nutzen können, um Ihre Anwendungen mit fortschrittlichen maschinellen Lernfunktionen auszustatten. In diesem Vortrag werden Large-Language- und Foundation-Modelle für Anwendungsentwickler vorgestellt und erklärt, wie diese sich in Amazon Bedrock nutzen lassen, um skalierbare und robuste generative KI-Anwendungen zu erstellen. Markus Weyerhäuser und Joachim Aumann werden Sie durch einen Anwendungsfall führen und wichtige…

Mehr lesen
Joachim Aumann, Markus Weyerhäuser
Empore
Track: Track 2
Vortrag: Mo2.4
15:45 - 16:15
Kaffeepause
16:15 - 17:00
Mo1.5
Mit ChatGPT Dinosaurier besiegen – Möglichkeiten und Grenzen von LLM für die Analyse alter Systeme

Die kritische Infrastruktur wird nach wie vor von Dinosauriersystemen aus dem letzten Jahrtausend getragen. Die Ablösung dieser Altsysteme ist ein drängendes Problem der Digitalisierung in Deutschland. In meinem Projekt musste ich in wenigen Wochen ein 30 Jahre altes System auf Basis von IBM iSeries (AS/400) mit RPG-Code analysieren. Überraschenderweise kannte ChatGPT die RGP-Referenz von IBM. Mithilfe von ChatGPT konnte ich mich schnell einarbeiten und so ein brauchbares Arbeitsverständnis des…

Mehr lesen
Martin Binder
Bühne
Track: Track 1
Vortrag: Mo1.5
16:15 - 17:00
Mo2.5
Wie baue ich intelligente Apps mit Azure OpenAI

In diesem Talk gehen wir direkt in die Praxis: Welche Möglichkeiten habe ich auf der Azure-Plattform, wenn ich sogenannte “intelligente Applikationen” entwickeln möchte? Welche Modelle kann ich für meine Zwecke nutzen, wann ist eine Eigenentwicklung sinnvoll und wann sind bereits existierende Copiloten die bessere Wahl. Zudem beleuchten wir, wie man Sicherheit und Compliance im Griff behält. 

Mehr lesen
Julia Kordick
Empore
Track: Track 2
Vortrag: Mo2.5
17:15 - 18:00
Mo1.6
Transparente AI: Tracing- und Debugging-Techniken für LLM-Anwendungen

Wir tauchen tief in die Welt des Tracings und Debuggings generativer KI-Anwendungen ein, um die oft als "Black Box" wahrgenommenen Prozesse zugänglicher und transparenter zu machen. Mit Fokus auf modernen Large Language Models (LLMs) und deren Anwendungen, werden wir an praktischen Beispielen die effektive Nutzung von Werkzeugen wie LangFuse und LangSmith zur Beobachtung, Analyse und Verbesserung dieser Systeme betrachten.

Los geht es mit einer Einführung in die Herausforderungen beim Debugging…

Mehr lesen
Marco Frodl
Bühne
Track: Track 1
Vortrag: Mo1.6
17:15 - 18:00
Mo2.6
Determinismus? Ist heute leider aus

Neuronale Netze sind durch (nach Abschluss ihres Trainings unveränderliche) Formeln ausdrückbar und daher mathematisch gesehen deterministisch. Auch LLMs, deren übliche Nutzererfahrung ein anderes Verhalten suggeriert, lassen sich durch Parameter deterministisch gestalten. Soweit die Theorie – jedoch zeigen z.B. die OpenAI-Modelle auch bei Verwendung fester Seeds und einer Temperatur von 0 nichtdeterministisches Verhalten. Verschiedene aktuelle Veröffentlichungen beleuchten dieses Verhaltens und…

Mehr lesen
Gregor Endler, Daniel Oeh
Empore
Track: Track 2
Vortrag: Mo2.6
18:00 - 20:30
Abendveranstaltung
Abendveranstaltung

Lasst den ersten Konferenztag bei kühlen Getränken und guten Gesprächen ausklingen.

Mehr lesen
Basecamp
Track: Special
Vortrag: Abendveranstaltung
08:30 - 09:00
Registrierung
Registrierung
09:00 - 09:45
Di1.1
Advanced Retrieval Augmented Generation – ein Überblick über Techniken, Methoden und Erfahrungen aus der Praxis

RAG-Anwendungen verknüpfen unternehmensinternes Wissensbasen mit der Leistungsfähigkeit von Large-Language-Modellen (LLMs). In diesem Vortrag erfahren Sie, wie RAG-Systeme aufgebaut sind, welche Probleme sie bei unseren Kunden lösen und welche Grenzen diese Methodik hat. Wir bieten Einblicke aus unseren Projekterfahrungen und zeigen verschiedene Ausbaustufen von RAG-Systemen auf. Dabei stellen wir Retrieval-Techniken wie Query Expansions, HyQE und HyDE vor und diskutieren, wie RAG-Systeme…

Mehr lesen
Lukas Heidemann, Tobias Goerke
Bühne
Track: Track 1
Vortrag: Di1.1
09:00 - 09:45
Di2.1
Die Evolution der Arbeitsrollen in einer KI-gestützten Welt

Der Vortrag untersucht die Auswirkungen der KI-Einführung auf Arbeitsumgebungen. Traditionelle Rollen werden kritisch hinterfragt und deren potenzielle Entwicklung in einer AI-gestützten Zukunft diskutiert. Nach einer Einführung in die Grundlagen und Potenziale generativer KI für die Umgestaltung von Arbeitsprozessen folgt eine Betrachtung der Veränderungen in Arbeitsabläufen und Zusammenarbeit durch KI-Technologien. Besonderes Augenmerk liegt auf der Identifizierung neuer Rollen und…

Mehr lesen
Esther Serwaa Poku
Empore
Track: Track 2
Vortrag: Di2.1
10:00 - 10:45
Di1.2
Prompt Injections, Halluzinationen & Co. – LLMs sicher in die Schranken weisen

Ein Chabot halluziniert einem Kunden eine sehr großzügige Erstattungsrichtline herbei und ein Richter entscheidet, dass diese KI-Erfindung für die Firma bindend ist. Ein Benutzer "überredet" ein LLM, alles tun zu können, und erhält prompt Zugriff auf sensible Daten. Beides sind Albtraumszenarien für ein Unternehmen. Aber dennoch: Mit dem großen Erfolg von Chatbots und LLM-Apps erhält die Integration von Generative AI in Business-Anwendungen heute eine zentrale Rolle in der Geschäftsstrategie…

Mehr lesen
Sebastian Gingter
Bühne
Track: Track 1
Vortrag: Di1.2
10:00 - 10:45
Di2.2
SaaS mit GenAI – Von Architektur, Prompting und Pricing [Sponsored Talk]

Auch bei der cronn GmbH nutzen wir GenAI, um unser Portfolio an individuellen Softwarelösungen zu erweitern und unseren Kunden innovative Werkzeuge zur Prozessoptimierung zu bieten. In diesem Vortrag gewähren wir einen ehrlichen Einblick in unsere GenAI-Projekte – sowohl die Erfolgsgeschichten als auch die Herausforderungen, denen wir uns stellen mussten.
Auf diesem Weg mussten wir auch von Best Practices in der Architektur abweichen, wurden mit den Grenzen des Prompting und den…

Mehr lesen
Toni Fetzer
Empore
Track: Track 2
Vortrag: Di2.2
10:45 - 11:15
Kaffeepause
11:15 - 12:00
Di1.3
LLMs als Security-Auditor – ein Erfahrungsbericht

Ergebnisse automatischer Security-Quellcodeanalyse-Werkzeuge können ein Softwareprojekt aufgrund ihrer bloßen Anzahl oder Fragestellungen, wie "was ist das eigentlich?", "ist das für uns relevant?" oder "wie sollen wir damit umgehen?" derart überfordern, dass sich der eigentliche Nutzen auflöst oder sogar ins Gegenteil verkehrt. Moderne LLMs könn(t)en hier Abhilfe schaffen – es gilt dabei jedoch, einige Hürden zu nehmen! Wir berichten in diesem Vortag von unseren Erkenntnissen und Erfahrungen im…

Mehr lesen
Mirko Richter
Bühne
Track: Track 1
Vortrag: Di1.3
11:15 - 12:00
Di2.3
Extended RAG – mit Langchains Multi-Retriever-Ansatz zu Fragen mit AI die beste Antwortquelle auswählen

Retrieval Augmented Generation (RAG) verwendet Daten aus Retrievern wie Vektor-Datenbanken, damit die relevanten Informationen gefunden werden und Benutzerfragen beantwortet werden können.

Wenn mehrere Retriever (z.B. Support-Tickets, Produkte, Kundenliste) verwendet werden sollen, kann die Auswahl der optimalen Datenquelle zur gestellten Frage eine Herausforderung sein. Marco Frodl wird das MultiRouteChain-Paradigma aus dem LangChain-Framework vorstellen, mit dem die AI dynamisch die Auswahl…

Mehr lesen
Marco Frodl
Empore
Track: Track 2
Vortrag: Di2.3
12:15 - 13:00
Di1.4
Prompt Engineering war gestern! Flow Engineering & LLM-Agents stehen jetzt vor der Tür!

Mit der fortschreitenden Entwicklung großer Sprachmodelle (LLMs) wird eine neue Epoche durch Flow Engineering eingeleitet. In diesem Vortrag wird der Wandel von Prompt Engineering zu Flow Engineering und dessen Einfluss auf die Automatisierung komplexer Aufgaben in der Softwarearchitektur beleuchtet. Es wird präsentiert, wie Flow Engineering durch Aufteilung in kleinere Schritte und iterative Prozesse die Genauigkeit und Effizienz von LLMs steigert und bei der Schaffung KI-gesteuerter Lösungen…

Mehr lesen
Ilyes Tascou
Bühne
Track: Track 1
Vortrag: Di1.4
12:15 - 13:00
Di2.4
Generative AI in der Google Cloud Platform: Warum die Wahl der AI- & Daten-Plattform wichtig ist

Dieser Vortrag befasst sich mit der Google Cloud Data Platform und der zugehörigen KI-Plattform Vertex AI im Kontext von generativen KI-Anwendungsfällen. Denn erfolgreiche Firmen im Bereich AI haben eine Datenplattform geschaffen, die es ihnen ermöglicht, neue Use Cases schnell zu verproben. Die Vorteile von Serverless Services im Bereich Data Management und Data Sharing werden als Grundlage für eine Datenstrategie erläutert, bevor es tiefer in das Themenfeld der "Generativen KI" geht.  

Mehr lesen
Andreas Ribbrock
Empore
Track: Track 2
Vortrag: Di2.4
13:00 - 14:00
Mittagspause
14:00 - 14:45
KeyDi
Panel: Generative AI ist da und überall! Und was jetzt?

Diskutieren Sie mit unseren Experten beim Panel der InfoDays Generative AI für Developer!

Mehr lesen
Alexander Neumann, Marco Frodl, Esther Serwaa Poku, Johann-Peter Hartmann
Bühne
Track: Keynote
Vortrag: KeyDi
15:00 - 15:45
Di1.5
KI im Wandel: Heutige Trends in den KI-Laboren und was das für morgige KI-Anwendungen bedeutet

KI-Trends von heute sind in unseren Anwendungen die Features von morgen. Doch es dauert, bis diese aus den Forschungslaboren zu uns durchgesickert sind. In diesem Vortrag werfen wir den Blick auf die aktuellen Trends in KI-Forschungslaboren und skizzieren, was dies für die nächste Iteration an KI-Anwendung bedeutet. Themenschwerpunkte sind:

  • synthetische Daten: Was ist das Limit von LLM-Destillierung
  • langsames Denken (Verlagerung der Rechenleistung vom Training hin zur Inferenz)
  • Koppeln von…
Mehr lesen
Steve Haupt
Bühne
Track: Track 1
Vortrag: Di1.5
15:00 - 15:45
Di2.5
Mastering GitHub Copilot – Exclusive Insights & Prompt Engineering

Diese Session zeigt dir, wie du mit Prompt Engineering und GitHub Copilot deine tägliche Arbeit optimieren kannst. Gregor, der in enger Zusammenarbeit mit dem Microsoft-Produktteam für GitHub Copilot Chat steht, wird seine Insiderkenntnisse teilen und demonstrieren, wie du GitHub Copilot so einsetzt, dass du genau den Code generierst, den du brauchst – effizient und zielgerichtet. Diese Session ist für Entwickler*innen gedacht, die bereit sind, ihre Produktivität zu maximieren und sich von der…

Mehr lesen
Gregor Biswanger
Empore
Track: Track 2
Vortrag: Di2.5
15:45 - 16:15
Kaffeepause
16:15 - 17:00
Di1.6
LLMs selbst auf Deutsch trainieren

Das Trainieren der offenen LLMs wie LLama oder Mistral ist im vergangenen Jahr deutlich einfacher geworden, bringt aber gleichzeitig viele Varianten mit sich. Zu klassischem supervised Finetuning kam low rank adaption, dazu Quantisierung, darauf folgten Direct Preference Optimization und Merging. Die neue Vielfalt der Werkzeuge sorgte nicht nur für einen unerwarteten Variantenreichtum an offenen Modellen, sondern erlaubt es auch jedem von uns, sein eigenes Modell zu erzeugen und zu trainieren,…

Mehr lesen
Johann-Peter Hartmann
Bühne
Track: Track 1
Vortrag: Di1.6
16:15 - 17:00
Di2.6
KI-Agenten in der Fabriksimulation

Agenten sind seit den 1940er-Jahren in Simulationen etabliert und zeichnen sich durch autonome Interaktionen untereinander und mit ihrer Umwelt aus. In aktuellen Simulationsanwendungen wird ihr Verhalten oft durch Entscheidungsgraphen modelliert. Dieser Vortrag beleuchtet die Funktionsweisen und Einsatzgebiete von Agenten, insbesondere von KI-Agenten, und vergleicht diese miteinander. Anschließend wird ein Fallbeispiel vorgestellt, in dem KI-Agenten in eine agentenbasierte Fabriksimulation in…

Mehr lesen
Fadil Kallat
Empore
Track: Track 2
Vortrag: Di2.6
09:00 - 17:00
Mi1
Limitiert Workshop: Agenten mit LangChain selbst entwickeln

LangChain ist nicht nur das am meisten verbreitete Framework für AI-Applikationen mit dem größten Wachstum, es hat schon zu Beginn seiner Existenz Wert darauf gelegt, "agentic" zu sein. Dementsprechend bringt es alles mit, was man sich aktuell zum Thema Agenten nur wünschen kann. Von einfachen Rechercheagenten zu diskutierenden CAMEL-Multiagenten, von per LangGraph synchronisierten Agenten bis zu welchen, die Bilder verstehen, Webseiten crawlen und Captchas lösen, die Code dokumentieren und…

Mehr lesen
Johann-Peter Hartmann, Lukas Bauer
Empore
Track: Workshop
Vortrag: Mi1
09:00 - 17:00
Mi2
Limitiert Workshop: Eigene Sprachmodelle feintunen und nutzen

29. Mai von 09:00 bis 17:00 Uhr: ausgebucht
05. Juni von 09:00 bis 17:00 Uhr (Zusatztermin online): verfügbar 


ChatGPT (und die darin verwendeten GPT-3.5 und GPT-4) sind die bekanntesten Sprachmodelle. Leider kann man diese aber nur wenig anpassen, das geht maximal über den Kontext.

In vielen Unternehmensanwendungen würde man das aber gerne machen, um z.B. domänenspezifisches Vokabular abzudecken. Im Gegensatz zum Training ist das Feintuning von Modellen viel schneller, auch dank LoRA (Low Rank…

Mehr lesen
Christian Winkler
Empore
Track: Workshop
Vortrag: Mi2

Zurück