•  
Generative AI für Developer
Wie sich Generative AI sinnvoll und effizient
in Business-Anwendungen implementieren lässt
27. - 29. Mai 2024 in Bonn
menu

Konferenzprogramm

Konferenzprogramm

Die Sprecherinnen und Sprecher der InfoDays Generative AI für Developer präsentieren, implementieren und diskutieren mit den Teilnehmenden alles von A wie Agents, über Large Language Models, Embeddings, RAG, Fine-Tuning, Frameworks wie Langchain und LlamaIndex bis hin zu Z wie Zero-Shot Prompting.

Nach Tracks filtern
Alle ausklappen
  • Montag
    27.05.
  • Dienstag
    28.05.
  • Mittwoch
    29.05.
09:45 - 10:00
Begrüßung
Begrüßung

Alexander Neumann ist Chief Content Officer bei SIGS DATACOM. In dieser Position ist er verantwortlich für die inhaltliche Ausrichtung des IT-Medienhauses. Zuvor baute er bei Heise Medien den Online-Channel heise Developer auf und das damit verbundene Developer-Konferenz-Business. Zuletzt war er bei Heise als Head of Events für das gesamte Events-Business zuständig.

10:00 - 10:45
KeyMo
Keynote: Jenseits des Promptings: Die Zukunft der Mensch-KI-Interaktion
Keynote: Jenseits des Promptings: Die Zukunft der Mensch-KI-Interaktion

In einer Ära, in der generative KI-Modelle immer ausgefeilter werden, untersucht dieser Eröffnungsvortrag die Rolle und die Notwendigkeit von Prompts als Mittel zur Kommunikation und Befehlseingabe. Er wirft einen Blick auf die kommenden Innovationen, die das Feld prägen könnten. Er beleuchtet, wie sich die Beziehung zwischen Mensch und Maschine durch fortschrittlichere und intuitiver Prompting-Methoden transformieren könnte, die über traditionelle und auf natürlichsprachliche Interaktionen, kontextbezogene Verständnisse und proaktive KI-Assistenz zusteuern. Dieser Vortrag zielt darauf ab zu inspirieren, über den Status quo hinauszudenken und die Möglichkeiten einer Zukunft zu erkunden, in der Prompts möglicherweise nicht mehr in ihrer heutigen Form benötigt werden.

Dr. Tobit Esch ist Geschäftsführer der 7 Hills Neo GmbH und beschäftigt sich seit über 8 Jahren mit den Themen Softwareentwicklung und künstliche Intelligenz. Zusammen mit seinem Team hilft er KMUs bei der Digitalisierung. Schwerpunkte sind die Verknüpfung von vorhandenen Softwareschnittstellen und die Einwerbung von Fördermitteln.

Tobit Esch
Tobit Esch
Track: Keynote
Vortrag: KeyMo

Vortrag Teilen

10:45 - 11:15
Kaffeepause
Kaffeepause

11:15 - 12:00
Mo1.1
Von generisch zu genial: Die Transformation der Suche durch RAG
Von generisch zu genial: Die Transformation der Suche durch RAG

Eine Suchfunktion, die nicht frustrierend ist? Kann es so etwas überhaupt geben oder wird das ein ewiger Traum bleiben? Es ist kaum zu glauben. Aber die generische Suche steht vor einer Revolution. Retrieval Augmented Generation, kurz RAG, lautet das neue Zauberwort und ist so neu, dass es noch nicht mal einen eigenen Wikipedia Eintrag hat.

  • Was ist es?
  • Was kann es?
  • Was haben die neuen Sprachmodelle damit zu tun?
  • Welche Kernkomponenten hat ein RAG-System?
  • Was können wir von der Technologie noch erwarten?

Zielpublikum: Engineers, Students, Product Managers, Data Scientists
Voraussetzungen: Ich versuche, die meiste Technik rauszuhalten und viel mit Beispielen zu arbeiten und wenn möglich mit Live-Demos. Komplexeste Themen: Semantische Suche, Embedding, HyDE, ReACT Pattern.
Schwierigkeitsgrad: Basic

Sebastian Macke ist Computerenthusiast mit einer Leidenschaft für die Softwareentwicklung und hat Physik studiert und promoviert. Er interessiert sich für alle computernahen Bereiche und hat Kenntnisse in physikalischen Simulationen, Architekturoptimierung, Parallelisierung, Programmierung grafischer Benutzeroberflächen, Webprogrammierung, Reverse Engineering, Sicherheit, Computeremulationen und schließlich KI. Er interessiert sich seit den späten 90er-Jahren für maschinelles Lernen. Zu sehen, wie diese Technologie gerade jetzt explodiert, ist sowohl aufregend als auch bestätigend. Er konzentriert sich derzeit in seinem Arbeitsleben auf dieses Thema.

Sebastian Macke
Sebastian Macke
Track: Track 1
Vortrag: Mo1.1

Vortrag Teilen

11:15 - 12:00
Mo2.1
Generative AI Architecture Pattern
Generative AI Architecture Pattern

Dank leistungsstarker Libraries wie LangChain und LlamaIndex lassen sich erste eigene Generative-AI-Anwendungen auf Hello-World-Niveau mit nur wenigen Zeilen Code realisieren. Genauso schnell stoßen diese ersten Gehversuche aber auch an ihre Grenzen. Denn die Realität wartet mit Herausforderungen auf, die sich mit diesem trivialen Ansatz nicht so einfach lösen lassen. Was aber braucht es für eine Generative-AI-Anwendung auf Enterprise-Niveau? Eine Generative AI Architecture muss her.
 
Im Rahmen der Session bauen wir Schritt für Schritt eine komplexe Generative-AI-Anwendung auf. Beginnend mit einem minimaoistischen RAG-System schauen wir uns verschiedene Herausforderungen an und diskutieren dazu passende Lösungsansätze. Am Ende steht eine Architektur, die den Herausforderungen der Realität Stand hält.

 

 

Lars Röwekamp, Gründer und Geschäftsführer bei der open knowledge GmbH in Oldenburg, beschäftigt sich als „CIO New Technologies“ mit der Analyse und Bewertung neuer Software- und Technologietrends.
Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit auf Enterprise und Cloud-Computing, Big Data und KI, wobei neben Design- und Architekturfragen insbesondere die Real-Life-Aspekte im Fokus seiner Betrachtung stehen.
Er ist Autor vieler Fachartikel und -bücher und beschäftigt sich seit der Geburtsstunde von Java mit dieser Programmiersprache.

Lars Röwekamp
Lars Röwekamp
Track: Track 2
Vortrag: Mo2.1

Vortrag Teilen

12:15 - 13:00
Mo1.2
GenAI – aus Sicht eines Hackers
GenAI – aus Sicht eines Hackers

Während Generative AI aktuell viele Bereiche der Wirtschaft revolutioniert, bietet sie auch denen, die IT-Systeme angreifen, neue Werkzeuge und Einfallstore. Dieser Vortrag zeigt, wie Angreifer GenAI für ihre Zwecke einsetzen und über Schwachstellen in diesen Systemen nachdenken, diese aufspüren und ausnutzen. Es werden aktuelle Trends der Bedrohungslage besprochen und daraus abgeleitet, auf welche Bereiche sich Sicherheitsbemühungen fokussieren sollten und welche aktuellen Maßnahmen es gegen diese Bedrohungen gibt. Dies wird anhand von echten Angriffen und Ausschnitten aus dem Darknet illustriert. Dieser Vortrag hat zum Ziel, ein plastisches Bild von Angreifern zu zeichnen, welches allen, die GenAI-Anwendungen entwickeln, implementieren und nutzen, dabei hilft, für deren Sicherheit zu sorgen.

Zielpublikum: Jeder, der GenAI entwickelt oder implementiert. Damit der Gedanke an Sicherheit von "Ach, wird schon ..." zu "Ist das gut genug, um einen Angreifer aufzuhalten ist?" wird.
Voraussetzungen: Grundlegendes Verständnis über die Verwendung und Implementierung von GenAI.
Schwierigkeitsgrad: Advanced

Paul ist von Herzen Hacker. Seine ganze beruflich Laufbahn faszinierte ihn immer wie Technologie auf Wegen genutzt werden kann, die der Erfinder nicht vorgesehen hat. Bei der NSIDE ATTACK LOGIC ist es sein Job simulierte Angriffe gegen Kunden durchzuführen um Sicherheitslücken zu finden und zu schließen. Dabei ist es wichtig immer die neusten Trends und Tricks der Angreifer zu kennen. GenAI fasziniert ihn auf Grund der vielseitigen Einsatzmöglichkeiten, der rasanten Entwicklung und der gänzlich neuen Art an Schwachstellen.

Paul Zenker
Paul Zenker
Track: Track 1
Vortrag: Mo1.2

Vortrag Teilen

13:00 - 14:00
Mittagspause
Mittagspause

14:00 - 14:45
Mo1.3
Erfahrungsbericht von der Reise zum modularen RAG: im Framework-Dschungel zwischen LangChain, LlamaIndex und Haystack
Erfahrungsbericht von der Reise zum modularen RAG: im Framework-Dschungel zwischen LangChain, LlamaIndex und Haystack

Angestoßen durch den Erfolg von ChatGPT fragen sich viele Unternehmen, wie man LLMs mit den eigenen Daten anreichern und nutzen kann. Eine Möglichkeit hierfür ist Retrieval Augmented Generation (RAG). Das Ziel unserer GenAI-Reise ist die Entwicklung eines RAG Systems, dessen einzelne Komponenten ohne großen Aufwand an die vielseitigen Anforderungen des Kunden angepasst werden können. Für den Bau eines solchen RAGs existieren bereits einige Frameworks, wie LangChain, LlamaIndex, oder haystack, die dies ermöglichen. Im Vortrag wollen wir von unseren Erfahrungen berichten und Licht in den Framework-Dschungel bringen, indem wir für die jeweiligen Frameworks die Austauschbarkeit einzelner Komponenten, deren praktische Einbindung im Code und generelle Stärken und Schwächen demonstrieren.

Zielpublikum: Softwareentwickler:innen, die sich für die Fähigkeiten von LLMs interessieren oder Retrieval-Augmented Generation in ihren Anwendungen implementieren möchten
Voraussetzungen: Keine
Schwierigkeitsgrad: Advanced

Alina Bos ist Softwareingenieurin mit Fokus auf Data Science sowie Machine Learning. Sie ist Gründerin der "Data Science und Machine Learning"-Community von Accso und beschäftigt sich seit kurzem mit Retrieval Augmented Generation (RAG).

Patrick Klaus ist Software Engineer bei Accso. Nach seinem erfolgreich abgeschlossenen Masterstudium beschäftigt er sich seit kurzem mit RAG-Systemen (Retrieval Augmented Generation). Dabei liegt sein Fokus vor allem auf der modularen Architektur und der flexiblen Erweiterung und Anpassung der Pipelines.

Alina Bos, Patrick Klaus
Alina Bos, Patrick Klaus
Track: Track 1
Vortrag: Mo1.3

Vortrag Teilen

14:00 - 14:45
Mo2.3
Generative AI im Spannungsfeld zwischen Wertschöpfung und Compliance – am Beispiel: Chatbot in der Kundenkommunikation
Generative AI im Spannungsfeld zwischen Wertschöpfung und Compliance – am Beispiel: Chatbot in der Kundenkommunikation

Der Vortrag behandelt das Spannungsfeld zwischen Wertschöpfung und Compliance beim Einsatz von KI am Beispiel eines Chatbots in der Kundenkommunikation auf Basis generativer KI:

  • Welcher Ansatz eignet sich für den Einsatz eines LLM als Chatbot, um genaue und präzise Antworten auf Fragen von Kunden zu gewährleisten und gleichzeitig das Problem der "Halluzination" zu vermeiden, das üblicherweise mit generativen LLMs verbunden ist?
  • Wie kann der Chatbot gegen die Suggestion von Konkurrenten und deren Produkten gestärkt werden, insbesondere bei Aufforderungen, die problematische Antworten auslösen könnten?
  • Welche Architektur ist am besten geeignet ?
  • Welche Einschränkungen sind aus Sicht der Compliance, z.B. hinsichtlich des EU AI Act zu beachten?

Zielpublikum: Entwickler:innen, Prompt Engineers und Softwarearchitekt:innen
Voraussetzungen: Grundsätzliche Kenntnisse über generative KI
Schwierigkeitsgrad: Basic

Jan Jürjens hat mehr als 20 Jahre praktische Erfahrung mit Software. Sein erstes Buch (2005) wurde ins Chinesische übersetzt. Aktuell ist er Director Research Projects (Fraunhofer ISST), Professor & Leiter, Institut Softwaretechnik (Uni Koblenz). Vorher: Professor für Softwareengineering (TU Dortmund), Senior Member/Research Fellow (Robinson College, Uni Cambridge), Royal Society Industrial Fellow (Microsoft Research Cambridge), Postdoc (TU München), PhD Informatik (Uni Oxford) in Softwaresicherheit, Dipl.-Math. (Uni Bremen).

Jan Jürjens
Jan Jürjens
Track: Track 2
Vortrag: Mo2.3

Vortrag Teilen

15:00 - 15:45
Mo1.4
KI und Recht – Möglichkeiten und Grenzen des KI-Einsatzes im Unternehmen
KI und Recht – Möglichkeiten und Grenzen des KI-Einsatzes im Unternehmen

Texte, Code oder Bilder: KI-Generatoren kommen zunehmend mehr im beruflichen Alltag an. Doch mit der professionellen Nutzung steigt zugleich der Wunsch nach Rechtssicherheit bei der Anwendung der neuen Technologie. Der Vortrag befasst sich mit den rechtlichen Herausforderungen und Chancen des Einsatzes von KI in Unternehmen, insbesondere im Hinblick auf das Urheberrecht und den Datenschutz. 

Unter anderem werden Hilfestellungen zu folgenden Fragen gegeben:

  • Welche Daten darf man eingeben? 
  • Darf man Ergebnisse frei verwenden und veröffentlichen? 
  • Wer ist eigentlich der Autor?
  • Gibt es eine Möglichkeit, die eigenen Inhalte vor der Indexierung für KI zu schützen? 
  • Wann sind Geschäftsgeheimnisse in Gefahr?

Der Vortrag gibt einen Überblick über die relevanten Rechtsgebiete und praktische Handlungsempfehlungen für den Einsatz von KI.

Dr. Michael Koch ist Diplom-Wirtschaftsjurist (FH) und promovierte mit dem Dissertationsthema "Völkerrechtliche Fragen des Cyberwar". Bis 2020 war er in einer Beratungsfirma für IT-Sicherheit und Datenschutz in Hannover tätig. Seit Anfang 2020 ist er Mitarbeiter der Rechtsabteilung von Heise Medien. Er ist zertifizierter Datenschutzbeauftragter (TÜV Nord) und als Mentor für Datenschutz in einem Accelerator-Programm für Startups tätig. Darüber hinaus ist Herr Dr. Koch Referent und Autor zu Fragen des Datenschutz-, IT- und KI-Rechts.

Michael Koch
Michael Koch
Track: Track 1
Vortrag: Mo1.4

Vortrag Teilen

15:00 - 15:45
Mo2.4
Generative KI für Anwendungsentwickler und -architekten mit AWS
Generative KI für Anwendungsentwickler und -architekten mit AWS

Erfahren Sie, wie Sie generative KI-Services und -Tools nutzen können, um Ihre Anwendungen mit fortschrittlichen maschinellen Lernfunktionen auszustatten. In diesem Vortrag werden Large-Language- und Foundation-Modelle für Anwendungsentwickler vorgestellt und erklärt, wie diese sich in Amazon Bedrock nutzen lassen, um skalierbare und robuste generative KI-Anwendungen zu erstellen. Markus Weyerhäuser und Joachim Aumann werden Sie durch einen Anwendungsfall führen und wichtige Architekturentscheidungen hervorheben. Die beiden Sprecher teilen Best Practices und Codebeispiele, die illustrieren, wie Machine Learning auf AWS in eigenen Anwendungen genutzt werden können.

Zielpublikum: Anwendungsentwickler und Softwarearchitekten
Voraussetzungen: Grundverständnis zu AWS
Schwierigkeitsgrad: Advanced

Joachim Aumann ist seit 2020 bei Amazon Web Services und unterstützt Unternehmenskunden bei der Einführung und Nutzung von AWS-Diensten. Er liebt es, auf der Bühne zu sprechen und Cloud-Wissen zu verbreiten. Sein Lieblingsthemen im Cloud-Bereich sind Serverless und AI/ML. Bevor er zu AWS kam, arbeitete er bei Adidas, Sivantos und einem Reisesoftwareunternehmen als Solution Architect, Development Lead und Senior Developer. Wenn er nicht gerade Kunden auf ihrer Reise in die Cloud unterstützt, spielt und schaut er gerne Sport.

Markus Weyerhäuser ist Principal Solutions Architect bei AWS. Seit 2019 begleitet er in dieser Rolle strategische Großkunden auf ihrem Weg in die Cloud. Markus hat in seiner Laufbahn umfangreiche Erfahrungen aus unterschiedlichen Bereichen wie Unternehmensarchitektur, Anwendungsentwicklung und Strategie-Beratung gesammelt. Darüber hinaus kennt er sich bestens in der Start-up-Szene aus, gründete selbst zwei Start-ups und war CTO eines Company Builder. 

Mehr Inhalte dieses Speakers? Schaut doch mal bei SIGS.de vorbei: https://www.sigs.de/autor/markus.weyerh%C3%A4user

Joachim Aumann, Markus Weyerhäuser
Joachim Aumann, Markus Weyerhäuser
Track: Track 2
Vortrag: Mo2.4

Vortrag Teilen

15:45 - 16:15
Kaffeepause
Kaffeepause

16:15 - 17:00
Mo1.5
Mit ChatGPT Dinosaurier besiegen – Möglichkeiten und Grenzen von LLM für die Analyse alter Systeme
Mit ChatGPT Dinosaurier besiegen – Möglichkeiten und Grenzen von LLM für die Analyse alter Systeme

Die kritische Infrastruktur wird nach wie vor von Dinosauriersystemen aus dem letzten Jahrtausend getragen. Die Ablösung dieser Altsysteme ist ein drängendes Problem der Digitalisierung in Deutschland. In meinem Projekt musste ich in wenigen Wochen ein 30 Jahre altes System auf Basis von IBM iSeries (AS/400) mit RPG-Code analysieren. Überraschenderweise kannte ChatGPT die RGP-Referenz von IBM. Mithilfe von ChatGPT konnte ich mich schnell einarbeiten und so ein brauchbares Arbeitsverständnis des Systems erreichen. Aber wo Licht ist, ist auch Schatten: ChatGPT hat kein Kontextverständnis, ist unvollständig und neigt zu Fehlschlüssen. Als Vorgeschmack hier der Powermove: ChatGPT nach jeder Antwort grundsätzlich danach fragen, was es falsch gemacht hat. Du wirst überrascht sein!

Zielpublikum: Alle, die ein Altsystem in einer nicht mehr gebräuchlichen Programmiersprache verstehen wollen/dürfen/müssen.
Voraussetzungen: Interesse an alten Programmiersprachen und Systemarchäologie.
Schwierigkeitsgrad: Basic

Martin Binder ist Lead IT-Consultant und seit über 15 Jahren bei der QAware und beschäftigt sich mit der Gestaltung, Konzeption und Entwicklung von Anwendungen. Er formt Ideen genauso gerne wie konkrete technische Architekturen und Datenmodelle. Komplexe Sachverhalte zu analysieren, zu abstrahieren, neu zu denken und zur Umsetzung zu bringen ist sein Schwerpunkt.

Martin Binder
Martin Binder
Track: Track 1
Vortrag: Mo1.5

Vortrag Teilen

16:15 - 17:00
Mo2.5
Wie baue ich Intelligente Apps mit Azure OpenAI
Wie baue ich Intelligente Apps mit Azure OpenAI

Infos zum Vortrag folgen in Kürze.

Titel, die man Julia schon gegeben hat: Senior Software Engineer, IT Team Lead, Cloud Solution Architect, Technical Specialist, Global Black Belt.

Dinge, die Julia mag: Clean Code, verteilte Software-Architekturen, komplexe Probleme lösen, JavaScript, Hackathons, Feminismus & American Football.

Julia Kordick
Julia Kordick
Track: Track 2
Vortrag: Mo2.5

Vortrag Teilen

17:15 - 18:00
Mo1.6
Transparente AI: Tracing- und Debugging-Techniken für LLM-Anwendungen
Transparente AI: Tracing- und Debugging-Techniken für LLM-Anwendungen

Wir tauchen tief in die Welt des Tracings und Debuggings generativer KI-Anwendungen ein, um die oft als "Black Box" wahrgenommenen Prozesse zugänglicher und transparenter zu machen. Mit Fokus auf modernen Large Language Models (LLMs) und deren Anwendungen, werden wir an praktischen Beispielen die effektive Nutzung von Werkzeugen wie LangFuse und LangSmith zur Beobachtung, Analyse und Verbesserung dieser Systeme betrachten.

Los geht es mit einer Einführung in die Herausforderungen beim Debugging generativer AI-Workflows und wie diese mit den fortschrittlichen Funktionen von LangFuse und LangSmith bewältigt werden können. Der Schwerpunkt liegt dabei auf der zunehmenden Komplexität von LLM-Anwendungen, die umfangreiche Abstraktionen wie dynamische Prompts, Antworten von Retrievern und Tools, komplexe Chains und Agents nutzen. Hier können die verschachtelten Traces in LangFuse oder LangSmith dabei helfen, das Geschehen besser zu verstehen und die Ursachen von Problemen zu ergründen. Anschließend gehen wir auf die Analyse und das Tracking von Metriken wie Kosten, Latenzzeiten und Qualität der LLMs ein.

Ziel des Talks ist es, den Teilnehmern die Werkzeuge und Kenntnisse an die Hand zu geben, um ihre generativen AI-Workflows effizienter zu gestalten und die Transparenz und Kontrolle über ihre KI-Systeme zu erhöhen.

Marco Frodl ist Principal Consultant für Generative AI bei der Thinktecture AG und konzentriert sich im Bereich der künstlichen Intelligenz auf Generative AI. Ihn fasziniert die Vision, in natürlicher Sprache mit Apps und Devices kommunizieren zu können. Sein Beratungsfokus ist die Entwicklung von AI-Workflows unter Verwendung von LLMs von OpenAI oder Mistral sowie community-getriebene Large Language Models wie Metas Llama2, Mixtral, Intel NeuralChat oder DeepSeek Coder. Er ist Fan von Langchain und Langfuse, weil sich damit komplexe AI-Abläufe kompakt verpacken und gut tracen lassen.

Marco Frodl
Marco Frodl
Track: Track 1
Vortrag: Mo1.6

Vortrag Teilen

17:15 - 18:00
Mo2.6
Determinismus? Ist heute leider aus
Determinismus? Ist heute leider aus

Neuronale Netze sind durch (nach Abschluss ihres Trainings unveränderliche) Formeln ausdrückbar und daher mathematisch gesehen deterministisch. Auch LLMs, deren übliche Nutzererfahrung ein anderes Verhalten suggeriert, lassen sich durch Parameter deterministisch gestalten. Soweit die Theorie – jedoch zeigen z.B. die OpenAI-Modelle auch bei Verwendung fester Seeds und einer Temperatur von 0 nichtdeterministisches Verhalten. Verschiedene aktuelle Veröffentlichungen beleuchten dieses Verhaltens und zeigen, dass dies für neuronale Netze im Allgemeinen gilt. Wir stellen diese Forschungsergebnisse in den Zusammenhang, erklären mögliche Gründe für nichtdeterministisches Verhalten neuronaler Netze und erläutern Konsequenzen für deren praktische Anwendung. Abschließend zeigen wir Mitigationsstrategien.

Zielpublikum: Developers, Data Scientists, Project Managers
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic

Gregor Endler erwarb mit seiner Dissertation “Adaptive Data Quality Monitoring with a Focus on the Completeness of Timestamped Data” 2017 den Doktortitel in Informatik. Seitdem ist er als Data Scientist bei der codemanufaktur GmbH tätig. Seine Arbeit umfasst insbesondere Machine Learning, Datenanalyse und Datenvisualisierung.

Daniel Oeh arbeitet seit 2021 bei der codemanufaktur GmbH als Data Scientist und hat seitdem in Projekten mit den Schwerpunkten Visualisierung, Machine Learning und Datenanalyse gearbeitet. Davor promovierte er an der Friedrich-Alexander Universität Erlangen-Nürnberg im Bereich Mathematik.

Gregor Endler, Daniel Oeh
Gregor Endler, Daniel Oeh
Track: Track 2
Vortrag: Mo2.6

Vortrag Teilen

09:00 - 09:45
Di1.1
Advanced Retrieval Augmented Generation – ein Überblick über Techniken, Methoden und Erfahrungen aus der Praxis
Advanced Retrieval Augmented Generation – ein Überblick über Techniken, Methoden und Erfahrungen aus der Praxis

RAG-Anwendungen verknüpfen unternehmensinternes Wissensbasen mit der Leistungsfähigkeit von Large-Language-Modellen (LLMs). In diesem Vortrag erfahren Sie, wie RAG-Systeme aufgebaut sind, welche Probleme sie bei unseren Kunden lösen und welche Grenzen diese Methodik hat. Wir bieten Einblicke aus unseren Projekterfahrungen und zeigen verschiedene Ausbaustufen von RAG-Systemen auf. Dabei stellen wir Retrieval-Techniken wie Query Expansions, HyQE und HyDE vor und diskutieren, wie RAG-Systeme überwacht und kontinuierlich verbessert werden können.

Zielpublikum: Data Scientists, Analysts, Engineers und Entscheider*innen
Voraussetzungen: Basic-Know-how LLMs & Vector Embeddings
Schwierigkeitsgrad: Advanced

Lukas Heidemann ist IT-Berater viadee IT-Unternehmensberatung. Als Data Scientist unterstützt er Unternehmen dabei, ihre analytischen Fähigkeiten auszubauen und datenbasierte Entscheidungen zu treffen. Er ist Experte für Generative KI und Intelligente Suche und hat die Entwicklung mehrerer Retrieval Augmented Generation Anwendungen geleitet.

Tobias Goerke ist Berater bei der viadee IT-Unternehmensberatung. Als Data Scientist liegen seine Schwerpunkte in der Einführung künstlich intelligenter Systeme und der Erforschung verschiedener Verfahren des erklärbaren Maschinenlernens.

Lukas Heidemann, Tobias Goerke
Lukas Heidemann, Tobias Goerke
Track: Track 1
Vortrag: Di1.1

Vortrag Teilen

09:00 - 09:45
Di2.1
Die Evolution der Arbeitsrollen in einer KI-gestützten Welt
Die Evolution der Arbeitsrollen in einer KI-gestützten Welt

Der Vortrag untersucht die Auswirkungen der KI-Einführung auf Arbeitsumgebungen. Traditionelle Rollen werden kritisch hinterfragt und deren potenzielle Entwicklung in einer AI-gestützten Zukunft diskutiert. Nach einer Einführung in die Grundlagen und Potenziale generativer KI für die Umgestaltung von Arbeitsprozessen folgt eine Betrachtung der Veränderungen in Arbeitsabläufen und Zusammenarbeit durch KI-Technologien. Besonderes Augenmerk liegt auf der Identifizierung neuer Rollen und Verantwortlichkeiten sowie der Bedeutung flexibler Arbeitsstrukturen und kontinuierlicher Weiterbildung. Abschließend wird erörtert, wie Organisationen und Einzelpersonen sich auf diese Veränderungen vorbereiten können, um die Chancen der KI-gestützten Arbeitswelt zu nutzen.

Zielpublikum: AI-Projekt-Manager, Digital Manager, Projekt-Manager, IT-Manager, AI Engineers, Change Manager, Agile Coaches
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic

Esther ist IT-Transformationsexpertin mit Fokus auf Cloud und GenAI. Sie treibt kulturelle und organisatorische Veränderungen voran. Ihr zugänglicher, authentischer Ansatz basiert auf Empathie und Vertrauen. Als Verfechterin von Vielfalt und Inklusion in der IT entwickelt sie menschenzentrierte Strategien, die Mehrwert schaffen. Esther strebt danach, in der Welt der neuen Technologien einen positiven Unterschied zu machen und alle zu befähigen.

Esther Serwaa Poku
Esther Serwaa Poku
Track: Track 2
Vortrag: Di2.1

Vortrag Teilen

10:00 - 10:45
Di1.2
Prompt Injections, Halluzinationen & Co. – LLMs sicher in die Schranken weisen
Prompt Injections, Halluzinationen & Co. – LLMs sicher in die Schranken weisen

Ein Chabot halluziniert einem Kunden eine sehr großzügige Erstattungsrichtline herbei und ein Richter entscheidet, dass diese KI-Erfindung für die Firma bindend ist. Ein Benutzer "überredet" ein LLM, alles tun zu können, und erhält prompt Zugriff auf sensible Daten. Beides sind Albtraumszenarien für ein Unternehmen. Aber dennoch: Mit dem großen Erfolg von Chatbots und LLM-Apps erhält die Integration von Generative AI in Business-Anwendungen heute eine zentrale Rolle in der Geschäftsstrategie vieler Unternehmen.

In dieser Session beleuchtet Sebastian Gingter, wie wir robuste LLM-basierte Lösungen entwickeln können, die sowohl innovativ als auch sicher sind. Wir diskutieren reale Beispiele von Problemen in Anwendungen, die direkt durch ein LLM entstehen, wie eben Halluzinationen oder Prompt-Injection-Angriffe. Die Teilnehmer sehen, welche Maßnahmen führende Anbieter ergriffen haben, um solche Risiken zu verhindern, und welche konkreten Möglichkeiten sie haben, Generative AI in ihre Schranken zu verweisen und zu einem sicheren, vertrauenswürdigen und wertschöpfenden Bestandteil ihrer Produkte zu machen.

Sebastian Gingter blickt auf über 25 Jahre Erfahrung als professioneller Softwareentwickler zurück. Im Zuge seiner Arbeit als Consultant bei der Thinktecture AG ist sein Blick allerdings fest nach vorne gerichtet: auf die Integration von Generative AI im Businessumfeld und auf moderne Technologien sowohl auf dem Client als auch auf dem Server mit C# und .NET. Seit 2008 ist er mit Spaß und Leidenschaft Erklärbär, spricht international auf Konferenzen und publiziert Fachartikel.

Sebastian Gingter
Sebastian Gingter
Track: Track 1
Vortrag: Di.2

Vortrag Teilen

10:45 - 11:15
Kaffeepause
Kaffeepause

11:15 - 12:00
Di1.3
LLMs als Security-Auditor – ein Erfahrungsbericht
LLMs als Security-Auditor – ein Erfahrungsbericht

Ergebnisse automatischer Security-Quellcodeanalyse-Werkzeuge können ein Softwareprojekt aufgrund ihrer bloßen Anzahl oder Fragestellungen, wie "was ist das eigentlich?", "ist das für uns relevant?" oder "wie sollen wir damit umgehen?" derart überfordern, dass sich der eigentliche Nutzen auflöst oder sogar ins Gegenteil verkehrt. Moderne LLMs könn(t)en hier Abhilfe schaffen – es gilt dabei jedoch, einige Hürden zu nehmen! Wir berichten in diesem Vortag von unseren Erkenntnissen und Erfahrungen im Umgang mit abertausend Findings, den Qualitätsunterschieden verschiedener Large-Language-Modelle bei der Bewertungsdurchführung, den Dos und Don’ts beim Prompt-Engineering und was uns sonst noch so auf dem Weg zur automatisierten Pipeline in die Quere kam.

Zielpublikum: Entwickler:innen, Softwarearchitekt:innen, IT-Security-Berater:innen, Secure-SDLC-Verantwortliche
Voraussetzungen: Grundlegende Kenntnisse hinsichtlich des Einsatzes von LLMs sowie ein grobes Verständnis dafür, was (gängige) Schwachstellen im Quellcode sind, werden vorausgesetzt.
Schwierigkeitsgrad: Advanced

Mirko Richter ist Software-Security-Berater, Sourcecode-Analyse-Spezialist und Schulungsleiter für Grundlagenschulungen bis hin zu Advanced-Coding- und Secure-SDLC-Trainings. Er beschäftigt sich seit Mitte der 90er-Jahre mit Softwareentwicklung, -architektur und -sicherheit. Er ist Sprecher auf Konferenzen und Autor mehrerer Fachartikel.

Mirko Richter
Mirko Richter
Track: Track 1
Vortrag: Di1.3

Vortrag Teilen

12:15 - 13:00
Di1.4
Generative AI in der Google Cloud Platform: Warum die Wahl der AI- & Daten-Plattform wichtig ist
Generative AI in der Google Cloud Platform: Warum die Wahl der AI- & Daten-Plattform wichtig ist

Dieser Vortrag befasst sich mit der Google Cloud Data Platform und der zugehörigen KI-Plattform Vertex AI im Kontext von generativen KI-Anwendungsfällen. Denn erfolgreiche Firmen im Bereich AI haben eine Datenplattform geschaffen, die es ihnen ermöglicht, neue Use Cases schnell zu verproben. Die Vorteile von Serverless Services im Bereich Data Management und Data Sharing werden als Grundlage für eine Datenstrategie erläutert, bevor es tiefer in das Themenfeld der "Generativen KI" geht.  

Andreas Ribbrock hat an der Universität Bonn Informatik studiert und dort 2006 im Bereich der Audiosignalverarbeitung und Wissensmanagement promoviert. Das Handwerk des Data Management hat Andreas in seiner Zeit beim Data-Warehouse-Anbieter Teradata gelernt und bei vielen internationalen Kunden angewendet. Im Oktober 2015 wechselte Andreas zu einem AI & Data Startup der Lufthansa Group. Dort entwickelte Andreas mit dem Team Strategien zur personalisierten Kundenansprache, Bildanalysesysteme zum besseren "Turnaround Management" von Flugzeugen und komplexe Applikationen zur Steuerung des Flugbetriebs mittels KI. Seit Oktober 2020 ist Andreas Principal Architect bei Google Cloud und berät führende Unternehmen aus den Bereichen Aviation, Retail und Pharma in den Bereichen Data und KI. 

Andreas Ribbrock
Andreas Ribbrock
Track: Track 1
Vortrag: Di1.4

Vortrag Teilen

13:00 - 14:00
Mittagspause
Mittagspause

14:00 - 14:45
KeyDi
Keynote: TBA
Keynote: TBA

Die Infos zu dieser Keynote folgen in Kürze

Track: Keynote
Vortrag: KeyDi

Vortrag Teilen

15:00 - 15:45
Di1.5
KI im Wandel: Heutige Trends in den KI-Laboren und was das für morgige KI-Anwendungen bedeutet
KI im Wandel: Heutige Trends in den KI-Laboren und was das für morgige KI-Anwendungen bedeutet

KI-Trends von heute sind in unseren Anwendungen die Features von morgen. Doch es dauert, bis diese aus den Forschungslaboren zu uns durchgesickert sind. In diesem Vortrag werfen wir den Blick auf die aktuellen Trends in KI-Forschungslaboren und skizzieren, was dies für die nächste Iteration an KI-Anwendung bedeutet. Themenschwerpunkte sind:

  • synthetische Daten: Was ist das Limit von LLM-Destillierung
  • langsames Denken (Verlagerung der Rechenleistung vom Training hin zur Inferenz)
  • Koppeln von LLM mit Feedback-Systemen
  • Foundation Models: Closed Source vs. Open Source
  • neue Architekturen: Mamba, xLSTM .. lösen sie die Transformer-Architektur ab?

Zielpublikum: Softwarearchitekt:innen und Entwickler:innen
Voraussetzungen: Grundverständniss über Sprachmodelle
Schwierigkeitsgrad: Advanced

Steve Haupt arbeitet seit sechs Jahren als agiler Softwareentwickler bei andrena objects. Er betrachtet Softwareentwicklung als Handwerk, das über einen längeren Zeitraum erlernt und geübt werden muss. Qualität ist für ihn der zentrale Grundstein in diesem Handwerk. Besonders fasziniert ist Steve von den aktuellen Entwicklungen im Bereich der künstlichen Intelligenz und reflektiert intensiv über die Implikationen dieser Technologien für das Handwerk der Softwareentwicklung. In den letzten Monaten hielt Steve mehrere Vorträge zu dem Thema und entwickelte gemeinsam mit Kollegen eine eintägige KI-Schulung für Softwareentwickler.

Mehr Inhalte dieses Speakers? Schaut doch mal bei SIGS.de vorbei: https://www.sigs.de/autor/Steve_Haupt

Steve Haupt
Steve Haupt
Track: Track 1
Vortrag: Di1.5

Vortrag Teilen

15:00 - 15:45
Di2.5
Mastering GitHub Copilot – Exclusive Insights & Prompt Engineering
Mastering GitHub Copilot – Exclusive Insights & Prompt Engineering

Diese Session zeigt dir, wie du mit Prompt Engineering und GitHub Copilot deine tägliche Arbeit optimieren kannst. Gregor, der in enger Zusammenarbeit mit dem Microsoft-Produktteam für GitHub Copilot Chat steht, wird seine Insiderkenntnisse teilen und demonstrieren, wie du GitHub Copilot so einsetzt, dass du genau den Code generierst, den du brauchst – effizient und zielgerichtet. Diese Session ist für Entwickler*innen gedacht, die bereit sind, ihre Produktivität zu maximieren und sich von der zeitraubenden Suche nach Lösungen auf Google, in Blog-Posts und auf Stack Overflow zu verabschieden. Es ist Zeit, die Art und Weise, wie du codest, zu transformieren und die neuesten KI-gestützten Werkzeuge zu deinem Vorteil zu nutzen.

Zielpublikum: Fortgeschrittene Entwickler, die mit Copilot bereits arbeiten.
Voraussetzungen: Grundlagen zu GitHub Copilot
Schwierigkeitsgrad: Expert

Gregor Biswanger ist ein renommierter Berater, Trainer, Autor und Sprecher, der für sein Fachwissen in Softwarearchitektur, Cloud, Web und Cross-Platform-Entwicklung mit C# und JavaScript/TypeScript bekannt ist. Als Microsoft MVP, Intel Black Belt und Intel Software Innovator bietet er Beratungsdienstleistungen für große und mittelständische Unternehmen, Organisationen und Agenturen an. Seine Schwerpunkte sind der MEAN-Stack, ASP.NET Core, Docker, Azure, Domain-Driven Design und Microservices. Als freier Autor schreibt Gregor für heise.de und andere Fachzeitschriften. Er ist ein gefragter Sprecher auf internationalen Konferenzen und aktiv in verschiedenen Communities engagiert. Aufgrund seiner umfassenden Erfahrung und seines Engagements im Bereich gilt Gregor Biswanger als einer der bekanntesten .NET- und JavaScript-Experten in Deutschland, Schweiz und Österreich. Sie können Gregor unter http://about.me/gregor.biswanger erreichen.

Gregor Biswanger
Gregor Biswanger
Track: Track 2
Vortrag: Di2.5

Vortrag Teilen

15:45 - 16:15
Kaffeepause
Kaffeepause

16:15 - 17:00
Di1.6
KI-Agenten in der Fabriksimulation
KI-Agenten in der Fabriksimulation

Agenten sind seit den 1940er-Jahren in Simulationen etabliert und zeichnen sich durch autonome Interaktionen untereinander und mit ihrer Umwelt aus. In aktuellen Simulationsanwendungen wird ihr Verhalten oft durch Entscheidungsgraphen modelliert. Dieser Vortrag beleuchtet die Funktionsweisen und Einsatzgebiete von Agenten, insbesondere von KI-Agenten, und vergleicht diese miteinander. Anschließend wird ein Fallbeispiel vorgestellt, in dem KI-Agenten in eine agentenbasierte Fabriksimulation in der Simulationsanwendung AnyLogic 8 integriert werden. Dabei wird die Frage untersucht, ob die Modellierung von Entscheidungsgraphen damit entfällt und die Agenten sich dadurch natürlicher verhalten. Hierzu werden die Frameworks LangChain und LlamaIndex vorgestellt, die zur Erstellung von OpenAI Assistant und ReAct-Agenten unter Verwendung des Modells GPT-3.5 Turbo verwendet werden können.

Zielpublikum: Alle mit einem allgemeinen Interesse an KI-Agenten und Prompt Engineers, die KI-Agenten für Simulationen erstellen möchten.
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic

Dr. Fadil Kallat ist als IT-Berater in der Full-Stack-Entwicklung bei der codecentric AG tätig. Neben der Modernisierung und Qualitätsverbesserung von Anwendungen widmet er sich leidenschaftlich den Potenzialen von KI-Lösungen zur Vereinfachung des Alltages von entwickelnden Personen. In seiner Dissertation erforschte er die komponentenbasierte Synthese zur Generierung von agentenbasierten Fabriksimulationen.

Fadil Kallat
Fadil Kallat
Track: Track 1
Vortrag: Di1.6

Vortrag Teilen

16:15 - 17:00
Di2.6
LLMs selbst auf Deutsch trainieren
LLMs selbst auf Deutsch trainieren

Das Trainieren der offenen LLMs wie LLama oder Mistral ist im vergangenen Jahr deutlich einfacher geworden, bringt aber gleichzeitig viele Varianten mit sich. Zu klassischem supervised Finetuning kam low rank adaption, dazu Quantisierung, darauf folgten Direct Preference Optimization und Merging. Die neue Vielfalt der Werkzeuge sorgte nicht nur für einen unerwarteten Variantenreichtum an offenen Modellen, sondern erlaubt es auch jedem von uns, sein eigenes Modell zu erzeugen und zu trainieren, ohne dafür gleich ein Vermögen auszugeben. Wir stellen die Konzepte vor und zeigen, wie man mit einem Nachmittag Arbeit sein eigenes deutschsprachiges Modell erzeugt.

Zielpublikum: Entwickler und andere Interessierte, die eigene deutsche Modelle trainieren wollen.
Voraussetzungen: Keine
Schwierigkeitsgrad: Advanced

Johann-Peter Hartmann ist einer der wenigen Überlebenden der Versuchsreihe "Wie lange überlebt eigentlich ein Hacker, wenn man ihn kontinuierlich mit Managementaufgaben bewirft?". Dazu musste er Firmen gründen und führen, investieren und dabei viele Fehler machen. Trotz der daraus resultierenden Herausforderungen für geistige Gesundheit sind die Grundfunktionen und Restkompetenz eines Hackers erhaltengeblieben und dominieren den Blick auf Themen wie AI, Architektur, Leadership, Agile, DevOps und natürlich Security.

Johann-Peter Hartmann
Johann-Peter Hartmann
Track: Track 2
Vortrag: Di2.6

Vortrag Teilen

09:00 - 17:00
Mi1
Limitiert Workshop: Agenten mit LangChain selbst entwickeln
Workshop: Agenten mit LangChain selbst entwickeln

LangChain ist nicht nur das am meisten verbreitete Framework für AI-Applikationen mit dem größten Wachstum, es hat schon zu Beginn seiner Existenz Wert darauf gelegt, "agentic" zu sein. Dementsprechend bringt es alles mit, was man sich aktuell zum Thema Agenten nur wünschen kann. Von einfachen Rechercheagenten zu diskutierenden CAMEL-Multiagenten, von per LangGraph synchronisierten Agenten bis zu welchen, die Bilder verstehen, Webseiten crawlen und Captchas lösen, die Code dokumentieren und Tests schreiben oder von sich aus neue Applikationen aus dem Boden stapfen.

Max. Teilnehmendenzahl: 30

Zielpublikum: Entwickler mit Python-Basiskenntnissen
Voraussetzungen: OpenAI-Key, lokales Docker-Setup für https://github.com/mayflower/langchain_agents 
Schwierigkeitsgrad: Basic

Johann-Peter Hartmann ist einer der wenigen Überlebenden der Versuchsreihe "Wie lange überlebt eigentlich ein Hacker, wenn man ihn kontinuierlich mit Managementaufgaben bewirft?". Dazu musste er Firmen gründen und führen, investieren und dabei viele Fehler machen. Trotz der daraus resultierenden Herausforderungen für geistige Gesundheit sind die Grundfunktionen und Restkompetenz eines Hackers erhaltengeblieben und dominieren den Blick auf Themen wie AI, Architektur, Leadership, Agile, DevOps und natürlich Security.

Johann-Peter Hartmann
Johann-Peter Hartmann
Track: Workshop
Vortrag: Mi1

Vortrag Teilen

09:00 - 17:00
Mi2
Limitiert Workshop: Eigene Sprachmodelle feintunen und nutzen
Workshop: Eigene Sprachmodelle feintunen und nutzen

ChatGPT (und die darin verwendeten GPT-3.5 und GPT-4) sind die bekanntesten Sprachmodelle. Leider kann man diese aber nur wenig anpassen, das geht maximal über den Kontext.

In vielen Unternehmensanwendungen würde man das aber gerne machen, um z.B. domänenspezifisches Vokabular abzudecken. Im Gegensatz zum Training ist das Feintuning von Modellen viel schneller, auch dank LoRA (Low Rank Adaptation) und peft (Parameter Efficient Tuning).

Nach einem kurzen Abriss der Theorie widmen wir uns dem Feintuning eigener Modelle und probieren dann aus, was diese gelernt haben und wie viel Wissen sie reproduzieren können.

Max. Teilnehmendenzahl: 20

Christian Winkler beschäftigt sich seit vielen Jahre mit künstlicher Intelligenz, speziell in der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich auf die Optimierung von User Experience mithilfe moderner Verfahren. Er forscht und publiziert zu Natural Language Processing und ist regelmäßig Sprecher auf Machine Learning-Konferenzen.

Christian Winkler
Christian Winkler
Track: Workshop
Vortrag: Mi2

Vortrag Teilen

Zurück