- Montag
18.11. - Dienstag
19.11. - Mittwoch
20.11.
Menschliche Sprache als Universal Interface für Software-Lösungen – das hört sich spannend an! Dieser Workshop bietet eine intensive Einführung in die Integration generativer KI und von Large Language Models (LLMs) und Large Multimodal Models (LMMs) in eigene Anwendungen. Dazu starten Christian und Sebastian mit notwendigen Grundlagen, bevor sie tiefer in Design und Implementierung von Business-Anwendungen mithilfe Generativer AI eintauchen. Mit Python- und .NET-APIs zeigen sie, wie ihr das Potenzial von LLMs für verschiedene Anwendungsfälle ausschöpft; dabei ist die Anbindung von Sprachmodellen jedoch grundsätzlich technologieoffen.
Im Zentrum stehen Architektur-Patterns wie In-Context Learning, Retrieval-Augmented Generation (RAG), Reasoning & Acting (ReAct) oder Agents. Diese Techniken sind entscheidend für die Entwicklung moderner, KI-gesteuerter Business-Anwendungen. Für komplexere Anforderungen setzen sie SDKs wie LangChain und Semantic Kernel ein, die erweiterte Möglichkeiten für Textverständnis und -generierung vor allem hinsichtlich lang anhaltender Konversationen eröffnen, und geben einen Überblick über Cloud-basierte Lösungen, darunter Azure Open AI Service. Dabei gehen sie insbesondere auf die Möglichkeit ein, LLMs auf Basis von GPT-4 oder Mistral bereitzustellen und zu nutzen. Der Tag bietet so eine Vielzahl pragmatischer Ansätze zur Integration Generativer AI in deine Business-Anwendungen.
Zielpublikum: Entwickler, Architekten
Voraussetzungen: Erfahrung mit Software-Architektur, grundlegendes Verständnis für das Lesen von Python-Code
Level: Basic
Christian Weyer ist Mitgründer und CTO der Thinktecture AG. Als Microsoft MVP, Microsoft RD und Google GDE ist er leidenschaftlicher Speaker auf verschiedenen Softwarekonferenzen und -veranstaltungen weltweit. Seit mehr als 25 Jahren liegt sein Herz immer bei den neuesten Technologien und wie man sie sinnvoll für moderne Softwarelösungen einsetzen kann. Sein aktueller Schwerpunkt liegt auf der Umsetzung von Generative-AI-Technologien für ISV- und Unternehmensentwickler.
Sebastian Gingter blickt auf über fünfundzwanzig Jahre Erfahrung als professioneller Softwareentwickler zurück. Im Zuge seiner Arbeit als Consultant bei der Thinktecture AG ist sein Blick allerdings fest nach vorne gerichtet: auf die Integration von Generative AI im Businessumfeld und auf moderne (Web-)Technologien sowohl auf dem Client als auch auf dem Server mit C# und .NET. Seit 2008 spricht er mit Spaß und Leidenschaft international auf Konferenzen und publiziert Fachartikel.
Generative KI hat die Programmiereffizienz erheblich gesteigert, und wie gut wir mit KI interagieren, wird zunehmend unsere Effektivität bestimmen. Doch zeigt die Praxis, dass es nicht ausreicht, Tools zur Verfügung zu haben. Häufig zögert man, sie zu nutzen, weil man denkt, man hätte es schneller selbst schreiben können und die Antworten sind sowieso schlecht.
In diesem Workshop nutzt du die Best Practices, die wir beim Programmieren mit GenAI gesammelt haben. Use Cases, Prompt-Design, IDE-Tricks, Testtechniken, Dokumentation, Plausibilitätsprüfung, die Verbreitung einer AI-First-Mentalität in deiner Organisation und Erkenntnisse, die wir kurz vor der Konferenz gewonnen haben.
Du wirst mit AI-Tools verschiedene Aufgaben lösen. Wir stehen dir dabei zur Seite und unterstützen dich mit Best Practices, Impulsen und Methoden. Willkommen sind Anfänger sowie alle, die noch mehr aus den Tools herausholen möchten.
Zielpublikum: Entwickler und alle technische Rollen
Voraussetzungen: Laptop und Zugang zu einem KI-Coding-Assistent (z. B. Github Copilot, Google Gemini CodeAssist). Auch lokale OSS-Tools sind möglich (z.B. ollama).
Level: Basic
Als Consultant für Softwareentwicklung strebt Janine danach, technische Exzellenz in einer positiven und kollaborativen Arbeitsumgebung zu fördern. Ob sie Entwickler zur Zusammenarbeit und Innovation motiviert, ständig über Software-Craft und Team-Coaching labert oder für die Best Practices kämpft, ihr Ziel ist es, anderen dabei zu helfen, ihr volles Potenzial auszuschöpfen.
Als professioneller Snowboarder stieg John ins Berufsleben ein und gewann 1999 die Junioren-Weltmeisterschaft. Seither hat er 20 Jahre lang Software in Australien, Spanien und Deutschland entwickelt. Letzteres tut er auch weiterhin; zudem hält er gerne Vorträge auf Konferenzen und schult Menschen darin, Unternehmen von Grund auf zu beschleunigen – durch technische Spitzenleistungen, menschliche Interaktion und Spaß bei der Arbeit.
Alexander Neumann ist Chief Content Officer bei SIGS DATACOM. In dieser Position ist er verantwortlich für die inhaltliche Ausrichtung des IT-Medienhauses. Zuvor baute er bei Heise Medien den Online-Channel heise Developer auf und das damit verbundene Developer-Konferenz-Business. Zuletzt war er bei Heise als Head of Events für das gesamte Events-Business zuständig.
Weitere Informationen zu dieser Keynote folgen in Kürze.
Vortrag Teilen
"Coding Is Dead" – wirklich?! Aktuelle Studien zeigen jedenfalls, dass viele Unternehmen (noch) nicht die richtigen Hebel finden, um GenAI-Tools in der Softwareentwicklung zu skalieren. Es geht um mehr als Coding! In einem umfassenden Research-Projekt haben wir uns dieser komplexen Thematik gestellt.
In meinem Vortrag diskutiere ich:
- (mindestens) drei Gründe, weshalb GenAI-Tools allein noch keine Strategie machen.
- eine Methodik, die es Unternehmen ermöglicht, Gen-AI-Potenziale in eine nachhaltig verbesserte Developer Experience einzubetten, echte Bedürfnisse über bloße Tools zu stellen, und Stakeholder frühzeitig auf die Lernreise mitnimmt.
- die wichtigsten Chancenfelder (Beyond Coding!) sowie einen Ausblick auf die Zukunft des Jobprofils "Softwareentwickler*in"..
Zielpublikum: Softwareentwickler*innen; (IT-)Manager*innen, Mitarbeiter*innen in Software-nahen Rollen; Researcher*innen
Voraussetzungen: Keine
Level: Basic
Ronja Lind ist Innovation Managerin bei der Atruvia AG und leitet dort das Chapter „AI Innovation“. Sie treibt mehrere (Research-)Projekte in den Bereichen (Generative) KI und moderne Softwareentwicklung voran. Ronja verfügt über Zertifizierungen in (Scaled) Agile, Tech und (IT) Project Management. Sie referiert und publiziert zu aktuellen Innovationsthemen. Ronja ist Botschafterin für die Initiative #SheTransformsIT.
Dieser fesselnde Vortrag wurde entwickelt, um Software-Ingenieure und IT-Architekten mit KI zu entlasten und ihre Aufgaben zu optimieren. Erfahren Sie, wie KI bei der Erstellung komplexer Systemarchitekturen und der Erstellung von Unternehmensarchitekturdiagrammen helfen und Entscheidungen erleichtern kann. In interaktiven Experimenten sehen Sie, wie KI Systemarchitekturen entdeckt, überprüft und verfeinert, qualitativ akzeptable Architekturartefakte erzeugt und allgemeine Qualitätsprobleme in Unternehmenssystemen aufdeckt. Da Architekten Struktur lieben, verbessert die Kenntnis und Wiederverwendung der zugrundeliegenden Prompting-Muster die Ergebnisse. Lassen Sie architektonisches "Work Smart" Wirklichkeit werden!
Zielpublikum: Entwickler, Architekten, Requirement Engineers, Neugierige
Voraussetzungen: Kenntnis von Grundbegriffen der IT und vertraut mit der Arbeit von Architekten
Level: Basic
Bernd Rederlechner ist ein Chefarchitekt der T-Systems im Bereich Digitale Lösungen mit Vorliebe für DevOps, Cloud Native und Code. Er übernimmt regelmäßig Architekturverantwortung in Konzeption und Entwicklung von realen Produkten und Lösungen. Als ehrenamtlicher Host derTelekom-weiten "Magenta Architecture Community", aber auch über Veröffentlichungen und Vorträge mit Praxisbezug inspiriert er Entwickler, junge Architekten und Kunden aller Ebenen mit einem Fokus auf menschliche Herausforderungen in der Digitalisierung.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/bernd-rederlechner/
Der Vortrag behandelt die erfolgreiche Einführung von GenAI-Projekten in Unternehmen. Er beleuchtet die häufigsten Gründe für das Scheitern solcher Projekte und präsentiert ein erprobtes Vorgehensmodell, das von der Ideensammlung über den Proof of Concept bis zur produktiven Umsetzung reicht. Der Prozess umfasst die Bewertung von Potenzialen, die Analyse der Datenqualität und die Integration in bestehende IT-Landschaften. Abschließend wird der Projekterfolg retrospektiv bewertet, um Optimierungspotenziale zu identifizieren und zukünftige Maßnahmen zur Weiterentwicklung abzuleiten. Ziel ist es, Mehrwerte aus Daten zu generieren und diese effizient und effektiv mittels LLM-Projekten in die Unternehmensprozesse zu integrieren.
Zielpublikum: Entwickler:innen, Prompt Engineers und Softwarearchitekt:innen, die sich für die Projektmanagement-Seite von LLM-Projekten interessieren.
Voraussetzungen: Keine
Level: Basic
Jens Horstmann, Jahrgang 1969, ist studierter Wirtschaftsmathematiker und Betriebswirt und beschäftigt sich seit über 20 Jahren mit der professionellen Datenaufbereitung und -analyse. Als Vorstand der Trevisto AG widmet er sich seit 6 Jahren intensiv den Themen IT und Künstliche Intelligenz in Verbindung mit Nachhaltigkeit. Seine Expertise kombiniert technische Innovation mit nachhaltigen Geschäftsmodellen.
Generative KI hat die Programmiereffizienz erheblich gesteigert, und wie gut wir mit KI interagieren, wird zunehmend unsere Effektivität bestimmen. Doch zeigt die Praxis, dass es nicht ausreicht, Tools zur Verfügung zu haben. Häufig zögern wir, sie zu nutzen, haben Schwierigkeiten, sie effektiv einzusetzen, oder sind uns der vollen Möglichkeiten nicht bewusst.
In diesem Vortrag zeigen wir die Best Practices, die wir beim Programmieren mit GenAI gesammelt haben. Use Cases, Prompt-Design, IDE-Tricks, Testtechniken, Dokumentation, Plausibilitätsprüfung, die Verbreitung einer AI-First-Mentalität in deiner Organisation und Erkenntnisse, die wir kurz vor der Konferenz gewonnen haben. Der Qualitätsstandard für die nächste Generation der Softwareentwicklung wird von AI-Craftern gesetzt.
Zielpublikum: Entwickler und andere technischen Rollen
Voraussetzungen: Keine
Level: Basic
Als Consultant für Softwareentwicklung strebt Janine danach, technische Exzellenz in einer positiven und kollaborativen Arbeitsumgebung zu fördern. Ob sie Entwickler zur Zusammenarbeit und Innovation motiviert, ständig über Software-Craft und Team-Coaching labert oder für die Best Practices kämpft, ihr Ziel ist es, anderen dabei zu helfen, ihr volles Potenzial auszuschöpfen.
Als professioneller Snowboarder stieg John ins Berufsleben ein und gewann 1999 die Junioren-Weltmeisterschaft. Seither hat er 20 Jahre lang Software in Australien, Spanien und Deutschland entwickelt. Letzteres tut er auch weiterhin; zudem hält er gerne Vorträge auf Konferenzen und schult Menschen darin, Unternehmen von Grund auf zu beschleunigen – durch technische Spitzenleistungen, menschliche Interaktion und Spaß bei der Arbeit.
Generative AI bietet enorme Potenziale, stellt jedoch besondere Herausforderungen beim Testen und Validieren dar. In dieser Session untersuchen wir praxisnahe Strategien zur Anpassung bewährter Softwaretechnik-Prinzipien an GenAI und zeigen auf, wo neue Ansätze erforderlich sind. Schwerpunktmäßig geht es um:
- Teststrategien für nichtdeterministische Ausgaben
- die Auswahl und den Umgang mit widersprüchlichen Metriken
- Vergleich von Unit-Tests und End-to-End-Tests in der Welt der GenAI
- Evaluation der Evaluatoren
- Techniken zur Bewertung von Modell-Halluzinationen und -Biases
- Performance- und Skalierbarkeitstests
Teilnehmer erhalten konkrete Einblicke, wie man robuste Testpraktiken für GenAI-Anwendungen entwickelt und die Anforderungen moderner KI-Systeme meistert.
Zielpublikum: Entwickler, die AI-Anwendungen entwickeln
Voraussetzungen: Grundlegens Verständnis über Testen in der Sofwareentwicklung und über LLMs
Level: Basic
Steve Haupt, ein agiler Softwareentwickler bei andrena objects, betrachtet Softwareentwicklung als ein qualitätsorientiertes Handwerk. Aus Begeisterung für Künstliche Intelligenz erforscht er deren Auswirkungen auf das Softwarehandwerk, arbeitet an KI-Projekten und entwickelt dabei Best Practices. Er spricht regelmäßig über Künstliche Intelligenz und entwickelt Schulungen, um dieses Wissen zu verbreiten.
Mehr Inhalte dieses Speakers? Schaut doch mal bei SIGS.de vorbei: https://www.sigs.de/experten/steve-haupt/
Steffen Heberle arbeitet als Softwareentwickler bei andrena objects ag und hat Erfahrung in der Entwicklung von mathematisch-analytischer Software, Gerätesteuerung und Datenaufnahme, Mobile-Apps und Full-Stack-Webanwendungen. Seit Ende 2022 beschäftigt er sich mit dem Potenzial von LLMs für KI-Anwendungen und deren Einfluss auf die Arbeit von Entwicklungsteams. Gemeinsam mit Kollegen konzipiert er Schulungen und berät Kunden zu diesem Thema.
Das "Sprechen" mit eigenen Daten (auch bekannt als RAG) ist der "Hello World"-Anwendungsfall für LLMs. Aber es gibt noch mehr zu entdecken. Basierend auf ihrem Verständnis der menschlichen Sprache können LLMs genutzt werden, um innovative Interaktionen für Anwendungen und Systeme zu realisieren.
In dieser Session zeigt Christian, wie Sie strukturierte Datenausgaben mit Datenschemata und Funktionsaufrufen nutzen, um Ihre APIs mit der Power von LLMs zu verbinden. Sehen Sie, wie die transformative Natur von Generative AI eventuell auch Ihren Lösungen helfen kann. Kommen Sie vorbei und lassen Sie uns mit unseren Systemen sprechen!
Zielpublikum: Entwickler und Architekten
Voraussetzungen: Erfahrung mit Software-Architektur, grundlegendes Verständnis des Lesens von Python-Code
Level: Basic
Christian Weyer ist Mitgründer und CTO der Thinktecture AG. Als Microsoft MVP, Microsoft RD und Google GDE ist er leidenschaftlicher Speaker auf verschiedenen Softwarekonferenzen und -veranstaltungen weltweit. Seit mehr als 25 Jahren liegt sein Herz immer bei den neuesten Technologien und wie man sie sinnvoll für moderne Softwarelösungen einsetzen kann. Sein aktueller Schwerpunkt liegt auf der Umsetzung von Generative-AI-Technologien für ISV- und Unternehmensentwickler.
In dieser Session werfen wir einen genauen Blick unter die Haube von GitHub Copilot und zeigen, wie die Kommunikation mit der Azure OpenAI API abläuft. Dadurch lernst du, das Beste aus GitHub Copilot herauszuholen, und erfährst, wie Agenten durch RAG (Retrieval-Augmented Generation) es ermöglichen, dass wir fachlich über unseren Code mit der KI diskutieren können. Gregor, der in enger Zusammenarbeit mit dem Microsoft-Produktteam für GitHub Copilot Chat steht, wird seine Insiderkenntnisse teilen und demonstrieren, wie du GitHub Copilot so einsetzt, dass du genau den Code generierst, den du brauchst – effizient und zielgerichtet. Verabschiede dich von der zeitraubenden Suche nach Lösungen – es ist Zeit, deine Coding-Praxis zu transformieren und KI-Tools optimal zu nutzen.
Zielpublikum: Fortgeschrittene Entwickler, die mit Copilot bereits arbeiten.
Voraussetzungen: Grundlagen zu GitHub Copilot
Level: Expert
Gregor Biswanger ist ein führender Experte für generative KI, Microsoft MVP für Azure AI und Web App Development. Er arbeitet eng mit dem Microsoft-Produktteam für GitHub Copilot zusammen und unterstützt Unternehmen bei der Implementierung moderner KI-Lösungen. Als Berater, Trainer und Autor teilt er sein Wissen in der Softwarearchitektur und Cloud-Technologien und ist ein gefragter Sprecher auf internationalen Konferenzen. Seit mehreren Jahren streamt er jeden Freitagabend live auf Twitch und ist aktiver YouTuber. Kontaktieren Sie Gregor für maßgeschneiderte KI-Lösungen unter about.me/gregor.biswanger.
Mehr Informationen zu diesem Vortrag in Kürze.
Vortrag Teilen
In den letzten Jahren hat der Einsatz von Künstlicher Intelligenz (KI) und insbesondere von Large Language Models (LLMs) stark zugenommen. Dies birgt jedoch Risiken für persönlich identifizierbare Informationen (PII), da KI-Systeme eingegebene Texte speichern und für zukünftige Trainingszwecke nutzen.
Dieser Vortrag präsentiert ein innovatives Verfahren zur De-Identifikation von Prompts, bei dem sensible Informationen durch neutrale, semantisch gleiche Daten ersetzt werden. Dazu wird die Eingabe zuerst durch ein selbst gehostetes Backend anonymisiert, dann an das eigentliche LLM weitergegeben und schließlich die Antwort durch Re-Identifikation wieder in ihre Ursprungsform gebracht und an den Nutzer gesendet. Dies gewährleistet eine datenschutzkonforme Nutzung externer KI-Dienste.
Zielpublikum: Entwickler:innen, Architekt:innen
Voraussetzungen: Keine
Level: Basic
Adrian ist seit 2020 als Software-Ingenieur bei der arconsis IT-Solutions GmbH tätig. Er begann als App-Entwickler und erweiterte seine Aufgabenfelder bald auf die Fullstack-Entwicklung. Mit dem Aufkommen von Künstlicher Intelligenz und Large Language Models (LLMs) hat er sein Fachgebiet erweitert und konzentriert sich seither auch auf den Einsatz von KI-Assistenten zur Unterstützung bei der Softwareentwicklung.
Lars ist seit März 2024 als Software Engineer bei arconsis IT-Solutions GmbH aktiv und bringt ein breites Grundwissen in Fullstack-Engineering, DevOps und Künstlicher Intelligenz mit. Er beschäftigt sich aktuell mit dem Thema Datensicherheit bei der Integration von KI in Softwaresystemen.
In diesem Vortrag erfahren Sie, wie man ein multimodales Generative AI Gateway auf AWS aufbaut. Basierend auf der Lösung aus dem GitHub-Projekt 'aws-genai-llm-chatbot' demonstrieren wir die Integration von Large Language Models (LLMs) und Retrieval-Augmented Generation (RAG) in einem Chatbot. Sie lernen die Nutzung von Amazon Bedrock, Anthropic, HuggingFace, OpenAI und weiteren Tools. Der Vortrag umfasst die Bereitstellung mittels AWS CDK, praktische Beispiele und Best Practices zur effizienten Implementierung von GenAI-Anwendungen in Ihren Geschäftsprozessen.
Zielpublikum: Entwickler, Softwarearchitekten, AI-Ingenieure und Prompt-Ingenieure, die an der Integration generativer KI in Geschäftsprozesse interessiert sind.
Voraussetzungen: Grundlegende Kenntnisse in Softwareentwicklung und Programmierung, Erfahrung im Umgang mit AWS-Diensten und Cloud-Umgebungen, Grundverständnis von maschinellem Lernen und Künstlicher Intelligenz, Kenntnisse in der Nutzung von APIs und der Bereitstellung von Anwendungen
Level: Expert
Alan Oberto Jimenez is a Senior Cloud Application Architect at AWS, with over four years of experience in architecting, developing, and re-engineering applications to fully leverage the AWS Cloud ecosystem. Specializing in cloud-native solutions, Alan has a proven track record in enabling clients to achieve elasticity, scalability, automation, and high availability using AWS services. His expertise includes developing customer applications optimized for the cloud, implementing AWS best practices, and providing deep software development knowledge in cloud architecture and design patterns. Alan's practical insights are backed by his AWS certifications in Database and DevOps Engineering, and his experience spans various roles including site reliability engineering and full-stack development. He is passionate about sharing his knowledge through writing, speaking at conferences, and contributing to the developer community.
Tobias Drees, a Cloud Application Architect at AWS in Munich, excels in developing serverless applications and integrating generative AI solutions. With expertise in AWS Lambda, Amazon DynamoDB, and multi-LLM chatbots, he has significantly contributed to global projects. Tobias's background includes roles at Celonis, Agile Robots, and impactful internships at Infosys, Amazon, and Imperial College London, showcasing his versatility and innovation in cloud and AI technologies.
Es gibt eine große Zahl an Werkzeugen, die Qualitätsprobleme in Bestandscode mittels statischer Analyse erkennen und sichtbar machen. Die automatische Behebung dieser Probleme war bisher aber nur in vergleichsweise einfachen Fällen möglich. Die derzeitigen Entwicklungen in der künstlichen Intelligenz, speziell die Large Language Models, verschieben die Grenzen des Möglichen jedoch deutlich.
In diesem Vortrag möchte ich auf Basis eines hierfür erstellten Benchmarks aufzeigen, wie weit sich Qualitätsprobleme heutzutage durch KI beheben lassen. Neben Erfahrungen aus unserer internen Entwicklung möchte ich auch beleuchten, welchen Einfluss die Wahl des Basismodells hat, welche Informationen die LLMs dabei als Input benötigen und an welchen Problemen die KI heute noch scheitert.
Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Interesse an Softwarequalität und KI
Level: Basic
Dr. Benjamin Hummel hat im Bereich Software Engineering promoviert und zu den Themen Softwarequalität und -wartbarkeit geforscht und publiziert. Seit über 20 Jahren entwickelt er aktiv Methoden und Werkzeuge für die Qualitätsverbesserung von großen Softwaresystemem. Als Mitgründer und CTO der CQSE GmbH verantwortet er seit über 10 Jahren die Entwicklung und den Betrieb der Software-Intelligence-Plattform Teamscale.
Der Aufstieg der "Foundational Models" und mitunter auch großer (multimodaler) Sprachmodelle (Large Language Models – LLMs) hat die Einstiegshürde für Anwendungen der Künstlichen Intelligenz erheblich gesenkt – und das ist eine großartige Entwicklung! Die unkomplizierte Nutzung dieser "Schweizer Taschenmesser" durch standardisierte Programmierschnittstellen (APIs) macht sie zu (Fast-)Alleskönnern, die in vielen Bereichen eingesetzt werden können und sollten.
Die erweiterte Zugänglichkeit von KI-Technologien ist definitiv eine sehr positive und bedeutsame Entwicklung, die uns viele produktive Möglichkeiten eröffnet. Doch damit kommen auch neue Herausforderungen auf uns zu: Wir sollten das "am besten geeignete" LLM für unseren konkreten Anwendungsfall auswählen. Hierbei geht es nicht nur um das Modell an sich, sondern auch um den Modellprovider, welcher das Modell hostet und via API bereitstellt – inklusive der alternativen Option des lokalen Deployments.
Dieser Vortrag präsentiert den Rahmen eines solchen Entscheidungsprozesses und zeigt auf, wie die optimale Wahl begründet werden kann. Dabei gehen wir auf die vier entscheidenden Kriterien Performance, Preisgestaltung, Integrations- und Wartungsaufwand sowie Compliance ein und werfen zudem einen grundlegenden Blick auf die verschiedenen Deployment-Möglichkeiten und Abhängigkeiten, welche sich hierdurch ergeben.
Ludwig ist ein selbstgelernter KI-Entwickler mit einem Masterabschluss der TU München und bringt bei der appliedAI Initiative GmbH seit nun vier Jahren innovative KI-Anwendungen in die Praxis. Er ist überzeugt davon, dass Wertschöpfung durch KI nur gelingt, wenn sie produktiv in Praxisanwendungen genutzt wird und besonders am Herzen liegt ihm daher auch die Weiterentwicklung des deutschen KI-Ökosystems. Deshalb entschied er sich 2023, als einer der ersten KI-Entwickler aktiv am Aufbau des "Innovation Park Artificial Intelligence (IPAI)" in Heilbronn mitzuwirken, wo er seither täglich anzutreffen ist. Sein beruflicher Werdegang begann im bayerischen Automobilsektor, wo er zudem auch die agile Softwareentwicklung in einem Software-Lab in Barcelona schätzen lernte. In seiner Freizeit genießt Ludwig das Joggen in den Weinbergen und das Bouldern in der Kletterhalle.
Retrieval Augmented Generation (RAG) nutzt Retriever wie Vector-DBs, um relevante Informationen zur Beantwortung von Anfragen zu finden. In komplexen RAG-Szenarien werden oft mehrere Datenquellen genutzt. Die Auswahl des passenden Retrievers kann durch eine MultiRoute-Chain erfolgen, wobei ein LLM dynamisch die semantisch beste Datenquelle wählt. Dieser Ansatz ist jedoch zeit- und kostenintensiv. Eine schnellere und günstigere Alternative ist der Einsatz eines Semantic Router, der statt eines LLMs ein Embedding-Modell zur Retrieverwahl verwendet. Dieser Ansatz bietet vergleichbare Qualität bei deutlich geringeren Kosten. Mit Live-Coding wird eine MultiRoute-Chain implementiert und anschließend auf den Semantic Router optimiert.
Zielpublikum: Developer, IT-Manager, GenAI-Enthusiasten
Voraussetzungen: Keine
Level: Advanced
Marco Frodl ist Principal Consultant für Generative AI bei der Thinktecture AG und konzentriert sich im Bereich der künstlichen Intelligenz auf Generative AI. Ihn fasziniert die Vision, in natürlicher Sprache mit Apps und Devices kommunizieren zu können. Sein Beratungsfokus ist die Entwicklung von AI-Workflows unter Verwendung von LLMs von OpenAI, Anthropic oder Mistral. Er ist Fan von Streamlit, LangChain und LangFuse, weil sich damit komplexe AI-Abläufe kompakt implementieren und fantastisch tracen lassen.
Generative KI verändert unsere Welt schneller als je zuvor – und die Entwicklung solcher Lösungen bringt sowohl spannende Möglichkeiten als auch komplexe Herausforderungen mit sich. In diesem Vortrag teilt Shezan Kazi zentrale Learnings aus der Praxis: Von der schnellen Umsetzung erster Prototypen über die Hürden bei der Skalierung und der Bedeutung von LLMOps bis hin zur Bedeutung der UX, und weshalb diese stets im Mittelpunkt stehen sollte. Lernen Sie, worauf es bei der Entwicklung erfolgreicher GenAI-Anwendungen wirklich ankommt und wie man die Balance zwischen Innovation, Konsistenz und Konformität findet.
Bei Software Craftership waren automatisierte Tests ein unverzichtbarer Bestandteil der Entwicklung – ein Handwerk, das in der aktuellen Begeisterung für KI-Systeme oft vernachlässigt wird. Doch das muss nicht so bleiben. In dieser Session liegt der Fokus auf der Integration automatisierter Tests in KI-Agentensysteme. Thomas Blank zeigt, wie semantische Ähnlichkeitsprüfungen und LLM-basierte Metriken in Testumgebungen eingebettet werden können, um die Zuverlässigkeit und Sicherheit von Anwendungen zu gewährleisten. Darüber hinaus wird er erläutern, wie Tools wie promptfoo dazu beitragen, Red Teaming für KI-Agenten durchzuführen und wie maßgeschneiderte KPIs entwickelt werden können, um diese Systeme effektiv vor böswilligen Angriffen zu schützen.
Zielpublikum: Softwareentwicklerinnen aller Erfahrungsstufen, die bereits jetzt schon oder in Zukunft von ihren Stakeholdern aufgetragen bekommen, Large Language Models und Agentensysteme in ihre Projekte zu integrieren.
Voraussetzungen: Basiswissen über die Nutzung von LLMs, gegebenenfalls Erfahrungen mit der Verwendung ihrer APIs.
Level: Basic
Thomas ist Fullstack-Webentwickler bei der Mayflower GmbH, spezialisiert auf skalierbare Webanwendungen, DevOps und KI-Agentensysteme. Er fokussiert sich auf Automatisierung, Teststrategien und die Integration moderner Technologien, um sichere und performante Systeme in Kundenprojekten erfolgreich umzusetzen.
Moderne KI-Systeme verbinden unternehmensinternes Wissen mit der Leistungsfähigkeit von GenAI-Modellen. Intelligente Suchsysteme sind dabei die Basis, um mäßig strukturiertes Wissen zu erschließen und kontextabhängig bereitzustellen. In diesem Vortrag bieten wir einen praktischen Einblick in die Entwicklung eines modernen Suchsystems in einem Lebensmittelkonzern und demonstrieren, wie intelligente Suchsysteme die Suchqualität im Vergleich zu traditionellen Ansätzen erheblich verbessern können. Dabei beleuchten wir architektonische Entscheidungen und diskutieren Evaluationsmechanismen. Außerdem zeigen wir, dass LLMs nicht nur als Chatbot eingesetzt werden können, und vergleichen Dense- und Sparse -Embedding-Modelle, hybride Suchverfahren und fortgeschrittene Retrieval-Methodiken.
Zielpublikum: AI/Software Engineers, ArchitektInnen und EntscheiderInnen
Voraussetzungen: Basis-Know-how LLMs und Embedding-Modelle
Level: Advanced
Lukas Heidemann ist IT-Berater viadee IT-Unternehmensberatung. Er ist Experte für Generative KI und intelligente Suchsysteme und hat die Entwicklung mehrerer GenAI-Anwendungen geleitet.
Tobias Goerke ist Berater bei der viadee IT-Unternehmensberatung. Als Data Scientist liegen seine Schwerpunkte in der Einführung künstlich intelligenter Systeme und der Erforschung verschiedener Verfahren des erklärbaren Maschinenlernens.
Der Vortrag behandelt das Spannungsfeld zwischen Wertschöpfung und Compliance beim Einsatz von KI am Beispiel eines Chatbots in der Kundenkommunikation auf Basis generativer KI:
- Welcher Ansatz eignet sich für den Einsatz eines LLM als Chatbot, um genaue und präzise Antworten auf Fragen von Kunden zu gewährleisten und gleichzeitig das Problem der "Halluzination" zu vermeiden, das üblicherweise mit generativen LLMs verbunden ist?
- Wie kann der Chatbot gegen die Suggestion von Konkurrenten und deren Produkten gestärkt werden, insbesondere bei Aufforderungen, die problematische Antworten auslösen könnten?
- Welche Architektur ist am besten geeignet?
- Welche Einschränkungen sind aus Sicht der Compliance, z.B. hinsichtlich des EU AI Act zu beachten?
Zielpublikum: Entwickler:innen, Prompt Engineers und Softwarearchitekt:innen
Voraussetzungen: Grundsätzliche Kenntnisse über generative KI
Level: Basic
Jan has worked on secure software architectures for more than 20 years. His first book on the topic in 2005 was also translated to Chinese. Previous positions include: Professor for Software Engineering (TU Dortmund), Senior Member/Research Fellow (Robinson College, Uni Cambridge), Royal Society Industrial Fellow (Microsoft Research Cambridge), Postdoc (TU Munich), PhD Computer Science (Uni Oxford) in Software Security, Master in Mathematics (Uni Bremen).
Azure bietet mit OpenAI Service, AI Search und co. eine Vielzahl an Tools, um die Anwendungsentwicklung auf eine neue Stufe zu stellen. So können Sie nicht nur Chat-Funktionalitäten, sondern auch semantische Suche oder Recomendations in Ihre Apps integrieren. Jörg Neumann zeigt Ihnen, wie Sie mit Hilfe von Azure AI revolutionär intelligente Systeme entwickeln können.
Zielpublikum: Entwickler, die mit KI-Entwicklung beginnen und auf der Suche nach passenden Tools sind.
Voraussetzungen: Grundlegende Entwicklerskills
Level: Basic
Jörg Neumann ist Gründer und Geschäftsführer der NeoGeeks GmbH. Er berät seit vielen Jahren Unternehmen bei der Technologieauswahl, Architektur und dem Entwurf von Apps und AI-Lösungen. Für sein Engagement in diesem Bereich wurde er von Microsoft mehrfach mit dem „Most Valuable Professional“-Award ausgezeichnet, zuletzt in den Bereichen Azure OpenAI Service und Azure Machine Learning Platform. Sein Wissen vermittelt er regelmäßig in Form von Büchern, Beiträgen in Fachzeitschriften, sowie als Sprecher und Trainer auf Konferenzen und Seminaren. Sie erreichen ihn über Twitter (@JoergNeumann) oder www.neogeeks.de.
Dieser Vortrag untersucht die tiefgreifende Transformation des Berufsbilds von Entwicklern im Kontext der KI-Revolution. Anstatt nur Code zu schreiben, übernehmen Entwickler zunehmend die Rolle von KI-Orchestratoren, die komplexe KI-Systeme entwerfen, überwachen und anpassen.
Der Vortrag beleuchtet konkrete neue Aufgabenfelder, wie z.B. das Trainieren und Fine-Tuning von Modellen, die Integration von KI in bestehende Workflows, die Entwicklung von Tools zur Überwachung und Fehlerbehebung von KI-Systemen sowie die Zusammenarbeit mit Ethikteams zur Sicherstellung verantwortungsbewusster KI-Nutzung. Praktische Beispiele und zukünftige Trends werden vorgestellt, um Entwicklern einen klaren Fahrplan für ihre neue Rolle zu geben.
Zielpublikum: Softwareentwickler:innen, Programmierer:innen, technische Führungskräfte, Data Scientists, IT-Manager:innen, Projektleiter:innen, Bildungseinrichtungen, Ausbilder:innen, Prompt Engineers, Softwarearchitekt:innen
Voraussetzungen: Keine
Level: Basic
Esther ist eine IT-Transformationsexpertin mit Fokus auf Cloud und GenAI. Sie treibt kulturelle und organisatorische Veränderungen voran. Ihr zugänglicher, authentischer Ansatz basiert auf Empathie und Vertrauen. Als Verfechterin von Vielfalt und Inklusion in der IT entwickelt sie menschenzentrierte Strategien, die Mehrwert schaffen. Ihr Glaube an Zusammenarbeit führt zu erfolgreicher Teamführung. Ihre leidenschaftliche Hingabe schafft eine Umgebung, in der sich alle wertgeschätzt fühlen und ihr Potenzial entfalten können. Esther strebt danach, in der Welt der neuen Technologien einen positiven Unterschied zu machen und alle zu befähigen.
Informationen zum Vortrag folgen in Kürze.
Vortrag Teilen
Diskutieren Sie mit unseren Experten beim Panel der InfoDays Generative AI für Developer!
Alexander Neumann ist Chief Content Officer bei SIGS DATACOM. In dieser Position ist er verantwortlich für die inhaltliche Ausrichtung des IT-Medienhauses. Zuvor baute er bei Heise Medien den Online-Channel heise Developer auf und das damit verbundene Developer-Konferenz-Business. Zuletzt war er bei Heise als Head of Events für das gesamte Events-Business zuständig.
KI-Generatoren für Text, Code und Bilder finden zunehmend Einzug in den beruflichen Alltag. Mit ihrer wachsenden professionellen Nutzung steigt jedoch auch das Bedürfnis nach rechtlicher Klarheit beim Einsatz der neuen Technologie. Der Vortrag befasst sich mit den rechtlichen Herausforderungen und Chancen des Einsatzes von KI in Unternehmen, insbesondere im Hinblick auf das Urheberrecht und den Datenschutz.
Unter anderem werden Hilfestellungen zu folgenden Fragen gegeben:
- Welche Daten darf man eingeben?
- Darf man Ergebnisse frei verwenden und veröffentlichen?
- Wer gilt als Urheber bei KI-generierten Werken?
- Gibt es eine Möglichkeit, eigene Inhalte vor der Verwendung für KI-Trainings zu schützen?
- Wann sind Geschäftsgeheimnisse in Gefahr?
Der Vortrag gibt einen Überblick über die relevanten Rechtsgebiete und praktische Handlungsempfehlungen für den Einsatz von KI.
Dr. Michael Koch ist Diplom-Wirtschaftsjurist (FH) und promovierte mit dem Dissertationsthema "Völkerrechtliche Fragen des Cyberwar". Bis 2020 war er in einer Beratungsfirma für IT-Sicherheit und Datenschutz in Hannover tätig. Seit Anfang 2020 ist er Mitarbeiter der Rechtsabteilung von Heise Medien. Er ist zertifizierter Datenschutzbeauftragter (TÜV Nord) und als Mentor für Datenschutz in einem Accelerator-Programm für Startups tätig. Darüber hinaus ist Herr Dr. Koch Referent und Autor zu Fragen des Datenschutz-, IT- und KI-Rechts.
In 2023, generative AI became a game-changer, capturing the attention of industries and ushering in a new era of possibilities. Until now, Python has mainly been known as the go-to programming language for using generative AI capabilities in applications. Spring AI aims to change this and make it as easy as possible for you to integrate Generative AI services into your application and refine the results with your data using techniques like Function Calling or Retrieval Augmented Generation (RAG). This session will introduce you to core concepts of generative AI and what Spring AI provides to make it as easy as possible to integrate it into Spring applications.
Zielpublikum: Software-Entwickler
Voraussetzungen: Java und ggf. Spring-Kenntnisse wären hilfreich, sind aber nicht unbedingt nötig.
Level: Basic
Timo is a Solution Engineer for Developer Experience at Tanzu by Broadcom in EMEA, focusing on internal developer platforms and commercial Spring products. In this role, he's responsible for educating customers on the value of these products and ensuring that they succeed by working closely on different levels of abstractions of modern applications and modern infrastructure. In the past, he worked for consulting firms in the automotive industry as a software architect and full-stack developer.