- Montag
18.11. - Dienstag
19.11. - Mittwoch
20.11.
Generative KI hat die Programmiereffizienz erheblich gesteigert, und wie gut wir mit KI interagieren, wird zunehmend unsere Effektivität bestimmen. Doch zeigt die Praxis, dass es nicht ausreicht, Tools zur Verfügung zu haben. Häufig zögert man, sie zu nutzen, weil man denkt, man hätte es schneller selbst schreiben können und die Antworten sind sowieso schlecht.
In diesem Workshop nutzt du die Best Practices, die wir beim Programmieren mit GenAI gesammelt haben. Use Cases, Prompt-Design,…
In this talk, we introduce LMOS (Language Model Operating System) - an open-source, cloud-native platform designed to simplify the development and management of multi-agent AI systems. Inspired by traditional operating systems, LMOS abstracts complexities such as memory management, LLM execution, and agent collaboration, leveraging Kubernetes and Istio to orchestrate intelligent agent interactions.
We explore how LMOS addresses key challenges in building multi-agent systems, including…
"Coding Is Dead" – wirklich?! Aktuelle Studien zeigen jedenfalls, dass viele Unternehmen (noch) nicht die richtigen Hebel finden, um GenAI-Tools in der Softwareentwicklung zu skalieren. Es geht um mehr als Coding! In einem umfassenden Research-Projekt haben wir uns dieser komplexen Thematik gestellt.
In meinem Vortrag diskutiere ich:
- (mindestens) drei Gründe, weshalb GenAI-Tools allein noch keine Strategie machen.
- eine Methodik, die es Unternehmen ermöglicht, Gen-AI-Potenziale in eine…
Dieser fesselnde Vortrag wurde entwickelt, um Software-Ingenieure und IT-Architekten mit KI zu entlasten und ihre Aufgaben zu optimieren. Erfahren Sie, wie KI bei der Erstellung komplexer Systemarchitekturen und der Erstellung von Unternehmensarchitekturdiagrammen helfen und Entscheidungen erleichtern kann. In interaktiven Experimenten sehen Sie, wie KI Systemarchitekturen entdeckt, überprüft und verfeinert, qualitativ akzeptable Architekturartefakte erzeugt und allgemeine Qualitätsprobleme in…
Der Vortrag behandelt die erfolgreiche Einführung von GenAI-Projekten in Unternehmen. Er beleuchtet die häufigsten Gründe für das Scheitern solcher Projekte und präsentiert ein erprobtes Vorgehensmodell, das von der Ideensammlung über den Proof of Concept bis zur produktiven Umsetzung reicht. Der Prozess umfasst die Bewertung von Potenzialen, die Analyse der Datenqualität und die Integration in bestehende IT-Landschaften. Abschließend wird der Projekterfolg retrospektiv bewertet, um…
Generative KI hat die Programmiereffizienz erheblich gesteigert, und wie gut wir mit KI interagieren, wird zunehmend unsere Effektivität bestimmen. Doch zeigt die Praxis, dass es nicht ausreicht, Tools zur Verfügung zu haben. Häufig zögern wir, sie zu nutzen, haben Schwierigkeiten, sie effektiv einzusetzen, oder sind uns der vollen Möglichkeiten nicht bewusst.
In diesem Vortrag zeigen wir die Best Practices, die wir beim Programmieren mit GenAI gesammelt haben. Use Cases, Prompt-Design,…
Generative AI bietet enorme Potenziale, stellt jedoch besondere Herausforderungen beim Testen und Validieren dar. In dieser Session untersuchen wir praxisnahe Strategien zur Anpassung bewährter Softwaretechnik-Prinzipien an GenAI und zeigen auf, wo neue Ansätze erforderlich sind. Schwerpunktmäßig geht es um:
- Teststrategien für nichtdeterministische Ausgaben
- die Auswahl und den Umgang mit widersprüchlichen Metriken
- Vergleich von Unit-Tests und End-to-End-Tests in der Welt der GenAI
- Evaluation…
Das "Sprechen" mit eigenen Daten (auch bekannt als RAG) ist der "Hello World"-Anwendungsfall für LLMs. Aber es gibt noch mehr zu entdecken. Basierend auf ihrem Verständnis der menschlichen Sprache können LLMs genutzt werden, um innovative Interaktionen für Anwendungen und Systeme zu realisieren.
In dieser Session zeigt Christian, wie Sie strukturierte Datenausgaben mit Datenschemata und Funktionsaufrufen nutzen, um Ihre APIs mit der Power von LLMs zu verbinden. Sehen Sie, wie die transformative…
In dieser Session werfen wir einen genauen Blick unter die Haube von GitHub Copilot und zeigen, wie die Kommunikation mit der Azure OpenAI API abläuft. Dadurch lernst du, das Beste aus GitHub Copilot herauszuholen, und erfährst, wie Agenten durch RAG (Retrieval-Augmented Generation) es ermöglichen, dass wir fachlich über unseren Code mit der KI diskutieren können. Gregor, der in enger Zusammenarbeit mit dem Microsoft-Produktteam für GitHub Copilot Chat steht, wird seine Insiderkenntnisse teilen…
In diesem Vortrag erfahren Sie, wie man ein multimodales Generative AI Gateway auf AWS aufbaut. Basierend auf der Lösung aus dem GitHub-Projekt 'aws-genai-llm-chatbot' demonstrieren wir die Integration von Large Language Models (LLMs) und Retrieval-Augmented Generation (RAG) in einem Chatbot. Sie lernen die Nutzung von Amazon Bedrock, Anthropic, HuggingFace, OpenAI und weiteren Tools. Der Vortrag umfasst die Bereitstellung mittels AWS CDK, praktische Beispiele und Best Practices zur effizienten…
In den letzten Jahren hat der Einsatz von Künstlicher Intelligenz (KI) und insbesondere von Large Language Models (LLMs) stark zugenommen. Dies birgt jedoch Risiken für persönlich identifizierbare Informationen (PII), da KI-Systeme eingegebene Texte speichern und für zukünftige Trainingszwecke nutzen.
Dieser Vortrag präsentiert ein innovatives Verfahren zur De-Identifikation von Prompts, bei dem sensible Informationen durch neutrale, semantisch gleiche Daten ersetzt werden. Dazu wird die Eingabe…
Der Aufstieg der "Foundational Models" und mitunter auch großer (multimodaler) Sprachmodelle (Large Language Models – LLMs) hat die Einstiegshürde für Anwendungen der Künstlichen Intelligenz erheblich gesenkt – und das ist eine großartige Entwicklung! Die unkomplizierte Nutzung dieser "Schweizer Taschenmesser" durch standardisierte Programmierschnittstellen (APIs) macht sie zu (Fast-)Alleskönnern, die in vielen Bereichen eingesetzt werden können und sollten.
Die erweiterte Zugänglichkeit von…
Retrieval Augmented Generation (RAG) nutzt Retriever wie Vector-DBs, um relevante Informationen zur Beantwortung von Anfragen zu finden. In komplexen RAG-Szenarien werden oft mehrere Datenquellen genutzt. Die Auswahl des passenden Retrievers kann durch eine MultiRoute-Chain erfolgen, wobei ein LLM dynamisch die semantisch beste Datenquelle wählt. Dieser Ansatz ist jedoch zeit- und kostenintensiv. Eine schnellere und günstigere Alternative ist der Einsatz eines Semantic Router, der statt eines…
Bei Software Craftership waren automatisierte Tests ein unverzichtbarer Bestandteil der Entwicklung – ein Handwerk, das in der aktuellen Begeisterung für KI-Systeme oft vernachlässigt wird. Doch das muss nicht so bleiben. In dieser Session liegt der Fokus auf der Integration automatisierter Tests in KI-Agentensysteme. Thomas Blank zeigt, wie semantische Ähnlichkeitsprüfungen und LLM-basierte Metriken in Testumgebungen eingebettet werden können, um die Zuverlässigkeit und Sicherheit von…
Moderne KI-Systeme verbinden unternehmensinternes Wissen mit der Leistungsfähigkeit von GenAI-Modellen. Intelligente Suchsysteme sind dabei die Basis, um mäßig strukturiertes Wissen zu erschließen und kontextabhängig bereitzustellen. In diesem Vortrag bieten wir einen praktischen Einblick in die Entwicklung eines modernen Suchsystems in einem Lebensmittelkonzern und demonstrieren, wie intelligente Suchsysteme die Suchqualität im Vergleich zu traditionellen Ansätzen erheblich verbessern können.…
Mithilfe eines der tausenden verfügbaren Online-Tutorials kann man sehr schnell ein RAG-System (Retrieval Augmented Generation) bauen. Damit aber wirklich gute Ergebnisse zu erzielen, steht - leider - auf einem ganz anderen Blatt: Denn selbst das beste LLM kann keine vernünftige Antwort generieren, wenn der Retrieval-Teil der Lösung nicht die richtigen Dokumente findet.
In dieser Session zeigt Ihnen Sebastian Gingter, wie man den Retrieval-Teil eines RAG-Systems massiv verbessern kann - und vor…
Azure bietet mit OpenAI Service, AI Search und co. eine Vielzahl an Tools, um die Anwendungsentwicklung auf eine neue Stufe zu stellen. So können Sie nicht nur Chat-Funktionalitäten, sondern auch semantische Suche oder Recomendations in Ihre Apps integrieren. Jörg Neumann zeigt Ihnen, wie Sie mit Hilfe von Azure AI revolutionär intelligente Systeme entwickeln können.
Zielpublikum: Entwickler, die mit KI-Entwicklung beginnen und auf der Suche nach passenden Tools sind.
Voraussetzungen: Grundlegen…
Dieser Vortrag untersucht die tiefgreifende Transformation des Berufsbilds von Entwicklern im Kontext der KI-Revolution. Anstatt nur Code zu schreiben, übernehmen Entwickler zunehmend die Rolle von KI-Orchestratoren, die komplexe KI-Systeme entwerfen, überwachen und anpassen.
Der Vortrag beleuchtet konkrete neue Aufgabenfelder, wie z.B. das Trainieren und Fine-Tuning von Modellen, die Integration von KI in bestehende Workflows, die Entwicklung von Tools zur Überwachung und Fehlerbehebung von…
Es gibt eine große Zahl an Werkzeugen, die Qualitätsprobleme in Bestandscode mittels statischer Analyse erkennen und sichtbar machen. Die automatische Behebung dieser Probleme war bisher aber nur in vergleichsweise einfachen Fällen möglich. Die derzeitigen Entwicklungen in der künstlichen Intelligenz, speziell die Large Language Models, verschieben die Grenzen des Möglichen jedoch deutlich.
In diesem Vortrag möchte ich auf Basis eines hierfür erstellten Benchmarks aufzeigen, wie weit sich…
Diskutieren Sie mit unseren Experten beim Panel der InfoDays Generative AI für Developer!
KI-Generatoren für Text, Code und Bilder finden zunehmend Einzug in den beruflichen Alltag. Mit ihrer wachsenden professionellen Nutzung steigt jedoch auch das Bedürfnis nach rechtlicher Klarheit beim Einsatz der neuen Technologie. Der Vortrag befasst sich mit den rechtlichen Herausforderungen und Chancen des Einsatzes von KI in Unternehmen, insbesondere im Hinblick auf das Urheberrecht und den Datenschutz.
Unter anderem werden Hilfestellungen zu folgenden Fragen gegeben:
- Welche Daten darf man…
In 2023, generative AI became a game-changer, capturing the attention of industries and ushering in a new era of possibilities. Until now, Python has mainly been known as the go-to programming language for using generative AI capabilities in applications. Spring AI aims to change this and make it as easy as possible for you to integrate Generative AI services into your application and refine the results with your data using techniques like Function Calling or Retrieval Augmented Generation…