Large Language Models und Sicherheit: Risiken verstehen und Schutzmaßnahmen entwickeln
Large Language Models (LLMs) wie ChatGPT oder ähnliche KI-Systeme eröffnen Unternehmen eine Vielzahl von Möglichkeiten. Ob als Kundenchatbot, Code-Assistent oder Wissensdatenbank – die Einsatzmöglichkeiten scheinen grenzenlos. Doch mit den Chancen gehen auch erhebliche Risiken einher. In diesem Vortrag bringen wir Licht ins Dunkel, zeigen Sicherheitsrisiken auf, die mit der Nutzung und Integration von LLMs einhergehen und wie Unternehmen diese minimieren können. Dies leiten wir aus Erkenntnissen von internen und externen LLM-Experimenten ab, und sortieren diese in den Kontext der OWASP Top 10 für LLMs ein. Außerdem beschreiben wir Besonderheiten im Vergleich zur Sicherheit von Anwendungen jenseits von KI, wie die Trennung von Daten und Code.
Benjamin Weller ist IT-Security-Berater und Penetration Tester. Als Trainer vermittelt er praxisnahes Security-Wissen und -Verständnis an Entwicklungsteams. Seit 2022 beschäftigt er sich mit generativen KI-Modellen und ihren Auswirkungen – im Raum der Datensicherheit, des Datenschutzes und auf die Gesellschaft.