TrustInLLM – Vertrauenswürdige digitale Systeme unterstützt durch Large Language Models (LLMs)
Aktuelle Fortschritte in der Generativen Künstlichen Intelligenz (GenAI) und insbesondere in Large Language Models (LLMs) legen nahe, dass für die Verwendung einer großen und komplexen Menge von miteinander verknüpften technischen Dokumenten Dialoge in natürlicher Sprache möglich sein werden, um auf den Inhalt einer solchen Dokumentensammlung zuzugreifen.
FFG
2024-2027
Wirtschaftsuniversität Wien (Projektleitung)
Pro2Future GmbH
Robert Bosch Aktiengesellschaft
Beim aktuellen Stand der Technik besteht jedoch das Hauptproblem der „Halluzinationen“ von LLMs, d.h. das Antworten mit Informationen, die nicht auf faktischem Wissen basieren, sondern eher aus „kreativen“ Generierungen durch das Sprachmodell stammen.
TrustInLLM integriert Qualitätsattribute (im Sinne von Eigenschaften) sowohl von Systemen (in unserem Fall LLM-unterstützte Systeme für Abfragen zu technischer Dokumentation) als auch von Daten (in unserem Fall hauptsächlich komplexe technische Dokumentation) miteinander, da Eigenschaften sowohl von Systemen (wie Transparenz) als auch von Daten (wie Korrektheit) relevant sind.
Das Team des IFZ befasst sich im Projekt vor allem mit der diversitätssensiblen, menschenzentrierten Entwicklung und Evaluation vertrauenswürdiger KI, durch Einbeziehung von Stakeholdern und Nutzer_innen.