KI-unterstütztes Fact-Checking: Potenziale und Limitationen
KI-unterstütztes Fact-Checking: Potenziale und Limitationen
Die SPIEGEL-Dokumentation hat einen Faktencheck-Assistenten auf Basis sogenannter großer Sprachmodelle (LLMs) entwickelt. Wir berichten von der Entwicklung in interdisziplinären Teams und fokussieren dabei insbesondere die systematische Evaluation/Optimierung von Prompts, die Backend-Architektur und die Entwicklung eines nutzerfreundlichen Frontends als Teil des SPIEGEL-Archivsystems DIGAS. Der Assistent kann heute bereits zuverlässig einfache Falschaussagen identifizieren, indem er auf das Wissen des Sprachmodells und Internetquellen und das Pressearchiv zugreift. Trotz seiner Fähigkeiten hat der Assistent Limitationen, es mangelt ihm an Kontext- und Fachverständnis. Er soll künftig als Ergänzung zur menschlichen Expertise eingesetzt werden, insbesondere bei Texten, die aus Zeit- und Ressourcengründen bisher nicht verifiziert werden konnten. Im Vortrag führen wir den Assistenten vor, erklären seine Funktionsweise anhand von Beispielen und zeigen so Möglichkeiten und Grenzen des KI-assistierten Faktenchecks auf.