Das Potenzial von Large Language Models zur multimodalen Metadatenextraktion und -Harmonisierung in audiovisuellen Archiven
Das Potenzial von Large Language Models zur multimodalen Metadatenextraktion und -Harmonisierung in audiovisuellen Archiven
Die Arbeit beschäftigt sich mit der Nutzung von Large Language Models und deren Potenzial zur Nutzung für multimodale Metadatenextraktion im audiovisuellen Archivbereich.
Die Ergebnisse zeigen, dass LLMs ein erhebliches Potenzial zur Verbesserung der Kohärenz und Abdeckung multimodaler Metadaten besitzen, insbesondere als unterstützendes Werkzeug in hybriden Mensch-Maschine-Workflows. Gleichzeitig werden Grenzen hinsichtlich faktischer Korrektheit, Reproduzierbarkeit und autonomer Einsetzbarkeit aufgezeigt.







