Begrüßung
Mario Müller (ProSiebenSat.1 Produktion GmbH)
Grußwort
Karin Brieden (ZDF – Zweites Deutsches Fernsehen)
Soziale Medien als Werkzeug des Bösen
Elmar Theveßen (Zweites Deutsches Fernsehen – ZDF)
Moderation
Eva Schütz (WDR – Westdeutscher Rundfunk)
Für den Konsumenten sind die Medieninhalte auf seinem Endgerät bereits crossmedial zusammengewachsen. Auf Seiten der Produktionsbeteiligten steht die Anpassung der Arbeitsmittel und -abläufe dagegen noch aus. Wie kann eine angemessene und wirtschaftliche Arbeitsweise in und für die crossmediale Welt aussehen? Unter dem sehr allgemeinen Titel „Crossmedia“ stellt diese Session drei Produkte vor, die sich in unterschiedlichen Phasen der Umsetzung befinden, aber alle Antwort auf diese Frage geben möchten. Dabei ist das Archiv mit seinen Dienstleistungen nur einer von vielen Beteiligten.
Während ProSiebenSat.1 momentan die Vision einer bereichsübergreifenden Plattform zur Produktion und Distribution seines TV- und Online/Streaming-Angebots mit den beteiligten Stakeholdern entwickelt, hat der WDR vor kurzem mit der Umsetzung einer crossmedialen Recherche-Oberfläche begonnen, die mit Mining- und Linked Data-Techniken arbeitet. Die Mediengruppe RTL kann bereits von praktischen Erfahrungen bei der Einführung des MediaPortals berichten, das Veränderungen der Workflows und des dokumentarischen Berufsbilds mit sich bringt. Anhand ausgewählter Beispiele wird außerdem auf das in der Produkt-Entwicklung eingesetzte Scrum-Verfahren eingegangen.
Von der verteilten Archivierung zur zentralen Content-Logistik
Dr. Christoph Kloth und Amely Runte (ProSiebenSat.1 Produktion GmbH)
ProSiebenSat.1 schlägt einen neuen Weg bei der Verwaltung und Bearbeitung von Content ein und baut eine innovative „Unified Content Platform“, die die Zusammenarbeit zwischen Kollegen, Partnern und Kunden revolutionieren soll. Unsere heutige Situation ist die eines langjährig gewachsenen, sehr heterogenen Medienproduktionsunternehmens. Über die Zeit wurde eine große Zahl von verschiedenen Systemen für die Verwaltung und Bearbeitung von Content eingeführt, um den vielfältigen Anforderungen der beteiligten Fachbereiche bestmöglich gerecht zu werden. Das führt mittlerweile zu mehreren Problemen: Um mit Content zu arbeiten, muss man wissen, in welchem System und in welchem Stadium der Wertschöpfungskette er sich befindet. Beim Transfer des Contents von einem System zum nächsten gehen zudem oft wertvolle Informationen verloren, die teilweise später in der Wertschöpfungskette erneut generiert werden müssen. Die Verknüpfung von zusammengehörendem Content wird über die Systeme hinweg nicht hinreichend abgebildet, um z. B. Auswertungen zur Profitabilität zu machen. Darüber hinaus konnten neue Technologien wie z. B. Bildanalyse-Verfahren bislang nur punktuell und noch nicht für das Broadcast-Umfeld eingesetzt werden, obwohl dies einen großen Mehrwert liefern könnte. Mit der gewählten Architektur und dem gewählten Vorgehen für die neue Content Plattform sollen diese Probleme bis 2018 gelöst werden. Die Plattform wird zum zentralen System für die Logistik, Bearbeitung und Archivierung von Content und soll mehrere bestehende Archive und Content verwaltende Systeme bei ProSiebenSat.1 ablösen. Sie wird große Teile des Content-Life-Cycles durch geeignete Tools sowie ein Workflow- und Taskmanagement unterstützen. Das Sichten, Anfertigen von Rohschnitten, Transcodieren und automatische Prüfen der Qualität (QC) von Content gehören dabei genauso dazu, wie das einfache Kommentieren und Teilen per eMail. Dadurch soll die Qualität der Daten verbessert, die Transparenz im Bearbeitungsprozess erhöht und die Verwertung von Content über alle Distributionskanäle hinweg vereinfacht werden. Der Vortrag gibt einen Einblick in das laufende Projekt und erläutert das Zielbild mit den gewählten Lösungsansätzen. Neben der technischen Umsetzung soll darauf eingegangen werden, wie es gelingen soll, die große Zahl der vielfältigen involvierten Fachbereiche dort abzuholen, wo sie heute stehen, und erfolgreich auf die Plattform zu migrieren.
Media Data Hub – Die neue Search Engine
der ARD-Archive
Philipp Sevenich und
Ralf Walhöfer (WDR – Westdeutscher Rundfunk)
Das Media Data Hub (MDH) ist ein Mediendatensystem, welches die Arbeit der Redakteurinnen und Redakteure der öffentlich-rechtlichen Rundfunkanstalten nicht nur verbessern, sondern revolutionieren wird.
Über eine Einstiegsseite werden zukünftig alle Redakteurinnen und Redakteure der ARD auf sämtliche Metadaten in einer Anwendung zugreifen können – egal ob auf Video, Audio oder auch Text. Moderne Miningtechnologien, zum Beispiel Audio- und Textmining werden den Dokumentationsprozess unterstützen und die Quantität und Qualität der Metainformationen erhöhen. Durch semantische Verlinkung wird die Crossmediale Suche mit neuen Informationen angereichert. Rechercheergebnisse enthalten dann bereits umfangreiche Informationen zu Rechte-, Programmplanungsdaten und auch Internetquellen wie Wikipedia.
Der Vortrag beschreibt sowohl die Idee als auch die Architektur des MDH. Diskutieren Sie anschließend mit dem Softwarearchitekten und der Projektleitung über die neuen Möglichkeiten eines innovativen Mediendatensystems.
Alle Quellen unter einem Dach – über die Einführung
des MediaPortal bei der Mediengruppe RTL
Franziska Mauermann (arvato Systems S4M GmbH) und
Olaf Moschner (infoNetwork GmbH)
Nach der digitalen Substitution der einstigen Medienträger (Aktenordner, Videobänder, Fotopapier, Audio-CD usw.) wirken die an diesen Trägern orientierten Strukturen, Abläufe und System bis heute nach. Das Fernseharchiv, das Musikarchiv, das Pressearchiv, das Redaktionssystem, das Web-CMS, die Systeme der Themen- und Produktionsplanung – alle konfrontieren ihre Anwender mit eigenen (oft auch sehr eigenwilligen) Suchmasken, Bedienkonzepten, Funktionen und Schnittstellen. Einst als Expertensysteme konzipiert überfordern sie heute die Mehrzahl ihrer Nutzer. An den Grenzen dieser Datensilos hat nicht nur der Medienbruch überwintert – oft brechen hier heute auch die Konzepte crossmedialer Zusammenarbeit. Mit der erfolgreichen Einführung des MediaPortal hat die Mediengruppe RTL den ersten Schritt zur Konsolidierung wesentlicher Funktionen der Redaktionsnahen IT-Systeme und zur crossmedialen Verknüpfung relevanter Datenbestände vollzogen. Suchen, Sichten, Sammeln, Weitergeben – für alle Quellen unter einem Dach.
Dienstag · 25. April
Moderation
Michael Vielhaber (Österreichischer Rundfunk | ORF)
Der vfm vergibt in diesem Jahr zum fünften Mal den Marianne-Englert-Preis. Damit sollen qualitativ hochwertige Arbeiten und Projekte von aktiv Studierenden oder AbsolventInnen von Hochschulen mit dokumentarisch-, archivarischem oder bibliothekarischem Hintergrund ausgezeichnet werden. Es geht uns dabei um den Blick über den eigenen Tellerrand, und darum, herauszufinden, welche Themen an den Hochschulen aktuell sind und von unseren Nachwuchskräften bearbeitet und diskutiert werden. Die drei Preisträger dieses Jahres stellen sich in dieser Session mit Ihren Arbeiten vor.
Match Me If You Can – Sammeln und semantisches Aufbereiten von Fußballdaten
Moritz Finke, Julian Risch und Tim Zimmermann (Hasso-Plattner-Institut an der Universität Potsdam)
Interviews, Spielstatistiken oder Videoaufzeichnungen sind für Fußballfans zwar zahlreich im Internet verfügbar, aber auf viele verschiedene Websites verstreut. "Semantic Media Mining" verknüpft nun Fußballdaten aus unterschiedlichen Quellen, bereitet sie semantisch auf und führt sie auf einer einzigen Website zusammen. Dadurch dokumentieren und visualisieren wir 60 Jahre Fußballgeschichte mit über 500 Mannschaften und 40.000 Spielern der Champions League, sowie der 1. und 2. Bundesliga.
Session 2: newcomer-forum
Catharina Boss (infoNetwork GmbH)
Social Media Content gewinnt für die mediale Berichterstattung zunehmend an Bedeutung – und stellt Journalisten wie Mediendokumentare vor die Herausforderung, relevante Inhalte aus vertrauenswürdigen Quellen zügig auffindbar zu machen. Um Struktur in die Datenflut sozialer Netzwerke zu bringen, gibt es eine Vielzahl an Werkzeugen und Methoden. Kuratierte Twitterlisten sind nur ein Beispiel dafür, wie der Einstieg in das Monitoring und Sourcing von sozialen Medien gelingen kann.
Session 2: newcomer-forum
Dr. Julia Lorke (Imperial College London)
Die Tage des einsamen Radiomachers, der seiner anonymen, passiven Hörerschaft Nachrichten ins Ohr spricht, sind gezählt. Heute können Hörer aktiv zur Programmgestaltung beitragen. Das könnte man jedenfalls meinen, wenn man das Potential von Social Media zur Interaktion zwischen Radiomachern und Hörern betrachtet. Aber nutzen Radioprogramme zu Wissenschaft und Technik tatsächlich Facebook, Twitter & Co für einen echten Dialog mit ihrem Publikum oder lediglich als kostengünstiges Marketinginstrument?
Moderation
Dr. Beate Scherer (ZDF – Zweites Deutsches Fernsehen)
„Dump the middleman“ – das Time Magazin sieht darin einen Megatrend unserer Ära. Der fortschreitende Bedeutungsverlust der „Vermittler“ begegnet uns überall: Direktbanking, Internethandel, Streamingdienste, Trumps Direktkontakt zu seinen Wählern via Twitter. Die fortschreitende Skepsis gegenüber den „Vermittlern“ erfasst auch den Journalismus und damit die Medienarchive. Braucht es uns noch als Kuratoren oder wird sich der Trend, dass jeder seine eigene Story erzählen kann, ob sie stimmt oder nicht, durchsetzen? In den Beiträgen dieser Session finden wir viele gute Hinweise, wie die redaktionsnahe Archivarbeit einen wichtigen Beitrag zur publizistischen Qualität und Vielfalt leisten kann.
Die ARD-Ereignis- und Termindatenbank »zeitlupe« – Jahrestage und Termine als kooperative und programmnahe Informationsdienstleistung
Martin Cremer (DRA – Deutsches Rundfunkarchiv)
Jahrestage und Termine sind wichtige Elemente redaktioneller Themenfindung. Ihre nutzungsorientierte Erfassung und Aufbereitung für Programm-Redaktionen stellt eine wichtige Informationsdienstleistung vieler Medienarchive dar. In der ARD werden Ereignisse und Termine kooperativ in der Anwendung „zeitlupe“ erfasst und gepflegt. Aus dem Ziel, Programmschaffenden ein modernes, flexibles und kooperativ erstelltes Informationsangebot zu machen, erwachsen bestimmte Anforderungen an die (Weiter-)Entwicklung der Anwendung. Der Beitrag beleuchtet die wichtigsten dieser Anforderungen und geht der Frage nach, inwieweit sie auf redaktionsnahe Archivarbeit im Allgemeinen übertragbar sind.
Right Now! Die redaktionellen Strategien im Multimedialen ORF-Archiv
Michael Liensberger (Österreichischer Rundfunk, ORF)
Mit 1.1.2016 fusionierten die bis dahin voneinander getrennten Fernseh- und Radioarchive zum Multimedialen Archiv des ORF. Dadurch eröffnen sich in der redaktionellen Archivtätigkeit neue transmediale Möglichkeiten und Synergien. Ein wichtiges Element des redaktionellen Change-Prozesses stellt die Redaktion des Archivs dar. Einerseits bietet diese Kommunikationsplattform einen Überblick über laufende und anstehende Tätigkeiten, andererseits findet hier durch gemeinsame Diskussion ein Austausch an Ideen statt. Dabei geht es darum, bestehende Strategien der verschiedenen redaktionellen Arbeitsgruppen zu verbessern und weiter zu entwickeln. Zur Veranschaulichung werden zwei Arbeitsgruppen präsentiert, jene mit Hauptaugenmerk auf den Umgang mit der ORF-internen Rechercheoberfläche „mARCo“ und andere mit dem Facebook-Auftritt des ORF-Archivs, unter dem Titel „#abgestaubt“. Die mediale Entgrenzung des Archiv-Workflows findet in den erwähnten Beispielen ihr internes und externes Moment. Einerseits wird Content über mARCo Themensammlungen für die Nutzung durch Redaktionen zur Verfügung gestellt. Andererseits wird Archivmaterial für Social Media aufbereitet und via Facebook in die Welt hinausgetragen. Nicht nur die Medienwelt befindet sich im Umbruch, auch die Strategien von aktivem Umgang mit transmedialem Archivmaterial (“multimedial als Terminus ist tot“, sagt der Redakteur aus dem Multimedialen Archiv #epicfail). Die Verbreitung und Bewerbung redaktionell aufgearbeiteten Archivcontents über Kanäle sowohl nach innen wie auch nach außen ist fundamental – gerade jetzt!
Professioneller Umgang mit User Generated Content – Recherche und Verifikation für die Aktualität im BR Studio Franken
Elga Oheim und Susanne Wick (Bayerischer Rundfunk – BR)
Die sozialen Netzwerke sind für uns DokumentarInnen in der vernetzten Aktualität inzwischen eine wichtige Informationsquelle: für die Themenplanung, die Tagesaktualität und den Breaking-News-Fall. Nicht erst seit den Anschlägen in Würzburg und Ansbach beschäftigen wir uns mit den sozialen Netzen, verdichten und veredeln Informationen. Neben der Recherche, vor allem in Twitter, Facebook und Youtube, ist die Verifikationsarbeit eine neue Herausforderung für uns. Sie ist ein elementarer Baustein für unseren Anspruch, den Qualitätsjournalismus zu unterstützen. Damit haben wir unsere 2012 begonnene Faktenverdichtung in Form von Fact-Sheets weiterentwickelt und das Quellenspektrum auf Content, vor allem Fotos und Videos aus sozialen Medien, ausgeweitet. Der Journalismus verändert sich und wir DokumentarInnen gehen diese Veränderung aktiv mit – durch sorgfältiges Suchen in Sozialen Medien, Quellenarbeit, Plausibilitäts-Checks und der Transparenz von Recherche-Ergebnissen.
Soziale Netzwerke als Recherchequelle im Breaking-News-Fall
Sonja Schünemann und Dr.
Stefan Hertrampf (ZDF – Zweites Deutsches Fernsehen)
Bad Aibling, Würzburg, Ansbach, München, Nizza, Ankara, Berlin – all diese Städtenamen stehen für sogenannte Breaking-News-Situationen im Jahr 2016. Vom schweren Zugunglück bis zum Terroranschlag auf den Weihnachtsmarkt am Berliner Breitscheidplatz. Besonders in diesen Situationen sind die sozialen Netzwerke eine unerlässliche Informationsquelle geworden. Wo auch immer auf der Welt etwas passiert – irgendjemand ist mit dem Smartphone nahe dran, fotografiert und filmt. Und bis die erste Agenturmeldung raus ist, sind diese Informationen und Bilder bereits vielfach geteilt und kommentiert worden.
Sonja Schünemann und Stefan Hertrampf berichten, wie Redaktion und Archiv in diesen Situationen zusammenarbeiten: Bei der Suche nach wichtigen Puzzlestücken im Netz ebenso wie beim Entlarven von falschen Informationen. Dazu gehört auch die Klärung von Rechten bei Material, dass man irgendwo im Netz gefunden hat. Denn bei aller Hektik des Nachrichtengeschäfts gerade im Breaking-News-Fall steht die Sorgfalt im Vordergrund.
Moderation
Angelika Hörth (Deutsches Rundfunkarchiv)
Zu keiner Zeit sah sich die Informationsarbeit einem rasanteren Wandel ausgesetzt als heute. Die Digitalisierung greift in alle Lebensbereiche, etablierte Vorgehens- und Verhaltensweisen werden durch neue, digitale, immer häufiger automatisierte und manchmal auch fremdgesteuerte Abläufe ersetzt. Das Internet und seine sozialen Netzwerke verändern die Gesellschaft nachhaltig. Profitiert die Informationsbranche einerseits von einem weltweiten Forschungs- und Entwicklungsinput, der alle Grenzen sprengt und erlebt Innovationssprünge, die bisher unmöglich erschienen, sehen sich die Medienhäuser von einem sich grundlegend ändernden Nutzungsverhalten ihrer Kunden und einer bisher unbekannten Konkurrenz bei Youtube, Twitter oder in Blogs herausgefordert. Wie verändert sich in Zeiten von sich stetig und automatisch aufbauenden Archiven im Internet, in Zeiten von Big Data, von Linked open Data, Suchmaschinenoptimierung, Roboterjournalismus, Datamining, Social Bots und Fake-News die Informationsarbeit? Welche neuen Anforderungen gibt es, welche Trends sind zu erkennen?
In der Session teilen uns Medien- und Informationsprofis ihre Sicht auf die Dinge in kurzen Statements mit und diskutieren miteinander und mit allen anderen Teilnehmern. Dabei könnten Themen angesprochen wie:
• Wer recherchiert und wo? (Archiv-) Datenbanken in Zeiten von Open Data.
• Welche neuen Rollen für die Mediendokumentation entstehen?
• Online only und Mediendokumentation – wie passt das zusammen?
• Ist „Brangelina“ ein zugelassenes Schlagwort? Kann und muss Mediendokumentation auch populär taggen?
• Wie verifiziere ich meine Fundstellen, wie qualifiziert sind diese?
• Was wünschen sich JournalistInnen von den Archiven?
War es im vergangen Jahr das World-Café, das zum Mitmachen einlud, ist es diesmal das „Goldfischglas“. Die Tagungsteilnehmer wollen wir mit der sog. Fishbowl-Methode (https://de.wikipedia.org/wiki/Fishbowl_(Diskussionsmethode) zum Mitdiskutieren animieren. Die Methode wurde für die Diskussionsführung in Großgruppen entwickelt und überwindet den Graben zwischen dem Expertenkreis und den übrigen Teilnehmern. Die wichtigsten Statements, Streitpunkte, Thesen etc. aus dem „Goldfischglas“ werden von unseren „Fischereigehilfen“ aufgefischt, an Metaplanwänden fixiert und am Ende der Session vom Moderator zusammengefasst vorgestellt.
Eine Fishbowl-Diskussion mit den Gästen
Frank Adam (Südwestrundfunk)
Malte Blumberg (funk)
Olaf Moschner (infoNetwork GmbH)
Christian Schrumpf (Spaactor GmbH)
Albrecht Ude (Netzwerk Recherche)
»Die beste Art die Zukunft vorauszusagen, ist sie zu gestalten« – Medien und Politik im Digitalen Zeitalter
Heike Raab (Staatssekretärin in der Staatskanzlei Rheinland-Pfalz und Bevollmächtigte beim Bund und in Europa für Medien und Digitales)
Moderation
Dr. Veit Scheller (ZDF – Zweites Deutsches Fernsehen)
Die „klassischen“ Nutzer wie Redakteure bzw. Journalisten werden auch im digitalen Zeitalter die wichtigste Nutzergruppe von Medienarchiven bleiben. In den letzten Jahren hat sich der Kreis der Nutzer aber um weitere Nutzergruppen wie hausinternen Verwaltungsbereiche oder externe Nutzer jeglicher Couleur erweitert. Während der Umgang mit den hausinternen Bereichen meist einfach zu händeln ist, können die Archive die Wünsche externer Nutzer oft nicht erfüllen. Dies ist sowohl aus Sicht der Archive als auch der Nutzer unbefriedigend. Die moderne Netzwerkgesellschaft ist es gewohnt, Informationen im Internet zu recherchieren, mit Hilfe der neuen Medien zu kommunizieren und selbst die Suchergebnisse online präsentiert zu bekommen. Die Aktivitäten und Serviceleistungen der Archive müssen bzw. sollten sich diesen Herausforderungen stellen. In der Session soll musterhaft gezeigt werden, welche positiven Ansätze es dazu gibt und welche Herausforderungen inkl. Chancen daraus für die Medienarchive resultieren, aber auch welche Grenzen/Normen eingehalten werden müssen.
Zwischen Wissenschaft und Kommerz: Wie Zeitungsinhalte Forschung und Entwicklung befördern
Olivera Kipcic und Corinna Cramer (Frankfurter Allgemeine Zeitung GmbH)
Seit etwa Mitte der 90er Jahre verzeichnet das F.A.Z.-Archiv ein zunehmendes Interesse an digitalen Zeitungsinhalten, welches nicht vorrangig inhaltsbezogen ist. Im Zentrum stehen dabei nicht mehr der Gegenstand eines Textes, sein Informationsgehalt oder der berichtete Gegenstand. Stattdessen konzentriert sich die Aufmerksamkeit vermehrt auf das Sprachmaterial, aus dem er sich zusammensetzt. Dabei ging es anfänglich noch um die Beschaffung von Wortmaterial aus einer Referenzquelle oder von einem gehobenen Sprachniveau, um mit dessen Hilfe z. B. Maschinen und Programme auf dem Gebiet der Spracherkennung und automatisierten Textverarbeitung zu trainieren. Durch die informationstechnische Entwicklung der letzten Jahrzehnte ist es mittlerweile allerdings möglich, auch sehr große Datenbestände kostengünstig zu speichern und zu verarbeiten. So macht das Schlagwort von „Big Data“ auch vor den Medienarchiven nicht mehr halt und bereits seit einigen Jahren sind Forschung und Wirtschaft auf dem Weg, den, im wahrsten Sinne des Wortes, „Sprachschatz“ der digitalen Zeitungsarchive zu heben. Der Anspruch der Goldgräber (hierzu zählen private, kommerzielle Dienste wie auch Forschungseinrichtungen und Bibliotheken) an die Datenqualität und die Leistungsfähigkeit der Archive in diesem Zusammenhang ist jedoch enorm und so ist der Erfolg der „digitalen Schatzsuche“ auch abhängig davon, dass die Medienhäuser in ihren eigenen Beständen Investitionen nicht scheuen und die erforderlichen Rahmenbedingungen schaffen bzw. geschaffen haben.
Als beispielhaft an dieser Stelle kann die Digitalisierungsinitiative des F.A.Z.-Archivs genannt werden, in der die bis dato noch nicht vorliegenden Print-Ausgaben der Jahrgänge 1949 bis 1992 retrodigitalisiert wurden. Ziel dieses kosten- und personalintensiven Projekts war neben der Verfügbarmachung dieser Inhalte für die eigenen, redaktionellen Recherchezwecke selbstverständlich auch die Vermarktung der Daten für genau solche Anliegen, wie für die Entwicklung eigener Produkte der Verlage im Bereich Daten und Lizenzen. Erst durch dieses Digitalisierungsprojekt der F.A.Z. und durch die vergleichbaren Anstrengungen anderer Medienhäuser erhalten beispielsweise die Sozial- und Geisteswissenschaften die Möglichkeit, anhand von digitalisierten Zeitungstexten durch computerlinguistische Analysen sprachliche Gegebenheiten und Veränderungen über einen Zeitraum von mehreren Jahrzehnten zu beobachten. Dies lässt Rückschlüsse über die Wechselwirkung von Sprache, Medien, Politik und gesellschaftlichem Wandel zu. Bei der sprachtechnologischen und computerlinguistischen Untersuchung werden digitale Artikeldaten in sehr großem Umfang unter verschiedensten Gesichtspunkten neu befragt, bewertet und klassifiziert. Wirtschaftliche Ziele dieser Analysen sind z.B. die Konzeption und das Training der nächsten Generationen von Assistenzsystemen, wie etwa die automatisierte Textproduktion und Textanalyse oder die Integration und Verbindung heterogener Daten. Dabei werden jedoch auch Metadaten, Statistiken und Indizes gewonnen, die keineswegs als Abfallprodukte zu verstehen sind. Vielmehr werden diese wiederum selbst zum Rohstoff für Datenanalysen und können für neue Projekte, Produkte und Lizenzen kommerziell erschlossen und gewinnbringend eingesetzt werden. Voraussetzung hierfür ist die inhaltliche Aufbereitung sowie die Einräumung notwendiger Rechte, die bei den Verlagen liegen.
Das F.A.Z.-Archiv hat seit vielen Jahren Erfahrung in der Verarbeitung großer Datenbestände. Bereits seit Anfang der 2000er Jahre werden die täglich erscheinenden Artikel neben der manuellen Erschließung auch automatisch klassifiziert. Die durch die Retrodigitalisierung gewonnenen Artikeldaten der Jahrgänge 1949 bis 1992 werden sukzessive mit Methoden des Text- und Data-Mining rückwirkend erschlossen und für die Recherche und Vermarktung nutzbar gemacht. Diese Vermarktungsanstrengungen wie auch die Versuche, neue Geschäftsfelder zu identifizieren und zu entwickeln, sehen sich jedoch zunehmend durch Interessensgruppen bedroht, die Druck auf den Gesetzgeber ausüben, bestehendes und bewährtes Recht aufzuweichen und durch geänderte Schrankenregelungen Wissenschaft und auch kommerzieller Forschung den ungehinderten Durchgriff auf digitales Eigentum zu ermöglichen. Sollte dies zum Erfolg führen, wird den Verlagen in einem ohnehin schwieriger werdenden Marktumfeld der Weg zu zusätzlichen Geschäftsfeldern verstellt. Diese benötigen Verlage jedoch dringend, um neue Erlöspotentiale zu generieren und sich damit auch weiterhin ihren „Lebensunterhalt“ zu verdienen.
Zwischen Anspruch und Wirklichkeit – rechtliche
Restriktionen bei der Online-Präsentation von Filmen
Annika Souhr-Könighaus (Bundesarchiv)
Nutzer erwarten von einem modernen Archiv einen schnellen Internetzugriff auf Archivinhalte und die Möglichkeit diese zu teilen oder für eigene Benutzungsvorhaben weiter zu nutzen. Im Bereich der Filmarchivierung ist der Bedarf an digitalen Nutzungsformen so groß wie auf kaum einem anderen Gebiet. Die Gründe hierfür sind unter anderem in der aufwendigen Nutzung analoger Filme und der dafür erforderlichen technischen Infrastruktur sowie dem Aufkommen immer neuer (digitaler) Nutzungsformen (z. B. für Apps oder soziale Medien) begründet. In Bezug auf das digitale Onlineangebot von Filmen klaffen Nutzerwünsche und Wirklichkeit jedoch stark auseinander: Auch von den rund 152.000 im Bundesarchiv überlieferten Filmen (ca. 1 Mio Filmrollen) stehen bislang erst etwas mehr als 3400 Filme für die öffentliche Benutzung auf dem digitalen Filmportal (Filmothek) des Bundesarchivs zur Verfügung. Die Gründe hierfür sind vielfältig. Größtes Hemmnis beim Ausbau des Onlineangebots sind dabei weniger die aufwendigen Arbeiten im Vorfeld von Digitalisierung und Onlinestellung, sondern vorrangig rechtliche Restriktionen, auf die in dem Vortrag (theoretisch sowie mit Beispielen und Lösungsansätzen aus der Praxis des Bundesarchivs) eingegangen werden soll. Hierzu zählen unter anderem:
• Urheberrechtliche Restriktionen: Bei Filmen handelt es sich in der Regel um urheberrechtlich geschützte Werke gemäß § 2 UrhG. Eine Nutzung und Onlinestellung der Werke ist nur bei vorliegender Zustimmung des Rechteinhabers möglich. Staatsarchive wie das Bundesarchiv verwahren jedoch zahlreiche Filme, an denen sie keine Rechte halten oder – noch problematischer – zu denen keine Rechteinformationen hinterlegt sind. Zwar wurden mit der 2012 erlassenen EU-Richtlinie über bestimmte zulässige Formen der Nutzung verwaister Werke sowie mit § 61 UrhG wichtige Grundlagen für die öffentliche Zugänglichmachung entsprechender Werke geschaffen, doch ist auch dieses Verfahren aufwendig und für den an einem schnel- len Zugriff und einer eigenen Weiterverwertung der Filme interessierten Benutzer nur bedingt hilfreich. Aber auch bei Filmen aus dem eigenen Rechtebestand erfordern zahlreiche Nutzungsvorhaben eine sorgfältige Prüfung, da insbesondere die Weiternutzung in sozialen Medien mit einer weiteren Abtretung von Rech- ten einhergehen kann.
• Auch bei der Veröffentlichung von Filmen kann das Persönlichkeitsrecht berührt werden: Neben urheberrechtlichen Fragen kann auch das Persönlichkeitsrecht eine Onlinestellung von Filmen versagen. Beispielsweise kann eine Veröffentlichung der vor allem von der Wissenschaft stark nachgefragten Filme der Staat- lichen Filmdokumentation der DDR (SFD-Filme) zu einer Verletzung des Persönlichkeitsrechts der in den Filmen porträtierten Personen führen, da die Dokumentation zum Zeitpunkt ihrer Entstehung nicht zur Veröffentlichung bestimmt war und Porträtierte vielfach in sehr persönlichen Lebenssituationen gezeigt werden.
• Die Onlinestellung von NS-Filmen kann an rechtliche und ethische Grenzen stoßen: Die NS- Wochenschauen zählen zu den am stärksten nachgefragten Filmen aus der filmischen Überlieferung des Bundesarchivs, weshalb deren Onlinestellung mittelfristig alternativlos erscheint. Dennoch ist die Inter- netveröffentlichung der Kriegswochenschauen kontrovers. Zwar mag die Onlineverfügbarkeit der Wochen- schauen eine reflektierte Auseinandersetzung mit der NS-Propaganda begünstigen, auf der anderen Seite kann ein Archiv die Weiternutzung oder den Missbrauch der Materialien mit kriegsverherrlichenden und menschenverachtenden Inhalten weder nachverfolgen und gewissenhaft prüfen. Das Bundesarchiv wird schon jetzt regelmäßig mit der illegalen Verbreitung von Filmen aus seinem Bestand im Internet konfrontiert, darunter NS-Propaganda. Eine Onlinestellung dieser Filme bedarf somit einer sorgfältigen inhaltlichen Prüfung und der Schaffung technischer und funktionaler Vorkehrungen auf der vorgesehenen Onlineplatt- form (z.B. Registrierung oder Einsatz von Standbildern bei besonders kritischen Szenen) gegen eine unbefug- te Nutzung. Neben ethischen Erwägungen hat ein Archiv hierbei nicht zuletzt Vorgaben des Jugendschutzge- setzes (JuSchG) Rechnung zu tragen.
Ungeachtet des technischen Fortschritts stoßen Archive insbesondere bei der Onlinestellung ihrer Filmbestände regelmäßig an die Grenzen ihrer rechtlichen Möglichkeiten. Auch wenn die Onlineangebote in Bezug auf Filme sukzessive erweitert werden, wird die Diskrepanz zwischen Nutzerwünschen und dem, was Archiven aus rechtlicher und technischer Sicht möglich ist, sicherlich auch längerfristig bestehen bleiben.
Session 5: Neukunden für Medienarchive
Moderation
Rüdiger Baumberger (APA-DeFacto Datenbank & Contentmanagement GmbH)
WER oder WAS dokumentiert? Und für WEN eigentlich?
„Werden wir in Zukunft wirklich nur noch die Maschinen füttern?“, blieb als resignierende Frage in Saarbrücken unbeantwortet. Könnte die Frage nicht vielleicht sogar lauten: „Werden die Archive bald nur noch von Computern gefüttert?“ Können Algorithmen dokumentarische Aufgaben übernehmen? Für wen verrichten die MediendokumentarInnen zukünftig ihr Handwerk, und tun sie es überhaupt noch selbst? Wird der optimalen und raschen Auffindbarkeit durch Konsumenten gegenüber archivischen Erfordernissen der Vorzug gegeben?
In der Session soll beispielhaft gezeigt werden, welche Möglichkeiten der Automatisierungen es für die Mediendokumentation gibt und für welche neuen - oder geänderten - Anwendungsgebiete die Leistungen der Mediendokumentationen zukünftig gebraucht werden.
Automatische Medienannotation, Suche und Empfehlung
Steffen Holly (Fraunhofer-Institut für Digitale Medientechnologie IDMT)
Angesichts ständig wachsender Datenmengen und begrenzter Ressourcen sind leistungsfähige Verfahren zur automatischen und halbautomatischen Annotation von Metadaten ein wichtiges Element, um Archive zu erschließen und einen effizienten Umgang mit Inhalten zu gewährleisten: Sie können nicht nur bei der Erkennung von Qualitätsproblemen, zur Abrechnung von Rechten oder bei der Detektion von Duplikaten hilfreich sein, es lassen sich auch erweitere Such- und Empfehlungsdienste darauf aufbauen. Allerdings genügt es für viele Anwendungsfälle nicht, einzelne Analysekomponenten einzusetzen. Gerade der kombinierte und synergetische Einsatz mehrerer Extraktoren liefert entscheidend verbesserte Ergebnisse. Um dieses Potenzial zu nutzen, muss man sich u.a. diesen Herausforderungen stellen:
• Wie integriert man die entsprechenden Extraktoren, die teilweise als OSS Komponenten, teilweise als proprietäre Komponenten und mit unterschiedlichsten Schnittstellen vorliegen?
• Wie unterstützt man die Erstellung, Anpassung und Ausführung auch von komplexen Analyse-Workflows?
• Wie findet man für die eingesetzten Komponenten ein gemeinsames Metadaten-Modell, und wie unterstützt man medienspezifische Abfragen?
• Wie kann man manuelle und automatische Datenquellen für Empfehlungsdienste nutzen?
Der Vortrag geht auf die genannten Herausforderungen, Verfahren und Anwendungsbeispiele im Archivumfeld ein.
Wir können auch online! Populäre Metadaten aus dem Archiv für's Netz. Ein Werkstattbericht
Marco Fiebig (SWR, HA IDA SWR/SR)
Ein Beitrag muss nicht nur gut sein – er muss auch gefunden werden! Mit der stetigen Zunahme non-linearer Mediennutzung wird immer deutlicher: Nicht nur webexklusive Multimedia-Inhalte müssen online-gerecht präsentiert werden, auch originär für Fernsehen und Hörfunk produzierte Beiträge brauchen Online-Präsenz. Aufmerksamkeit im Netz kann jedoch nur durch plattformgerechte und hochwertige beschreibende Metadaten erreicht werden. Der redaktionelle Fokus ist in Medienunternehmen vielfach noch immer primär auf die lineare Programmdistribution gerichtet. Beiträge werden parallel zur Ausstrahlung oder unmittelbar danach online publiziert; die Qualität der redaktionell zugelieferten Metadaten für die On Demand-Nutzung ist jedoch sehr heterogen. Dieser Befund führte im SWR zu der Idee, die Verschlagwortung für Online-Beiträge zentral zu pflegen. Der Bereich Information, Dokumentation und Archive hat ein Pilotprojekt zur Anreicherung von Metadaten für die Online-Distribution gestartet. Ein Produktionsarchiv stellt sich der Herausforderung, seine Kernkompetenzen mit dem Ziel einer verbesserten öffentlichen Nutzung von Programmvermögen weiterzuentwickeln.
Bilanz und Schlussworte
Mario Müller (Vorsitzender des vfm)