Home | Impressum | Datenschutz

Frühjahrstagung in Leipzig
Tagung 17
newcomer forum
Call for PapersPreisträger 2018
pdf Pressemeldung

Presseinformationen
pdf Marianne-Englert-Preis 2019

Aktuelles Seminar
Wer darf was? Urheberrecht, Leistungsschutzrecht, Persönlichkeitsrecht und Datenschutz im medialen Alltag
19.-21.2.2019

pdf Jahresprogramm 2019
Mitgliederportal
Tagungsdokumentation 2018
Fotodokumentation 2018
vfm und social media

twitter www.facebook.com/ mediendokumentation medoc

Rednerliste der Frühjahrstagung 2019


Montag, 8. April 2019


Eröffnungsveranstaltung

Begrüßung
Mario Müller (ProSiebenSat.1 Produktion GmbH)

Grußwort
Prof. Dr. Karola Wille (Intendantin des MDR)

Die Medien-Revolution – Was kommt danach?
Paul-Josef Raue (Journalist und Redaktionsberater, Wolfenbüttel)
Die Medien werden erschüttert, bewährte Systeme zerbröseln, die meisten Jobs sind nicht mehr sicher. Selbst wer Veränderungen ausblendet, täuscht sich nur: Er befindet sich im Zentrum der Revolution, so wie im Augen eines Taifuns eine trügerische Ruhe herrscht. Was genau löst sich auf? Was geschieht mit den Menschen, die aus dem Analogen kommen und sich vor dem Digitalen fürchten? Was kommt nach der Revolution? Welche Jobs überdauern? Welche neuen entstehen? Die Frage nach der Zukunft der Medien ist immer auch die Frage nach der Zukunft der Gesellschaft – und der Demokratie. Wer die Fragen beantworten will, muss Lösungen entwickeln statt Panik zu verbreiten.


Session 1: Metadaten

Metadaten im Zeitalter von Mining und Automatisierung – Herausforderung Urheberauskunft
Anna Pfitzenmaier (DRA, Potsdam-Babelsberg)
Seit dem 1. März 2017 besteht die Auskunftspflicht gemäß Urheberrechtsgesetz. Bewahrheiten sich die aktuellen Richtlinien-Verhandlungen auf EU-Ebene, ist sogar mit einem proaktiven Reporting zu rechnen. Dies stellt Sendeanstalten vor größte Herausforderungen. Was aus politischer Sicht obligatorisch erscheint, ist in der Realität der aktuellen Medienproduktion kaum zu leisten: Relevante Metadaten werden nur teilweise erfasst, sind nicht digital verfügbar, nicht austauschbar oder nicht kompatibel. Dabei ist die Urheberauskunft nur ein Szenario von mehreren, die nach umfassenden Metadaten verlangen. Um der Auskunftspflicht zu begegnen, beschreitet die ARD neue Wege: Sie soll zentral und im Rahmen des ARD-Strukturprojekts medas erfolgen. Metadaten werden system- und prozessübergreifend aggregiert und recherchiert. Welche Metadaten aber sollen aggregiert werden? Und wie können sie verknüpft werden, um zu einer validen Auskunft zu gelangen? In Kooperation mit weiteren Disziplinen leistet die Metadatenkompetenz von REM (Regelwerk Metadaten) einen zentralen Beitrag zum Projekt. Das dokumentarische Knowhow rückt auch hier weiter in die Produktionskette und enger zusammen mit neuen Technologien. Denn über Metadaten zu verfügen ist ein Teil der Wegstrecke. Sie zu bewerten und konsistent zu organisieren ist eine Zukunftsaufgabe – gerade in Zeiten von Mining und Automatisierung.

Holt die Metadaten aus den Archivsystemen! – Werkstattbericht aus dem Deutschlandradio
Thomas Heubner und Markus Waldhauser (Deutschlandradio, Berlin)
Metadaten waren im Deutschlandradio klassischerweise das Geschäft der Archivare; sie kannten und kennen die Vorzüge von strukturierten Daten, Taxonomien und genormten Vokabularen. In den letzten Jahren haben Metadaten im Rundfunk aber massiv an Bedeutung gewonnen – und zwar über die Grenzen der Archive hinaus. Multimedia- und IT-Abteilungen lernen die Vorzüge der Metadaten kennen und reklamieren diese für sich. Denn nichtlineare Verbreitungswege wie Audiotheken sind ohne strukturierte und umfassende Metadaten nur schlecht realisierbar. Auch Weiterentwicklungen der Audiotheken wie beispielsweise durch den Einsatz von Recommender-Systemen sind ohne Metadaten nicht machbar. Also stellte sich die Frage, wie sowohl die Instrumente der Archivare als auch deren Know-how für die Verschlagwortung der Audio-Inhalte genutzt werden könnten, um größtmöglichen Nutzen für die Distribution zu erzielen, ohne die Bedürfnisse der Archive zu vernachlässigen. Im Deutschlandradio arbeiten darum Archiv und neue Stakeholder zusammen, um die Metadaten aus den Archivsystemen zu »befreien«. Wir geben einen Werkstattbericht zur Vorverlagerung der Metadatenanreicherung im Produktionsprozess, beschreiben die Nutzung der ARD-Normdatenbank und die Arbeit der Dokumentarinnen und Dokumentare im Zusammenspiel mit den anderen Beteiligten im Produktions- und Distributionsprozess. In einem Ausblick wird außerdem gezeigt, wie der Prozess künftig durch Nutzung von KI-Entwicklungen (Miningprozesse) weiter optimiert werden soll. Abschließend blicken wir auf die spannende wie entscheidende Frage, wie die Zusammenarbeit über die Grenzen von Abteilungen und Berufsfeldern gelingen kann.

Zukunftsmusik – ein Werkstattbericht des ABD-Musikservice
Martina Rinke (ZDF, Mainz)
Der ABD-Musikservice unterstützt die Programmerstellung des ZDF mit vielfältigen Aufgaben (Musikbeschaffung und -dokumentation, Musikrecherche und -beratung, Vertonungen, Erstellung von Vorspännen etc.). Das gezielt für die speziellen Bedürfnisse des ZDF aufgebaute Repertoire steht in Musikdatenbank und Digitalem Audioarchiv zur redaktionellen Selbstversorgung zur Verfügung, wobei der Ausbau der Suchmöglichkeiten nach Musikinhaltsbegriffen (Stimmungen, moods, keywords), zumal angesichts der Konkurrenz durch diverse Internetplattformen und Library-Angebote, ein immer drängenderes Desiderat wird. Vor diesem Hintergrund wurden in einem fachbereichsinternen Workshop Ideen für die Weiterentwicklung der Systeme und Dienstleistungen erarbeitet, mit einem Schwerpunkt auf Überlegungen zur Einführung einer (semi-)automatischen Anreicherung der Metadaten durch ein Musikanalyse-Tool. Der Projektbericht wird über die Seminarergebnisse informieren und erörtern, ob die aktuell verfügbaren Mechanismen ausreichen, um für die redaktionelle (Selbst-)Versorgung echte und unverzichtbare Mehrwerte zu schaffen. Oder handelt es sich hierbei am Ende doch noch um „Zukunftsmusik“, wenn ja, warum?

Harvesting, Hub und Biografie-Tool – Aktuelle Metadaten-Projekte bei SRF
Dr. Christian Vogg (SRF, Zürich)
Seit D+A bei SRF vor zwei Jahren den Auftrag erhalten hat, sich um das Metadaten-Management im ganzen Haus zu kümmern, also von Radio, Fernsehen, Online, hat sich einiges verändert. So haben sich neue Strukturen etabliert, die den internen Informationsfluss und die Zusammenarbeit verbessern; gleichzeitig erhielt D+A im neuen Newsroom zusätzliche Aufgaben. Darüber hinaus übernahm D+A den Lead bei der Evaluierung und Implementierung KI-gestützter Tools und richtet den Fokus nun verstärkt auf die Generierung und Anreicherung von Metadaten, sowie auf ihren möglichst verlustfreien Transport. Dies führte u.a. dazu, dass jetzt ein zentraler Metadaten-Hub gebaut wird. Einer der Auslöser für dieses zukunftsweisende Projekt war das sog. „Biografie-Tool“. Damit konnte gezeigt werden, dass erst eine externe Verknüpfung und Indexierung der relevanten Metadaten verwertbare Ergebnisse erbringt. Der Vortrag zeigt anhand konkreter Beispiele aus der Praxis, wo einerseits die Schwierigkeiten liegen auf dem Weg, Metadaten noch stringenter zu bewirtschaften; und andererseits, welche kreativen Lösungen möglich sind.

Ein neues Redaktionssystem – leichtes Spiel für Metadaten?
Torsten Linde (MDR, Leipzig)
Welche Chancen für die Prozesse bieten sich? Welche Bremsen lassen sich jetzt lösen, welche schmerzhaften Medienbrüche heilen? Diesen und weiteren Fragen stellt sich der MDR mit seinem neuen zentralen Redaktionssystem. Der Vortrag erläutert, mit welchem Anspruch das Projekt vorangetrieben wird. Prozessoptimierungen und weitreichende Vernetzungen ermöglichen einen ganz großen Schritt nach vorn, bringen aber auch die Anwender, ein Projektteam und die Softwarehersteller an ihre Grenzen. Angesichts der Ablösung mehrerer Altsysteme sind Metadatenflüsse beider Extreme betroffen. Die Bandbreite reicht dabei von einem hochvernetzten Vorsystem des Archivs und Rechtemanagements bis zu einem Altsystem der tagesaktuellen Redaktionen, das nicht mal ein richtiges Datum sondern nur ""gestern"", ""heute"" bzw. ""morgen"" kennt. Der Vortrag geht ein auf Hürden, welche der MDR auf dem Weg zu besseren Metadaten bereits nahm, wo er mehrere Versuche oder auch viel Geduld benötigt(e) und warum. Echte Crossmedialität und eine immer ausgefeiltere, non-linearer Verbreitung zwingen zum Verlassen ausgetretener Pfade. Der Vortrag versucht Impulse zu setzen, Erfahrungen zu vermitteln und zur Diskussion anzuregen.


Dienstag, 9. April 2019


Session 2: newcomer-forum im vfm – Neues aus den Hochschulen

Moderation: Dr. Ute Essegern (Sächsisches Staatsarchiv, Dresden)
Der vfm vergibt in diesem Jahr zum achten Mal den Marianne-Englert-Preis. Damit sollen qualitativ hochwertige Arbeiten und Projekte von aktiv Studierenden oder AbsolventInnen von Hochschulen mit dokumentarischem, archivarischem oder bibliothekarischem Hintergrund ausgezeichnet werden. Es geht uns dabei um den Blick über den eigenen Tellerrand, und darum, herauszufinden, welche Themen an den Hochschulen aktuell sind und von unseren Nachwuchskräften bearbeitet und diskutiert werden. Die drei prämierten Arbeiten dieses Jahres werden in der Sitzung vorgestellt und mit die Ergebnisse mit dem Publikum diskutiert. 

Archivdämmerung – Trendanalyse zu Entwicklungen, Perspektiven und Szenarien rund um die Digitalisierung
Katharina Maschlanka (MA Information, Medien, Bibliothek, HAW Hamburg)
Die Studie hat zum Ziel, Entwicklungen und Perspektiven sowie Chancen und Risiken, die in Zukunft für das Archivwesen im Zuge der Digitalisierung auftreten werden können, aufzuzeigen und Szenarien zu beschreiben, die die zukünftige Nutzung und die archivarische Arbeit umfassen. Kernstück der Arbeit ist eine zweiphasige, delphi-gestützte Befragung bei der die fachliche Einschätzung ausgewählter Experten zur Digitalisierung im Archivwesen und deren zukünftige Entwicklungen ermittelt werden, um daraus Zukunftsaussagen und Thesen zu extrahieren, die in einer zweiten Befragungswelle zu verifizieren. Anhand der Ergebnisse kann festgestellt werden, dass Open Access und Open Data ein wichtiger Bestandteil zur Förderung von Bildung und Innovation in der Gesellschaft im Zuge der Digitalisierung sein werden. Zudem ist es erstrebenswert, neue und moderne Kommunikations- und Marketingformen ins Archivwesen einzuführen, um auch derzeitige Nichtnutzer erreichen zu können. Es stellt sich heraus, dass die Etablierung neuer Medien im Archivwesen voraussichtlich erst in 16 bis 20 Jahren stattfinden wird. Es wird jedoch deutlich, dass die Digitalisierung Chancen und Potenzial bereithält, die das Archivwesen nutzen kann, um in der Gesellschaft attraktiver und für Bürgerinnen und Bürger relevanter zu werden. Dieses Potenzial kann jedoch nur ausgeschöpft werden, wenn alte Strukturen überdacht werden und ein ganzheitliches Umdenken im Archivwesen stattfindet.

Clustern gegen Textchaos
Nasrin Saef (MA Informationsverarbeitung, Universität Köln)
Der Überblick über Dateisammlungen ist oft schwierig: Häufig sind sie groß, wenig strukturiert, redundant und für Außenstehende kaum zu überblicken. Daher ist zu prüfen, ob Softwarelösungen bei der Ordnung großer Dokumentensammlungen helfen können. Eine Möglichkeit zur IT-gestützten Auswertung digitaler Volltexte ist die Nutzung von Methoden aus Computerlinguistik und Information Retrieval. Die vorgestellte Masterarbeit überprüft mit einer zu diesem Zweck entwickelten prototypischen Softwareanwendung und vier dem Hessischen Hauptstaatsarchiv Wiesbaden angebotenen Dateiablagen, ob dieser Ansatz zielführend ist. Die Textdokumente werden dafür in eine maschinell verarbeitbare Form überführt und mit einer Volltextsuche, Versions- und Duplikaterkennung, der Analyse von Worthäufigkeiten und Wortfolgen, Named Entity Recognition, Topic Modelling und Clustering untersucht. Es wird geprüft, wieviel jede dieser Methoden zum Informationsgewinn beiträgt und auf was für Bestände sie anwendbar ist. Außerdem wird kurz vorgestellt, welche vergleichbaren Methoden für Audio- und visuelle Quellen genutzt werden könnten.

Online only - Content quo vadis
Marie-Claire Schneider (h_da, SWR Baden-Baden)
Der Südwestrundfunk (SWR) und die anderen öffentlich-rechtlichen Rundfunkanstalten bedienen überwiegend eine Vielzahl digitaler Ausspielwege. In den Redaktionen wird daher auch zunehmend Material einzig für diese Ausspielwege – also Online Only – produziert. Die Leitfragen des Projekts sind daher: Wie kommt dieses Material ins Archiv und was soll archiviert werden? Die im Projekt entwickelten Kriterien sollen eine erste Einschätzung der Archivwürdigkeit von Online Only Content durch die Produzenten ermöglichen. Aufgrund der großen Anzahl von Distributionswegen und mangels eines einheitlichen Planungstools für Online Inhalte im SWR ist die Mithilfe der Content-Produzenten bei der Materialauswahl erforderlich. Des Weiteren werden Workflows konzipiert, die die (teil)automatisierte Archivierung von Online Only Material im SWR ermöglichen und vereinheitlichen sollen.

 

Session 3: Mining und Dokumentation

Moderation: Sabrina Bernhöft (DRA, Potsdam-Babelsberg)
Wir haben den gesellschaftlichen Auftrag, unsere Daten so aufzubereiten, dass sie für alle Kanäle verfügbar sind – und zwar möglichst gestern. Denn: die Zeit drängt. Wir haben kaum noch die Zeit, uns hinzusetzen, um Daten „händisch“ aufzubereiten. Allein deshalb brauchen wir Mining-Technologien, auch die, die es bereits gibt – zwar für andere Bereiche entwickelt – aber es gibt sie, und eine unsere Aufgaben besteht auch darin, diese Technologien zu adaptieren, zu modifizieren, um sie unserem gesellschaftlichen Auftrag entsprechend anwenden zu können.
Selbstverständlich richtet sich der Blick auch über die nächsten Schritte in die Zukunft. Auf die Art und Weise, in der Technologien mit menschlichem Know-how verbunden und weiterentwickelt werden können. Gerade an diesem Schnittpunkt zwischen technischem Fortschritt und fachlich-humaner Kompetenz lässt sich auch trefflich über die Bedeutung des Archivwesens bei der Schaffung bzw. Ausgestaltung künftiger Kommunikationsformen nachdenken. Denn das Archiv muss keineswegs am Ende der verketteten Datenströme als bloße Instanz der Aufbereitung stehen, sondern kann und wird voraussichtlich auch innovativ die Verschränkung von Technik und Datenmanagement voran treiben – wofür, und das nur am Rande, die Vereinheitlichung der Terminologie, mit der wir uns zu verständigen suchen, ein wichtiger Schritt wäre.
Wie werden nun diese Technologien sinnvoll für die Aufgaben und Anforderungen des Archivwesens eingesetzt? Wie könnten sie eingesetzt werden? Welche Fragen bleiben offen? Praxis- und Projektberichte von einer Expertenrunde werden darüber Aufschluss geben und Raum für eine offene Diskussion bieten.

Bereit für die Zukunft? KI in der Mediendokumentation
Monika Azakli und Tobias Schwahn (ZDF, Mainz)
Die Integration von unterstützenden Miningtechnologien basierend auf Künstlicher Intelligenz können die Ressource zur zeitnahen und datenkonsistenten Erschließung von Archivbeständen bilden bzw. unterstützen Um tragfähige und qualitätsgesicherte Konzepte für die Implementierung von Miningtools zu erstellen, ist eine enge Zusammenarbeit von Dokumentaren als Experten für die Generierung und Strukturierung von Metadaten und IT-Kollegen mit dem technischen Know-how zur Implementierung und produktiven Nutzung von KI in den Archiv-Applikationen des ZDF notwendig. Die gemeinsame Durchführung von Proof of Concepts zu Use Cases wie z. B. zur Personenerkennung zielen darauf ab, zum einen die Qualität, zum anderen aber auch den benötigten Aufwand zum Training der Algorithmen in einem „Real-life-Szenario“ einzuschätzen. Auf Basis dieser Erfahrungen sollen im Jahr 2019 KI-Dienste für erste Anwendungsfälle in die Media Asset Management Systeme des ZDF integriert werden.

Herausforderungen bei der Nutzung von Videomining Tools bei ProSiebenSat.1
Sebastian Döring und Alexander Engelhardt (ProSiebenSat.1, Unterföhring)
Die manuelle Verschlagwortung von Content im Rahmen der Archivierung für die weiterführende Verwertung ist nach wie vor Standard in den Medienhäusern. Die technologischen Entwicklungen der letzten Jahre macht den Einsatz automatischer Videomining Tools aber zunehmend interessant. Dadurch kann sowohl die steigende Anzahl an produziertem und ausgestrahlten Content adressiert werden, als auch die Geschwindigkeit bei der Verschlagwortung erhöht werden. Außerdem kann Content, für den der manuelle Aufwand bisher zu hoch war, verschlagwortet oder zumindest formal klassifiziert werden. Eine Möglichkeit zur Lösung dieser Problematik könnte die Verwendung von Computer Vision Algorithmen sein, welche in der Lage sind, Bewegtbilder automatisiert zu analysieren und zu verschlagworten. Die Verwendung dieser Algorithmen aus dem Bereich des Machine Learning für die Mediendokumentation kann jedoch nicht einfach „Out of the Box“ erfolgen. Ein Grund dafür ist, dass die aktuell verfügbaren Algorithmen nicht vollständig den Anforderungen der Medienindustrie entsprechen. Zwar können diese schon jetzt eine Vielzahl an Objekten, Handlungen und Persönlichkeiten automatisiert erkennen, doch sind diese häufig auf sehr speziellen Datensets trainiert, welche nicht dem Content entsprechen, der täglich von zahlreichen Fernsehsendern ausgestrahlt wird. Ein anderer Grund ist die Heterogenität des Contents. Das heißt, Algorithmen sollten grundsätzlich in der Lage sein, qualitativ gleich gute Ergebnisse auf unterschiedlichem Content zu liefern, seien dies Spielfilme, Serien, Shows, Magazine, Dokumentationen oder Nachrichten. Die Herausforderung besteht also darin, Algorithmen in der Form zu entwickeln oder nutzbar zu machen, dass diese qualitativ gute Ergebnisse über eine breite Masse an unterschiedlichem Content liefern und somit den manuellen Dokumentationsprozess sinnvoll unterstützen oder (teil-)automatisieren. Im Rahmen des Vortrags soll auf die Herausforderungen beim Einsatz von Computer Vision Algorithmen für die Mediendokumentation eingegangen und mögliche Lösungsansätze präsentiert werden. Dabei wird der Fokus nicht auf einer theoretischen Diskussion liegen, sondern vielmehr auf Beispielen aus der Praxis bei ProSiebenSat.1 und welche Ziele wir dabei verfolgen.

Innovationsmanagement und IT-Wissensaustausch durch die Archive
Sebastian Seng (ZDF, Mainz)
IT-gestützte Arbeitsabläufe sind im Tagesgeschäft bei der archivarischen Arbeit nicht mehr wegzudenken. Sie werden auch in Zukunft einen immer wichtigeren Teil im Alltag von Medienarchivaren und -dokumentaren einnehmen. Daher muss das Bewusstsein für den technologischen Wandel sowie das Verständnis für die Notwendigkeit der Weiterentwicklungen von IT-Systemen fachübergreifend gefördert werden. Gleichzeitig liefern Medienarchive große Potentiale zur Identifizierung und Einführung neuer Technologien. So leisten gerade die Archive oftmals Pionierarbeit beim Einsatz von technischen Innovationen in der Medienbranche. Im Archivbereich des ZDF wurden unterschiedliche Maßnahmen getroffen, um den IT-Wissensaustausch, die zentrale Steuerung von zukunftsweisenden IT-Themen sowie die Optimierung von IT-gestützten Geschäftsprozessen durch ein Innovationsmanagement weiter zu professionalisieren.
Unter der Organisation des Technik- und IT-Koordinators hat sich in diesem Rahmen ein medienübergreifendes IT-Kernteam gebildet, welches die Fachanforderungen an innovative IT-Tools oder zu optimierende Prozesse formuliert, bündelt, bewertet und unter dem Aspekt einer Harmonisierung und Simplifizierung einsortiert. Das Expertenteam unterstützt bei der Kommunikation und Konsolidierung der Einzelanforderungen sowohl aus den unterschiedlichen Archiv-Bereichen (Video, Text, Bild, Ton) als auch aus direkten Kundenanforderungen im Hinblick auf eine zukunftsweisende, medienübergreifende Ausrichtung der ZDF-Archivsysteme.

Künstliche Intelligenz – Wie verändern sich unsere dokumentarischen Workflows?
Ralf Jansen und Yvonne Thomas (Arvato Systems S4M, Köln)
In diesem Vortrag werfen wir einen Blick darauf, in welchen Bereichen AI unterstützen kann. Nun, da Anwendungen in Workflows abgebildet werden, entstehen enorme Mengen an Metadaten mit variabler Genauigkeit. In Kombination mit effektiven Such-Anwendungen und Editiermöglichkeiten verbessern diese die Arbeitsweisen und beschleunigen diese durch die automatisierte Erstellung von Schlagworten und Entitäten, weiteren Metadaten-Anreicherungen (z. B. Objekt- und Gesichtserkennung) und zusammenhängenden Daten. Was kommt also als nächstes? Trotz der Verbesserung der Genauigkeit der Metadaten ist das oft fehlende Vertrauen in AI-Services noch immer ein großes Problem. Dieser Vortrag wird aufzeigen, wie das Sammeln und Bewerten von KI-generierten Metadaten sowie deren Verbindungen und Abhängigkeiten im Bereich dokumentarische Erhebung effizient genutzt werden kann, um das Vertrauen zu stärken – gepaart mit einer intuitiven Metadatenanzeige, Suche und Schulungen. Dabei untersuchen wir nicht nur Analytics wie Speech-to-Text, Kontext-, Objekt- oder Gesichtserkennung und wie diese in der richtigen Kombination angewendet sowie trainiert werden, sondern auch welche direkten Anwendungsfälle genutzt werden können.


Session 4: "Gekommen um zu bleiben" Medienarchive zwischen Tradition und Moderne

Moderation: Michael Vielhaber (ORF, Wien)

Videos und Diskussionen zu Berufsinhalten im Wandel mit den Gesprächsteilnehmern:
Michael Gabler, (Redakteur bei ARD Online, Mainz)
Dr. Silke Gömann (Leiterin Archive und Dokumen­tation beim rbb, Berlin)
Conrad Leilich (Leiter Content Services bei
Gruner + Jahr, Hamburg)
Hannes Munzinger (Redakteur bei der Süddeutschen Zeitung, München)


Mittwoch, 10. April 2019

 

Session 5: Digitalisierung und Kassation

Moderation: Jörg Wehling (Deutschlandradio, Köln)

EBU-Projekt: Umfrage zur Content-Aufbewahrung nach Digitalisierung
N.N.

Die Angst des Archivars vor der Kassation– Sicherheit durch Kontrolle
Christoph Bauer (ORF, Wien)
Nachdem in vielen Institutionen die Digitalisierung respektive Migration der ehemals analogen oder trägerspezifischen digitalen Bestände voll angelaufen ist oder gar schon abgeschlossen wurde, sind die Archiv-Kolleginnen und -Kollegen dort spätestens jetzt, wenn nicht schon im Vorlauf der Digi-Projekte, mit dem Druck nach „Freigabe von Platz“ konfrontiert. Platzprobleme sind ja an sich nichts Neues in unserem Beruf, aber die massiven „Rückforderungen“, denen viele von uns nun ausgesetzt sind, sehr wohl. Doch kann oder darf man jetzt nach erfolgter Digitalisierung überhaupt mit halbwegs reinem Gewissen „Platz schaffen“, d.h. kassieren? (Die Frage ist hier im Kontext der Erhaltung des Contents im Sinne einer gleichbleibenden Qualität im Rahmen der Digitalisierung/Migration zu verstehen und nicht im Sinne der Artefakt-Sicherung oder als Anmutungs-Erhaltung.) Im Bereich der analogen und digitalen Video-Aufzeichnung kann diese Frage beim ORF mit einem Ja beantwortet werden. Der Vortrag beleuchtet den dieser Antwort zugrunde liegenden Workflow und die dabei eingesetzten Kontrollmechanismen. Eine ausgewogene Mischung aus automatischer und manueller Aufsicht bringt die notwendige Sicherheit: Es darf zeitnah kassiert werden, der Content ist (ge)sicher(t).

Fott domet!? – Video-Kassation in Zeiten von Digitalisierung und Sparmaßnahmen im WDR
Claudia Reckruth (WDR, Köln)
Seit 2011 werden im WDR mit dem Digitalisierungssystem A.D.A.M die Videobestände sukzessive digitalisiert. Die Unterstützung filebasierter und vernetzter Workflows im Fernsehen ist dabei genauso im Fokus wie die Langzeitsicherung der audiovisuellen Essenzen als Programmvermögen. Nach der Digitalisierung ist die Vernichtung der physischen Bestände vorgesehen. Aber warum kassieren wir? Was sind die Kriterien für Videokassation in einer Rundfunkanstalt, was ist der Nutzen? Und nicht zuletzt: Worin bestehen die Risiken einer Kassation? Mit diesen Fragestellungen beschäftigt sich der Vortrag, der auch als Werkstattbericht zum Kassationsprojekt „Video Funkhaus Düsseldorf“ erste Einblicke in das laufende Pilotprojekt gibt.


Session 6: Medienarchive & Öffentlichkeit

Moderation: Dr. Veit Scheller (ZDF, Mainz)

Verantwortung für das Gedächtnis der Rundfunkanstalten
Stefanie Weiß (MDR, Erfurt)
Das Gedächtnis der Rundfunkanstalten sind die Archive! Welche Bedeutung muss Ihnen in Zukunft zugesprochen werden? Welche Verantwortung müssen die Archivare und Dokumentare übernehmen hinsichtlich des audiovisuellen Erbes sowie gegenüber der Gesellschaft? Ist das Bewusstsein in den Rundfunkanstalten sowie in der Politik schon erkannt worden? Wir haben in den vergangenen Jahren über den Wandel im Berufsbild gesprochen, darüber wie sich die technischen Werkzeuge ändern werden, aber wenig über unsere Verantwortung. Forderungen nach einem Zugang zum Archivcontent werden öffentlich diskutiert. Der Beruf des Archivars und Dokumentars ist wichtiger denn je und in der heutigen schnelllebigen Zeit im stetigen Wandel. Aber die Kernaufgaben müssen in den Fokus gerückt werden und verantwortungsbewusst erfüllt werden, trotz der Reformen und Einsparmaßnahmen. Denn wir befinden uns nicht nur in der Aufklärungsphase, sondern mitten in der Realität und im gesellschaftlichen Wandel. Themen wie Rechtsextremismus, NSU, AfD, Reichsbürger, Mafia etc. bekommen immer mehr Bedeutung in der regionalen Berichterstattung. Auf dem Weg werden viele verunsichert durch neue rechtliche Rahmenbedingungen (DSGVO, Bundesarchivgesetz etc.) und die zunehmende Bedeutung von Contentverifikation aufgrund von Fake News. Umso wichtiger ist eine lückenlose Archivierung für eine fundierte Aufklärungsarbeit, auch für die nachfolgenden Generationen. Daher muss der Content an erster Stelle stehen. Ein Einblick in das seit 2000 bestehende Contentarchiv im MDR LFH Thüringen. Mit einem Schulterblick was Archiv- und Redaktionssysteme leisten können und wie wichtig die Kooperation in der ARD, aber auch mit Institutionen, Behörden und der Wissenschaft ist. Sowie ein Überblick über die Bedeutung von Rundfunkarchiven aufgrund von einmaligen Content!

Fernsehen für alle! oder: Was kann ein Katalog?
Prof. Dr. Ulrich Johannes Schneider (UB Leipzig)
Das öffentlich-rechtliche Fernsehen in Deutschland steht unter Druck: Es soll besser wirtschaften und zugleich neue Dienste anbieten. Öffentliches Geld konstituiere öffentliches Gut, sagen die einen und fordern umfassende Mediatheken. Die Wissenschaft wäre schon froh, wenn wenigstens die Inhalte der Rundfunkarchive durchsuchbar wären. Hier deutet sich eine Lösung an, über deren Voraussetzungen und Implikationen der Vortrag informiert: Fernsehen für alle wird überhaupt erst möglich, wenn Suchoptionen für das gesendete Programm zur Verfügung stehen.

Das Loch in der Wand – Öffnung der öffentlich- rechtlichen Rundfunkarchive im Lichte juristischer Machbarkeit
Markus Görgen (SWR, Mainz)
Dem Interesse der Allgemeinheit, zeit- und kulturgeschichtlich relevantes Bewegtbild-Material aus den Archiven des öffentlich-rechtlichen Rundfunks verfügbar zu machen und zu halten, stehen ungeachtet ökonomischer Möglichkeiten hohe juristische Hürden entgegen. Ist die Frage, ob eine konkrete Produktion einen „archivfähigen“ Beitrag im Sinne des § 11d Rundfunkstaatsvertrags (RStV) bzw. des jeweils einschlägigen Telemedienkonzepts darstellt, noch vergleichsweise leicht zu beantworten, sind im Bereich des Urheberrechts alleine im Hinblick auf die Vielzahl an Produktionsbeteiligten weitgehende Rechteklärungsfragen zu beantworten. Zudem unterscheiden sich die jeweils zu lösenden lizenzrechtlichen Fragestellungen, je nachdem welcher Produktionszeitraum betroffen ist. Demzufolge bedarf es bei der Bereitstellung solchen Materials in Mediatheken der öffentlich-rechtlichen Rundfunkanstalten einer tiefgehenden Auseinandersetzung insbesondere mit rundfunk-, urheber- und persönlichkeitsrechtlichen Fragestellungen. Die komplexe Thematik ist schließlich vor dem Hintergrund zu betrachten, dass angesichts der schieren Masse an Produktionen Einzelfallprüfungen in der Praxis unmöglich vorgenommen werden können. Es bedarf somit der Festlegung bestimmter Parameter, anhand derer der Aufwand einer Rechteklärung minimiert wird.

Abschlussvortrag
Deep Learning for Visual Computing

Prof. Dr. Bernd Freisleben (Philipps-Universität Marburg)
„Deep Learning“ in künstlichen neuronalen Netzen ist eine Methode des maschinellen Lernens, die aktuell im Bereich der künstlichen Intelligenz verfolgt wird, um komplexe Problemstellungen in verschiedenen Bereichen mit großem Erfolg zu lösen. Wie funktioniert diese Methode und wie kann sie eingesetzt werden? Welche Anwendungsbereiche profitieren am meisten von Deep Learning? Was sind die aktuellen Forschungstrends im Bereich Deep Learning? Die Präsentation gibt Antworten auf diese Fragen, indem sie den Einsatz von Deep Learning für Anwendungen in den Bereichen der automatisierten Bild- und Videoanalyse veranschaulicht. Insbesondere wird dabei auf die computergestützte Szenen-, Objekt- und Personenerkennung zur automatischen Erschließung von digitalen Videoarchiven eingegangen.

Schlussworte und Verabschiedung durch den Vorsitzenden des vfm
Mario Müller (Vorsitzender des vfm)

Letzte Änderung: 14.03.2019