Begrüßung
Mario Müller (ProSiebenSat.1 Produktion GmbH)
Grußwort
Frank Beckmann (Programmdirektor Fernsehen, NDR, Hamburg)
Eröffnungsvorträge
Der digitale Wandel und sein Einfluss auf die Bedeutung, die Aufgaben und die Arbeit von Medienhäusern
Prof. Karin Bjerregaard Schlüter (Univ. der Künste Berlin)
Moderation
Vanessa Freudrich (SRF, Zürich)
dio Mining: Innovationen und neue Anwendungsfälle
Dr. Christoph Schmidt (Fraunhofer IAIS, St. Augustin)
Durch den Einsatz komplexer neuronaler Lernverfahren und die Nutzung umfangreicher Trainingsdaten konnte die Leistungsfähigkeit von Audio Mining Technologien deutlich gesteigert werden. Während vor einigen Jahren noch Wortfehlerraten von 25% und mehr vorlagen, betragen diese bei aktuellen Systemen nur noch weniger als 10%. Somit konnte ein sinnvoller und produktiver Einsatz von Audio Mining Technologien in Archiv- und Produktionsanwendungen gewährleistet werden, um bei der automatisierten Erschließung und Transkription von Radio- und Fernsehbeiträgen zu unterstützen. Weitere Forschungsarbeiten im Fraunhofer IAIS haben zu weiteren Innovationen geführt, die neue Funktionalitäten des Audio Minings bereitstellen und weitere Anwendungskontexte erlauben. Diese werden nachfolgend dargestellt. Eine wichtige Erweiterung der Spracherkennung stellt die automatische Interpunktion dar. Mittels Machine Learning Verfahren werden automatisiert Satzzeichen in die Transkription eingefügt, so dass die Struktur und die Lesbarkeit der Transkripte deutlich gesteigert werden. Die Erkennungsraten für die Interpunktion liegen im Bereich von ca. 85% Erkennungsrate und haben in ersten Nutzertests zu einer besseren Akzeptanz der Audio Mining Technologie geführt. Eine weitere Innovation umfasst die Sprecherkennung. Während in vorhergehenden Versionen des Audio Mining lediglich Sprecher-Ids in einer Äußerung vergeben wurden, kann nun der Sprecher mittels Stimmprofil sicher erkannt werden. Dazu werden sogenannte iVektoren und xVektoren verwendet, um mittels Musterkennungsverfahren dann die Sprecher zu erkennen. Für das Training der Sprecherprofile ist die Unterstützung von Dokumentaren notwendig. Der Prozess des Sprechertrainings ist in der Regel semiautomatisch und die Grundlage für eine funktionierende Sprecherkennung. In ersten wissenschaftlichen Tests wurden hohe Erkennungsraten mit 7000 Sprechern erreicht, so dass nun in Zusammenarbeit mit der ARD die Sprecherprofile von zunächst ca. 250 angelegt wurden. Diese Sprecher werden dann mit einer neuen Version des Fraunhofer IAIS Audio Mining Systems sicher erkannt und automatisch annotiert. Neben den funktionalen Erweiterungen ergeben sich durch die stark verbesserten Erkennungsleistungen auch weitere Einsatzgebiete des Audio Minings. Diese reichen von der Live- Transkription, über den Einsatz im Produktionsumfeld bis hin zu dem Einsatz im Kontext von Zeitzeugeninterviews. In dem durch das BMBF geförderten Projekte KA3 wurde Audio Mining auf den Anwendungsfall von Zeitzeugeninterviews, die sich durch spontane und häufig schlechte Aufnahmequalität auszeichnen, hin optimiert. Mittels Adapationsverfahren und einer Datenaugmentierungsstrategie ist es gelungen die Erkennungsraten deutlich zu steigern, so dass auch qualitativ schwierige Zeitzeugeninterviews mit hohen Genauigkeit transkribiert wurden. Institute und Forschungsreinrichtungen, die sich mit Zeitzeugeninterviews beschäftigen (z.B. Institut für Geschichte und Biographie der Fernuniversität Hagen), setzen Audio Mining Technologie für die automatisierte Transkription ein. Somit lassen sich lange Interviews, die oftmals eine Länge von mehr als 4 Stunden aufweisen, in kurzer Zeit transkribieren und recherchieren. Dieser Anwendungsfall zeigt aber auch die noch bestehenden Herausforderungen und die Notwendigkeit weiterer Forschungsarbeiten auf dem Gebiet der Sprachverarbeitung.
Vollautomatische Highlight-Erkennung und Video-Compilation in Wimbledon und den US Open
Alexander Raabe (IBM, Hamburg)
„Visuelle Informationssuche in Video-Archiven“ (VIVA) – Videomining auf historischem Material
Joanna Bars (DRA, Potsdam), Dr. Markus Mühling (Philipps-Universität Marburg), Kader Pustu-Iren (TIB Hannover)
In dem DFG-geförderten Forschungsprojekt VIVA stellen sich das Deutsche Rundfunkarchiv, die Philipps-Universität Marburg und die Technische Informationsbibliothek Hannover der besonderen Herausforderung, Videomining auf historisches Material anzuwenden. Derzeit werden 100 Konzepte und 100 Personen trainiert, die im Material des DDR-Fernsehens aus den 1950er bis 1980er Jahren erkannt werden sollen, eine Ähnlichkeitssuche (query by image) befindet sich im Testbetrieb. Als Teil des Projekts entsteht eine Software, die alle Schritte von der Akquise des Trainingsmaterials, über die Annotation einzelner Bilder bis zu Training und Verwaltung der Modelle integriert. Ziel ist es, dass DokumentarInnen den gesamten Trainingsprozess auf einer benutzerfreundlichen Oberfläche durchführen und selbständig neue Personen oder Konzepte ins Training aufnehmen können. Angesichts der in den Archiven schlummernden Schätze, die durch die Retrodigitalisierungsprojekte leichter zugänglich geworden sind, birgt der Einsatz dieser auf historisches Material trainierten Software für Archive nicht nur innerhalb von Rundfunkanstalten großes Potenzial.
KI-generierte Metadaten – von der Technologiebeobachtung bis zum produktiven Einsatz
Dr. Dirk Maroni und Ralf Walhöfer (WDR, Köln)
Künstlichen Intelligenz ist heute eine digitale Kerntechnologie um (Teil-)Prozesse zu automatisieren. Der Vortrag zeigt, welches Ziel der Westdeutschen Rundfunk mit der Generierung von Metadaten durch Künstliche Intelligenz verfolgt. Anschließend werden die zu schaffenden Rahmenbedingungen für den Einsatz von Künstlicher Intelligenz vorgestellt und beispielhaft an Hand eines Demonstrators die Potenziale mehrerer KI-Lösungen im Anwendungsfeld der Content Analyse aufgezeigt. Abschließend werden die Erkenntnisse aus der langjährigen Auseinandersetzung mit Künstlicher Intelligenz im Westdeutschen Rundfunk mit dem Auditorium geteilt.
Moderation
Heiko Linnemann (Greenpeace, Hamburg)
Der vfm vergibt in diesem Jahr zum neunten Mal den Marianne-Englert-Preis. Damit sollen qualitativ hochwertige Arbeiten und Projekte von aktiv Studierenden oder AbsolventInnen von Hochschulen mit dokumentarischem, archivarischem oder bibliothekarischem Hintergrund ausgezeichnet werden. Es geht uns dabei um den Blick über den eigenen Tellerrand, und darum, herauszufinden, welche Themen an den Hochschulen aktuell sind und von unseren Nachwuchskräften bearbeitet und diskutiert werden. Die drei prämierten Arbeiten dieses Jahres werden in der Sitzung vorgestellt und mit die Ergebnisse mit dem Publikum diskutiert.
Oachkatzl – Training und Benchmarking von KI-basierten Audio-Mining-Systemen auf bairische Dialekte
Johannes Lederle (TU München / BR)
Aufbau eines skalierbaren Social-Media-Monitorings für die Profilthemen der Deutschen Welle im Intranet
Marcel Tenud (Deutsche Welle, Bonn)
Qualitätsmanagement in Audiodigitalisierungsprojekten (Arbeitstitel)
Carmen Rodríguez Godino (ABK Stuttgart)
In der Masterarbeit werden heutige Möglichkeiten für die Implementierung eines Qualitätsmanagementsystems in Audiodigitalisierungsprojekten am Beispiel des Historischen Archivs der Stadt Köln untersucht. Anhand einer Umfrage wurde der gegenwärtige bestandserhaltende Umgang mit audiovisuellen Medien an 200 Kommunal-, Staats- und Landesarchiven erhoben. Ferner konnten eine Reihe von Experten in Einzelinterviews zu technischen und organisatorischen Problemstellungen von Digitalisierungsprojekten und damit verbundenen Erfahrungswerten befragt werden. Auf der technischen Ebene zeigt eine vergleichende Untersuchung von AD-Wandlern exemplarisch Methoden zu deren Qualitätsbeurteilung auf. Die sich daran anschließende Analyse von Digitalisaten, die von Dienstleistern von einem speziell vorbereiteten Testtonband erstellt worden sind, zeigt häufige Probleme der Vergabe von Digitalisierungsleistungen an externe Dienstleister auf. Zuletzt, als Hauptbestreben der Masterthesis, wurde ein Entwurf eines Qualitätsmanagementsystems zur Digitalisierung von Tonaufzeichnungen und eine Bewertungsmatrix für die Auswahl geeigneter Dienstleister bei einer Audiodigitalisierungsvergabe entwickelt. Diese sollte ebenfalls an anderen Archiven anwendbar sein und sich mit geringem Aufwand auch auf andere AV-Medien übertragen lassen.
Moderation
Prof. Dr. Ulrike Spree (HAW Hamburg)
Yandex, pr0gramm, 4chan: Wie dpa entscheidende Infos in den Nischen des Netzes findet und verifiziert
Stefan Voß (dpa, Hamburg)
Automatische Erkennung und Klassifikation aggressiver Sprache im Internet
Prof. Dr. Melanie Siegel (Hochschule Darmstadt)
In den letzten Jahren hat die Diskussion über beleidigende, diskriminierende und bedrohende Sprache in der Öffentlichkeit stark zugenommen. Gleichzeitig haben Wissenschaftlerinnen und Wissenschaftler zahlreiche Anstrengungen zur Erforschung von rechnergestützten Ansätzen und zur Erstellung von Benchmark-Datensätzen für verschiedene Sprachen unternommen. In den Jahren 2018 und 2019 wurden zwei Programmierwettbewerbe, sogenannte „Shared Tasks“, durchgeführt, bei denen ein annotierter (klassifizierter) Datensatz von ca. 15 000 deutschsprachigen Tweets erstellt wurde, mit dem internationale Forschungsgruppen ihre Methoden zur automatischen Klassifikation entwickelt und dann miteinander verglichen haben. Die Referentin hat an der Organisation dieser Shared Tasks teilgenommen und eine Studierendengruppe angeleitet, die ein System implementiert hat. Der Vortrag beschäftigt sich mit der Organisation der Wettbewerbe, dem Verlauf und den Ergebnissen.
Fake News auf der Spur – Zusammenarbeit zwischen ZDF heute und ABD bei der Verifikation von User Generated Content
Dr. Stefan Hertrampf (ZDF, Mainz)
"Breaking News! Irgendwo auf der Welt passiert etwas Dramatisches. Früher war das der Moment, an dem Redaktionen die Berichterstatter losschickten, um Zuschauer, Leser und Hörer über das Geschehen zu informieren. Doch heute sind die Berichterstatter immer schon da. Es sind die Nutzer von Twitter, Instagram, Facebook und Co., denen ein Smartphone reicht, um ihren Followern mitzuteilen, was da gerade passiert. Und so sind es meistens Menschen, die zufällig vor Ort sind, die uns die ersten Bilder von bewegenden Ereignissen liefern. Schöne neue Welt? Leider nein. Denn stets gehen neben authentischem Material viele Bilder und Videos viral, die nur vorgeben, zu dieser Zeit an diesem Ort entstanden zu sein. Das Foto des brennenden Amazonas stammt aus dem Jahr 2008. Der Hai, der angeblich nach dem Wirbelsturm die Straße entlangschwimmt, wurde ins Bild montiert, der vermeintliche Augenzeuge hat Videos manipuliert und aus dem Zusammenhang gerissen. Doch damit nicht genug: in Zeiten von verschärften Debatten im Netz und einer sich fragmentierenden Gesellschaft sind Manipulationen nicht mehr nur das Werk von Scherzkeksen und Wichtigtuern. Desinformation wird bewusst eingesetzt, um zu emotionalisieren, zu spalten und politische Debatten zu beeinflussen. Das ZDF hat die Berichterstattung zu den vergangenen beiden Bundestagswahlen 2013 und 2017 sowie die Europawahlen 2014 und 2019 mit einem redaktions- und bereichsübergreifenden Verifikationsteam begleitet und unterstützt. Kolleg:innen von ABD waren hier von Anfang an mit dabei. Die Erfahrungen, die wir in diesen Projekten gesammelt haben, fließen nun ein in ein fest bei der ZDFheute installiertes Team. ABD ist Bestandteil dieses Teams und ist zurzeit dafür zuständig, die gemeinsamen Workflows zu organisieren. Der Vortrag wird anhand konkreter Beispiele zeigen, wie der Verifikationsprozess in der Zusammenarbeit zwischen Redaktion und Archiv organisiert ist. In diesen Prozess bringt jeder seine Expertise ein, denn Verifikation ist immer Kollaboration und kann selten allein im stillen Kämmerlein von statten gehen. Es geht in der Präsentation auch darum, welche Voraussetzungen die Kolleginnen und Kollegen bei ABD für diese Zusammenarbeit schon mitbringen und wo es mit Fortbildungsmaßnahmen gelungen ist, die für die Arbeit erforderlichen Tools zu erlernen. Und nicht zuletzt werden die crossmedialen Formate ein Thema sein, über die die Ergebnisse der Verifikationen dann dem ZDF-Publikum transparent und nachvollziehbar vermittelt werden. "
Moderation
Angelika Hörth (DRA, Potsdam) und Frank Dürr (WDR, Köln)
eine Tweedback-Diskussion mit den Gesprächsteilnehmer*innen: Cordelia Freiwald (Der Spiegel, Hamburg) Dr. Beate Scherer (ZDF, Mainz) Stefan Voß (dpa, Hamburg) Dr. Ralf Müller-Schmid (Deutschlandfunk Nova, Köln)
Impulsreferat
Dr. Christian Vogg (SRF, Zürich)
NDR Nachrichtenhaus von ARD-aktuell
"Ein Haus, ein Team, eine Marke": ARD-aktuell hat am 13.11.2019 das neue Nachrichtenhaus bezogen.
Ein crossmedialer Newsroom bildet das Zentrum des neuen Gebäudes, neue Nähe- und Kommunikationsbeziehungen
sollen die Redaktion flexibler machen, um auf neue Herausforderungen in der Medienwelt zu reagieren.
Institut für Sozialforschung/Archiv für RAF
1988 gegründet, orientiert sich das Archiv an der Forschungs- und Publikationstätigkeit des Hamburger Instituts für Sozialforschung (HIS) und beinhaltet heute etwa 2.000 Regalmeter Aktenbestände und Sammlungsgut.
Den Schwerpunkt bildet die Sondersammlung „Protest, Widerstand und Utopie“ mit Aktenbeständen vielfältiger politischer Akteur*innen und Gruppen, ergänzt durch Sammlungen von Flugblättern, Plakaten, Zeitschriften, Broschüren und Grauer Literatur, sowie umfangreiche Bild-, Ton- und Filmbeständen zu Protestbewegungen und politischen, sozialen und kulturellen Konflikten in der Bundesrepublik Deutschland.
Zudem bewahrt das Archiv Quellen aus den großen Forschungs- und Ausstellungsprojekten des HIS, z.B. zu Gewaltphänomenen des 20. Jahrhunderts, Nationalsozialismus, Verbrechen der Wehrmacht und Kalter Krieg, und es dokumentiert als Hausarchiv die Veranstaltungstätigkeit und Öffentlichkeitarbeit des Instituts.
Helmut-Schmidt-Haus und Archiv
Das Wohnhaus von Helmut und Loki Schmidt ist im ursprüngliche Zustand erhalten und kann heute besichtigt werden. Die Führung gewährt zudem einen Einblick in das 2006 neu gebaute Archiv Helmut Schmidts, wo die seit Kriegsende von Helmut Schmidt gesammelten Dokumente aufbewahrt werden.
Staats- und Universitätsbibliothek Hamburg
Staatsarchiv
Das Staatsarchiv Hamburg verwahrt mit rund 40 km Archivgut eine reiche Überlieferung der hamburgischen Geschichte von 1140 bis in die Gegenwart. Die Archivalien ermöglichen die Erforschung der hamburgischen Vergangenheit. Daneben bezeugen die verwahrten Dokumente die Transparenz des Verwaltungshandelns, so dass die politische Willensbildung nachträglich nachvollziehbar bleibt. Damit leistet das Staatsarchiv einen unverzichtbaren Dienst für die historische Forschung und den demokratischen Rechtsstaat.
Während der Lesesaal des Staatsarchiv allen offen steht und wissenschaftlich Forschenden, Privatpersonen, Bildungseinrichtungen, Unternehmen und der Verwaltung die Möglichkeit bietet, Archivgut selbst zu recherchieren und einzusehen, wir der Einblick in die Magazine des Staatsarchivs aus Gründen der Bestandserhaltung nur in Ausnahmefällen gewährt.
Bei einem Gang durch unterschiedliche Bereiche des Staatsarchivs erhalten Sie einen Einblick in die Aufgaben des Staatsarchivs und sehen ausgewählte Archivalien aus den Beständen des Staatsarchivs.
Greenpeace
Greenpeace ist eine internationale Umweltorganisation, die mit direkten gewaltfreien Aktionen für den Schutz der natürlichen Lebensgrundlagen von Mensch und Natur sowie Gerechtigkeit für alle Lebewesen kämpft. Seit 1980 gibt es Greenpeace auch in Deutschland mit Sitz in Hamburg. Was die Nichtregierungsorganisation mit Medienarbeit und dem vfm zu tun hat, erfahren Sie bei einer Führung durch den Ausstellungsbereich von den Mitarbeiter*innen Dagmar Wobser und David Graumann aus der Film- und Fernseh- Dokumentation.
Gruner + Jahr
Moderation
Thomas Lehmann (WDR, Köln)
Zwischen Algorithmus und Emotion – Wie AIR die Musiksuche verändert
Eva Wohlgemuth (SWR, Stuttgart)
"Genau wie die Titelmusik von Fluch der Karibik, bloß ein bisschen anders." Wer kennt das nicht? So gerne möchte man als Redakteur passende Musik in seinem Beitrag verwenden. Das Problem: das großartige Musikstück ist schnell abgedroschen. Da wäre doch etwas Ähnliches genau das richtige. Doch wie finden? Die Hauptabteilungen IDA und IMP haben zusammen eine Lösung für diesen Fall entwickelt. Das menschliche Gehör ist bekanntermaßen subjektiv. Und nicht alle Musikstücke in der Datenbank sind inhaltlich durch Tags erschlossen und können über die textbasierte Recherche nach Schlagworten oder Stimmungen gefunden werden. Die Ähnlichkeitssuche ermöglicht über eine eigenständige Weboberfläche eine objektive und zeitsparende Musikrecherche, sowohl für Dokumentare als auch für selbständig recherchierende Redakteure. Das vom SWR entwickelte Audio Information Retrieval (AIR) extrahiert und untersucht 700 Audiocharakteristika eines Musikstücks auf mathematischer Basis. Nach der genauen Analyse der gesamten Audiodatei werden die Charakteristika verwendet, um klanglich ähnliche Musiktitel zu finden und dem Anwender in einer ansprechenden und einfach zu bedienenden Oberfläche zur Verfügung gestellt. Neben spektralen Deskriptoren beinhalten die Audiocharakteristiken auch tonale, rhythmische, zeitabhängige und abstrakte Deskriptoren. Bisher wurden ca. 230 000 Musikstücke analysiert, und AIR ist durch ein Plugin in der Hörfunkdatenbank des SWR integriert und im Produktiveinsatz. Das hilfreiche und bisweilen unterhaltsame Werkzeug kommt bei den Nutzern gut an, wie das rege Feedback zeigt. Inzwischen gehen die Planungen weiter in Richtung „Zukunftsmusik“. Wie kann man die Maschine trainieren, um noch bessere Ergebnisse zu erzielen? Denn bisweilen liegen die Ergebnisse der Maschine weit weg von der gefühlten Stimmung des Menschen. Können wir auf Basis der analysierten Musikstücke in Richtung eines automatischen Taggings denken? Wie könnte man neue Produkte generieren – wie zum Beispiel Playlists für die Programmgestaltung?
Hör’ mal, was da klingt! Oder auch: Das Ohr ist der Weg – Was macht eigentlich die Musikberatung im ZDF?
Jochen Schmidt (ZDF, Mainz)
In der heutigen Medienlandschaft herrscht eine schier unüberschaubare Flut an Programmmaterial. Das Internet trägt mit Kanälen wie z. B. YouTube noch zusätzlich dazu bei, diese Vielfalt bis an die Grenze des Äußersten zu erweitern. Wie ist es da heutzutage noch möglich, Beiträge zu produzieren, die die Zuschauer besonders ansprechen? Ein Gespür für eine gute Geschichte, sorgfältige Recherche, gute Bilder und handwerklich gekonnte Montage sind mit Sicherheit wichtige Bausteine dafür. Aber: Wie schafft man es, die Zuschauer in den Film „reinzuziehen“? Hier kommt die Musik ins Spiel. Musik spricht die emotionale Ebene der Zuschauer an und hat somit maßgeblichen Anteil an der Rezeption des Filmbeitrages. Durch ihre Fähigkeit, dramaturgische Schwerpunkte zu akzentuieren, geht sie im Idealfall eine Verbindung mit dem Bildmaterial ein, so dass Bild und Ton fortan nicht mehr von den Zuschauern getrennt wahrgenommen werden können: „That’s one of the things about using music in movies that’s so cool, is the fact that if you do it right, if you use the right song, in the right scene; really when you take songs and put them in a sequence in a movie right, its about as cinematic a thing as you can do, […] And when you do it right and you hit it right then the effect is you can never really hear this song again without thinking about that image from the movie.“ (Quentin Tarantino im Far Out Magazine, 20.06.2019) Nun ist nicht jeder Redakteur/jede Redakteurin gleichzeitig ein Musikexperte, der/die um die Einsetzbarkeit und die Wirkung von Musik weiß. Aus diesem Grunde gibt es im Musikservice des ZDF das Sachgebiet „Musikberatung“, das synergetisch mit der Musikdokumentation zusammenarbeitet. Hier werden die Programmschaffenden in Sachen Musik, Geräusche und Sounddesign beraten und bekommen „maßgeschneidert“ Produktionsmaterial an die Hand. Anhand einiger Beispiele aus dem „Produktionsalltag“ wird die Wirkung unterschiedlicher Mu- siken auf jeweils gleiche Bilder vorgestellt. Psychische Aspekte in der Wahrnehmung von Musik und Sounddesign werden angesprochen und sollen die Zuhörer für die Arbeit mit Musik und Geräuschen/Soundeffekten sensibilisieren.
Moderation
Sabrina Bernhöft (DRA, Potsdam)
Als flexibles und zukunftsorientiertes Prinzip löst sich das agile Projektmanagement von starren Aufgaben, Abläufen und Rollenverteilungen. Ein Vorteil gegenüber klassischen Methoden liegt in der Möglichkeit, schnell auf Einflüsse und Veränderungen reagieren zu können. Dieses Reagieren nimmt in unserer schnelllebigen (Arbeits-)Welt an Wichtigkeit zu. Der Einsatz einer agilen Organisation setzt jedoch ein Umdenken voraus. Flache Hierarchien, kurze Kommunikationswege und vor allem Vertrauen sind Voraussetzungen. Auch lässt sich diese Arbeitsweise nicht von heute auf morgen einführen. Sie muss gelebt werden. Ausprobieren, Mut zum Scheitern und ein kontinuierliches Beobachten gehören dazu. In Session 6 zeigen drei Impulse aus der Praxis, welche Erfahrungen bei der Einführung von agiler Organisation gemacht werden konnten. Die Session gibt Raum für Austausch und die Möglichkeit, sich mit den gebotenen Einblicken im Kontext der eigenen Einrichtung auseinanderzusetzen.
Agile Arbeitsorganisation bei der DPA
Caren Siebold (dpa, Hamburg)
Viele sprechen in Zeiten sich stetig wandelnder Anforderungen von agiler Arbeitsorganisation, bei dpa setzen wir es um: nicht nur in der Software-Entwicklung, auch im Projektmanagement und in der Organisation. In dem Vortrag können einleitend Grundzüge der agilen Techniken und Methoden vorgestellt werden. Anhand von Beispielen sollen aber die Erfahrungen, die Chancen aber auch die Risiken mit agilem Arbeiten im Vordergrund stehen. Best Practice wäre dafür eine gute Session. Falls entschieden wird, eine Extra-Session zum Thema zu machen, könnte der Vortrag mit etwas veränderten Schwerpunkten sicher gut integriert werden. .
Reinventing IDA – Wie und warum Mitarbeiter*innen
ihre HA umgestalten
Jasmin Baumgartner, Christina Bouché (SWR, Baden-Baden/Mainz)
Der öffentlich-rechtliche Rundfunk ist mit der fortschreitenden Digitalisierung, dem sich ständig wandelnden Umfeld und der zunehmenden Komplexität konfrontiert (VUCA-Welt). Diesem Umfeld können wir nicht mehr mit den bewährten Strukturen begegnen. Um den Wechsel vom Industriezeitalter ins Wissenszeitalter aktiv gestalten zu können, brauchen wir eine flexible und lebendige Struktur. Vor diesem Hintergrund befindet sich die Hauptabteilung Information, Dokumentation und Archive des SWR und des SR (HA IDA) in einem Entwicklungsprozess, der eine Weiterentwicklung in Bezug auf Organisation, Arbeitsformen, Rollen und Kultur initiieren soll. Die neue Organisationsstruktur muss hoch flexibel sein, um den sich ständig wandelnden Anforderungen der Kunden/Nutzer nachkommen zu können. Im Rahmen des Veränderungsprojektes im Jahr 2019 wird zwischen der Zielbild- und Entwicklungsphase, der Umsetzungs- und der Review-Phase unterschieden. Dabei wird aufgegriffen, wie eine zeitgemäße Organisation und Unternehmenskultur mit effizienter Aufstellung, optimal angepassten Zuständigkeiten und Prozessen, kooperativer, flexibler und agiler Zusammenarbeit sowie ggf. einem dazu passenden Zusammenspiel mit anderen Stakeholdern aussehen könnte. Der Vortrag wird auf die Ziele, die Vorgehensweise und der Stand der Umsetzung eingehen.
Erfahrungen mit Home-Office im Bereich der ORF-Dokumentation – strukturierte Flexibilität als Erfolgsrezept?
Michael Springer (ORF, Wien)
"Im ORF-Archiv gibt es seit 1997 die Möglichkeit der Telearbeit. Ursprünglich als Optimierung der Workflows gedacht, entwickelte sich das Modell zum Vorzeigeprojekt im ORF. Aktuell sind 21 Prozent der Archiv-MitarbeiterInnen zumindest teilweise von zu Hause aus tätig, im Bereich der Dokumentation sogar 50 Prozent. Diese strukturierte Flexibilität hat naturgemäß Vor- und Nachteile. Geht freie Zeiteinteilung auf Kosten eines Informationsdefizites arbeitsrelevanter und auch privater Informationen? Wie gestaltet sich ein gut gepacktes Arbeitspaket für TeleworkerInnen, welches nicht über- aber auch nicht unterfordert? Und wer schnürt und kontrolliert es? Mit welchen Problemen kämpfen TeleworkerInnen und was wird am meisten am Home-Office geschätzt? Wie groß ist die Zeitersparnis, nicht ins Büro-, nicht mit dem Auto oder den Öffis fahren zu müssen? Ist Teleworking daher auch umweltfreundlicher? Und welche Vor- und Nachteile ergeben sich für das Unternehmen? Sind Teleworking-Arbeitsplätze kostengünstiger? Sind TeleworkerInnen effizienter und vielleicht sogar zufriedener oder gar unterfordert und frustriert? Basierend auf aktuellen Daten und Fakten und angereichert mit den Ergebnissen einer eigens durchgeführten Umfrage wird diesen Fragen auf die Spur gegangen. Unterstützt wird das Panel durch ein speziell für die FJT gestaltetes Video zum Thema. "
Moderation
Conrad Leilich (Gruner+Jahr, Hamburg)
Ist das noch Textdokumentation? Neue Rollen und
Workflows für Pressedokumentar*innen
Ute Mader, Hanno Jochemich (WDR, Köln)
Der Bereich Pressedokumentation des WDR beschäftigt sich seit Jahren mit maschineller Indexierung und Miningtechnologien im Rahmen der PAN-Textdatenbank und setzt diese aktiv seit 2011 ein. 2019 wurde der Schritt von teilautomatischer Indexierung zu Vollautomatisierung der Inhalte gegangen, was einen maßgeblichen Einfluss auf die Aufgabenfelder der Pressedokumentare hat. Die Arbeit am einzelnen Dokument verschwindet, vielmehr wird die Indexierungsmaschine vom Dokumentar gesteuert, kontrolliert und normiert. Das bringt eine grundsätzliche Veränderung in der dokumentarischen Arbeit mit sich. Der Weg vom sorgfältig dokumentierten Inhalt zur Steuerung von Maschinen wird aus zwei Perspektiven beleuchtet: 1. Voraussetzungen, Chancen und Erfahrungen im Veränderungsprozess: Veränderung des Workflows und Hinterfragen des beruflichen Selbstverständnisses als Textdokumentar. 2. Klassische und neue Kompetenzen: Dokumentarische Kernkompetenzen – Gestaltung von Dokumentationssprachen, Definition von Normierungen, Strukturierung und Pflege von Metadaten; KI-Kompentenzen – Monitoring, Steuerung und Qualitätsprüfung, Modelltraining und Modellbearbeitung als neue dokumentarische Tätigkeitsfelder. Erst durch das inhaltliche und strukturelle Wissen zu den Texten kann die künstlichen Intelligenz optimal unterstützt werden und die Qualität gesichert werden. Der Vortrag ist ein Praxisbericht und skizziert anhand von Praxisbeispielen den Veränderungsprozess sowie die alten und neuen Aufgabenfelder mit den Möglichkeiten und Grenzen für die Textdokumentation.
Wie man einen Monolithen sprengt – Agile Entwicklung eines nutzerzentrierten Pressearchivs
Kurt Jansson, Alexander Thiel (Der Spiegel, Hamburg)
Es hatte sich ordentlich was angestaut: Das Pressearchiv des SPIEGEL sollte eine neue Recherche-Oberfläche (intuitiv, responsiv), eine neue Datenbank (günstiger), eine neue Suchtechnologie (schneller), neue Schnittstellen und eine neue Steuerung für das Datenmanagement (robuster) bekommen. Das Ganze in einem agilen Prozess, nicht nur mit internen, sondern auch mit indischen Entwicklern, und alles mehr oder weniger parallel. Und natürlich soll alles ausfallsicher, schnell, wartungsarm und zukunftssicher sein. Wir möchten einen Einblick geben, welche Stolperfallen es bei diesem Vorgehen gibt, und wie es trotzdem gelingen kann.
Verabschiedung durch den Vorsitzenden des vfm
Fazit und Ausblick
Letzte Änderung: 19.02.2020