Moderation
Dr. Gerald Mauler (DIZ, München)
Das so genannte Fact checking, das Ermitteln, Überprüfen und Verifizieren der in einem Zeitungs- oder Internet-Artikel, einer Hörfunk- oder Fernsehproduktion verwendeten Daten und Fakten, gehört zu den Eckpfeilern journalistischer Arbeit, da die Qualität und damit auch die Glaubwürdigkeit eines journalistischen Produkts maßgeblich von der überprüfbaren Korrektheit aller dargestellten Daten und Fakten abhängig ist.
Im Rahmen dieses Blocks werden die Methoden und Schritte der Datenverifikation beim SPIEGEL und bei einem Fernsehmagazin des WDR vorgestellt und die zunehmende Nutzung des im Internet frei verfügbaren user-generated content durch Journalisten am Beispiel der Enzyklopädie Wikipedia kritisch hinterfragt. In diesem Kontext wird auch der Frage nachgegangen, welche Aufgaben die Informations- und Dokumentationseinrichtungen von Medienunternehmen beim Fact checking übernehmen können.
Datenverifikation bei Fernsehmagazinen
Achim Pollmeier (Westdeutscher Rundfunk, Köln)
Die Schwergewichte der journalistischen Printmedien (Spiegel, Stern, Focus …) beeindrucken durch ein aufwändiges System der Datenverifikation. Kann dies als Beispiel dienen, um auch in der Fernsehberichterstattung den zusätzlichen Arbeitsschritt des „Fact-Checking“ durch Dokumentare zu etablieren? Der Vortrag gibt Einblicke in die Arbeitsweisen eines Fernsehmagazins und zeigt auf, wo Möglichkeiten aber auch Grenzen einer externen Datenverifikationen in Fernsehredaktionen liegen können.
Zu Wert und Bedeutung von Wikipedia in der journalistischen Recherche
Prof. Dr. Martin Welker (Journalistik 1, Institut für Kommunikations- und Medienwissenschaft, Universität Leipzig)
Wikipedia hat sich in Deutschland zum bevorzugten Nachschlagewerk entwickelt - auch für Journalisten. Die Stärke dieser kollaborativen Plattform ist gleichzeitig ihre Schwäche: Die Inhalte werden von keiner Redaktion, sondern von einer offenen Gemeinschaft engagierter Autoren verantwortet. Der Vortrag beleuchtet mehrere kritische Punkte, die aus einem (unreflektierten) Zugriff von Journalisten auf Wikipedia entstehen. Dabei geht es um a) Richtigkeit (Faktentreue) und b) inhaltliche Fragen. Insbesondere in diesem Zusammenhang wird kritisch zu beleuchten sein, dass Administratorenidentitäten meist nicht öffentlich gemacht werden. Administratoren sind aber die entscheidende Instanz bei der Strukturierung von Wikipedia-Inhalten. Fließen nun Wikipedia-Inhalte per Journalisten in eine allgemeine Öffentlichkeit ein, ohne genau sagen zu können, durch wen oder was diese Inhalte letztlich strukturiert wurden, wird ein wichtiges Prinzip von Öffentlichkeit in Frage gestellt: Transparenz.
Moderation
Dr. Heiner Schmitt (Fachgruppe 7 im VdA/vfm, Ingelheim)
Das Thema Bestände der Programmarchive in Hörfunk, Fernsehen und (heute) Online als Basismaterial für Produktion und Sendung sowie als Quellengut für Wissenschaft, Forschung Erziehung und Bildung beschäftigt die Archivwelt seitdem der Rundfunk den Sende- und Übertragungsbetrieb aufnahm. Dabei standen sich in der Vergangenheit die rein ökonomisch orientierten Interessensvertreter und die um die Erhaltung der Bestände als Kulturgut bemühten Archivare in den Anstalten nicht selten diametral gegenüber. Heute sind die Fronten zwischen diesen Gruppierungen weitgehend nivelliert: Zunehmend setzte sich in den Geschäftsleitungen der Medienunternehmen das Bewusstsein um die Verantwortung gegenüber der medialen Überlieferung durch; dies kann als Erfolg einer kritischen Öffentlichkeit und der beharrlichen Überzeugungsarbeit der Archivare gewertet werden.
So waren es vor allem die Forderungen aus dem politischen und gesellschaftlichen Raum nach Bewahrung der Überlieferung und deren Bereitstellung für wissenschaftliche und gesellschaftliche Zwecke, die den Boden für die Sicherung des audiovisuellen Kulturgutes bereiteten. Beispielhaft sei hier auf den Europarat, die UNESCO, den Deutschen Bundestag aber auch auf die Europäische Rundfunkunion (EBU) hingewiesen.
Die Plenumsveranstaltung beschäftigt sich mit diesem großen, ewig aktuellen Themenkomplex. Die Referenten werden die unterschiedlichen Ansätze in Hörfunk und Fernsehen beleuchten und dabei die öffentlich-rechtlichen und privatrechtlichen Organisationsformen des Rundfunks berücksichtigen. In diesem Zusammenhang wird die Programmüberlieferung nicht isoliert betrachtet, sondern einbezogen in die Quellenbestände, die die Entstehung von Sendungen ebenso dokumentieren wie die institutionellen Voraussetzungen für Programm und Produktion. Bewertung und Verfügbarkeit der AV-Überlieferung stehen dabei ebenfalls im Blickfeld der Referenten.
Produktion ist nicht alles – auch die Sicherung des AV-Kulturerbes ist unsere Aufgabe
Prof. Dr. Michael Crone (
Hessischer Rundfunk Dokumentation und Archive, Frankfurt am Main)
Die Rundfunkarchive definieren sich in aller Regel als Produktionsarchive, deren Dienstleistungen sich nahezu ausschließlich auf die Anforderungen der Programme ausrichten. Vernachlässigt wird dabei häufig, dass die Archive auch eine wichtige endarchivische Aufgabe haben. Diese umfasst insbesondere die Sicherung und Zugänglichmachung des audiovisuellen Kulturerbes, wie es auch in der Selbstverpflichtungserklärung der Intendanten von ARD und ZDF im Jahre 2004 zugesagt wurde. Diese Willensbekundung sollen die Archive ernst nehmen und in ihren Archiven umsetzen.
Alles für die Produktion – Das Medienarchiv als Wirtschaftsgut
Mario Müller (ProSiebenSat.1 Produktion GmbH, Unterföhring)
Die ProSiebenSat.1 Media AG ist ein Wirtschaftsunternehmen. Die Free TV-Sender ProSieben, SAT.1, kabel eins und sixx sind das Kerngeschäft der Gruppe. Die Abteilung »Content Management«, deren Aufgabenbereich sich von der Beschaffung, Verwaltung, Dokumentation bis hin zur Qualifizierung und Bereitstellung der Sende- und Produktionsmaterialien breit fächert, verwaltet die Archive der Sende- und Produktionsmaterialien. An praktischen Beispielen sollen die Verantwortlichkeiten, der Umgang und die Leitlinien bei der Frage nach dem Für und Wieder einer Bestandserhaltung oder -sicherung des Programmvermögens dargestellt werden.
Work in Progress – Die Entwicklung der Urheberrechtsgesetzgebung seit 2000
RA Dr. Ole Jani (CMS Hasche Sigle, Berlin)
Die Geschichte des Urheberrechts ist eine Geschichte der Anpassung an technische Veränderungen. Der Adaptionsprozess, in dem sich das Urheberrecht befindet, ist also keineswegs durch die digitale Revolution ausgelöst worden – das Urheberrecht war und ist ein „work-in-progress“. Die digitale Revolution hat aber dazu geführt, dass die Entwicklungszyklen kürzer geworden sind. Und im Zeitalter der Digitalisierung werden hergebrachte Prinzipien des Urheberrechts immer öfter in Frage gestellt. Allein in den vergangenen zehn Jahren ist das Urheberrechtsgesetz fünf Mal umfassend geändert worden. Und ganz überwiegend dienten diese Änderungen der Umsetzung europarechtlicher Vorgaben. Mit dem sog. “Dritten Korb“ steht nun die nächste Urheberrechtsnovelle vor der Tür. Nach einem umfangreichen Konsultationsverfahren, in dem die beteiligten Kreise Gelegenheit zur Stellungnahme hatten, wird das Bundesjustizministerium entscheiden, bei welchen der ausführlich diskutierten Themen es Handlungsbedarf sieht und einen Entwurf für ein „Drittes Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft" erarbeiten. In der Diskussion ist unter anderem eine gesetzliche Regelung für eine erleichterte Nutzung sog. "verwaister Werke" und die Schaffung eines neuen Leistungsschutzrechts für Presseverleger. Noch vor wenigen Jahren hat das Urheberrecht nur wenige Spezialisten interessiert. Diese Zeiten sind endgültig vorbei. Die Debatte um die Zukunft des Urheberrechts ist eine gesellschaftliche Debatte. Das kann nicht überraschen, denn in der modernden Medien- und Informationsgesellschaft hat das Urheberrecht eine Schlüsselfunktion. Der Vortrag zeichnet die Entwicklung der Urheberrechtsgesetzgebung der letzten Jahre nach und gibt einen Ausblick auf das, was kommt.
Weitergabe an die Presse, Herausgabe an Private, Abbildung auf eigener Website – die „Verbreitung“ von Bildern nach dem Hößl-Urteil des BGH
RA Dr. Martin Schippan (Lausen Rechtsanwälte, München)
Mit fragwürdiger Begründung, im Ergebnis jedoch richtig hat der Bundesgerichtshof im Dezember 2010 entschieden, dass Bildagenturen vor der Weitergabe archivierter Fotos an die Presse nicht die Zulässigkeit der beabsichtigten Presseberichterstattung prüfen müssen. Im konkreten Fall hatte ein mehrfach wegen Tötungsdelikten verurteilter Straftäter versucht, sich gegenüber einer Bildagentur gegen die Weitergabe von ihn abbildenden Fotos aus den 1950er und 1960er Jahren an das Magazin „Playboy“ zur Wehr zu setzen. Die Karlsruher Entscheidung bietet Anlass, die Konturen der zulässigen Weitergabe und Verbreitung von archivierten Fotos sowie die jeweils bestehenden Prüfungspflichten von Bildagenturen einmal im Zusammenhang darzustellen.
Zur Zulässigkeit der kommerziellen Verwertung von Presseinhalten mittels Web-Crawling und Harvesting
RA Georg Wallraf, SKWSchwarz Rechtsanwälte, München
Die Begriffe crawling und harvesting beschreiben zunächst technische Vorgänge aus der Internetwelt, die dem Nutzer die Möglichkeit verschaffen, in der unendlichen Informationsflut des www bestimmte Inhalte zu suchen und zu finden. Crawling meint dabei das Abgreifen der Dateninhalte, das im Zusammenhang mit Suchmaschinen stattfindet, harvesting die Ernte dieser Suche.
Solche Vorgänge können einzelfallbezogen, aber auch flächendeckend erfolgen. Sie können einen privaten Anlass haben, oder kommerziell stattfinden. In jedem Fall erfolgt ein Zugriff auf fremde Inhalte. Dieser kann schlicht die Suche insofern unterstützen, als lediglich Fundstellen angegeben werden. Die gesuchte und digital vorhandene Zielinformation jedoch verführt zu Eingriffen, die den gesuchten Inhalt ganz oder zu Teilen in das Suchergebnis einbindet und so den Suchvorgang erheblich komfortabler macht. Sofern dies flächendeckend und zudem kommerziell geschieht, ruft dies die „Ersteller“ der Ursprungsmeldung auf den Plan. Diese haben nicht zuletzt mit zum Teil erheblichem Aufwand die Ursprungsmeldung erstellt, haben durch Irritationen im Marktauftritt Reputationsverluste, fürchten aber vor allem um die Refinanzierbarkeit ihres Aufwandes. Es stellt sich die Frage nach der rechtlichen Zulässigkeit des Einsatzes der geschilderten Technik bzw. dessen Grenzen. Im Vordergrund stehen hier die Bestimmungen von Wettbewerbs- und Markenrecht, vor allem aber das Urheberrecht.
Moderation
Felix Kresing-Wulf
Im vergangenen Jahrzehnt haben sich im Rahmen des Übergangs von der analogen zur digitalen Produktionsweise in allen Medienunternehmen neue Arbeitsprozesse entwickelt. Für die Archive und Dokumentationseinrichtungen von Medienunternehmen hatte dies einerseits die aus ihrer Sicht durchaus positive Folge, dass sie von einer traditionell eher randständigen Position am Ende des Produktionsprozesses mehr ins Zentrum des Workflows rückten. Auf der anderen Seite erwuchsen den Mitarbeitern dieser Einrichtungen auch neue Herausforderungen und Aufgaben. Während bisherige Kernaufgaben von Archivaren und Dokumentaren wie z.B. Abstracting und Indexing in Folge der technischen Entwicklung zunehmend an Bedeutung verlieren, werden beispielsweise die inhaltliche Ausgestaltung und Pflege automatisierter Erschließungssysteme sowie neue Formen eines zentralen Metadatenmanagements künftig deutlich stärker als bislang den dokumentarischen Arbeitsalltag bestimmen. Zudem ergibt sich eine veränderte Marksituation für die Absolventen von Aus- und Fortbildungseinrichtungen, da ihre Skills nicht nur in Archiv- und Dokumentationseinrichtungen, sondern auch in verwandten Bereichen durchaus gefragt sind.
Im Rahmen dieses Blocks wird zunächst von Praktikern aus der Mediendokumentation und aus dem Personalbereich eines Medienunternehmens skizziert werden, welche Anforderungen aus ihrer Sicht derzeit und in absehbarer Zukunft an das Qualifikationsprofil eines/r ABD-Mitarbeiters/in zu stellen sind. Anschließend werden Vertreter von wissenschaftlichen Aus- und Fortbildungseinrichtungen darstellen, wie sich diese Einrichtungen durch die Fortschreibung ihrer Angebote und ihrer Lehrpläne auf den veränderten Qualifikationsbedarf und die veränderte Marktsituation eingestellt haben.
Neue Arbeitsinhalte und ihre Auswirkungen auf den Qualifikationsbedarf
im Programmarchiv des ZDF
Wolfgang Habekost und Kathrin Strässer-Knüttel (ZDF, Mainz)
Das Programmarchiv bildet stets den Kern des Archivs in einem Fernsehsender und nimmt daher schon immer eine zentrale Stellung im Produktionsprozess ein. Die Fachkompetenz für die Dokumentation der produzierten Sendungen und für die qualifizierte Recherche nach Content ist seit jeher in diesen Bereichen angesiedelt. Seit ca. 15 Jahren verändert sich die mediale Landschaft massiv: Internet, digitale Programmbouquets, Digitalisierung, Asset Management, neue crossmediale Workflows, Konvergenz sind nur ein paar der Schlagworte, die mit diesem Umbruch in Zusammenhang stehen. Diese Entwicklung verändert auch die Aufgaben, die Arbeitsstrukturen und insbesondere die Arbeitsinhalte in den Archiven.
Nach der kurzen Darstellung der Veränderungen und des Hintergrunds wird insbesondere auf die Frage eingegangen, wie das Programmarchiv im ZDF in Zusammenarbeit mit der Hauptabteilung Personal die neuen und erweiterten Fachanforderungen zu einem Personalentwicklungskonzept bündelt, das zum Ziel hat, alle Kolleginnen und Kollegen auf die veränderten Arbeitsinhalte vorzubereiten und für die Herausforderungen der Zukunft fit zu machen, so dass sie weiterhin ihre professionelle Kompetenz in eine veränderte Funktionslandschaft einbringen können.
The European Film Gateway – Herausforderungen in der Zusammenführung europäischer Filmdatenbanken
Georg Eckes (Deutsches Filminstitut, Frankfurt am Main)
Bereits seit einigen Jahren digitalisieren europäische Filmarchive und Kinematheken ihre Bestände. Diese sind allerdings bisher, abgesehen von den gängigen Internetsuchmaschinen, kaum institutionen- und länderübergreifend auffindbar. Auf europäischer Ebene arbeiten 21 Partnerinstitutionen, darunter 16 Filmarchive in 14 Ländern, im Projekt EFG – The European Film Gateway daran, diesen Mangel zu beseitigen und ein spartenspezifisches Portal zur Suche in verteilten Beständen europäischer Filmarchive aufzubauen. Darüber hinaus „aggregiert“ EFG Inhalte aus den beteiligten Archiven für die europäische digitale Bibliothek Europeana. Insbesondere angesichts einer immer noch kaum standardisierten Metadaten- und Katalogisierungspraxis im Bereich der Filmarchive und Kinematheken unternimmt das Projekt erhebliche Anstrengungen und probt Lösungsansätze zur Zusammenführung europäischer Filmdatenbanken.
Moderation
Mario Müller (ProSiebenSat.1, Unterföhring)
Der Begriff »Wandel« ist in unserer Medienbranche ein abgenutzter Begriff. Das darf uns aber nicht davon abhalten, Veränderungen in den einzelnen Unternehmen wie auch technologische Neuerungen zu beobachten, zu bewerten und auch darüber zu berichten. Zum diesjährigen Block Fernsehen haben wir Kollegen vom ORF und von InfoNetwork (100prozentige Tochter von RTL) eingeladen, die uns von ihren aktuellen Herausforderungen in den Medienarchiven und ihren Lösungsansätzen praxisnah berichten werden. Abgerundet wird der Nachmittag mit einem Vortrag aus der Forschung. Das Fraunhofer Institut zeigt uns Möglichkeiten zur automatischen Erfassung von Audiodaten auf.
Audio-Mining fürs Fernsehen – Was steckt alles in Medienarchiven?
Jochen Schwenninger (Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS, Sankt Augustin)
Der Zugang zu multimedialen Archiven wird häufig bestimmt von der Qualität und Quantität der verfügbaren Metadaten. Automatisierte Verfahren zur Analyse von Audioinhalten bieten die Möglichkeit, Annotationen auf großen Datenmengen durchzuführen. Die Qualität der Analyseergebnisse kann in den meisten Fällen optimiert werden, indem durch geringen manuellen Aufwand die Algorithmen an die aktuelle Situation angepasst und die Ergebnisse kontrolliert werden. Anhand von aktuellen Projekten im Broadcastbereich wird der Stand der Technik in der Analyse von Audiodaten und die Umsetzung in konkreten Szenarien dargestellt. Dabei werden auch Herausforderungen wie etwa unterschiedliche Metadatenformate, Skalierbarkeit, die Suche in den Archiven sowie Interaktionsmölichkeiten für den Benutzer beleuchtet. Ergebnisse aus Forschungsprojekten bieten einen Ausblick auf zukünftige Entwicklungen und liefern Anhaltspunkte für mögliche Einsatzgebiete in der internen Recherche und dem Zugang für die breite Öffentlichkeit.
Erfahrungsbericht zu Umbrüchen bei Einführung neuer Technologien
Christoph Bauer (Österreichischer Rundfunk – ORF, Wien)
Die letzten Jahre haben im Bereich der Medien-Archive unzählige größere und kleinere Veränderungen gebracht; viele davon waren regelrechte Umbrüche, die teilweise eine Revidierung und Neuanpassung ganzer Arbeitsabläufe mit sich gebracht haben. Anhand des Beispiels des ORF-Fernseharchivs wird auf die Erfahrungen aus einigen dieser Umbrüche und die dabei gewonnen Erkenntnisse eingegangen. Es sollen die Themen Digitale Bandspeicherung, Wechsel von 4:3 auf 16:9, flächige Einführung von HD, automatische Qualitätskontrolle, voll-digitaler Workflow und File-Speicherung angesprochen und ihre Auswirkungen auf die Abläufe und Aufgaben des Fernseharchivs im ORF aufgezeigt werden. Da einige dieser Änderungen erst in den Wochen und Monaten vor der Frühjahrstagung stattfinden werden, können top-aktuelle Informationen und Erkenntnisse erwartet werden.
Zwischen Bandlager und hierarchischem Speicher-Management - zwischen etablierter Kernkompetenz und Tapeless-Workflows
Olaf Moschner (RTL, Köln)
Wie die Entwicklung der Medienproduktion in technischer, organisatorischer und wirtschaftlicher Hinsicht die Mediendokumentation verunsichert und aufhebt, isoliert und befreit, umwälzt und entfaltet – ein Erlebnisbericht aus dem nagelneuen Produktions- und Sendezentrum der Mediengruppe RTL Deutschland und ein Reisebericht vom Weg dorthin.
Moderation
Günter Peters (Gruner & Jahr, Hamburg)
Retrodigitalisierung – in den letzten Jahren ist dieser Begriff in den Projekten von Dokumentation und Archiven aufgetaucht. Angestoßen durch die im Internet postulierte Digitalisierung des Alltags gingen etliche Verlage daran, die vermeintlichen Schätze in ihren Speichern zu bergen. Analoge Vorlagen einscannnen, als PDFs speichern, OCR die Volltexte erzeugen und fertig ist das digitale Archiv des bzw. der eigenen Titel, in dem alle Berechtigten recherchieren können. So oder so ähnlich sahen die Pläne aus, mit denen Retrodigitaliiserungsprojekte begonnen wurden.
Die Wirklichkeit sieht häufig ein wenig anders aus, das beginnt bei Planung und Durchführung der Projekte, setzt sich fort mit Schwierigkeiten bei der Datenerzeugung und endet mit der Bewertung und Korrektur der Ergebnisse. Und ob dann so mühelos im digitalen Archiv recherchiert und vor allem gefunden werden kann, sei dahingestellt.
Aber es werden durch ein solches erweitertes digitales Archiv die Möglichkeiten der Recherche erweitert, Archiv und Datenbestand bekommen einen anderen Stellenwert in den jeweiligen Verlagen. Arbeitsabläufe, manchmal auch Aufgaben in den Archiven ändern sich.
Über Stand und Auswirkungen der Retrodigitalisierung in den Presseverlagen soll in diesem Workshop sowohl allgemein als im Detail berichtet und diskutiert werden.
(Retro-)Digitalisierung und veränderte Arbeitsprozesse in kleinen Pressearchiven
Dr. Ute Essegern (Dresdner Druck- und Verlagshaus GmbH & Co. KG, Dresden)
Telefonische Auftragsannahme, minutenlanges Suchen in Karteikarten und Dossiers – nur wenige können sich noch vorstellen, dass dies vor 20 Jahren dokumentarischer Alltag in Pressearchiven war. Erst kamen die elektronischen Archivierungssysteme, dann die Retrodigitalisierung – und kaum ein Archivmitarbeiter nutzt heute noch traditionelle Recherchemittel. Nur wenige Redakteure wissen (noch), wie ein Archiv „von innen“ aussieht – Recherche ist schnell und bequem von jedem Arbeitsplatz im Verlag aus möglich. Der Vortrag geht auf veränderte Arbeitsprozesse in Folge von (Retro-) Digitalisierung für kleinere Pressearchive ein, zeigt Risiken und Chancen überblickshaft und am Beispiel der Abteilung Dokumentation/Redaktionsarchiv im Dresdner Druck- und Verlagshaus.
Digitale WunderWanderWege ab 1780 – Erfahrungen aus dem NZZ Archiv
Ruth Haener (NZZ, Zürich)
Kann ich wissen, was ich suche. Im Leim- und Scherenzeitalter waren das Einordnen von Information in Dossiers oder die Beschlagwortung bildend. Diese Tätigkeiten legten täglich neu die Basis für aktualisiertes Wissen. Heute ist selbständig erworbene Sachkenntnis die massgebliche Voraussetzung für Recherchen. Wer zudem an technologischen Entwicklungen beteiligt ist, erhält als Zubehör Einblick in neue Logiken von und für Suchvarianten. Der Wechsel von Analogem zu Digitalem während der letzten Jahre war klar eine Herausforderung, für manche auch eine Überforderung. So hat sich nicht nur das Profil der Mitarbeiterinnen und Mitarbeiter verändert, sondern auch unsere Teamgrösse und –zusammensetzung. Selbstverständlich war diese Revolution streckenweise abenteuerlich und – dies sei nicht unterschlagen – auch schmerzlich. Und trotzdem: Unsere Arbeit ist vielseitiger geworden und hat Perspektive.
Moderation
Siegfried Steinlechner (ORF, Wien)
„User Generated Content“ in aller Munde: aber – was ist´s wirklich?
Wir gehen in unserem Workshop anhand einiger ausgewählter Projekte, die sich mit diesen von Amateuren geschaffenen Content beschäftigen, an die Wurzeln. Der vielzitierte Blick von unten kommt dabei genauso zur Sprache wie die Problematiken der Digitalisierung und Archivierung dieser Materialien. Wissenschaftliche, rechtliche bis hin zu vertrieblichen Komponenten des Themas beschäftigen uns in der Konsequenz. Eine Reise von frühesten, sogenannten Amateurmaterialien bis hin zu Web2.0-basierten user generated contents mit allen Facetten der Umsetzung im Jetzt erwartet Sie!
Die Zielgruppe schlägt zurück – Consumer-Medien im Archiv
Stefan Gööck (Sächsisches Staatsarchiv, Archivzentrum Hubertusburg / Wermsdorf)
In „klassischen“ Archiven wird Audiovisuelles nur in geringem Umfang überliefert, zudem inhaltlich wie medientechnisch oft „nichtprofessionell“: Behörden sind in erster Linie keine professionellen Medienproduzenten, gehen zur Dokumentation ihres Verwaltungshandelns pragmatisch mit Gestaltungsweisen und Medienformaten um.
Neben behördlich produzierten Medien können auch Kreationen des Bürgers einen berechtigten Platz im Staatsarchiv haben. Beispiele dafür sind das Zentrale Amateurfilmarchiv der DDR sowie, aus dem Jahrzehnt nach dem Umbruch 1989, ein Schüler-Videomagazin sowie Mitschnitte sächsischer Bürger-Radios im Bestand der Landesmedienanstalt.
Damit die bunte Vielfalt solcher Materialien als aussagefähiger Bestandteil der Gesamtüberlieferung erschlossen und gesichert werden kann, bedarf es besonderer Bemühung.
Volltreffer! Über ungeahnte Herausforderungen und bemerkenswerte Ergebnisse des grenzüberschreitenden Schmalfilm-Projektes „bewegtes Leben“ in Tirol und Südtirol
Dr. Marlene Huber (Amt für audiovisuelle Medien, Bozen) und Mag. Ingo Dejaco (Brixen)
Seit Juli 2008 läuft unter dem Titel „bewegtes Leben“ ein Projekt unter dem Dach der Regionalförderung der Europäischen Union „Interreg IV Italien – Österreich“. Als vordergründiges Projektziel soll das aus zeitgeschichtlicher und volkskundlicher Sicht relevante audiovisuelle Kulturerbe aus privaten Beständen im Bundesland Tirol sowie in Südtirol erhoben, langfristig gesichert und zugänglich gemacht werden. Besitzer audiovisueller Bestände, aber auch Multiplikatoren und politisch Verantwortliche sollen im Zuge des Projektes für den sachgerechten Erhalt und den besonderen Stellenwert dieser Kulturgüter sensibilisiert werden. Schließlich soll ein internationaler und institutionsübergreifender Kompetenzaustausch die Projektpartner in Sachen digitaler Langzeitarchivierung audiovisueller Bestände fit machen. Im Zuge eines Schmalfilm-Wettbewerbs, welcher im Rahmen des Projekts statt fand, konnten über 17.000 Filme digitalisiert und damit gesichert werden.
Die Projektleiterin Dr. Marlene Huber vom Amt für audiovisuelle Medien (Bozen) und der Südtiroler Projektkoordinator Mag. Ingo Dejaco werden über ihre Erfahrungen, die Herausforderungen und Ergebnisse des Projektes und den Schmalfilm-Wettbewerb berichten.
»So war das« – Schmalfilmerinnerungen aus den Jahren 1930 bis 1980
Frank Rudolf (Die Filmwerkstatt, Friedberg)
Ein Projekt der Augsburger Allgemeinen in Zusammenarbeit mit dem Fernsehsender RT1. 1977 wurden alleine in West-Deutschland 19 Millionen. Super-8-Kassetten mit je 15,25 Meter (50 feet) verkauft. Dieses waren 6 Prozent mehr als im Vorjahr. Zusammengeklebt ergeben sie fast 290 000 Kilometer, sieben mal um den Äquator gewickelt. Bei einer Aufnahmegeschwindigkeit von 18 Bildern hätte eine einzelne Person 43 542 Tage benötigt, um dieses Material zu sichten (mehr als 119 Jahre). Diese Einführung soll nur veranschaulichen, dass Super-8 (auch Normal-8 bis 1965) fest im täglichen Leben verankert war, wie es heute das Videohandy ist. Das Ziel der Aktion »sowardas« war es im März 2010, Schmalfilmmaterial aus der Region Augsburg und Umgebung zusammen zu tragen, um es in digitaler Form einer zukünftigen Generation präsentieren zu können. In der Redaktion war man von 15 000 Meter Film (ca. 60 Stunden) ausgegangen, die bei diesem Aufruf abgegeben würden. Am Schluss waren es 200 000 Meter und viele hundert Videokassetten. Aus dem ganzen Material wurde eine Fünfer-DVD-Box erstellt, die ab Oktober verkauft wurde. Gezeigt wurden Filme aus den dreißiger bis hin zu den achtziger Jahren. Diese Aktion war mit über 6000 DVD-Sets ein voller Erfolg.
Moderation
Eva Schütz (WDR, Köln)
Der Musikdatei hat nicht nur das Kaufverhalten der Musikkonsumenten und die Vertriebsstrukturen der Musikindustrie verändert, sondern gleichermaßen die Bedeutung der Metadaten unterstrichen. Cover und Booklet sind nur noch eine Informationsquelle unter anderen. Wie werden die beschreibenden Daten erzeugt? Von Mensch oder Maschine? Durch Musikexperten oder Musikliebhaber? Die Musikdokumentation bedarf der Entdeckung neuer Horizonte und der Neuorientierung in der digitalen Musikwelt.
Musikarchive intuitiv erkunden - neue Möglichkeiten durch automatische Analyseverfahren
Dirk Schönfuß (mufin GmbH, Dresden)
Digitale Musikarchive ermöglichen einen deutlich einfacheren und direkteren Zugriff auf Einzeltitel, aber angesichts von Katalogbeständen von mehreren Millionen Tracks stellt das gezielte Finden von relevantem Content eine große Herausforderung dar. Um digitale Archive effektiv nutzen zu können, ist es notwendig, die enthaltenen Einheiten gut zu beschreiben und sinnvoll zu verknüpfen. Der Vortrag stellt automatische Verfahren vor, die es ermöglichen, Musik zu beschreiben, Ähnlichkeitsbeziehungen herzustellen, aber auch beliebige Audioaufnahmen eindeutig zu erkennen. Angesichts der stetig steigenden Menge an Daten stellen solche automatischen Musikanalyseverfahren ein wertvolles Hilfsmittel dar. Eine Herausforderung besteht jedoch darin, die neuen Verfahren gut in die bereits etablierten Arbeitsabläufe zu integrieren, damit sie ihre Vorteile auch ausspielen können.
Die Rolle der ZSK bei der Musikindexierung
Reinhard Bassenge (ZSK, Frankfurt am Main)
Die Zentrale Schallplattenkatalogisierung (ZSK) mit Sitz beim Deutschen Rundfunkarchiv (DRA) in Frankfurt am Main wurde 1978 von ARD und ZDF gegründet, um IT-gestützt und zentral Daten von Industrietonträgern zu erfassen und den Rundfunkanstalten für Recherche und Abrechnung zur Verfügung zu stellen. Was einst mit dem Abtippen von Informationen und der anschließenden Verteilung von Magnetbändern für Großrechner begann, hat sich inzwischen zu einem mehrere Millionen Datensätze umfassenden Service entwickelt, der Metadaten aus verschiedenen Quellen sammelt, weiterverarbeitet und nutzenden Systemen zur Verfügung stellt. Neben der Erfassung von Formaldaten bietet die ZSK ihren Nutzern auch die Möglichkeit, eine inhaltliche Erschließung und Auswertung von Musik durchzuführen.
Zur Ökonomie des Musik-File-Sharings und der Rolle des Social Taggings
Prof. Dr. Peter Tschmuck (Univ. für Musik und darstellende Kunst Wien)
Filesharing-Netzwerke werden verdächtigt für den Umsatzrückgang in den so genannten Copyright-Industries insbesondere in der Musik- und Filmindustrie verantwortlich zu sein. Dieser Beitrag soll einen Überblick über den Stand der Filesharing-Forschung liefern und aufzeigen, dass so gut wie alle verfügbaren Studien entweder auf einer schwachen methodischen Basis beruhen oder aber hoffnungslos veraltet sind. Dennoch lassen sich aus diesen Studien interessanten Erkenntnisse über die Aktivitäten in Filesharing- und ähnlichen Netzwerken ableiten, die wertvolle Aufschlüsse über neue Nutzungsformen von digitalen Gütern liefern.
Moderation
Bernd Weise (Publizist, Berlin)
Die Fotografie in digitaler Form hat eine wirtschaftliche Umbewertung und vertriebliche Umstrukturierung erfahren, die zu niedrigen Nutzungsvergütungen geführt hat, die von gesellschaftlichen Forderungen nach allgemeiner kostenloser Zugänglichmachung noch übertroffen werden. Welche Auswirkungen hat eine "Schnäppchenkultur" auf Inhalt, Umfang und Bereitstellung von Bildquellen?«
Das Bundesarchiv und Wikimedia – Erfahrungen, Erfolge, Probleme
Dr. Oliver Sander (Bundesarchiv, Koblenz)
Im Dezember 2008 hat das Bundesarchiv – als erstes Staatsarchiv weltweit – eine Kooperation mit Wikimedia bekannt gegeben. Knapp 90 000 Fotos wurden für Wikimedia Commons unter der Lizenz CC-BY-SA kostenfrei bereit gestellt. Im Gegenzug haben viele "Wikipedianer" mit Hilfe eines ebenfalls von Wikipedia-Mitarbeitern entwickelten Werkzeugs die Personenliste des Bundesarchivs mit der so genannten Personennamendatei (PND) verknüpft. Im Vortrag werden die Erfahrungen aus dieser Kooperation, ihre Erfolge, aber auch ihre Probleme vorgestellt.
Warum Fotos kaufen? – Abgrenzung von Microstock zu Gratisangeboten
Robert Kneschke (freier Fotoproduzent, Köln)
Es gibt genug Fotos im Netz – und sogar zig Millionen Fotos, Grafiken und Illustrationen, die völlig legal kostenlos genutzt werden können, entweder unter einer Creative Commons Lizenz oder als gemeinfreie Werke. Trotzdem gibt es gute Gründe, für Bilder Geld auszugeben. Vor allem, da diese bei sogenannten Microstock-Bildagenturen nur noch wenige Euro kosten. Größere Motivauswahl, Geldersparnis durch kürzere Suchzeiten und bessere Rechtssicherheit sind einige dieser Gründe, die der Fotoproduzent und Autor des Fachbuchs „Stockfotografie“ Robert Kneschke näher erläutern wird.
Chancen und Risiken von Wikimedia für Macrostock-Agenturen
Jan Leidicke (Keystone, Hamburg)
Sind Gratis Bilder das Ende der kommerziellen Bildagentur oder lediglich ein weites Geschäftsmodell auf dem im Wandel befindlichen Bildermarkt? Warum sollte heute jemand Geld für die Nutzungsrechte an Fotos ausgeben, wenn Millionen Bilder online frei verfügbar sind? Und warum sollte sich jemand die Mühe machen Bilder aufwendig zu archivieren, wenn die Kostenlos - Konkurrenz schon vor der Tür steht? Sind sich die Urheber und / oder Rechteinhaber von gratis angebotenen Bildern der Tragweite ihrer Entscheidung eigentlich bewusst und ist "gratis" eigentlich auch wirklich kostenlos? Diesen und den damit verbundenen Fragen stellt sich Jan Leidicke von der Hamburger Bildagentur Keystone.