Innerhalb eines halben Jahres hat sich das vormals exotische Thema Datenjournalismus zu einem ernstzunehmenden Genre gemausert. Es ist zwar weiterhin eine spezielle Nische, die sich zwischen Infografik und Multimedia-Storytelling behaupten muss. Aber 2011 dürfte deutlich werden, dass diese Nische ein wichtiges Alleinstellungsmerkmal für Onlinejournalismus werden kann. Auch in dem Zusammenhang sollten Zeitungsverlage und Medienhäuser endlich aktiv für Netzneutralität, Informationsfreiheit und OpenData eintreten, meint der Politikwissenschaftler Lorenz Matzat.
Klickstrecken, „Bewegtbild“, Podcasts und so weiter sind nur Remixe althergebrachter Medienformate. Datenjournalismus dagegen setzt auf Datenbanken und Interaktivität, die nur im Browser oder einer App funktionieren können. Er bohrt die Möglichkeiten auf, die über den Rahmen herkömmlicher Infografiken hinausweisen: data-driven journalism ist nicht nur Recherche sondern auch Veröffentlichungsformat; es kann Lesern Recherche-Umgebungen bieten, die den Einstieg in große Datensätze ermöglichen und diese dabei gleichzeitig in den Kontext klassischen Journalismus‘ setzen: Berichterstattung, Hintergrund, Analyse, Reportage.
Datenjournalismus grenzt sich vom althergebrachten CAR (computer-assisted reporting) ab, das rein auf Seiten der Recherche passiert. Letztlich meint Datenjournalismus ja immer auch die Bereitstellung der Rohdaten, bestenfalls im Sinne von OpenData in offenen maschinenlesbaren Formaten.
Die Veröffentlichung der Afghanistan-Kriegstagebücher im Juli 2010 dürfte als Durchbruch für Datenjournalismus gelten. Guardian und NYT demonstrierten, wie zehntausend von Dokumenten online aufbereitet werden können. Die zweite Welle, die Irak-Tagebücher, zeigte auch, wie die selben Redaktionen Erzählformate in Datenartikeln weiterentwickelten. Spiegel Online konnte in beiden Fällen nicht mithalten.
Grenzen von Datenjournalismus
Allerdings wies der dritte Wikileaks-Datensatz von Ende vergangenen Jahres – die Botschaftsdepeschen – auf, wo die Grenzen für Datenjournalismus liegen. Während die Militärdaten klar strukturiert und somit verhältnismäßig einfach aufzubereiten waren, sind die oft sehr ausführlichen diplomatischen Texte schwer automatisch zu sichten.
Klar ist aber, dass es immer mehr große Datensätze geben wird, die Mittelpunkt einer Berichterstattung werden. Das liegt nicht nur daran, dass die Zahl der Leakingplattformen wächst. Vielmehr ist der Aufstieg von OpenData und OpenGovernment im vergangen Jahr ein weiterer Hinweis auf die zunehmende Bedeutung von Datensätzen in Politik und Gesellschaft. Journalismus, der sich selbst ernst nimmt, muss sich diesem Feld widmen. Mit der ihm eigenen Spezifik und seinen Werkzeugen. Von letzteren gibt es immer mehr, die auch von Nicht-Programmieren zu bedienen sind.
Echtzeit und hyperlokal
Onlinejournalismus kennt keinen Redaktionsschluss mehr. Die Zunahme an „Live-Blogging“ ist ein Fingerzeig dafür. Datenjournalismus kann hier auftrumpfen, da er das Echtzeit-Web filtern kann: Twitter und Facebook sind Seismographen für aktuelle Vorgänge. Darauf setzt beispielsweise Yahoo, das seine Finanzmarktberichterstattung mit Informationen des Dienstes StockTwits aufwertet.
Genauso wie im Echtzeitweb der aktuelle Zeitpunkt immer bedeutender wird, besinnt sich die auf Globalität ausgelegte Internettechnologie wieder auf den aktuellen Standort des Users. Das führt einerseits zur „Gamification“ des Alltags durch Dienste wie FourSquare. Doch kann das viel gehypte „hyperlokal“ durch den Zugriff auf Datenbanken, etwa voll mit OpenData, wirklich qualitativen informationellen Mehrwert bieten. Hier ist viel Platz für neue Erzählformate und Journalismusformen.
Datenjournalismus hat allerdings zwei zentrale Probleme. Er ist arbeitsaufwendig, erfordert Recherche und „computer-literacy“, also die Fähigkeit des Journalisten, den Rechner zu bedienen und gar Programmierkenntnisse an den Tag zu legen. Sprich, es braucht das Berufsbild des Datenjournalisten, der in der Redaktion als Liaison dienen kann. Der einerseits als Vermittler zwischen Redakteuren und Programmieren fungiert; der in die Rolle des Produzenten von Datenartikeln schlüpft. Diese Person muss nicht zwangsläufig programmieren können, aber wissen, was technisch möglich und welcher Aufwand nötig ist. Der Datenjournalist muss dies allen Beteiligten, nicht zuletzt auch der Verlagsseite, deutlich machen können.
Mangelnder Mut bei Verlagen
Das zweite Problem ist fundamentaler. Die mangelnde Stiftungslandschaft in Deutschland im Vergleich zu der in den USA, die dort fleißig neue Journalismusformen sponsert, ist nur Ausdruck davon: Es handelt sich um ein kulturelles Problem, das des mangelnden Mutes in Verlagshäusern und Redaktionen, neue Formate und Konzepte auszuprobieren. Lieber wird sich weiterhin Online an Zeitungs- und Zeitschriftenformaten abgearbeitet. Oder es wird dem Marketing-Geblubber von Apple und den Prognosen journalistischer Unheilsbringer wie Rupert Murdoch und Mathias Döpfner hintergelaufen.
Denen wird geglaubt, dass der heilige Gral in Sachen Onlinejournalismus, ein schlüssiges Erlösmodell, hinter der Paywall – der Zahlschranke – liegt. Warum wird stattdessen nicht auf Micropayment gesetzt, das grandios in der Gamingindustrie funktioniert, bei Flattr brauchbare Ergebnisse zeigt und letztlich den Weg in Richtung Kulturflatrate weisen kann? Überhaupt stünde es den Zeitungsverlangen und ihnen anverwandten Unternehmen gut zu Gesicht, die Infrastruktur, von der sie profitieren, auch zu pflegen. Also konsequent eine Lanze für Informationsfreiheit und Netzneutralität zu brechen.
Doch wird das an einem nichts ändern: Einem Teil des Journalismus‘ steht der radikale Umbruch erst noch bevor. Neue semantische Fähigkeiten von Software werden einen Teil der gängigen Journalismusberufe durch Automatisierung ersetzen. „Demand Media“ ist ein Vorgeschmack davon, was Algorithmusjournalismus bedeuten wird: Software bereitet Artikel und Themen vor, Menschen fungieren nur noch als Kontrolleure. Die klassische Nachrichtenberichterstattung wird immer weniger Journalisten brauchen, vor allem falls Spracherkennung in den kommenden Jahren automatisch transkribieren kann.
Automatisierung des Journalismus
Wer dieser Prophezeiung nicht Glauben schenken mag, sollte sich den raschen Aufstieg der Statistik im Sportjournalismus betrachten, dem Vorreiter des Datenjournalismus. Oder einmal ein aktuelles Fußballcomputergame spielen und auf die automatisierten Kommentatoren achten. Diese Form von Automatisierung lässt sich auf diverse Themenbereiche ausweiten, die heutzutage die Seiten füllen. Nur zu oft sind das von Hand gekürzte Texte von Nachrichtenagenturen. Warum sollte eine Software nicht automatisch Sätze wegstreichen können?
Was bleibt also dem Journalist, der nicht Reportagen, Feuilletonartikel, Analysen und Kommentare schreibt? Er kann sich in die Richtung orientieren, die derzeit gerne als „Kurator“ bezeichnet wird. Er begibt sich auf Recherchereise in Datenberge, gräbt Zusammenhänge aus und bereitet sie in Datenanwendungen auf. Letztlich ist das die digitale Rückbesinnung auf journalistische Tugenden, die gerade ihre Renaissance in immer mehr Rercherchepools findet (die manche als verkappte Sparmaßnahmen sehen). So oder so: 2011 wird ein spannendes Jahr für den Online-Journalismus.
(Anm.d.Red.: Der Text steht unter einer Creative Commons-Lizenz (by:sa). Hier der Link zum Orignialartikel.)
14 Kommentare zu
erleben wir gerade eine Renaissance des guten alten Experten-Modells? Also einen konservativen Backlash, der den großen Verlagen in die Hände spielt?
Oder eine Fokussierung von Fertigkeiten, die im Web 2.0 einer gewissen Verdummung gewichen sind?
In diesem Sinne: wir sollten beim Datenjournalismus den Faktor MOBILITÄT mitdenken. Und damit auch einen neuen Blick werfen auf mobiles Schreiben: Statt es zu reduzieren auf eine Literatur der Verknappung, sollte es auch als Filtern der Fülle gelesen werden.
So oder so: Vieles, was dieser obige Text beschreibt (Techniken, Ansätze, Veränderungen) hat mit Entwicklungen zu tun, die ich auch am Beispiel der Mobilen Textkulturen ausgemacht habe:
https://berlinergazette.de/mobile-textkulturen-zur-neubestimmung-des-schreibens/
@Rainald Krome: ich lese das anders: vrt ersetzt nicht journalistischen, sondern klassische berrichterstattung. fragt sich nur meines erachtens, was von klassischer berichterstattung übrigbleibt in zukunft, ganz unabhängig von vrt...
insofern teile ich "pes" bedenken.
und die frage muss lauten, zumindest, wenn datenjournalismus eine zukunft haben soll: wie können wir die offenheit der daten mit der offenheit von zugangsbedingungen in einklang bringen?
"Notice that with each successive release, WikiLeaks has become more strategic and has been rewarded with deeper, more extensive coverage of its revelations. It's a long walk from WikiLeaks's origins as a user-edited site held in common to something more akin to a traditional model of publishing, but seems to be in keeping with its manifesto to deliver documents with "maximum possible impact." Julian Assange, WikiLeaks's founder and guiding spirit, apparently began to understand that scarcity, not ubiquity, drives coverage of events.(Added 12/13/2010, 10:30am)"
http://www.nytimes.com/2010/12/13/business/media/13carr.html?_r=2
"Wikileaks has been the game-changer for data journalism. See how we handled the numbers":
http://www.guardian.co.uk/news/datablog/2011/jan/31/wikileaks-data-journalism