Skizze einer Innovationsförderung für Journalismus

Wie sich 10 Prozent der geplanten 220 Millionen-Förderung für Presseverlage sinnvoll ausgeben ließen

Es lässt sich darüber streiten, was Innovation im Journalismus eigentlich bedeutet. Das will ich an dieser Stelle aber nicht tun, sondern auf die Diskussion des Begriffs in der Studie „Die Innovationslandschaft des Journalismus in Deutschland“ der Landesmedienanstalt NRW aus dem Sommer 2020 verweisen (S. 8ff.). Dort wird vor allem auch auf die „Produktinnovation“ eingegangen, die so umrissen wird: „Veränderungen bei den am Markt angebotenen Produkten und Dienstleistungen des Journalismus, die für Kundinnen und Kunden sichtbar und nutzbar sind“.

Ich habe in den letzten zehn Jahren an einer Handvoll Firmen und dann noch nicht gestarteten Vorhaben, die man zum Bereich der journalistischen Produktinnovation zählen könnte, mitgearbeitet. Während bei mir am Anfang eher Enthusiasmus in Paarung mit Blauäugigkeit und Ahnungslosigkeit über Business und Branche bestimmende Faktoren waren, wandelte sich mein Enthusiasmus in späteren Jahren mehr hin zu Ernüchterung: Die Innovationsbehäbigkeit in geraumen Teilen der Sender- und Verlagsbranche plus einer kargen Förderlandschaft bildeten zumindest für mich nicht das Ökosystem, in dem ich mich weiter unternehmerisch betätigen wollte (eine Bestandsaufnahme der Branche und Fördersituation liefert oben genannte Studie). So skizziere ich im Folgenden ein Förderprogramm auf Basis meiner Erfahrungen und dem, was ich von Kolleg*innen über deren (z.T. gescheiterten) Vorhaben mitbekommen habe.

Skizze einer Innovationsförderung für Journalismus weiterlesen

Die unsichtbare Welle

Artikel für Wochenzeitung “der Freitag” (Nr. 46, 12. Nov 2020)

Seit einem Dreivierteljahr gehört die Berichterstattung zu Corona nun dazu wie der Wetterbericht. Es ist normal geworden, dass in Nachrichtensendungen, Zeitungen und auf Websites die aktuellen Zahlen genannt und gezeigt werden. Daten-Dashboards, Diagramme und Karten finden sich allerorten. Sie sollen helfen, das Infektionsgeschehen abzubilden, Trends zu zeigen und politische Entscheidungen nachvollziehbar zu machen.

Dabei kommt diesen Diagrammen und Karten eine zweischneidige Rolle zu. Einerseits sind sie eben gut dafür geeignet, Verläufe sowie An- und Abstiege in Trends zu schildern: Die meisten Menschen sind mit einem auf Mustererkennung optimierten Sehapparat ausgestattet und können über solche Grafiken deutlich mehr Informationen aufnehmen als in der gleichen Zeit per Text oder gesprochenem Wort. Das Problem andererseits ist, dass die Informationen, die durch die Diagramme transportiert werden, schnell als wahr und aussagekräftig empfunden werden.

Weiterlesen bei “der Freitag”

Bad Practice

Wie der Tagesspiegel fahrlässig Fehlinformationen zu Corona verbreitet


[Update 26.10.20 – 08:00 Uhr: Dieser Beitrag wurde angesichts der nunmehr dritten Änderung, die der Tagesspiegel an seinem Artikel vornahm, ergänzt].

In Zeiten der Covid19-Pandemie, in der Daten – deren Analyse und Visualisierung – auch in der breiten Öffentlichkeit eine wohl kaum dagewesene Rolle spielen, kommt Datenjournalist*innen eine wichtige Rolle zu: Zugang zu Daten zu beschaffen, Ordnung in die Datenmengen zu bringen und diese auf Relevanz und Aussagekraft abzuklopfen, sind ureigene Aufgaben des Metiers.

Deswegen ist die Betrachtung von Beispielen, die nicht gelungen sind, hilfreich. Um andere dafür zu sensibilisieren, dass bei einem Themengebiet wie Corona, bei dem einiges an Verunsicherung herrscht, noch mehr Sorgfalt als sonst an den Tag gelegt werden sollte. Daten-Fehlinterpretationen können sich schnell als vermeintliche Gewissheiten verbreiten. Was kontraproduktiv ist.

Der Tagesspiegel meinte am Freitag, den 23.10.20, er sei dazu in der Lage, die Frage zu beantworten, die sonst niemand beantworten kann: „Wo sich die Menschen mit Corona infizieren“ [Die Überschrift lautet jetzt “Wo infizieren sich Menschen mit Corona?”.]” Die Antwort darauf sei: „Die Menschen stecken sich vor allem zu Hause an.“ Quasi als Kronzeuge für diese Behauptung diente ein Diagramm des Robert Koch-Instituts (RKI), das in dessen Lagebericht (pdf) vom 20.10.2020 auf Seite 12 veröffentlicht wurde.

Bad Practice weiterlesen

Interview: „Spezialisten sind rar“

Der “Drehscheibe” (aus Lokalredaktionen für Lokalredaktionen) habe ich ein Interview zum Thema Automatisierung im Lokaljournalismus gegeben (Anlass war ein Text von mir von 2017). Auszug aus dem Interview:

Was sind die größten Hindernisse für die Verlage, voll in den Datenjournalismus bzw. die Automatisierung einzusteigen?

Wagnisbereitschaft und Talente. Die erfolgreiche Formel, wie solch ein Dienst aussehen könnte, hat bislang niemand gefunden – sonst würden wir davon sicher zahlreiche Varianten sehen. Wirklich neue Formate zu entwickeln, würde zum einen Wagnisbereitschaft und Investionsausdauer für einige Jahren bei den Verlagen erfordern. Und es bräuchte dafür die Kompetenzen. Sowohl in den Führungsetagen, um so etwas zu ermöglichen und fördern – als auch in den Redaktionen. Die Ausbildungsmöglichkeiten, die Spezialisten für den Journalismus im Zeitalter der digitale Transformation liefern könnten, sind in Deutschland rar. Die wenigen Talente in dem Sektor, die sich meist aus Eigeninitiative heraus profilieren konnten, machen Karriere bei den wenigen Häusern, die so etwas sowohl wertschätzen als auch entsprechend interessante Herausforderungen anbieten. Dieser ‘brain drain’ lässt für Regional- und Lokalzeitungsverlage wenig übrig.

Das komplette Interview gibt es hier.

.

Zum Umgang mit der unklaren Datenlage beim Coronavirus

Versuch einer systematischen Übersicht zur Datenlage — Tabelle zu den Nr. mit Links

Der große Augenmerk, der in vielen Medien auf die Zahl der offiziell Infizierten gerichtete wird, ist problematisch. Genauso wie darauf beruhende Berechnung von Verdoppelungszeiträumen und Vergleiche der Zahlen verschiedenen Länder miteinander. Warum?

In einem Interview mit der Schwäbischen Zeitung (5.4.2020) fasst Klaus Meier, Professor für Journalistik an der Katholischen Universität Eichstätt, die Problematik gut zusammen:

„Ich würde gerne etwas aufgreifen, was einerseits toll gemacht, aber andererseits hochproblematisch ist: Das sind Formate, die Zahlen zur Pandemie aufbereiten — interaktive Grafiken, die super gemacht sind und die viele Nutzer auch stark interessieren. Aber das führt dazu, dass man diese Zahlen wie Tabellenstände im Sport miteinander vergleicht: Sind wir jetzt schon wie Italien oder Spanien? Wie schneiden die USA ab? Wie stehen die Bundesländer und Landkreise in Deutschland da? Wer überholt wen? Die Zahlen werden für bare Münze in Echtzeit genommen. Aber auch wenn die Zahlen sauber recherchiert sind, können sie gar nicht das leisten, was man von ihnen erwartet: nämlich ein getreues Abbild der Wirklichkeit zu sein. … Man sollte immer wieder darauf hinweisen, welchen Hintergrund und welche Schwächen diese Zahlen haben. Journalisten sollten diese Zahlenfixiertheit hinterfragen und die Gültigkeit der Zahlen relativieren. Und Mediennutzer sollten sich nicht nur über Zahlen oder Tabellen informieren, sondern lieber zweimal am Tag längere Texte lesen, die diese Zahlen einordnen.“

Zum Umgang mit der unklaren Datenlage beim Coronavirus weiterlesen

Das Ding mit dem Journalismus

»Es braucht einen neuen Journalismus. Den Journalismus der Dinge.« So
steht es in der Einleitung des heute erschienenen »Manifests für einen Journalismus der Dinge — Strategien für den Journalismus 4.0«. Es handelt sich um Version 1 und will ein Diskussionsvorschlag sein.

Auf den ersten Blick ist klar, dass »Journalismus der Dinge« auf das »Internet der Dinge« anspielt (IoT — Internet of Things). Folglich wird IoT im zweiten Satz der Präambel des Manifests entsprechend prominent angeführt. Es wird aber auch auf den ersten Blick klar, dass dieses Wortspiel nicht weit trägt. Genauso wie niemand vom »Journalismus der Kamera«, »Journalismus der Stifte« oder »Journalismus der Lautsprecher« spricht, ist auch bei Dingen der Genitiv fehl am Platz — Journalismus wird nicht von Dingen gemacht. Er wird von Menschen gemacht, die dafür Dinge verwenden, um zum Beispiel über Dinge zu berichten.

Abgesehen von der in meinen Augen untauglichen Begrifflichkeit selbst, machen die zehn Thesen des Manifests auch deutlich, dass dieser »Journalismus der Dinge« kaum klar zu definieren ist: Vielmehr ist es der Versuch, diverse bereits bestehende Methoden und Genres von Journalismus unter einen Hut zu bringen. Was legitim wäre, böte es ein Mehrwert oder würde es helfen, ein bislang unbekanntes Phänomen oder Methodenset zu beschreiben. Damit etwa im Diskurs über Journalismus als gesellschaftliche Kraft neue Perspektiven aufgemacht werden können oder die Selbstverständigung besser gelingt.

Das Ding mit dem Journalismus weiterlesen

10 Jahre Datenjournalismus: Gemischte Gefühle

Mit gemischten Gefühlen schaue ich auf das Genre Datenjournalismus. Ich selbst bin in dem Bereich gar nicht mehr aktiv. Einzig gebe ich ab und zu noch Trainings zum Thema. So ist es vielleicht kein Wunder, dass mich in letzter Zeit keine Anfragen mehr erreichen, ob ich für ein Interview für eine Bachelor- oder Masterarbeit zur Verfügung stehe. Für einige Jahre habe ich – wie auch andere Kolleg/innen – solch Interviews etwa einmal im Monat gegeben. Überhaupt dürfte kaum ein journalistisches Genre in jüngster Zeit so dicht durch wissenschaftliche Forschung  begleitet worden sein. Das Abklingen der Anfragen mag aber vielleicht auch ein Zeichen dafür sein, dass sich das Thema abgenutzt hat (wobei erst unlängst eine lesenswerte, wenn vielleicht auch ernüchternde Masterarbeit (pdf) dazu erschien).

Aber selbstverständlich betrachte ich die Vorgänge in dem Genre weiter und freue mich über ausgezeichnete Arbeiten wie dieses Stück zum Irrsinn der geplanten Bahnhofsverlegung in Hamburg-Altona. Tatsächlich liegen mir mittlerweile Beiträge wie die Experimente rund um Deep Fakes von SRF Data aber mehr. So würde ich argumentieren, dass diese Art von Journalismus im Digitalen mit Datenjournalismus (methodisch) verwandt ist. Doch befasst sich Algorithmic Accountabilty Reporting mehr mit den Auswirkungen von Softwaresystemen – statt allein auf Datensätze zu schauen.

Als ich 2010 dieses Blog begann, lag der Start des Datablogs des Guardian ein Jahr zurück. Die Berichterstattung zu den “Afghanistan Warlogs”, die auf der ersten großen Wikileaks-Enthüllung fußte, zeigte bald auf, was Datenjournalismus kann. Tools begannen zu sprießen. Neben Google Fusion Tables – das nun bezeichnerweise Ende 2019 eingestellt werden soll – etablierten sich Player wie CartoDB oder auch DataWrapper (seit 2012). Die auf statistische Operationen spezialisierte Programmiersprache R machte Karriere, Google/OpenRefine erschien und nicht zu vergessen: Google Spreadsheets. Der Traum von der eierlegenden Wollmilchsau scheint nun mit Workbench fast wahrhaftig zu werden.

10 Jahre Datenjournalismus: Gemischte Gefühle weiterlesen

Netzwerk AfD: Eine Grafik will zu viel

Die taz hat in Kooperation mit Partnern eine Reihe “Netzwerk AfD” gestartet. Die interaktive Grafik zu der Recherche wurde mit zwei externen Entwicklern zusammen umgesetzt. Gefördert wurde das Vorhaben durch die Otto-Brenner-Stiftung. 20.000 Euro, so war es im taz Innovationsreport zu lesen, betrug das Budget.* Bereits im März 2018 hatte Zeit Online einen längeren Bericht über den rechtsradkikalen Hintergrund diverser Mitarbeiter der AfD-Bundestagsfraktion gebracht; das taz Projekt ist also kein “Scoop”. Dennoch ist die systemtatische Recherche der taz & Co hilfreich und wichtig. Bislang ist die Datenbank, die dabei entstanden ist, im Sinne von Open Data nicht zugänglich. Die Grafik weist aus meiner Sicht einige konzeptionelle Schwächen auf:

Netzwerk AfD: Eine Grafik will zu viel weiterlesen

Die Vermessung des TV-Programms

Das “TV Meter” – ein nicht realisiertes Datenjournalismusprojekt aus meiner Schublade

Gefühlt besteht das Angebot des öffentlich-rechtlichen Fernsehens aus Quizshows, Krimis, Sport und Schlagersendungen plus etwas Nachrichten, Politiksendungen sowie Talkshows.

Derlei Gefühle ließe sich recht einfach mit Zahlen unterfüttern: Das Fernsehprogramm kommt seit eh und je in Tabellenform daher. Vor allem die ARD macht es einfach, ihr Programm auszulesen:

http://programm.ard.de/TV/Programm/Sender?datum=09.01.2018&hour=0&sender=28106

Unter dieser URL findet sich das Programm der ARD für einen Tag. Die Struktur der URL macht deutlich, dass es simpel sein dürfte, zurückliegende Tage bzw. zukünftige aufzurufen. Offenbar scheint das komplette Programm über den Parameter “datum” seit 2011 und 40 Tage im Voraus abrufbar zu sein.

Auch deutet der Parameter „sender“ in der URL an, dass sich andere Sender abrufen lassen: Neben allen 3. Programmen finden sich auch die Programme von Phoenix, arte, Kika, One, ARD-alpha und tagesschau24.

Die Vermessung des TV-Programms weiterlesen

Algorithmic Accountability: Der nächste Schritt für den Datenjournalismus

Algorithmic Accountability ist ein im Entstehen begriffenes Subgenre des Datenjournalismus. Der Ausdruck wurde durch den Journalismusforscher Nicholas Diskopoulus etabliert. Sein Bericht „Algorithmic Accountability Reporting: On the Investigation of Black Boxes“ erschien Anfang 2014. Er skizziert eine neue Aufgabe für Journalisten: Sie sollten Softwaresysteme als Gegenstände der Berichterstattung verstehen. Dabei kann reine Transparenz nicht das Ziel sein – meistens hilft es nicht, nur auf den Programmiercode der Software so genannter Künstlicher Intelligenz (AI) oder Machine Learning zu schauen. Ohne die Datensätze, mit denen diese Systeme trainiert werden, kann ihre Funktionsweise nicht verstanden werden. Deshalb setzt Algorithmic Accountability auf Nachvollziehbarkeit.

Im Unterschied zu „traditionellem“ Datenjournalismus, der mit manuell oder automatisiert gesammelten Datensätzen operiert, kümmert sich Algorithmic Accountability darum, wie Daten verarbeitet und/oder generiert werden. Ein gutes Beispiel ist die Arbeit von Pro Publica in der Serie „Machine Bias“ aus dem Jahr 2016. Unter anderen untersuchte die Redaktion eine im Strafprozesserfahren der USA weitverbreitetete Software, die bestimmt, ob ein Verurteilter Bewährung erhalten sollte. Sie fand heraus, dass diese Software Rassismus reproduziert. Die verantwortliche private Softwarefirma war nicht bereit, die Funktionsweise der Software im Detail offenzulegen. Pro Publica gelang es durch eine Informationsfreiheitsanfrage, Daten zu Verurteilen zu erhalten und betrieb auf dieser Grundlage eine Art “Reverse Engineering” (Nachkonstruktion) des Softwaresystems.

Algorithmic Accountability ist der nächste logische Schritt in einer Welt des automatisierten Entscheidens (Automated Decision Making – ADM): Demokratische Gesellschaften, die vermehrt durch und mit Software regiert werden, müssen in der Lage sein, solche „Maschinen“ zu verstehen und kontrollieren.

Deutsche Fassung meines englischsprachigen Beitrags im Data-Driven Advent Calender von Journocode. Ein ausführlicher Text von mir zu Algorithmic Accountability findet sich bei der Bayerischen Landesmedienanstalt: “Rechenschaft für Rechenverfahren