Foto von Euthman (by-nc-sa)
Zeitungssterben ist mittlerweile ein alter Hut. Was aber auf uns zukommt ist Webseitensterben. Onlinemedien, Nachrichten- und Zeitungswebsites werden es zukünftig noch schwerer haben. Das faktische Ableben von netzeitung.de vor einiger Zeit war davon nur ein Vorbote. Die Zwickmühle, tragfähige Erlösmodelle zu entwickeln, bevor sie Ertrag bringen; die Notwendigkeit, in Vorleistung zu gehen, wird noch größer durch schema.org, meint Journalist und Datenforscher Lorenz Matzat.
Die neue Auszeichnungssprache schema.org haben Anfang Juni Google, Bing und Yahoo Anfang in ungewohnter Allianz etabliert. Sie besteht bislang aus rund 300 Elementen, mit denen sich im HTML-Code der Seite Informationen wie Orte, Personen, Veranstaltungen, Produkte auszeichnen lassen. Der Besucher der Website selbst sieht das nicht, aber die Suchmaschinen, die in regelmässigen Abständen große Teile des Internets immer wieder indexieren, kartieren, „crawlen“ – sie profitieren davon.
schema.org könnte sich als wirklicher Startschuss für das Semantic Web, das Web 3.0 erweisen, das der WWW-Entwickler Tim Berners-Lee bereits 2001 skizzierte. (Allerdings freuen sich Aktivisten und Befürworter des Semantic Web nur bedingt über schema.org, das neben RDFa und den Microformats von HTML5 einen weiteren Standard etabliert. Mehr dazu in dem lesenwerten Artikel What schema.org means for SEO and beyond. Übrigens gibt es für Online-News auch ein extra RDF-Gerüst: rNews)
Es ginge den Suchmaschinenbetreibern darum, bessere Ergebnisse zu liefern, verharmlosen sie selbst ihre Intention. Faktisch dürfte ihre Motivation aber sein, noch besser automatisiert Content aus Webseiten auslesen zu können und als eigenen Inhalt in den Suchergebnissen zu zeigen. Und damit die User auf ihrer eigenen Seite zu halten und ihnen so länger die Werbung der eigenen Anzeigenkunden präsentieren zu können.
Eric Schmidt, mittlerweile im Verwaltungsrat von Google, sagte unlängst auf einer Konferenz: „Wir haben jetzt genug Künstliche-Intelligenz-Technologie und können ausreichend genug skalieren und so weiter, dass wir ihnen beispielsweise die richtige Antwort im wörtlichen Sinne berechnen können.“
In Ansätzen ist das seit einiger Zeit in den SERPs von Google schon zu erkennen (SERPS – Search Engine Result Pages). Suchen sie heute in einer großen Stadt nach „Kino & Stadtname“, bekommen sie bereits das Kinoprogramm angezeigt. Ähnliches gilt für Wetterinformationen, Wechselkurse oder Börsenkurse. Auch Preisvergleiche hat Google schon längst im Programm (Stichwort „rich snippets“). Auch wies der Kauf der Flugverbindungs-Website ITA Software durch Google im vergangenen Jahr daraufhin, dass sie Flüge bald direkt in der Suchmaschine suchen können.
Was heißt das nun für den Onlinejournalismus?
Was bedeutet es, wenn Google News demnächst nicht nur eine Übersicht über Nachrichtenartikel präsentiert, sondern automatisiert zusammengestellt die Nachricht selbst? Für Medienanbieter bedeutet schema.org zuerst einmal mehr Arbeit und Kosten. Sie müssen ihre Webseiten und Redaktionssysteme (CMS) anpassen, damit diese möglichst automatisch diese Auszeichnungen á la schema.org der Artikel und anderer Inhalte vornehmen. SEO, also Suchmaschinenoptimierung, von den großen Nachrichtenwebsites ohnehin betrieben, bekommt somit eine weitere Dimension.
Foto von Euthman (by-nc-sa)
Letztlich sind die meisten Newsseiten klickabhängig, da sie einen Teil des Traffics ihrer Seite über die unmittelbaren Suchergebnisse von Suchmaschinen generieren (die so genannten „organischen“ Ergebnisse). Ihnen bleibt nichts anderes übrig, als bei schema.org mitzumachen, wenn ihnen die „Einschaltquoten“ wichtig sind. Denn einen gemeinsamen Boykott aller journalistischen Angebote von schema.org wird es wohl kaum geben: Fängt einer an mitzumachen, müssen die anderen folgen. Und wenn nicht: Das Netz ist vielfältig genug, die faktische Unsichtbarkeit eines Teils der bestehenden Onlinemedien zu verkraften.
Das Dilemma: Journalistische Angebote sägen damit an dem Ast, auf dem sie zur Zeit sitzen. Wenn die Suchmaschinen Informationen gleich in mundgerechten Stücken geliefert bekommen, warum sollte der User die ursprüngliche Website, die Quelle der Nachricht, dann überhaupt noch besuchen und dort auf Anzeigen klicken? Eine Folge könnte sein – vielleicht nicht die schlechteste –, dass Onlinejournalismus, wie er zur Zeit besteht, in absehbarer Zeit der Vergangenheit angehören wird. Das bloße Reinpumpen von Content, das einfache Wiedergeben von Beiträgen der Nachrichtenagenturen, mit dem das eigene Angebot aufgebläht werden soll, wird nichts mehr bringen. (Siehe dazu auch die Analyse von Stefan Niggemeier über die Inhalte von stern.de: “Anatomie einer Attrappe”. Für diverse andere großen Nachrichtenseiten dürfte sich das ähnlich darstellen.)
Will man nun Suchmaschinen wie Google oder speziellen Angeboten wie Wolfram Alpha als Onlinemedium in Zukunft Paroli bieten, gibt es aber einen gangbaren Weg: Neben eigenem genuinen Content wie Reportagen, Analysen und Kommentaren gilt es, selber gute semantische Logiken zu entwickeln. Diese finden automatisiert neue Informationen, Wissen und Nachrichten auf anderen Seiten (auch in anderen Sprachen), bereiten diese auf und organisieren sie schlüssig. Es geht also um das derzeit gerne im Mund geführte Kuratieren von Informationen. Redakteure wird es weiterhin geben, aber ihre Arbeitsweise wird sich weiter verändern: Ihnen wird obliegen, die Parameter der Redaktionsrobotor zu justieren und die dann von Softwaremaschinen vorbereiteten Stücke mit einer eigenen Note zu versehen. (Siehe dazu auch: What does the journalist of the future look like?)
Dabei wird Datenjournalismus eine große Rolle spielen. Das junge Genre bringt die Werkzeuge und Methoden mit, um große Datenmengen zu erfassen, zu verknüpfen, zu filtern, zu strukturieren und in neuen Erzählformaten abzubilden. Das kommende Webseitensterben kann also zum Verschwinden der Dinosaurier des Internets führen. Schlimm für manches Geschäftsmodell. Der User aber kann dadurch gewinnen.
Anm.d.Red.: Der Text erschien gestern im Blog des Autors; er steht unter einer Creative Commons-Lizenz (by:sa).
34 Kommentare zu
das Dilemma gut auf den Punkt gebracht!
In diesem Sinne: nur wer seine Publikationsweise und -strategie verändert, der übersteht das "Sterben" jener, die nicht mitgehen etc.
( http://de.wikipedia.org/wiki/German_Angst )
( http://www.heise.de/tr/thema/Technikphobie )
Wie die Untersuchung von Stefan Niggemeier zeigt, sind viele Webseiten (und insbesondere die Zeitungen) schon Aggregatoren. D.h. es befindet sich viel doppeltes und überflüssiges auf ihnen.
Wenn semantische Techniken mir helfen Überflüssiges auszusortieren, dann find ich das gut.
In Zukunft wird noch mehr die einmalige und individuelle Nachricht zählen. Also, die reine Differenz.
Information is any difference, which makes a difference (Bateson). Und darum gehts doch, oder?
http://www.libinst.ch/?i=wider-die-technikphobie
http://www.freitag.de/community/blogs/brunopolik/die-politik-schafft-es-nicht-ein-diskurs-ueber-bildung-und-schule
"Faktisch dürfte ihre Motivation aber sein, noch besser automatisiert Content aus Webseiten auslesen zu können und als eigenen Inhalt in den Suchergebnissen zu zeigen."
[...]
"Will man nun Suchmaschinen wie Google oder spezielle Angeboten wie Wolfram Alpha als Onlinemedium in Zukunft Paroli bieten, gibt es aber einen gangbaren Weg: Neben eigenem genuinen Content wie Reportagen, Analysen und Kommentaren gilt es, selber gute semantische Logiken zu entwickeln. Diese finden automatisiert neue Informationen, Wissen und Nachrichten auf anderen Seiten (auch in anderen Sprachen), bereiten diese auf und organisieren sie schlüssig."
selbst wenn Suchmaschinen nun Ergebnisse semantisch intelligent kuratieren und das besonders potent können aufgrund von technischer Überlegenheit, so bleibt doch die wie "eigen" dieser Content ist. Wer selber semantische Logiken entwickelt, dürfte allein deshalb einen Wettbewerbsvorteil gegenüber den Datengiganten genießen, weil er/sie in der Lage ist, dem Kuratieren eine persönliche, individuelle oder wie auch immer geartete "eigene" Note zu verleihen.
Es kann also tatsächlich um die Angst vor den Maschinen gehen, sondern um die Überlegenheit einer mit Eigensinn ausgestatteten Liaison von Mensch und Maschine, die in Zukunnft Nachrichten und Geschichten hervorzubringen vermag.
http://media.aperto.de/google_epic2015_de.html
http://www.myspace.com/brunopolik/blog/543253316
Das spannendste, das ich in letztter Zeit zum Thema "Curating Journalism" gelesen habe ist von Roland Legrand:
"I’m sure that in 2026 there will be something we could call journalism: people who have a passion for certain subjects, making selections, verifying and commenting, providing context. The BBC already has a specialized desk analyzing images and texts which are distributed via social media: they check whether a specific picture could be taken where and when people claim it is taken, to give but one example. Almost every day there are new curating tools for journalists and bloggers, facilitating the use of social media.
This ‘curating’ of the news is an activity with high added value. Whether those curators call themselves ‘journalists’, ‘bloggers’, ‘newspaper editors’, ‘internet editors’ is not important: most important is the quality of the curation and the never-ending discussion about these practices."
...nachzulesen in:
( https://www.mixedrealities.com/2011/05/29/finding-reality-while-looking-through-code/ )
Er schreibt aber nicht nur darüber, sondern probiert die Tools auch aus (storify.com, scoop.it. pearltrees ..)
ein paar Links habe ich zusammengefasst in:
http://on.fb.me/lhhXMx
Es geht einerseits um Algorithen vs. Journalistische Intuition/ Genialität / persönliche Note / Überraschung (wie man auch immer den möglichen "Mehrwert" nennen mag :-)
( http://www.netzpiloten.de/2011/05/24/die-intuitionspumpe-filter-bubble-blase/ )
und die Moral?
"And the thing is that the algorithms don’t yet have the kind of embedded ethics that the editors did [the human gatekeepers]. So if algorithms are going to curate the world for us, if they’re going to decide what we get to see and what we don’t get to see, then we need to make sure that they’re not just keyed to relevance. We need to make sure that they also show us things that are uncomfortable or challenging or important […] other points of view."
( http://medea.mah.se/2011/04/social-curation-selection-mechanisms-and-transparency/ )
... aber was die Aggregations-Tools betrifft, so interessiert micht hautpsächlich gerade ein extrem persönlicher / zugesptitzter .. meinetwegen auch "poetischer" Gebrauch .. merke ich gerade bei der Diskussion ...
@#29: bleibt doch aber immer noch die Frage, was dieses Stück human-erratischer Differenz in diesem Zusammenhang in der Praxis konkret bedeutet (siehe auch #24), also wie es zu praktizieren ist, oder
"... ournalists and media companies are increasingly treating the Web of user-generated content as an archive to curate. That is, they see the vast amounts of free content – videos, blog entries, comments, and pictures – as a tremendous source of value. They then select material from this archive and re-present it to their viewers and readers. In this way, they are doing a service "
http://digitalresearchers.org/2009/07/journalists-and-web-2-0-curating-the-archive.html
es ist so eine Sache mit dieser schönen Idee...
wie gerade bei DW-World zu lesen ist: "World needs journalists now more than ever, says expert"
( http://www.dw-world.de/dw/article/0,,6549817,00.html )
damit sind v.a. die klassischen, professionell ausgebildeten Journalisten gemeint.
Aber noch etwas anderes: Organisationen, die sich den Schutz der Journalisten auf die Fahnen geschrieben haben, also etwa Schutz gegen Zensur, Einkerkerung, etc. --- diese Organisationen positionieren sich eindeutig gegen die Erweiterung des Feldes, gegen die Aufnahme von Amateuren und Bloggern in diesem Lager. Kurz: Sie schützen auch die Idee vom herkömmlichen Journalisten.
...als ich einige LInks für einen workshop schnell zusammengestellt habe ... dort gibt es einen Button "Curate", der Medienmaterial nach bestimmten Schlagworten aggregiert ( in meinem Fall "revoution, social media, politik, kampagnen" ... ganz interessant :-)
http://www.scoop.it/t/socialmediapolitik