"Algorithmus" war einmal ein unschuldiges, ein bisschen langweiliges Wort, so ähnlich wie "Grammatik" oder "Multiplikation". Frank Schirrmacher widmete ihm 2009 ein Kapitel in "Payback", beschränkte sich aber auf eine ausführliche Erklärung, was so ein Algorithmus für ein Vogel sei. In der Presse tauchte das Wort auch weiterhin nur dann auf, wenn jemand sagen wollte, dass da etwas Kompliziertes in einem Computer vorging, was man aus Rücksicht auf den Leser jetzt nicht so genau erklären mochte.
Von Algorithmen berechnete Empfehlungen - wie hier bei Amazon - treffen nicht immer ins Schwarze. Die Kritik daran ist jedoch oft zu einfach.
(Foto: Screenshot von amazon.de)So ging das bis zum Frühjahr 2010. Dann hielt die Kommunikationswissenschaftlerin Miriam Meckel einen Vortrag in Berlin, in dem sie den Vormarsch der Algorithmen und das Verschwinden des Zufalls beklagte. Wenige Tage später kritisierte Schirrmacher in der FAZ, dass nach dem Ausbruch des Eyjafjallajökull der Luftverkehr aufgrund von Simulationen und "sozialen Algorithmen" stillgelegt wurde.
Seither ist kein Monat ohne großen Feuilletonbeitrag über das unbeaufsichtigte Treiben der Empfehlungs- und Filteralgorithmen vergangen, und seit dem Erscheinen von Eli Parisers Buch über die "Filter Bubble" Mitte 2011 ist "Algorithmus" auf dem besten Weg zum Schulhofschimpfwort. Zuletzt verdammte der Medientheoretiker Geert Lovink vor wenigen Wochen die "Arroganz" der "rücksichtslosen Algorithmen".
Auch Geisteswissenschaftler müssen Algorithmen jetzt ernst nehmen
Diese schlechte Presse bedeutet aber auch: Die Algorithmen sind besser geworden, so viel besser, dass auch Geisteswissenschaftler sie ernst nehmen. Das Argument "Menschen treffen bessere Entscheidungen als Maschinen, und so wird es immer bleiben" reicht nicht mehr, man muss jetzt fundiertere Kritik üben. Und das ist gar nicht so einfach.
Zwei Probleme sind es vor allem, die die feuilletonistische Algorithmenkritik behindern. Zum einen sind viele dieser Algorithmen - und es sind gerade die, mit denen Teilzeitinternetnutzer in Berührung kommen - nicht besonders ausgefeilt. Amazon empfiehlt mir regelmäßig den Kauf meiner eigenen Bücher, Google+ schlägt seinen Nutzern vor, sich mit ihren eigenen Zweit-Accounts zu befreunden. Aus diesen schlechten Erfahrungen lässt sich aber noch nichts Allgemeingültiges über maschinell erzeugte Filter und Empfehlungen ableiten. Und zum anderen beruht das Misstrauen der Algorithmenkritiker selten auf konkreten Erfahrungen oder technischem Verständnis.
Wo Miriam Meckel irrt
Miriam Meckels Argument, Empfehlungs- und Filteralgorithmen verlängerten nur auf langweilige Weise die Vergangenheit eines Menschen in dessen Zukunft, beruht auf einer irreführenden Prämisse, nämlich ihren Erfahrungen mit der iTunes-Funktion "Genius". Genius erzeugt automatisch eine Playlist aus Songs, die dem gerade gehörten ähneln, und Meckel beklagt: "Aus unserer Vergangenheit und unserem früheren Verhalten wird unser mögliches zukünftiges Verhalten errechnet. Das bedeutet, wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen."
Genius aber kann dem Hörer nichts vorspielen, was sich nicht bereits auf dessen Festplatte befindet. Es bringt nur die Stücke aus der eigenen Musiksammlung in eine gefällige Reihenfolge und behauptet auch nichts anderes, denn iTunes ist nun mal kein Radio. Neues kann bei Genius nur am Rande als Kaufempfehlung auftauchen. Diese Empfehlungen beruhen ebenso wie die Zusammenstellung der Playlist aus dem Vorhandenen auch auf den Nutzungsdaten, die andere iTunes-Nutzer dem Dienst (anonymisiert) zur Verfügung stellen können.
Es gibt eine Vielzahl anderer Angebote, die genau die von Meckel geforderten neuen Impulse bereitstellen - eigentlich tut das praktisch jeder Musikdienst, der nicht Genius heißt. Davon abgesehen ist es technisch kein Problem, neuere Daten beim Erzeugen von Empfehlungen stärker zu gewichten. Sobald ein Empfehlungssystem über Daten aus einem längeren Zeitraum verfügt, wird es genau das tun.