Monthly Archive for November, 2008

Social Media Marketing in Deutschland

Wie lassen sich soziale Medien für Marketingzwecke einsetzen? Das Buch “Groundswell” von Charlene Li und Josh Bernoff ist voll mit Beispielen davon und die Listen von Peter Kim oder Jeremiah Owyang, der auch eine sehr spannende Liste mit Negativbeispielen (“Brands that Got Punk’d by Social Media”) pflegt, scheinen von Tag zu Tag länger zu werden.

Und hierzulande? Auch in Deutschland bemerken immer mehr Unternehmen, dass mit dem Anbruch des Internetzeitalters auch neue Formen der Kommunikation mit den Leuten erforderlich wird: Brand Communities, Netnography und Social (Media) Marketing sind Schlagworte, die auf diese neue Wahrnehmung hinweisen. Das Ziel klingt auf dem ersten Blick gar nicht so abgefahren: den Leuten zuhören, sie versuchen zu verstehen und mit ihnen in ein Gespräch kommen, von dem beide Seiten profitieren können. Was das aber impliziert, wenn man es ernst meint, kann man kaum unterschätzen: Ich finde, Kai-Uwe Hellmanns Formulierung einer “Unternehmenskulturrevolution” trifft das sehr gut.

Es folgt eine Liste von Beispielen für Social (Media) Marketing aus dem deutschsprachigen Raum (Ergänzungen in die Kommentare oder per Twitter an mich):

UPDATE (3.12.2008): Neue Fallbeispiele von Coca Cola, Daimler Benz, Deutsche Telekom, General Motors, Herbert-von-Halem-Verlag, Klett-Cotta, Pons
UPDATE (9.12.2008): Neue Fallbeispiele von Cirquent, Nike, Siemens, Tele 5, Zanox

Aber das können noch nicht alle gewesen sein. Wer fehlt?


Verwandte Artikel:
  • Amerikaner wünschen sich mehr Social Media im Kundendialog
  • Update zur AG Social Media
  • 50.000 Unterschriften gegen Internetzensur
  • Studium 2.0: Vertrauen Studenten der Wikipedia?

    Wie sieht es mit der Wikipedia-Nutzung der Studierenden in Deutschland aus? Diese Frage lässt sich mit den Daten des aktuellen Hisbus des Hochschul-Informations-Systems über die Internetnutzung von Studenten beantworten (pdf hier).

    Gefragt, welche “Wissensplattform” (schön allgemein ausgedrückt, dass von der Britannica bis zu Wissen.de alles hinein gepackt werden kann) am verlässlichsten sei, antworteten 52% der Studierenden, dass sie der Wikipedia vertrauen oder sogar sehr vertrauen. Sehr viel weniger Vertrauen schenken die Studenten der Spiegel Wissen (34%) oder Zeit Online (34%), MS Encarta (29%), Meyers Lexikon Online (27%), Encyclopaedia Britannica (26%) und Wissen.de (14%). Allenfalls das Onlinewörterbuch LEO (49%) kommt noch in die Nähe der Wikipedia.

    Die Autoren der Studie warnen jedoch davor, dies als Beleg für das große Vertrauen der Studierenden in nutzergenerierte Inhalte zu sehen. Die Prozentzahlen beziehen sich nämlich nicht nur auf die fünfstufige Skala von “sehr verlässlich” bis “überhaupt nicht verlässlich”, sondern auch auf die Restkategorie “kann ich nicht beurteilen”. Sieht man sich auch diese Zahlen an, dann wird deutlich: Für die Studierenden gibt es nur eine Wissensplattform, und die heißt Wikipedia. Weniger als ein Prozent fühlen sich nicht imstande, die Zuverlässigkeit der Online-Enzyklopädie zu beurteilen. So sieht Marktbeherrschung aus. Bei der Encyclopaedia Britannica sind es 70%, Wissen.de 68%, Meyers Lexikon 67%, MS Encarta 57%, Zeit Online 55%, Spiegel Wissen 51%, Auch hier liegt Leo mit einem Wert von 35% ziemlich weit vorne.

    Ich habe ein bisschen mit den Zahlen gerechnet und diejenigen ausgeklammert, die sich nicht in der Lage sehen, die Glaubwürdigkeit zu beurteilen. Das Ergebnis sieht folgendermaßen aus:

    Nun liegt die Wikipedia weit abgeschlagen hinter den meisten anderen Angeboten und auch für LEO sieht es nicht mehr so gut aus. Diese Pointe der HISBUS-Zahlen hat z.B. die Zeit gar nicht mitbekommen. Ich würde das so interpretierenj: Die Benutzung von Wikipedia gehört für die meisten Studenten mittlerweile zum Studienalltag dazu. Das Nachschlagen dort ist zur Routine geworden, die nicht mehr hinterfragt wird, so dass auch die eher als schlecht wahrgenommene Zuverlässigkeit (wobei insgesamt mehr Studenten die Wikipedia als zuverlässig beurteilen denn als nicht zuverlässig) keine große Rolle mehr spielt.

    Interessant ist auch der Blick auf das Wikipedia-Vertrauen der unterschiedlichen Studienrichtungen:

    Die besten Zuverlässigkeitswerte (“zuverlässig” und “sehr zuverlässig”) bekommt die Wikipedia von den Studenten technischer Studiengänge wie Agrarwissenschaften, Medizin, Ingenieurswissenschaften und Medizin. Die Geistes- und Sozialwissenschaften sind da deutlich skeptischer und den Lehramtsstudenten scheint man in ihrer Ausbildung einzuschärfen, ja die Finger von diesem Teufelszeug zu lassen ;-)

    Trotz der intensiven Wikipedia-Nutzung der Studierenden (80% lesen “häufig” oder “sehr häufig” Artikel dort) wird nahezu überhaupt nicht daran mitgearbeitet. Vergesst die 90-9-1-Regel. Die Arbeit an der Wikipedia – ganz egal, ob es um das Schreiben neuer, das Überarbeiten alter Beiträge geht oder um die Beteiligung an Diskussionen geht – findet im Promillbereich statt.

    Hier sehe ich deutlichen Nachholbedarf in der akademischen Lehre. Anstatt zum tausendsten Mal das Thema “Theorievergleich Max Weber und Emil Durkheim” in einem soziologischen Grundkurs zu vergeben, sollte den Studierenden die Aufgabe gestellt werden, den entsprechenden Wikipediaartikel signifikant zu verbessern. Dabei sollte auf jeden Fall auf das Wikipedia-Mentorenprogramm hingewiesen werden. Je besser der Artikel schon ist, desto anspruchsvoller wird diese Aufgabe. Wenn das Ergebnis dann ein lesenswerter Enzyklopädieartikel ist, haben alle etwas davon.

    Mein Vorschlag: Der Partizipationsgrad an Wissensprojekten wie der Wikipedia sollte als Indikator in die bestehenden Hochschulrankings eingeführt werden. Ich würde gerne eine Liste der Universitäten in Deutschland sehen, geordnet nach ihrem studentischen Wikipediaengagement. Niedrige Studienabbrecherquoten, hoher Anteil ausländischer Studenten – alles schön und gut, aber es fehlt in den Bildungsberichten ein Maß dafür, wie unsere Universitäten über Plattformen wie die Wikipedia zum allgemein verfügbaren Wissen beitragen. Frau Schavan, ich warte!

    Welche anderen Ideen und Modelle gibt es, um die Wikipedia-Partizipation an den deutschen Unis zu fördern? Wer ist schon einmal in einem Seminar gewesen, in dem an der Wikipedia gearbeitet wurde?



    Verwandte Artikel:
  • Befragung von Hochschulrektoren und -präsidenten
  • Wer vertraut wem? Firmenblogs genießen besonders wenig Vertrauen
  • Welchem Medium vertrauen die Leser?
  • Wie ernst meint es die Wissenschaft mit dem Dialog?

    Im September habe ich auf dem Symposium für Wissenschaftskommunikation einen Vortrag zum Thema Blogs als Instrumente der Wissenschaftskommunikation gehalten. Jetzt ist die ausführliche Tagungsdokumentation erschienen. Dort findet man auch eine gute Zusammenfassung meines Vortrags.

    Ein zentraler Punkt ist für mich die Möglichkeit, mit Wissenschaftsblogs Dialoge mit der Öffentlichkeit zu führen. Oft wird dieser Begriff gerade im Bereich der Wissenschaftskommunikation falsch verstanden, so dass schon das allgemeinverständliche Umformulieren wissenschaftlicher Forschungsergebnisse als Dialog bezeichnet wird. Ist es aber noch lange nicht.

    Dialog bedeutet nämlich nicht nur die Ansprache eines Publikums, sondern auch

    • diesem Publikum zuzuhören, also zum Beispiel Blogs und Foren zu lesen, in denen über mein wissenschaftliches Fachgebiet oder meine wissenschaftliche Organisation, ganz gleich ob Forschungsinstitut, Universität oder Fördereinrichtung, gesprochen wird,
    • dieses Publikum und seine Kommunikationen zu verstehen, also nicht nur zu registrieren, dass ein Thema in den sozialen Medien eine Rolle spielt, sondern dahinter blicken, welche Bedeutungen damit assoziiert werden und auch welche Personen es sind, die sich darüber austauschen und dann vor allem
    • mit dem Publikum zu sprechen. Nicht an das Publikum, sondern mit dem Publikum. Das heißt: Fragen auf Twitter beantworten, bei Bedarf Links zu vertiefendem Material zu schicken. Noch schwieriger, aber ebenso wichtig:
    • als authentische Person auftreten. Wissenschaft ist kein anonymer Prozess, sondern wird von Menschen gemacht. Gerade im Fall von social media ist es möglich und wichtig eine eigene Stimme zu entwickeln, die sich nicht wie eine Pressemitteilung liest und auch nicht wie eine Vorlesung, sondern wie ein nettes Gespräch in der Kaffeepause einer Tagung.

    Dann zeigt sich, wie ernst es die wissenschaftlichen Organisationen mit dem Dialog meinen. Geht es nur darum, sich und der eigenen Organisation durch ein möglichst breites kommunikatives Sperrfeuer einen Platz im Diskurs zu besetzen? Oder besteht ein echtes Interesse daran, mit der Außenwelt in ein Gespräch einzusteigen? Ich sehe social media wie Blogs, Foren, Twitter und Social Networks hier als eine Art Lackmustest für die Dialogfähigkeit der Wissenschaft.



    Verwandte Artikel:
  • Wissenschaftkommunikation und Mediendialog
  • Wissenschaft im Dialog – welche Rolle spielen Blogs?
  • Corporate Twitter: Die Liste
  • Von Obama lernen: Die drei Grundsätze der Politik 2.0

    Im Zusammenhang mit dem furiosen Social-Media-Wahlkampf von Barack Obama wurde immer wieder versucht, das ganze auf Deutschland zu übertragen. Oder zumindest Anregungen dafür zu bekommen, wie man erfolgreiche Wahlkämpfe im sozialen Netz führt.

    Ebenso häufig wurde angemerkt, dass sich die Erfahrungen der Obama-Kampagne nicht übertragen lassen, schon gar nicht eins-zu-eins. Zu einmalig war der Kontext 2008 und zu unterschiedlich sind die Parteien- und Mediensysteme der USA und Deutschland.

    Ich bin jedoch überzeugt, dass man nur nur ein wenig abstrahieren muss, um auch für den deutschen Kontext Anregungen für den “Wahlkampf 2.0″ gewinnen zu können. Angeregt durch Josh Bernoff’s Beobachtungen von Obamas Übergangsseite change.gov hier nun drei zentrale Punkte, die dazu beitragen können, den Rahmen für eine Art politische “Brand Community” zu schaffen:

    1. Informationen nicht nur verbreiten, sondern auch einsammeln. Weg von der Einbahnstraßenkommunikation (Pressemitteilungen, News, Videocasts) und hin zum aktiven Zuhören, Anregen und Einholen von Kommunikationen – nicht nur der Befürworter, sondern auch der Kritiker. Ganz gleich, ob das per Forum, Twitter, Social Network, Blog oder Widgets geschieht. Je niedriger die Partizipationsschwelle, desto besser. Social-Networks für Parteien wie myFDP, CDUnet oder meineSPD sind wichtig, aber nicht für die Kommunikation mit der breiten Öffentlichkeit, dem Souverän, geeignet.
    2. Die eingesammelten Informationen dürfen nicht verschwinden. Das Ergebnis eines klassischen Kontaktformulars lautet “Vielen Dank für Ihre Nachricht!” Für den Nutzer, der hier bereits den Schritt vom Rezipienten zum Produzenten geschafft hat, bleibt völlig unklar, was mit seinem Beitrag passiert. Noch schlimmer: andere (potentielle) Nutzer bekommen davon gar nichts mit. Deshalb: Den Input am besten gleich für alle sichtbar anzeigen.
    3. Die Organisation schweigt nicht, sondern reagiert auf die von den Nutzern geposteten Anregungen. So wichtig die Diskussionen der Nutzer untereinander auch sind – die Organisation (egal ob Partei, Verband oder Verein) oder die Kandidatin sollte nicht schweigen, sondern durch ihre Reaktionen zeigen, dass die Beiträge der Nutzer nicht nur zur Kenntnis, sondern Ernst genommen werden.

    Diese drei Punkte stellen für mich so eine Art Minimalprogram von Politik 2.0 dar. Eine Kampagne, die diese drei Handlungsleitlinien nicht ernst nimmt, sollte man nicht als Social-Media-Kampagne bezeichnen. Und in Feldern, in denen man sich diese kommunikative Offenheit nicht leisten kann oder will, sollte man vielleicht auch gar nicht erst versuchen, “zwonullig” zu wirken. Aber ich bin sehr optimistisch, dass es genügend Felder gibt, auf denen diese Dialoge möglich sind. Auch in Deutschland.



    Verwandte Artikel:
  • Die We-Generation wählt
  • Schwarz-gelb-rot
  • Kein Besucher bleibt ewig! Zeitungen sollen sich nicht neu erfinden, sondern das Verlinken lernen
  • Die reichweitenstärksten Webseiten nach AdPlanner

    Ende August hatte ich schon einmal einen Blick auf die Reichweitenzahlen des neuen Google-Instruments “AdPlanner” geworfen und auch mit den AGOF-Zahlen aus den internet facts verglichen. Im großen und ganzen lagen die Zahlen nicht allzu weit auseinander. Der große Vorteil der Googlezahlen liegt zum einen darin, dass hier auch Vergleichsangebote ausgewiesen werden, die keine Werbeflächen bereitstellen bzw. nur eigene Produkte bewerben. Zum anderen gehen diese Zahlen auch in den long tail. Auch für kleine Angebote gibt es regelmäßig aktualisierte Zahlen.

    Mittlerweile wurden die Google-Zahlen zwei mal aktualisiert, so dass sich jetzt auch die zeitliche Entwicklung dieser Webseiten darstellen lässt (Klick zum Vergrößern):

    Bis auf AOL und StudiVZ haben alle Angebote im Vergleich zum August Reichweite eingebüßt, aber einige (z.B. T-Online, GMX, DasTelefonbuch.de, mobile.de oder MeineStadt) konnten ihr “Septembertief” überwinden und wieder leicht zulegen. Die Werte von Mozilla.com fluktuieren zu stark, um sinnvoll interpretiert zu werden.

    Außerdem gibt es seit kurzem auch für deutsche Webseiten demographische Angaben. Zuvor konnte man sich nur für US-Angebote einen Eindruck davon verschaffen, welches Geschlecht, Alter, Einkommen und Bildungsstand die Besucher einer Webseite haben. Bei kleinen Angeboten wie zum Beispiel diesem Blog (3.900 Unique Visitors in Deutschland und 9.500 Page Views) sieht man deutlich, dass die Zahlen auf einem sehr kleinen Sample beruhen müssen: 100% der Besucher haben ein Haushaltseinkommen von unter 18.000 € und alle Besucher fallen in die Altersgruppe von 25 bis 34.

    Auch wenn diese Zahlen noch lange nicht die Präzision von ivw-vermessenen Zugriffszahlen besitzen, scheinen sie für viele Angebote gut genug zu sein, um ein Gefühl für die quantitative Reichweite zu bekommen. Die spannenden Fragen lauern freilich jenseits dieser Zahlen: Wer sind die Nutzer dieser Seiten? Welche Interessen haben sie? Wie sind sie mit anderen vernetzt? Was hat sie auf die Seiten geführt? Welchen Einfluss – sowohl innerhalb des Web als auch außerhalb – haben die Inhalte, die hier angeboten werden? Welche Glaubwürdigkeit und Authenzität wird damit verbunden? Die spannende Frage gilt wie so oft den Bedeutungen, die hinter der bloßen Reichweite steckt. Darüber schweigen sich diese Zahlen leider aus.



    Verwandte Artikel:
  • Google AdPlanner: Das Ende der Online-Mediaplanung?
  • Twitter überholt die NY Times
  • Zeitungen springen auf den Web 2.0-Zug auf
  • Die Suche nach dem Social Media Dashboard

    Social-Media-Monitoring ist derzeit hoch im Kurs. Immer mehr Unternehmen, Parteien und Journalisten bemerken, dass man nicht nur durch Fokusgruppen und Panels etwas darüber erfahren kann, was über sie gedacht oder geredet wird, sondern dass diese Gespräche an zahlreichen Orten des Internets bereits stattfinden. In Foren, Blogs, Social Networks oder Chatrooms. Übrigens schon lange – vermutlich schon so lange, wie es das Internet gibt. Nur war es in den Anfangszeiten des Web 1.0 nur eine ganz kleine Zahl ganz spezieller Personen, die sich über dieses Medium austauschten: “Internet-Freaks”. Also der Legende nach Chips-futternde, korpulente männliche Technikjünger mit langen Haaren. Ihre Meinung zählte nicht.

    Mittlerweile ist die Internetdurchdringung jedoch so stark angestiegen, dass aus Sicht von Politik, Unternehmen und Presse auch ganz normale Menschen dieses Medium nutzen. Dazu kommen dann noch neue Technologien, die es eben diesen Leuten ermöglichen, sich ohne technisches Know-how im Internet auszudrücken – Social Web oder Web 2.0 sind die mehr oder weniger eleganten Formeln, mit denen diese Entwicklung bezeichnet wird. Kurz: Es wird immer interessanter, zu erfahren, was die Leute im Internet über Parteien, Politiker, Produkte, Marken, Unternehmen oder auch nur andere Personen sprechen. Die Suche nach dem Social Media Dashboard hat begonnen.

    Gesucht wird ein Interface für das Social Web, auf dem in Echtzeit zum Beispiel abgelesen werden kann,

    • wie oft über eine Partei, Marke etc. gesprochen wird (“Buzz”)
    • was über sie gesagt wird (“Content”)
    • welche Bedeutungen dahinter stecken (“Sinn”)
    • welche Werturteile in den Konversationen auftauchen (“Bewertungen”)
    • wer darüber spricht (“Zielgruppen”)
    • wie diese Gruppen konstituiert sind (“Brand Communities”)
    • welche Personen in den Gesprächen eine besondere Rolle spielen (“Einfluss”)
    • wie sich das alles über die Zeit verändert (“Wandel”)
    • wie schnell sich die Gespräche ausbreiten (“Viralität”)
    • wie diese Veränderungen mit anderen Ereignissen zusammenhängen (“Kontext”)
    • wie sich die Veränderungen weiter entwickeln könnten (“Trends”)
    • … und das alles dann auch noch ansprechend und anschaulich dargestellt (“Visualisierung”)

    Noch gibt es ein derartiges Social Media Dashboard noch nicht und insbesondere der qualitativ-verstehende Aspekt (die “Sinndimension” der Social Media Analyse) lässt sich derzeit nur mit vergleichsweise aufwändigen und noch nicht echtzeitfähigen Methoden wie der Netnography erfassen. Und die Trendforschung steht auf diesem Gebiet noch auf sehr wackligen Beinen. Aber früher oder später werden die Marketing-, Kommunikations- und Customer-Support-Abteilungen solche Tools wie selbstverständlich für die Planung, Überwachung und Evaluierung ihrer KampagnenInitiativen verwenden.

    Einen kleinen Vorgeschmack liefert das Tool Perspctv, mit dem sich immerhin schon der Buzz auf sehr vielen unterschiedlichen Kanälen in Echtzeit verfolgen lässt:

    Man kann sich ein ähnliches Dashboard auch für selbst gewählte Begriffe erstellen lassen, zum Beispiel um den Social Media-Buzz von Audi, VW und BMW miteinander zu vergleichen. Aber verglichen mit der obigen Liste potentieller Bestandteile eines Social Media Dashboards ist das dann noch ziemlich wenig Information.



    Verwandte Artikel:
  • Creative-Commons-Blogs – ein Erfolgsgeheimnis?
  • Update zur AG Social Media
  • Marktforschung und Social Media
  • Die We-Generation wählt

    Die heutige Wahl des 44. Präsidenten der USA ist eine Internet-Wahl. Wer Twitter, Friendfeed und natürlich auch die amerikanische Blogosphäre aufmerksam beobachtet hat, wusste es schon etwas länger, aber jetzt dürfte es auch dem durchschnittlichen 61jährigen ZDF-Gucker auffallen: drei von fünf der Interviewpartner, die sich in der langen ZDF-Wahlnacht mit Anchor Claus Kleber die Zeit vertreiben, sind Blogger. Felix Schwenzel, Marcus Skelton und Christoph Bieber dürfen die Reaktionen im Netz deuten. Sogar externe Links hat das ZDF dafür angelegt.

    Besonders spannend sind jedoch Echtzeitmedien wie Twitter, die es ermöglichen, gleichzeitig aus unterschiedlichen Teilen der USA Meldungen zur Wahl zu sammeln und zu publizieren. Das Fernsehen ist nur in Ausnahmefällen wie einer solchen Wahlnacht live dabei und gehorcht zudem einer sequentiellen Logik. Wenn mich ein Lagebericht aus Ohio interessiert, im Fernsehen aber gerade ein Korrespondent aus Florida berichtet, muss ich warten. Ich will aber nicht warten.

    Auf TwitterVoteReport kann man zum Beispiel sehen, wie lange die Wartezeiten in den Wahllokalen gewesen sind und ob den Wählern dort irgendetwas aufgefallen ist:

    Twitter VoteReport

    Auf Twitpic gibt es im Minutentakt Fotos von leeren oder ausgefüllten Stimmzetteln wie zum Beispiel hier oder von den Schlangen vor den Wahllokalen. Das ist eine neue Art von Authentizität. Keine Fernsehkameras, die ein möglichst eindrucksvolles Bild zusammenstellen, sondern ein Twitternutzer, der gerade zur Wahl geht, in der Schlange steht und mit seinem Handy ein Foto macht. Ein unmittelbarer Eindruck.

    Am schnellsten ist aber natürlich der Twitter-Wahlfeed, auf dem alle Tweets zur Wahl aggregiert werden. Auf den ersten Blick sieht das wie ein gewöhnlicher Ticker aus. Aber es ist nicht eine Nachrichtenredaktion, die bestimmt, welche Nachrichten in welchen Abständen gepostet werden, sondern es sind Twitternutzer auf der ganzen Welt, die zu einem gewaltigen Massengespräch beitragen – ganz gleich, ob sie einfach nur Neuigkeiten posten, kommentieren oder sich mit anderen darüber austauschen. Was der Ticker für die alte hierarchische Nachrichtenwelt war, ist dieser Dialogstream für den Schwarm oder die Noosphäre:

    Election Twitter

    Sogar Wahlumfragen werden per Twitter durchgeführt. Auf TwitVote liegt beispielsweise Barack Obama mit 15.370 Stimmen zu 2.719 Stimmen für John McCain weit in Führung:

    Oder man zählt die Tweets, die sich für Obama oder McCain aussprechen, sortiert sie nach Staaten und kommt dann zu folgendem Ergebnis (blau = Obama, rot = McCain):

    Dialup-Internetnutzer scheinen dagegen sehr viel konservativer zu sein. Eine entsprechende – ebenso wenig repräsentative – Umfrage unter AOL-Nutzern zeigt eine ebenso klare Mehrheit für McCain:

    Durch all diese digitalen netzförmigen Kommunikationsmedien ist es möglich, den Wahlabend – bei uns eher: die Wahlnacht – gemeinsam mit Hunderttausenden zu verbringen. Und anders als in der berühmten Redewendung von den “Millionen vor den Fernsehgeräten” gibt es hier tatsächlich die Möglichkeit, zu interagieren, Fragen zu stellen und die Vorgänge zu kommentieren. Warum also nicht zum Beispiel in diesem Thread die Wahlnacht über mit Bruce Schneier über die Sicherheit von Wahlautomaten diskutieren? Oder mit Dave Winer im Election-Day-Chat? Oder auf Twitter?



    Verwandte Artikel:
  • Enter-Polls statt Exit-Polls?
  • Metadaten in Tageszeitungen – oder: wie man Merkel und Putin verwechseln kann
  • Mit mobilen Anwendungen gegen die digitale Spaltung
  • Userdaten sind heilig – wie sieht es mit nutzergenerierten Risiken aus?

    Das ist doch einmal eine schöne Formulierung: “Userdaten sind heilig”. René Seifert (eLab) hat sich rechtlichen Rat geholt, wozu ein Social Media-Plattformbetreiber verpflichtet ist, wenn eine dritte Partei eine unliebsame Bewertung in einem Bewertungsportal erhalten hat und rechtlich dagegen vorgehen will. Muss ein solcher Plattformbetreiber die Nutzerdaten herausgeben oder nicht? Der Anwalt beantwortet die Frage klar mit “nein”. Eigentlich eine Selbstverständlichkeit, denn wer sachlich kritisiert wird, muss das in einer offenen Gesellschaft ertragen.

    Die Erklärungen des Juristen lauten wie folgt: Zum einen wäre die Ermittlung der Nutzerdaten (hier: ladungsfähige Anschrift) technisch aufwändig, zum anderen – und hier wird es spannend – ist der Plattformbetreiber dazu gar nicht befugt, will er nicht gegen die datenschutzrechtlichen Vorgaben z.B. in §12 Abs. 2. Telemediengesetz verstoßen. Dort heißt es nämlich:

    Der Diensteanbieter darf für die Bereitstellung von Telemedien erhobene personenbezogene Daten für andere Zwecke nur verwenden, soweit dieses Gesetz oder eine andere Rechtsvorschrift, die sich ausdrücklich auf Telemedien bezieht, es erlaubt oder der Nutzer eingewilligt hat.

    Wenn ein Benutzer allerdings in seiner Bewertung eine dritte Parte beleidigt oder verleumdet hat, kann freilich ein Richter die Herausgabe der Nutzerdaten anordnen.

    Ich habe allerdings auch schon von Fällen gehört, in denen falsche Behauptungen von Nutzern in Bewertungsportalen dazu geführt haben, dass die Nutzer (nicht die Plattformbetreiber!) eine kostenpflichtige Abmahnung erhalten haben. Klar: Unwissenheit schützt vor Strafe nicht, kann aber trotzdem genau den Falschen treffen und damit wichtige Mitglieder einer Community vergraulen.

    Hat sich daran mittlerweile auch schon etwas geändert? Wie gehen Bewertungsplattformen damit um? Sie sind es ja, deren Geschäftsmodell auf den nutzergenerierten Inhalten basieren – fühlen sie sich in der Pflicht, auch einen Teil der nutzergenerierten Risiken zu tragen? Wie sieht der Sozialvertrag zwischen der “We-Generation” und ihren Plattformbetreibern aus? Wie sollte er aussehen?



    Verwandte Artikel:
  • Journalismus heißt Verhinderung von nutzergenerierten Inhalten
  • Brief an die Deutsche Nationalbibliothek
  • Gruscheln als Alternative zum Nachrichtenkonsum?