Montag, 4. Juni 2012
Wenn Maschinen Texte und Nutzer verstehen lernen - die Chancen semantischer Contentanreicherung. Interview und Konferenzteaser
Semantic Web ist ein Trend, dessen Konjunktur sich nicht nur an der steigenden Zahl von Vorträgen auf Fachkonferenzen ablesen lässt. Das Thema ist nicht ganz neu, doch in der Verlagsbranche beschäftigen sich mit dieser scheinbar komplexen Materie nur wenige Pioniere. Dabei ist das Potential semantischer Contentaufbereitung gerade für Verlage enorm groß: Wenn Maschinen Texte und Nutzer besser verstehen, können Inhalte in einer ganz neuen Dimension auf die Kundenbedürfnisse zugeschnitten werden. Paux-Geschäftsführer Michael Dreusicke, auch Referent auf der nächsten Verlag 3.0-Fachkonferenz zum Thema Customized Content am 04. Juli in München, erläutert im folgenden Interview die Chancen dieses aufregenden Konzeptes.
Kontextuale oder auch personalisierte Contentzusammenstellungen gewinnen in den strategischen Überlegungen von vielen Verlagen an Bedeutung. Wie kann eine semantische Inhaltsaufbereitung die Personalisierung unterstützen?
Michael Dreusicke: Wenn wir Contentbestandteilen in einer für Maschinen auswertbaren Weise mitteilen, was sie "sind", können uns die Maschinen beim Wiederfinden und Zusammenstellen von Zusatzinformationen unterstützen. Google hat das in seinem neuen Dienst Knowledge Graph mit dem Motto "things, not strings" recht nett beschrieben. Man könnte das vielleicht mit "Dinge statt Schriftzeichen" übersetzen. Dahinter steht die Idee, dass Texte aus der Sicht der Maschinen nicht viel mehr als eine unverständliche Abfolge von Zeichen sind, während Dinge Eigenschaften haben, anhand derer wir sie finden können. Wenn Sie z.B. einen Autor mit dem Namen "Peter Meie" suchen, wird die Maschine bei einer Suche nach den entsprechenden Schriftzeichen vielleicht sehr viele Treffer anzeigen. Die Maschine weiß ja nicht, welchen Peter Meier Sie meinen. Wenn Peter Meier hingegen durch ein "Objekt" in einer Datenbank repräsentiert ist, also z.B. eine eigene Personennummer hat, können Sie ihn eindeutig identifizieren. Ihm können dann auch Zusatzinformationen zugeordnet werden, wie z.B. seine Telefonnummer. So lässt sich Peter sowohl über seinen Namen als auch über seine Telefonnummer wiederfinden, und bei mehreren Peter Meiers kann die Telefonnummer als zusätzliches Kriterium zum gewünschten Peter führen. Als "Objekt" einer Datenbank ist unser Peter also einfacher und genauer zu finden denn als bloße Zeichenkette.
Content eindeutig zu identifizieren und jederzeit wiederzufinden, ist also eine der Grundvoraussetzungen für Contentaggregationen aller Art. Und hier kann eine semantische Auszeichnung sehr hilfreich sein.
Wie weit lässt sich diese Form der Contentzusammenstellung durch Semantik automatisieren?
Michael Dreusicke: Wie oben beschrieben können wir für die Beantwortung dieser Frage die Perspektive einer Maschine einnehmen. Sie lässt sich mit dem Lesen einer unbekannten Sprache mit fremden Schriftzeichen vergleichen. Wir Menschen können uns das kaum noch vorstellen, allein schon, weil wir oft schon automatisch und eher unbewusst erkennen, wenn es sich um Text und Sprache handelt. Die Maschine hingegen empfindet beim Verarbeiten von Schriftzeichen eines Liebesgedichts und den Werten einer Abgassonderuntersuchung dasselbe: Nichts.
Dennoch ist unsere Sprache vielen Regeln unterworfen, deren Schema sich formal recht gut erkennen lässt: Wörter werden durch Leerzeichen getrennt, Sätze durch Satztrennzeichen (oft ein Punkt) usw. Zudem werden dieselben Wörter zwar oft nicht gleich geschrieben, sondern z.B. gebeugt, es sind aber Grammatikregeln bekannt und diese lassen sich gut in formale Maschinensprache übersetzen, so dass Verfahren wie Rechtschreib- und Grammatikprüfungen ziemlich gut funktionieren.
Eine automatisierte Contentzusammenstellung setzt aber andere Unterscheidungen voraus als die der bloßen sprachlichen Korrektheit. Hier geht es um inhaltliche Fragen, insbesondere um Relevanz.
Dabei ist Relevanz ein Phänomen, das mich persönlich immer wieder fasziniert, weil es oft allein stehend verwendet wird und sich mir diese Anwendung nicht so recht erschließen mag: Wenn z.B. im Rahmen einer Suche die Anzeige der Treffer nach Relevanz sortiert wird, frage ich mich immer: Relevant für wen?
Die ersten Treffer mögen ja aus Sicht der Suchmaschine besonders gut zu ihren Suchalgorithmen passen, für mich müssen sie aber noch lange nicht relevanter als spätere Treffer sein. Sinnvolle Aussagen über Relevanz lassen sich daher aus meiner Sicht immer nur in Kombination mit einer Person oder Personengruppe machen: Relevant für wen?
Um diese Frage zu beantworten, ist die Maschine wiederum auf jede Menge Kontextinformationen zu der "fragenden" Person angewiesen, müsste also ihre mutmaßlichen Interessen "kennen", das heißt zunächst einmal verstehen. Maschinen verstehen aber nichts, weil ihnen Bewertung nicht zwangsweise eingebaut ist wie uns Menschen. Bei uns Menschen laufen alle im Gehirn eintreffenden Informationen erst einmal durch das limbische System und werden dort bewertet. Erst dann gelangen sie in die Großhirnrinde und stehen für anspruchsvollere, dem Bewusstsein zugängliche Prozesse zur Verfügung. Eine wesentliche semantische Auszeichnung der Informationen findet also systembedingt bei uns Menschen nicht nur immer statt, sondern sogar vor jeder weiteren Verarbeitung.
Solange sich Computersysteme eher an der Verknüpfungsstruktur unseres Neo Cortex orientieren (und selbst von dessen Abbildung sind sie noch meilenweit entfernt), werden sie nur zu semantisch eher einfachen Aufgaben in der Lage sein. Dafür aber mit einer rasenden Geschwindigkeit und ohne Mittagspause.
Wie groß ist der Aufwand, um zu einer semantischen Aufbereitung der Inhalte zu kommen?
Michael Dreusicke: Semantik beginnt aus meiner Sicht auf einer formalen Ebene: Zunächst mal sollte Text wissen, dass er Text ist. Die Schriftzeichen in Wörtern, die Wörter in Sätzen, die Sätze in Absätzen etc. sollten ihre Funktion „kennen“. Formale Semantik lässt sich vollautomatisch umsetzen, der Aufwand beschränkt sich auf die Implementierung einer geeigneten Technologie. Sobald Texte diese formale Strukturinformation besitzen, kann die Maschine damit schon ein bisschen mehr anfangen. Und Autoren können das z.B. nutzen, indem sie Textabschnitte unterschiedlichen Nutzergruppen zuweisen. Einsteiger bekommen dann z.B. einen etwas anderen Text zu lesen als Fortgeschrittene.
Anspruchsvoller wird die Semantik, wenn wir auf die Bedeutung des Texts schauen und versuchen, sie der Maschine zugänglich zu machen. Nach Wittgenstein erschließt sich für uns die Bedeutung eines Wortes aus seiner Anwendung, also aus dem Kontext, in dem es steht, und seiner sich hieraus ableitenden Funktion in genau diesem Kontext. Autoren können diesen Kontext explizit ausdrücken, indem sie Textstücke miteinander verknüpfen und ggf. um weitere Informationen wie Erklärungen, Bilder, Videos, Veranstaltungen, Hyperlinks, Personen, Produktempfehlungen oder Leserkommentare anreichern.
Die Möglichkeiten sind vielfältig. Welche davon für den jeweiligen Content Provider interessant sind, hängt vom Einzelfall ab. Triviale, schematische Zusammenhänge lassen sich gut automatisieren. Die meiste tatsächlich inhaltliche Arbeit erschließt sich den Maschinen hingegen auf absehbare Zeit nicht.
Erfolgversprechend scheinen daher Verfahren zu sein, bei denen maschinelle Verfahren um manuelle Tätigkeiten von Menschen ergänzt werden. Das muss nicht immer "hochwertige" Autorenschaft sein, sondern geschieht in der Praxis auch durch Spiele oder eine Community.
Beispiele: Spieler taggen Fotos, bei Übereinstimmung bekommt man Punkte; z.T. spielen das einige viele Stunden am Tag. Unbezahlt.
Amazon und andere bieten mit Diensten wie "Mechanical Turk" eine Möglichkeit, einfache Tätigkeiten via Crowd kostengünstig umzusetzen.
Im Einzelfall dürfte die gewünschte Informationsqualtität entscheiden, welche Komponente in welchem Umfang genutzt wird.
Wie steigt ein Verlag am besten in das komplexe Thema ein?
Michael Dreusicke: Aus meiner Sicht ist das Thema verglichen mit dem Verlagsalltag gar nicht komplex. Im Gegenteil: Es ist für die meisten zwar neu, bei genauem Hinsehen aber ganz natürlich und sehr einfach verständlich. Die Schwierigkeit besteht aus meiner Sicht überwiegend darin, der Verlagscontent einmal unbefangen zu betrachten und wahrzunehmen, wie viel Information da eigentlich drin steckt, die für uns Menschen sichtbar, für die Maschinen aber verborgen ist. Wenn man das einmal gesehen hat, sind die nächsten Schritte schnell klar und ergeben sich praktisch von allein.
Da es sich also in gewisser Hinsicht um einen Paradigmenwechsel handelt, der in einigen Unternehmensbereichen ein Neudenken von Aufgaben und Lösungen empfiehlt, steht dem Unternehmen tendenziell seine eigene Prozessstabilität im Weg. Die Entwicklung und Implementierung neuer Prozesse gelingt daher vermutlich besser unter Einbeziehung externer Experten.
Da sich Unternehmen in Sachen Firmenkultur, Kundenbeziehung, Produktdefinition, Vertriebsstrategie etc. erheblich unterscheiden, würde ich hierbei nicht auf singuläre Technologieansätze vertrauen, sondern das Thema mit einer Stakeholder- und Bedarfsanalyse beginnen. Hieran schließt sich die Beantwortung der Frage an, für welche Produkte sich welche Aufbereitungsart und -tiefe empfiehlt, welcher Mitteleinsatz sich lohnt und wie er sich zeitlich optimal umsetzen lässt. Am Anfang steht also aus meiner Sicht eine solide Content Strategie.
Die Grundlagen für die Arbeit mit semantischen Strukturen sind längst gelegt, Standards sind definiert, es gibt auch schon eine Reihe von Anwendungen. Doch das Gros der Verlage tut sich mit dem Thema Semantik noch immer schwer - was meinen Sie, woran das liegt?
Michael Dreusicke: Zunächst hat das Wort „Semantik“ ähnlich wie „Künstliche Intelligenz“ eine schwierige Vergangenheit hinter sich: Nach den ersten Erfolgen semantischer Erkennung vor mehr als 20 Jahren wurden die Ergebnisse extrapoliert und daraus die Schlussfolgerung abgeleitet, dass sich die "Erkenntnisfähigkeit" von Maschinen linear, vielleicht sogar logarithmisch weiterentwickeln könnte. Das wurde nicht nur ungewiss in Aussicht gestellt, sondern mit ein bisschen zu viel Schwung als Wahrheit verkauft. Nach einigen Jahren kam jedoch die Enttäuschung, weil sich die Maschinen zwar in determinierten Räumen wie Schach bestens zurecht fanden, zur Beantwortung von Fragen aus unserer Lebensrealität aber wenig beitragen konnten. Die Gründe hierfür sind inzwischen ausgiebig erforscht und verstanden: Die beiden Hauptfaktoren sind zusammengefasst die begrenzte Reflexionsfähigkeit des Menschen über sein eigenes Wertesystem sowie die Ambiguität der Sprache. Sowohl der Gegenstand als auch die Frage der Kommunikation dieses Gegenstands weisen eine gänzlich andere Struktur auf als heutige Computersysteme. Nach dieser Ernüchterung hatten Semantik und künstliche Intelligenz keinen allzu guten Ruf. Erst seit sich die Giganten des Internets (Google, Facebook etc.) ausgiebig damit beschäftigen, ist der Begriff wieder hoffähig geworden und inzwischen sogar klar, dass es ohne semantische Anreicherung aufgrund der zurecht vielbesungenen Informationsflut in absehbarer Zeit nicht mehr gehen wird.
Ein weiterer Grund dürfte das Wort "Semantik" sein. Das ist so schrecklich nebulös, dass jeder Unbefangene, der davon hört, sofort von dem unwiderstehlichen Gefühl völliger Ahnungslosigkeit ergriffen wird. Dazu gesellt sich schnell die vermeintliche Erkenntnis, alle anderen hätten es begriffen. Wie trivial und einfach Semantik der Sache nach ist, wird schnell klar, wenn man sich vor Augen hält, dass es einfach nur um Zusatzinformationen / Metadaten geht, wie Tags in einem XML-Dokument oder das Preisschild auf der Ware im Supermarkt: Eine oder mehrere Zusatz-Infos hängen an einem Objekt und erleichtern dem Nutzer eine Entscheidung. Für die, die es genau wissen wollen, geht es freilich noch ein bisschen weiter, zumal wenn es um die Übersetzung in die Sprachen der Maschinen geht. Aber das Grundprinzip ist steinalt und längst bekannt.
Dass sich die Verlage mit dem Thema Semantik also zum Teil noch etwas schwer tun, scheint mir eher historisch begründet und lässt sich durch ein paar gute Workshops zu dem Thema schnell wieder in die Spur bringen.
Wie wird Ihre Kernbotschaft beim Vortrag auf der Fachkonferenz Verlag 3.0 lauten?
Michael Dreusicke: Informationen werden, um in unserem Kommunikationssystem Internet überleben zu können, semantisch ausgezeichnet und maschinenlesbar werden, die Frage ist aus meiner Sicht und der meiner Kollegen geklärt. Nicht das "Ob", sondern "Wann?", "Wie?" und "Von wem?" bleiben die spannenden Fragen. Die neuen Märkte digitaler Content-Kommunikation werden aktuell neu aufgeteilt und in beeindruckendem Tempo von Branchenfremdlingen der Dienstleistungsbranche besetzt (Apple, Amazon, Google). Vermutlich wird es heute wie damals bei der Digitalisierung in der Musikindustrie darauf ankommen, bereits vor der sichtbaren Welle Erfahrungen gesammelt und Standards im eigenen Unternehmen etabliert zu haben, um in den sich rasch ändernden Märkten wettbewerbsfähig zu bleiben.
Kontextuale oder auch personalisierte Contentzusammenstellungen gewinnen in den strategischen Überlegungen von vielen Verlagen an Bedeutung. Wie kann eine semantische Inhaltsaufbereitung die Personalisierung unterstützen?
Michael Dreusicke: Wenn wir Contentbestandteilen in einer für Maschinen auswertbaren Weise mitteilen, was sie "sind", können uns die Maschinen beim Wiederfinden und Zusammenstellen von Zusatzinformationen unterstützen. Google hat das in seinem neuen Dienst Knowledge Graph mit dem Motto "things, not strings" recht nett beschrieben. Man könnte das vielleicht mit "Dinge statt Schriftzeichen" übersetzen. Dahinter steht die Idee, dass Texte aus der Sicht der Maschinen nicht viel mehr als eine unverständliche Abfolge von Zeichen sind, während Dinge Eigenschaften haben, anhand derer wir sie finden können. Wenn Sie z.B. einen Autor mit dem Namen "Peter Meie" suchen, wird die Maschine bei einer Suche nach den entsprechenden Schriftzeichen vielleicht sehr viele Treffer anzeigen. Die Maschine weiß ja nicht, welchen Peter Meier Sie meinen. Wenn Peter Meier hingegen durch ein "Objekt" in einer Datenbank repräsentiert ist, also z.B. eine eigene Personennummer hat, können Sie ihn eindeutig identifizieren. Ihm können dann auch Zusatzinformationen zugeordnet werden, wie z.B. seine Telefonnummer. So lässt sich Peter sowohl über seinen Namen als auch über seine Telefonnummer wiederfinden, und bei mehreren Peter Meiers kann die Telefonnummer als zusätzliches Kriterium zum gewünschten Peter führen. Als "Objekt" einer Datenbank ist unser Peter also einfacher und genauer zu finden denn als bloße Zeichenkette.
Content eindeutig zu identifizieren und jederzeit wiederzufinden, ist also eine der Grundvoraussetzungen für Contentaggregationen aller Art. Und hier kann eine semantische Auszeichnung sehr hilfreich sein.
Wie weit lässt sich diese Form der Contentzusammenstellung durch Semantik automatisieren?
Michael Dreusicke: Wie oben beschrieben können wir für die Beantwortung dieser Frage die Perspektive einer Maschine einnehmen. Sie lässt sich mit dem Lesen einer unbekannten Sprache mit fremden Schriftzeichen vergleichen. Wir Menschen können uns das kaum noch vorstellen, allein schon, weil wir oft schon automatisch und eher unbewusst erkennen, wenn es sich um Text und Sprache handelt. Die Maschine hingegen empfindet beim Verarbeiten von Schriftzeichen eines Liebesgedichts und den Werten einer Abgassonderuntersuchung dasselbe: Nichts.
Dennoch ist unsere Sprache vielen Regeln unterworfen, deren Schema sich formal recht gut erkennen lässt: Wörter werden durch Leerzeichen getrennt, Sätze durch Satztrennzeichen (oft ein Punkt) usw. Zudem werden dieselben Wörter zwar oft nicht gleich geschrieben, sondern z.B. gebeugt, es sind aber Grammatikregeln bekannt und diese lassen sich gut in formale Maschinensprache übersetzen, so dass Verfahren wie Rechtschreib- und Grammatikprüfungen ziemlich gut funktionieren.
Eine automatisierte Contentzusammenstellung setzt aber andere Unterscheidungen voraus als die der bloßen sprachlichen Korrektheit. Hier geht es um inhaltliche Fragen, insbesondere um Relevanz.
Dabei ist Relevanz ein Phänomen, das mich persönlich immer wieder fasziniert, weil es oft allein stehend verwendet wird und sich mir diese Anwendung nicht so recht erschließen mag: Wenn z.B. im Rahmen einer Suche die Anzeige der Treffer nach Relevanz sortiert wird, frage ich mich immer: Relevant für wen?
Die ersten Treffer mögen ja aus Sicht der Suchmaschine besonders gut zu ihren Suchalgorithmen passen, für mich müssen sie aber noch lange nicht relevanter als spätere Treffer sein. Sinnvolle Aussagen über Relevanz lassen sich daher aus meiner Sicht immer nur in Kombination mit einer Person oder Personengruppe machen: Relevant für wen?
Um diese Frage zu beantworten, ist die Maschine wiederum auf jede Menge Kontextinformationen zu der "fragenden" Person angewiesen, müsste also ihre mutmaßlichen Interessen "kennen", das heißt zunächst einmal verstehen. Maschinen verstehen aber nichts, weil ihnen Bewertung nicht zwangsweise eingebaut ist wie uns Menschen. Bei uns Menschen laufen alle im Gehirn eintreffenden Informationen erst einmal durch das limbische System und werden dort bewertet. Erst dann gelangen sie in die Großhirnrinde und stehen für anspruchsvollere, dem Bewusstsein zugängliche Prozesse zur Verfügung. Eine wesentliche semantische Auszeichnung der Informationen findet also systembedingt bei uns Menschen nicht nur immer statt, sondern sogar vor jeder weiteren Verarbeitung.
Solange sich Computersysteme eher an der Verknüpfungsstruktur unseres Neo Cortex orientieren (und selbst von dessen Abbildung sind sie noch meilenweit entfernt), werden sie nur zu semantisch eher einfachen Aufgaben in der Lage sein. Dafür aber mit einer rasenden Geschwindigkeit und ohne Mittagspause.
Wie groß ist der Aufwand, um zu einer semantischen Aufbereitung der Inhalte zu kommen?
Michael Dreusicke: Semantik beginnt aus meiner Sicht auf einer formalen Ebene: Zunächst mal sollte Text wissen, dass er Text ist. Die Schriftzeichen in Wörtern, die Wörter in Sätzen, die Sätze in Absätzen etc. sollten ihre Funktion „kennen“. Formale Semantik lässt sich vollautomatisch umsetzen, der Aufwand beschränkt sich auf die Implementierung einer geeigneten Technologie. Sobald Texte diese formale Strukturinformation besitzen, kann die Maschine damit schon ein bisschen mehr anfangen. Und Autoren können das z.B. nutzen, indem sie Textabschnitte unterschiedlichen Nutzergruppen zuweisen. Einsteiger bekommen dann z.B. einen etwas anderen Text zu lesen als Fortgeschrittene.
Anspruchsvoller wird die Semantik, wenn wir auf die Bedeutung des Texts schauen und versuchen, sie der Maschine zugänglich zu machen. Nach Wittgenstein erschließt sich für uns die Bedeutung eines Wortes aus seiner Anwendung, also aus dem Kontext, in dem es steht, und seiner sich hieraus ableitenden Funktion in genau diesem Kontext. Autoren können diesen Kontext explizit ausdrücken, indem sie Textstücke miteinander verknüpfen und ggf. um weitere Informationen wie Erklärungen, Bilder, Videos, Veranstaltungen, Hyperlinks, Personen, Produktempfehlungen oder Leserkommentare anreichern.
Die Möglichkeiten sind vielfältig. Welche davon für den jeweiligen Content Provider interessant sind, hängt vom Einzelfall ab. Triviale, schematische Zusammenhänge lassen sich gut automatisieren. Die meiste tatsächlich inhaltliche Arbeit erschließt sich den Maschinen hingegen auf absehbare Zeit nicht.
Erfolgversprechend scheinen daher Verfahren zu sein, bei denen maschinelle Verfahren um manuelle Tätigkeiten von Menschen ergänzt werden. Das muss nicht immer "hochwertige" Autorenschaft sein, sondern geschieht in der Praxis auch durch Spiele oder eine Community.
Beispiele: Spieler taggen Fotos, bei Übereinstimmung bekommt man Punkte; z.T. spielen das einige viele Stunden am Tag. Unbezahlt.
Amazon und andere bieten mit Diensten wie "Mechanical Turk" eine Möglichkeit, einfache Tätigkeiten via Crowd kostengünstig umzusetzen.
Im Einzelfall dürfte die gewünschte Informationsqualtität entscheiden, welche Komponente in welchem Umfang genutzt wird.
Wie steigt ein Verlag am besten in das komplexe Thema ein?
Michael Dreusicke: Aus meiner Sicht ist das Thema verglichen mit dem Verlagsalltag gar nicht komplex. Im Gegenteil: Es ist für die meisten zwar neu, bei genauem Hinsehen aber ganz natürlich und sehr einfach verständlich. Die Schwierigkeit besteht aus meiner Sicht überwiegend darin, der Verlagscontent einmal unbefangen zu betrachten und wahrzunehmen, wie viel Information da eigentlich drin steckt, die für uns Menschen sichtbar, für die Maschinen aber verborgen ist. Wenn man das einmal gesehen hat, sind die nächsten Schritte schnell klar und ergeben sich praktisch von allein.
Da es sich also in gewisser Hinsicht um einen Paradigmenwechsel handelt, der in einigen Unternehmensbereichen ein Neudenken von Aufgaben und Lösungen empfiehlt, steht dem Unternehmen tendenziell seine eigene Prozessstabilität im Weg. Die Entwicklung und Implementierung neuer Prozesse gelingt daher vermutlich besser unter Einbeziehung externer Experten.
Da sich Unternehmen in Sachen Firmenkultur, Kundenbeziehung, Produktdefinition, Vertriebsstrategie etc. erheblich unterscheiden, würde ich hierbei nicht auf singuläre Technologieansätze vertrauen, sondern das Thema mit einer Stakeholder- und Bedarfsanalyse beginnen. Hieran schließt sich die Beantwortung der Frage an, für welche Produkte sich welche Aufbereitungsart und -tiefe empfiehlt, welcher Mitteleinsatz sich lohnt und wie er sich zeitlich optimal umsetzen lässt. Am Anfang steht also aus meiner Sicht eine solide Content Strategie.
Die Grundlagen für die Arbeit mit semantischen Strukturen sind längst gelegt, Standards sind definiert, es gibt auch schon eine Reihe von Anwendungen. Doch das Gros der Verlage tut sich mit dem Thema Semantik noch immer schwer - was meinen Sie, woran das liegt?
Michael Dreusicke: Zunächst hat das Wort „Semantik“ ähnlich wie „Künstliche Intelligenz“ eine schwierige Vergangenheit hinter sich: Nach den ersten Erfolgen semantischer Erkennung vor mehr als 20 Jahren wurden die Ergebnisse extrapoliert und daraus die Schlussfolgerung abgeleitet, dass sich die "Erkenntnisfähigkeit" von Maschinen linear, vielleicht sogar logarithmisch weiterentwickeln könnte. Das wurde nicht nur ungewiss in Aussicht gestellt, sondern mit ein bisschen zu viel Schwung als Wahrheit verkauft. Nach einigen Jahren kam jedoch die Enttäuschung, weil sich die Maschinen zwar in determinierten Räumen wie Schach bestens zurecht fanden, zur Beantwortung von Fragen aus unserer Lebensrealität aber wenig beitragen konnten. Die Gründe hierfür sind inzwischen ausgiebig erforscht und verstanden: Die beiden Hauptfaktoren sind zusammengefasst die begrenzte Reflexionsfähigkeit des Menschen über sein eigenes Wertesystem sowie die Ambiguität der Sprache. Sowohl der Gegenstand als auch die Frage der Kommunikation dieses Gegenstands weisen eine gänzlich andere Struktur auf als heutige Computersysteme. Nach dieser Ernüchterung hatten Semantik und künstliche Intelligenz keinen allzu guten Ruf. Erst seit sich die Giganten des Internets (Google, Facebook etc.) ausgiebig damit beschäftigen, ist der Begriff wieder hoffähig geworden und inzwischen sogar klar, dass es ohne semantische Anreicherung aufgrund der zurecht vielbesungenen Informationsflut in absehbarer Zeit nicht mehr gehen wird.
Ein weiterer Grund dürfte das Wort "Semantik" sein. Das ist so schrecklich nebulös, dass jeder Unbefangene, der davon hört, sofort von dem unwiderstehlichen Gefühl völliger Ahnungslosigkeit ergriffen wird. Dazu gesellt sich schnell die vermeintliche Erkenntnis, alle anderen hätten es begriffen. Wie trivial und einfach Semantik der Sache nach ist, wird schnell klar, wenn man sich vor Augen hält, dass es einfach nur um Zusatzinformationen / Metadaten geht, wie Tags in einem XML-Dokument oder das Preisschild auf der Ware im Supermarkt: Eine oder mehrere Zusatz-Infos hängen an einem Objekt und erleichtern dem Nutzer eine Entscheidung. Für die, die es genau wissen wollen, geht es freilich noch ein bisschen weiter, zumal wenn es um die Übersetzung in die Sprachen der Maschinen geht. Aber das Grundprinzip ist steinalt und längst bekannt.
Dass sich die Verlage mit dem Thema Semantik also zum Teil noch etwas schwer tun, scheint mir eher historisch begründet und lässt sich durch ein paar gute Workshops zu dem Thema schnell wieder in die Spur bringen.
Wie wird Ihre Kernbotschaft beim Vortrag auf der Fachkonferenz Verlag 3.0 lauten?
Michael Dreusicke: Informationen werden, um in unserem Kommunikationssystem Internet überleben zu können, semantisch ausgezeichnet und maschinenlesbar werden, die Frage ist aus meiner Sicht und der meiner Kollegen geklärt. Nicht das "Ob", sondern "Wann?", "Wie?" und "Von wem?" bleiben die spannenden Fragen. Die neuen Märkte digitaler Content-Kommunikation werden aktuell neu aufgeteilt und in beeindruckendem Tempo von Branchenfremdlingen der Dienstleistungsbranche besetzt (Apple, Amazon, Google). Vermutlich wird es heute wie damals bei der Digitalisierung in der Musikindustrie darauf ankommen, bereits vor der sichtbaren Welle Erfahrungen gesammelt und Standards im eigenen Unternehmen etabliert zu haben, um in den sich rasch ändernden Märkten wettbewerbsfähig zu bleiben.
Dienstag, 29. Mai 2012
Die 5. Fachkonferenz Verlag 3.0 thematisiert in diesem Jahr das Potential von Customized Content
Vom individuellen E-Learning-Programm bis zur Augmented Reality App – während Verlagsprodukte traditionell ohne individualisierbare Bestandteile
vermarktet werden, ist es heute durch digitale, mobile und interaktive
Technologien möglich, Medien und Services exakt auf einzelne Kundenbedürfnisse
zuzuschneiden.
Dabei gibt es vielfältige Ansätze: Fachverlage können ihren B2B-Kunden beispielsweise mit Portalen wie Jurion 3.0 eine individuelle Arbeitsumgebung bieten oder sich auch direkt als Dienstleister mit passgenauen Serviceangeboten positionieren. Auch Publikumsverlage haben z. B. die Möglichkeit, auf effizientem Wege einzigartige Buchformate für Ihre Kunden zu entwickeln, indem sie sich auf wenige Inhalte konzentrieren, diese aber kundenindividuell zusammenstellen. Doch bei allen Unterschieden in den Geschäftsmodellen: Immer stehen der Kunde und seine speziellen Bedürfnisse im Mittelpunkt. Hier stehen Verlage vor der Herausforderung, den Austausch mit ihren Zielgruppen noch weiter zu intensivieren, produktiv zu gestalten und neue Workflows und Prozesse zur kundengetriebenen Produktentwicklung zu etablieren.
Doch wie viel Potenzial haben die neuen Geschäftsmodelle und wollen Kunden überhaupt individualisierte Inhalte? Wie kann effiziente und produktive Kundenkommunikation im Verlag aussehen? Bietet Personalisierung sogar eine Antwort auf den Wertverfall von Inhalten und wie funktioniert dieser Ansatz im Bereich der Firmenkunden?
Erfahren Sie auf der 5. Fachkonferenz Verlag 3.0, wie Sie durch eine neue Dimension der Kundenorientierung innovative und vor allem nachhaltige Geschäftsmodelle entwickeln können - Thema dieses Mal: "Customized Content: Mit personalisierten Medien und Services in die Zukunft". Aktuelle Best Practices zeigen, wie sich personalisierte oder personalisierbare Produkte im Verlag entwickeln und vermarkten lassen. Zusätzlich zu den Fachvorträgen können Sie mit Referenten und Teilnehmern in Round Table Sessions einige der zentralen Themen vertiefend diskutieren.
Kunden als Co-Redakteure
Dabei gibt es vielfältige Ansätze: Fachverlage können ihren B2B-Kunden beispielsweise mit Portalen wie Jurion 3.0 eine individuelle Arbeitsumgebung bieten oder sich auch direkt als Dienstleister mit passgenauen Serviceangeboten positionieren. Auch Publikumsverlage haben z. B. die Möglichkeit, auf effizientem Wege einzigartige Buchformate für Ihre Kunden zu entwickeln, indem sie sich auf wenige Inhalte konzentrieren, diese aber kundenindividuell zusammenstellen. Doch bei allen Unterschieden in den Geschäftsmodellen: Immer stehen der Kunde und seine speziellen Bedürfnisse im Mittelpunkt. Hier stehen Verlage vor der Herausforderung, den Austausch mit ihren Zielgruppen noch weiter zu intensivieren, produktiv zu gestalten und neue Workflows und Prozesse zur kundengetriebenen Produktentwicklung zu etablieren.
Doch wie viel Potenzial haben die neuen Geschäftsmodelle und wollen Kunden überhaupt individualisierte Inhalte? Wie kann effiziente und produktive Kundenkommunikation im Verlag aussehen? Bietet Personalisierung sogar eine Antwort auf den Wertverfall von Inhalten und wie funktioniert dieser Ansatz im Bereich der Firmenkunden?
Erfahren Sie auf der 5. Fachkonferenz Verlag 3.0, wie Sie durch eine neue Dimension der Kundenorientierung innovative und vor allem nachhaltige Geschäftsmodelle entwickeln können - Thema dieses Mal: "Customized Content: Mit personalisierten Medien und Services in die Zukunft". Aktuelle Best Practices zeigen, wie sich personalisierte oder personalisierbare Produkte im Verlag entwickeln und vermarkten lassen. Zusätzlich zu den Fachvorträgen können Sie mit Referenten und Teilnehmern in Round Table Sessions einige der zentralen Themen vertiefend diskutieren.
Die Agenda
Key Note-
Auf dem Weg zum persönlichen Medium: Der Verlag als Freund des
Kunden
Prof. Peter Wippermann, Gründer, Trendbüro
-
Vom Produktvermarkter zum Sprachdienstleister: Das Beispiel
speexx
Armin Hopp, Vorstand, digital publishing /Speexx
-
Jurion 3.0: Die individuelle Arbeitsumgebung für
Juristen
Christian Dirschl, Content Architect, Wolters Kluwer
-
Jedem Nutzer seine Website: Die neue Personalisierungsstrategie
von Haufe.de
Bastian Plieninger, Senior Produktmanager, Haufe
-
Social Media Monitoring: Der Einstieg zu neuen
Community-Medien
Markus Elsen und Frank Völkel, Geschäftsführer, New Times Corporate
Communication, Haufe-Gruppe#
-
Semantic Publishing – die Zukunft der
Personalisierung
Michael Dreusicke, Geschäftsführer, Paux Technologies
Kunden als Co-Redakteure
-
Erfolgsfaktor Personalisierung: Wie durch Customizing gedruckte
Bücher verkauft werden
Christoph Hünermann, Geschäftsführer, Wissen Media
-
Custom Publishing – das Wunschwissenschaftsbuch
Theresa Filipovic, Senior Manager Electronic Marketing, Verlag Walter de
Gruyter
Termin, Ort, Konditionen
Die 5. Fachkonferenz Verlag 3.0 findet am 04. Juli 2012 in München in den Räumen der Akademie des Deutschen Buchhandels statt. Weitere Informationen auf der Akademie-Website.Donnerstag, 26. April 2012
XML im Fokus - das 14. CrossMediaForum mit aktuellen Fallbeispielen
Das 14. CrossMediaForum wird am 27. Juni 2012 in München
stattfinden. Thema ist dieses Mal ein Klassiker, der aber die Verlage
noch immer bewegt: "XML und CrossMediaPublishing: Wie Verlage
das Potenzial strukturierter Inhalte und Daten nutzen können".
Führende Anbieter von XML-Dienstleistungen, Redaktionssystemen und
Crossmedia-Lösungen zeigen anhand von Fallbeispielen, wie Verlage diese
Herausforderung angenommen und umgesetzt haben.
Programmübersicht
-
Strukturwandel in Redaktionen durch Technologie –
das Fallbeispiel „Motorrad“
Stefan Ruthner, Key Account Manager, censhare AG; Michael
Pfeiffer, Chefredakteur Motorrad, Motor Presse Stuttgart
-
Werk, Web, App: Medienneutrale Datenhaltung durch
sinnvolle Workflows optimal genutzt - aufgezeigt an einem
Praxisbeispiel
Mario Kandler, Geschäftsführer, nbsp GmbH, NN aus dem Verlag des
Fallbeispiels
-
Wie Kunden das XML-basierte Publishing-System tango media
nutzen: Arbeitsweisen und Fallbeispiele aus der Praxis
Michael Stühr, Geschäftsführer, MarkStein Software GmbH; Roland
Pfeifer, Projektmanager MarkStein Software GmbH
-
Aus einer Quelle in 99 Kanäle. Kritische Erfolgsfaktoren
für effizientes CrossMediaPublishing (aufgezeigt an mehreren
Fallbeispielen)
Patricia Kastner, Geschäftsführerin Contentserv GmbH
-
Durchgängiges Publizieren mit XML und jadis am Beispiel
des Oetinger Verlags
Stephan Selle, Geschäftsführer, Zweitwerk GmbH
-
XML-basierte Multichannel-Produktion mit Xaver beim
Bundesanzeiger Verlag
Carsten Oberscheid, doctronic GmbH & Co. KG, Paul Heger, IT
/ Leiter E-Commerce, Bundesanzeiger Verlagsgesellschaft mbH
-
Datenbankgestütztes Publizieren für Web und
Print
Andreas Gebauer, Chefredakteur test.de, Stiftung Warentest
-
Cross Media Publishing für Grafiker: Wie sie mit
einfachen Handgriffen InDesign Dateien für Alternative Layouts,
epub und barrierefreie PDFs vorbereiten
Heike Koch, Referentin für Adobe und Geschäftsführerin Moliri.
Training und Produktionsbegleitung für Verlage
-
Wie viel XML braucht die Produktion? Über die Qual der
Wahl in der crossmedialen Produktion
Ursula Welsch, Inhaberin von ursula welsch. neue medien und der
XML Schule
Termin, Ort, Konditionen
Das CrossMediaForum findet am 27. Juni 2012 in München im Hotel Maritim statt. Die Teilnahmgebühr beträgt 100 EUR mit dem Frühbucherrabat (bis zum 18. Mai 2012), danach 150 EUR (jeweils zzgl. Mehrwertsteuer). Sie können sich entweder per E-Mail anmelden oder das Anmeldefax downloaden.Montag, 2. April 2012
Kann jeder ein Autor sein? Das 4. ZukunftsFrühstück Verlage & Medien
Self Publishing ist ein Trend, der nun auch in der deutschen Verlagsbranche angekommen ist - das hat nicht zuletzt die Leipziger Buchmesse gezeigt. Ich beschäftige mich schon länger mit diesem Trend und freue mich deshalb, dass wir dieses Thema beim 4. ZukunftsFrühstück Verlage & Medien, das wir am 12. April 2012 gemeinsam mit trendquest in Hamburg veranstalten, diskutieren werden.
Es sind die Autoren und Journalisten, die die Werke schreiben. Warum sollen diese also nicht auch gleich ihre Werke selbst vertreiben? Der Schluss liegt nahe: In zunehmendem Maße verschwindet die Position der Zwischenhändler in den Märkten. Das Internet macht's möglich. Durch die direkte Verknüpfung von Urheber zu Käufer wirken auch die Trends der „Käufer-Märkte“ sowie die des Crowd Sourcing auf die Verlags-und Medien-Welt. Welche Neuerungen hat die Verlags- und Medienbranche in den nächsten Jahren zu erwarten?
Es sind die Autoren und Journalisten, die die Werke schreiben. Warum sollen diese also nicht auch gleich ihre Werke selbst vertreiben? Der Schluss liegt nahe: In zunehmendem Maße verschwindet die Position der Zwischenhändler in den Märkten. Das Internet macht's möglich. Durch die direkte Verknüpfung von Urheber zu Käufer wirken auch die Trends der „Käufer-Märkte“ sowie die des Crowd Sourcing auf die Verlags-und Medien-Welt. Welche Neuerungen hat die Verlags- und Medienbranche in den nächsten Jahren zu erwarten?
Diease Frage diskutieren wir auf dem nächsten ZukunftsFrühstück. Input
liefern 4 kurze Impulsvorträge sowie ein Kunden-Panel zur
unternehmerischen Praxis. Danach erfolgt eine offene und moderierte
Diskussion. Der Erfahrungsaustausch steht im Mittelpunkt, die
Interaktion und das Networking. Dieses innovative Format führt zu einem
echten Austausch.
Impulsvorträge und Kunden-Panel
- Kurze Trendnotiz: Social Sells für Autoren und Märkte 2020
Walter Matthias Kunze (Geschäftsf. Gesellschafter trendquest) - Jeder ist ein Autor - die Self-Publishing-Revolution
Ehrhardt Heinold (Geschäftsführer Heinold, Spiller & Partner) - Freiheit für Bücher - und Autoren!
Jeder wird es können - Selbstpublikationen via Internet
Karl-Friedrich Pommerenke (triboox GmbH & Co. KG) - Community Literature: Der Roman als virtuelles Spiel!
Dr. Karl-Ludwig v. Wendt (Briends GmbH)
Die Rahmendaten
Das 4. ZukunftsFrühstück Verlage und Medien findet 12. April 2012 von 08.30 - 12.00 Uhr in Hamburg im Warburghaus der Univ. Hamburg (Heilwigstr. 116) statt.Weitere Informationen und Anmeldung bei trendquest.Freitag, 3. Februar 2012
Die Verlagstrends 2012: Kunden, Marke, Service, Semantik, Innovationsmanagement
Am Jahresanfang wagen wir immer einen Blick auf kommende Entwicklungen. Diese Tradition wollen wir auch 2012 fortsetzen, nicht ohne auf die weiterhin gültigen Trends aus 2011 zu verweisen. Lesen Sie, welche zusätzlichen Trends wir sehen. Stimmt das mit Ihren Erwartungen überein?
Vom Kundenbedarf zum Konzept zum Produkt
Die Filmindustrie hat den Bogen schon länger raus: Würde man hier stets auf die Eingebung eines Drehbuchautors warten, hätte sich die Filmindustrie niemals so entwickeln können. Ihr Ansatz: Am Anfang steht das Konzept, danach werden die Kreativen (Autoren, Regisseur, Schauspieler etc.) gesucht. In vielen Verlagen (auch im Fachverlagsbereich) geht es umgekehrt: Am Anfang steht der Autor, die Lektorate sind als Goldnuggetsuchende mit der Manuskriptsichtung beschäftigt. Doch diese Arbeitsweise wird immer öfter durch eine markt- und kundenorientierte Vorgehensweise ersetzt: Am Anfang steht der Kundenbedarf, dann folgt das Konzept, dann erst werden Autoren (und andere Kreative) gesucht.
Markenaufbau hat oberste Priorität
Wenn Verlage wie gehabt mit Autoren zusammenarbeiten, spüren sie die Grenzen: Viele Autoren geben Verlagen längst nicht mehr alle Verwertungsrechte, manchmal bleibt auch die Marke beim Autor. Deshalb wird es Ziel von Verlagen sein, die Marken selbst zu besitzen. Beispiele im Buchbereich finden sich vor allem im Kinderbuch (Vorbild ist Coppenrath). Aber auch im Erwachsenenbereich gibt es Beispiele (wie Perry Rhodan), die zeigen, welchen Vorteil Verlage durch Markenbesitz haben. Im Zeitschriftenbereich ist das Thema schon länger aktuell, aber auch hier entdecken viele Verlage erst die Chancen konsequenter Markenführung
Markeninhalte oder Serviceprovider: Die beiden Basisstrategien für Verlage
Verlage mit starken Marken können weiterhin auf Content setzen - das zeigt sich bei Beck, bei Heise oder beim Deutschen Fachverlag (und natürlich bei allen Publikumsverlagen mit einzigartigen Autoreninhalten). Verlage ohne derart starke Marken setzen vermehrt auf Service für Leser und für Anzeigenkunden. Beispiele hierfür sind der Müncher IT-Spezialist IDG, der sich eindeutig als Serviceprovider positioniert, aber auch WoltersKluwer, das mit dem neuen Jurion-Portal eine personalisierte Arbeitsumgebung für seine Kunden schaffen möchte (siehe hierzu mein Blogpost).
Semantik über alles: Content goes Kundenbedarf
Jahrelang fristeten die diffizilen Erkenntnisse der Wissenschaft im Bereich der Semantik ein Schattendasein. Nur die wenigen ertragstarken Fachverlagskonzerne wagten sich an diese teure und komplexe Technologie. Doch nun, da sich die Content-Strukturierung mit XML zum Standard entwickelt, erkennen immer mehr Verlage den Nutzen einer intelligent automatisierbaren Contentanalyse und der drauf basierenden Möglichkeit, Inhalte zu clustern, zu verknüpfen und contextbezogen zu publizieren. Der Kunde rückt so noch mehr ins Zentrum, seine Navigation durch die unendlichen Contentweiten wird durch Semantik verbessert, bis hin zur Abbildung individueller Interessenprofile.
Vom Buch zur Soap: Das E-Book als Häppchenlektüre
Die Japaner machen es seit Jahren vor: Digitale Unterhaltungsliteratur verkauft sich wunderbar nach dem Soap-Prinzip. Kurze Sequenzen, Cliffhänger, niedriger Preris: Das perfekte E-Book ist eine Short Novel mit Fortsetzung. Lübbe hat das Web Novel-Prinzip als erster umgesetzt. Andere werden folgen.
Social Media als Teil des Produkts: Kundenbindung durch Locked-in-Effekt
Immer mehr Verlage experimentieren mit den Social Media-Plattformen, vor allem mit Facebook und Twitter. Ziel ist eine neue Form der Kundenkommunikation - der Mehrwert für das Business ist nicht immer klar und kann auch nur schwer mit Kennziffern ermittelt werden. Einige Verlage jedoch nutzen Social Media-Elemente, um ihre Produkte zu verbessern - sie machen Community- und Collaboration-Tools zu Bestandteilen ihrer Produkte. Beispiele hierfür sind originäre Communitys wie urbia.de, chefkoch.de oder holidaycheck.de, aber auch Fachportale wie die Haufe-Communities und jurion.de, die innovative Arbeitsumgebung für Juristen von Wolters Kluwer. Dass dieser Ansatz auch im Firmenmkundengeschäft prächtig funktioniert, zeigt die Erfolgsgeschichte von speexx.com, dem B2B-Angebot der digital publishing AG. Wem die Integration von Social Media in das Produktangebot gelingt, der reüssiert in der Königsdisziplin Kundenbindung: Tiefer als durch persönliche Inhalte und Vernetzung lässt sich ein Nutzer wohl kaum an ein Angebot binden, wie Facebook millionenfach beweist. Ein Phänomen, das in der E-Business-Theorie übrigens schon seit Jahren als "Locked-In"-Effekt bekannt ist.
Geschwindigkeit ist (k)eine Hexerei: Rapid Prototyping wird Handwerkszeug
Verlage haben ihre gewohnten Vorgehensweisen, sie denken und handeln langfristig. In einer Zeit, in der Techniktrends über Nacht entstehen können, in der neue Wettbewerber vom Himmel fallen oder Medienhypes nach einer Reaktion verlangen, stößt diese langfristige Arbeitsweise an ihre Grenzen. Heute lautet die Frage: Wie schnell sind wir in der Lage, auf neue Entwicklungen zu reagieren, vorbei an allen Planungen? Geschwindigkeit wird zum Wettbewerbsvorteil, auch Verlage müssen die neuen Regeln des Rapid Prototyping lernen.
Erfolgsfaktoren Innovation und Projektteams
Verlage müssen innovativer werden, in allen Bereichen: Von der Produktentwicklung über das Marketing bis hin zur technischen Infrastruktur. Dieses Ziel können sie nur erreichen, wenn sie ihre bisherige, abteilungsorientierte Arbeitsweise durch ein projektorientiertes Vorgehen ergänzen. Nur abteilungsübergreifende Projektteams sind noch in der Lage, komplexe Innovationsprojekte zu managen.
Neues Denken in der Business-Steuerung von Innovationsprojekten
Neue Produkttypen und vor allem andere Erlös- und Geschäftsmodelle stellen Verlage vor erhebliche Probleme: Mit den gewohnten Planungsinstrumenten stoßen sie an Grenzen oder verhindern sogar Innovationen. Bisher galt: Jeder professionelle Verlage verfügt über ein Kennziffernsystem für die Steuerung von Neuprodukten. Bei vielen neuen Digitalprodukten greift dieses Steuersystem nicht (wie z.B. eine auf drei Jahre berechnete Renditeerwartung). Eine radikale Lösung für dieses Dilemma habe ich jüngst von einem Fachverlag gehört: Er verzichtet bei Neuprojekten auf eine detaillierte Businessplanung, da alles andere Kaffeesatzleserei sei. Vorgegeben wird ein Rahmen aus Personal- und Finanzressourcen, die Budgetierung läuft über den Entwicklungsetat. Geht das Projekt schief, entsteht kein Problem in der Bilanz, gelingt es, können Zusatzerlöse verbucht werden und das neue Produkt kann in die normale Finanzplanung überführt werden.
Endkundenmarketing und CRM gewinnen weiter an Bedeutung
Wahrlich kein neuer Trend, schon oft von uns prognostiziert, aber immer noch ganz oben auf der Agenda: Konsequentes Endkundenmarketing gewinnt weiter an Bedeutung. Viele Verlage stehen erst am Anfang und müssen zunächst einmal eine CRM-Strategie definieren: Für welche Zwecke sammeln wir wo welche Kundendaten? Die Umsetzung ist nicht einfach, sowohl was die Datenerfassung- und pflege betrifft, als auch Datenauswertung. Der Benefit: Eine gute CRM-Infrastruktur macht ganz neue Produkte möglich, die sich aus der Datenanalyse ergeben.
Vom Kundenbedarf zum Konzept zum Produkt
Die Filmindustrie hat den Bogen schon länger raus: Würde man hier stets auf die Eingebung eines Drehbuchautors warten, hätte sich die Filmindustrie niemals so entwickeln können. Ihr Ansatz: Am Anfang steht das Konzept, danach werden die Kreativen (Autoren, Regisseur, Schauspieler etc.) gesucht. In vielen Verlagen (auch im Fachverlagsbereich) geht es umgekehrt: Am Anfang steht der Autor, die Lektorate sind als Goldnuggetsuchende mit der Manuskriptsichtung beschäftigt. Doch diese Arbeitsweise wird immer öfter durch eine markt- und kundenorientierte Vorgehensweise ersetzt: Am Anfang steht der Kundenbedarf, dann folgt das Konzept, dann erst werden Autoren (und andere Kreative) gesucht.
Markenaufbau hat oberste Priorität
Wenn Verlage wie gehabt mit Autoren zusammenarbeiten, spüren sie die Grenzen: Viele Autoren geben Verlagen längst nicht mehr alle Verwertungsrechte, manchmal bleibt auch die Marke beim Autor. Deshalb wird es Ziel von Verlagen sein, die Marken selbst zu besitzen. Beispiele im Buchbereich finden sich vor allem im Kinderbuch (Vorbild ist Coppenrath). Aber auch im Erwachsenenbereich gibt es Beispiele (wie Perry Rhodan), die zeigen, welchen Vorteil Verlage durch Markenbesitz haben. Im Zeitschriftenbereich ist das Thema schon länger aktuell, aber auch hier entdecken viele Verlage erst die Chancen konsequenter Markenführung
Markeninhalte oder Serviceprovider: Die beiden Basisstrategien für Verlage
Verlage mit starken Marken können weiterhin auf Content setzen - das zeigt sich bei Beck, bei Heise oder beim Deutschen Fachverlag (und natürlich bei allen Publikumsverlagen mit einzigartigen Autoreninhalten). Verlage ohne derart starke Marken setzen vermehrt auf Service für Leser und für Anzeigenkunden. Beispiele hierfür sind der Müncher IT-Spezialist IDG, der sich eindeutig als Serviceprovider positioniert, aber auch WoltersKluwer, das mit dem neuen Jurion-Portal eine personalisierte Arbeitsumgebung für seine Kunden schaffen möchte (siehe hierzu mein Blogpost).
Semantik über alles: Content goes Kundenbedarf
Jahrelang fristeten die diffizilen Erkenntnisse der Wissenschaft im Bereich der Semantik ein Schattendasein. Nur die wenigen ertragstarken Fachverlagskonzerne wagten sich an diese teure und komplexe Technologie. Doch nun, da sich die Content-Strukturierung mit XML zum Standard entwickelt, erkennen immer mehr Verlage den Nutzen einer intelligent automatisierbaren Contentanalyse und der drauf basierenden Möglichkeit, Inhalte zu clustern, zu verknüpfen und contextbezogen zu publizieren. Der Kunde rückt so noch mehr ins Zentrum, seine Navigation durch die unendlichen Contentweiten wird durch Semantik verbessert, bis hin zur Abbildung individueller Interessenprofile.
Vom Buch zur Soap: Das E-Book als Häppchenlektüre
Die Japaner machen es seit Jahren vor: Digitale Unterhaltungsliteratur verkauft sich wunderbar nach dem Soap-Prinzip. Kurze Sequenzen, Cliffhänger, niedriger Preris: Das perfekte E-Book ist eine Short Novel mit Fortsetzung. Lübbe hat das Web Novel-Prinzip als erster umgesetzt. Andere werden folgen.
Social Media als Teil des Produkts: Kundenbindung durch Locked-in-Effekt
Immer mehr Verlage experimentieren mit den Social Media-Plattformen, vor allem mit Facebook und Twitter. Ziel ist eine neue Form der Kundenkommunikation - der Mehrwert für das Business ist nicht immer klar und kann auch nur schwer mit Kennziffern ermittelt werden. Einige Verlage jedoch nutzen Social Media-Elemente, um ihre Produkte zu verbessern - sie machen Community- und Collaboration-Tools zu Bestandteilen ihrer Produkte. Beispiele hierfür sind originäre Communitys wie urbia.de, chefkoch.de oder holidaycheck.de, aber auch Fachportale wie die Haufe-Communities und jurion.de, die innovative Arbeitsumgebung für Juristen von Wolters Kluwer. Dass dieser Ansatz auch im Firmenmkundengeschäft prächtig funktioniert, zeigt die Erfolgsgeschichte von speexx.com, dem B2B-Angebot der digital publishing AG. Wem die Integration von Social Media in das Produktangebot gelingt, der reüssiert in der Königsdisziplin Kundenbindung: Tiefer als durch persönliche Inhalte und Vernetzung lässt sich ein Nutzer wohl kaum an ein Angebot binden, wie Facebook millionenfach beweist. Ein Phänomen, das in der E-Business-Theorie übrigens schon seit Jahren als "Locked-In"-Effekt bekannt ist.
Geschwindigkeit ist (k)eine Hexerei: Rapid Prototyping wird Handwerkszeug
Verlage haben ihre gewohnten Vorgehensweisen, sie denken und handeln langfristig. In einer Zeit, in der Techniktrends über Nacht entstehen können, in der neue Wettbewerber vom Himmel fallen oder Medienhypes nach einer Reaktion verlangen, stößt diese langfristige Arbeitsweise an ihre Grenzen. Heute lautet die Frage: Wie schnell sind wir in der Lage, auf neue Entwicklungen zu reagieren, vorbei an allen Planungen? Geschwindigkeit wird zum Wettbewerbsvorteil, auch Verlage müssen die neuen Regeln des Rapid Prototyping lernen.
Erfolgsfaktoren Innovation und Projektteams
Verlage müssen innovativer werden, in allen Bereichen: Von der Produktentwicklung über das Marketing bis hin zur technischen Infrastruktur. Dieses Ziel können sie nur erreichen, wenn sie ihre bisherige, abteilungsorientierte Arbeitsweise durch ein projektorientiertes Vorgehen ergänzen. Nur abteilungsübergreifende Projektteams sind noch in der Lage, komplexe Innovationsprojekte zu managen.
Neues Denken in der Business-Steuerung von Innovationsprojekten
Neue Produkttypen und vor allem andere Erlös- und Geschäftsmodelle stellen Verlage vor erhebliche Probleme: Mit den gewohnten Planungsinstrumenten stoßen sie an Grenzen oder verhindern sogar Innovationen. Bisher galt: Jeder professionelle Verlage verfügt über ein Kennziffernsystem für die Steuerung von Neuprodukten. Bei vielen neuen Digitalprodukten greift dieses Steuersystem nicht (wie z.B. eine auf drei Jahre berechnete Renditeerwartung). Eine radikale Lösung für dieses Dilemma habe ich jüngst von einem Fachverlag gehört: Er verzichtet bei Neuprojekten auf eine detaillierte Businessplanung, da alles andere Kaffeesatzleserei sei. Vorgegeben wird ein Rahmen aus Personal- und Finanzressourcen, die Budgetierung läuft über den Entwicklungsetat. Geht das Projekt schief, entsteht kein Problem in der Bilanz, gelingt es, können Zusatzerlöse verbucht werden und das neue Produkt kann in die normale Finanzplanung überführt werden.
Endkundenmarketing und CRM gewinnen weiter an Bedeutung
Wahrlich kein neuer Trend, schon oft von uns prognostiziert, aber immer noch ganz oben auf der Agenda: Konsequentes Endkundenmarketing gewinnt weiter an Bedeutung. Viele Verlage stehen erst am Anfang und müssen zunächst einmal eine CRM-Strategie definieren: Für welche Zwecke sammeln wir wo welche Kundendaten? Die Umsetzung ist nicht einfach, sowohl was die Datenerfassung- und pflege betrifft, als auch Datenauswertung. Der Benefit: Eine gute CRM-Infrastruktur macht ganz neue Produkte möglich, die sich aus der Datenanalyse ergeben.
Donnerstag, 2. Februar 2012
Cash-Out, Relaunch, digitale Transformation? Was tun mit Loseblattwerken? Ein Konferenzhinweis
Für Jahrzehnte bildeten Loseblattwerke (LBW) die Cash Cow in vielen Fachverlagen. Das Geschäftsmodell war genial – für Verlage, und für die Kunden, die im vordigitalen Zeitalter auf einfache Weise mit aktuellen Fachinformationen in Nachschlageform versorgt werden konnten. Im Zeitalter der digitalen Medien wirken Loseblattwerke jedoch wie ein Anachronismus.
Doch Vorsicht: Obgleich schon Mitte der 90er Jahre totgesagt, lebt das Loseblattwerk immer noch. Die Realität in vielen Fachverlagen: Noch immer erscheinen hunderte LBW, sie liefern einen wesentlichen Teil, wenn nicht sogar die Basis für die Erlöse. Ein schönes Beispiel für einen solchen scheinbaren Anachronismus ist das LBW "Heise Online-Recht: Der Leitfaden für Praktiker & Juristen“ - also gedrucktes Online-Recht.
Offensichtlich möchten viele Kundengruppen weiterhin nicht auf das LBW verzichten und sind vor allem bereit, (im Unterschied zu Online), dafür zu bezahlen. Auch deshalb werden weiterhin neue Werke auf den Markt gebracht.
Dennoch ist der Trend eindeutig: Bei den meisten Loseblattwerken entwickeln sich die Kennziffern (Abonnements, Haltbarkeit, Cost-per-Order) negativ. Was also tun? Grundsätzlich gibt es drei Optionen:
Doch Vorsicht: Obgleich schon Mitte der 90er Jahre totgesagt, lebt das Loseblattwerk immer noch. Die Realität in vielen Fachverlagen: Noch immer erscheinen hunderte LBW, sie liefern einen wesentlichen Teil, wenn nicht sogar die Basis für die Erlöse. Ein schönes Beispiel für einen solchen scheinbaren Anachronismus ist das LBW "Heise Online-Recht: Der Leitfaden für Praktiker & Juristen“ - also gedrucktes Online-Recht.
Offensichtlich möchten viele Kundengruppen weiterhin nicht auf das LBW verzichten und sind vor allem bereit, (im Unterschied zu Online), dafür zu bezahlen. Auch deshalb werden weiterhin neue Werke auf den Markt gebracht.
Dennoch ist der Trend eindeutig: Bei den meisten Loseblattwerken entwickeln sich die Kennziffern (Abonnements, Haltbarkeit, Cost-per-Order) negativ. Was also tun? Grundsätzlich gibt es drei Optionen:
- Cash-Out: Das LBW wird als Auslaufprodukt behandelt, es wird nicht investiert, sondern solange verlegt, bis die Rechnung nicht mehr aufgeht. Dann folgt die Einstellung.
- Relaunch: Das LBW wird einem Relaunch unterzogen, um neue Kunden zu gewinnen. Das kann bishin zu einer kompletten Konzeptänderung gehen, wie das Beispiel nwb zeigt
- Digitale Transformation: Das LBW wird durch ein digitales Angebot ersetzt - ein Weg, den beispielhaft die WEKA-Fachverlage beschritten haben.
Dienstag, 10. Januar 2012
Ein breites Know-How nötig - der Zertifikatskurs zum Projektmanager E-Publishing
Das Management von E-Business-Projekten erfordert neues Denken und ein spezielles Know how. Deshalb haben wir gemeinsam mit der Akademie des Deutschen Buchhandels den Zertifikatskurs "Projektleiter E-Publishing ADB" konzipiert – vom 23. - 27. Januar 2012 wird er zum sechsten Mal durchgeführt. Im folgenden Interview nennt Christian Kohl, Referent und Senior Manager E-Business beim Verlag Walter de Gruyter, Anforderungen und Erfolgsfaktoren.
Welches technische Know how benötigt ein E-Publishing-Projektmanager? Eher tief oder eher breit?
Christian Kohl: Es wird eher breites Know-How benötigt - und die richtigen Kontakte, Dienstleister, Partner, die das tiefe Know-How dann liefern, wenn es gebraucht wird. Grundsätzlich muss aber die Fähigkeit vorhanden sein, sich in bestimmte technische Themen schnell vertiefen zu können, wenn das erforderlich wird. Deshalb sollten gewisse Grundlagen, ob aus einem Studium oder anderen "Vorleben" resultierend, vorhanden sein. Ein aktuelles Beispiel wäre etwa "Cloud Computing".
Wo sollte ein E-Publishing-Manager im Verlag positioniert sein? In den Redaktionen, in der Herstellung, als Stabstestelle? Welche Kompetenzen benötigt diese Position?
Christian Kohl: Das hängt auch ein stückweit vom Verlag ab. Ich finde eine Positionierung als Teil/Unterabteilung der Herstellung sinnvoll. Der Bereich E-Publishing muss sowohl in die Planung neuer "e-Geschäftsmodelle" als auch neuer "e-Produkte" einbezogen werden, und zwar frühzeitig. Gleichzeitig muss die Entscheidung über Features, Umsetzung des Produkts, Plattformen letztlich im Bereich E-Publishing liegen - der sich natürlich mit Vertrieb, Marketing, Business Development, Lektoraten über deren Anforderungen und die der Kunden abstimmt. Die erforderlichen Kompetenzen sind damit auch klar: kommunikationsfreudig, solide technische Grundkenntnisse, entscheidungsstark, beherrschen von Komplexität, Umgang mit Veränderungen.
Was sind die zentralen Erfolgsfaktoren für ein erfolgreiches Projektmanagement beim E-Publishing?
Christian Kohl: Zentrale Erfolgsfaktoren sind für mich: Umgang mit Veränderungen im Projekt, intensive Kommunikation mit den Stakeholdern und ständiges Überprüfen und Anpassen der Ziele, Meilensteine und Risikobewertungen. Gerade im E-Publishing ändern sich Rahmenbedingungen oft kurzfristig, es tauchen unvermittelt neue Probleme oder Möglichkeiten auf - das gilt es als Projektmanager zu akzeptieren und damit umzugehen. Zudem bewegen sich E-Publishing Projektmanager immer zwischen verschiedenen Parteien - Lektorat, Marketing, Vertrieb, Herstellung um die typischsten zu nennen. Die Erwartungen, Anforderungen und Bedenken dieser Stakeholder müssen gemanagt werden, Kommunikation ist das oberste Gebot.
Wohin entwickelt sich das E-Publishing-Management? Geht es um E-Produkte, oder um Prozesse oder ganz breit um Content Management?
Christian Kohl: Es geht sicherlich in den allermeisten Fällen um die Prozesse, nicht um einzelne Produkte. Die Produktionsabläufe für E-Content müssen vereinheitlicht und gestrafft werden, Abläufe müssen zumindest teilweise automatisiert werden. Das gilt für den gesamten Prozess. Ziel muss sein, dass "e-Produkte" nicht mehr etwas besonderes sind, sondern die damit verbundenen Abläufe zu Routineabläufen werden. Außerdem müssen die (technischen und organisatorischen) Voraussetzungen getroffen werden, um schnell auf veränderte Rahmenbedingungen reagieren zu können. Die Fähigkeit, sich schnell an Veränderungen, seien es Datenformate, Verkaufskanäle etc., anpassen zu können, ist (neben Innovation) ein zentraler Erfolgsfaktor.
Was ist Ihre Kernbotschaft bei Ihrem Part in der Winter School?
Christian Kohl: Erster, zweiter und dritter Erfolgsfaktor im Projektmanagement ist Kommunikation. Als Projektmanager im E-Publishing müssen Sie regelmäßig und offen mit den Stakeholdern kommunizieren. Verabschieden Sie sich außerdem von starren Plänen und Abläufen und bleiben Sie flexibel - Veränderungen sind keine Bedrohung, sondern eine Chance.
Welches technische Know how benötigt ein E-Publishing-Projektmanager? Eher tief oder eher breit?
Christian Kohl: Es wird eher breites Know-How benötigt - und die richtigen Kontakte, Dienstleister, Partner, die das tiefe Know-How dann liefern, wenn es gebraucht wird. Grundsätzlich muss aber die Fähigkeit vorhanden sein, sich in bestimmte technische Themen schnell vertiefen zu können, wenn das erforderlich wird. Deshalb sollten gewisse Grundlagen, ob aus einem Studium oder anderen "Vorleben" resultierend, vorhanden sein. Ein aktuelles Beispiel wäre etwa "Cloud Computing".
Wo sollte ein E-Publishing-Manager im Verlag positioniert sein? In den Redaktionen, in der Herstellung, als Stabstestelle? Welche Kompetenzen benötigt diese Position?
Christian Kohl: Das hängt auch ein stückweit vom Verlag ab. Ich finde eine Positionierung als Teil/Unterabteilung der Herstellung sinnvoll. Der Bereich E-Publishing muss sowohl in die Planung neuer "e-Geschäftsmodelle" als auch neuer "e-Produkte" einbezogen werden, und zwar frühzeitig. Gleichzeitig muss die Entscheidung über Features, Umsetzung des Produkts, Plattformen letztlich im Bereich E-Publishing liegen - der sich natürlich mit Vertrieb, Marketing, Business Development, Lektoraten über deren Anforderungen und die der Kunden abstimmt. Die erforderlichen Kompetenzen sind damit auch klar: kommunikationsfreudig, solide technische Grundkenntnisse, entscheidungsstark, beherrschen von Komplexität, Umgang mit Veränderungen.
Was sind die zentralen Erfolgsfaktoren für ein erfolgreiches Projektmanagement beim E-Publishing?
Christian Kohl: Zentrale Erfolgsfaktoren sind für mich: Umgang mit Veränderungen im Projekt, intensive Kommunikation mit den Stakeholdern und ständiges Überprüfen und Anpassen der Ziele, Meilensteine und Risikobewertungen. Gerade im E-Publishing ändern sich Rahmenbedingungen oft kurzfristig, es tauchen unvermittelt neue Probleme oder Möglichkeiten auf - das gilt es als Projektmanager zu akzeptieren und damit umzugehen. Zudem bewegen sich E-Publishing Projektmanager immer zwischen verschiedenen Parteien - Lektorat, Marketing, Vertrieb, Herstellung um die typischsten zu nennen. Die Erwartungen, Anforderungen und Bedenken dieser Stakeholder müssen gemanagt werden, Kommunikation ist das oberste Gebot.
Wohin entwickelt sich das E-Publishing-Management? Geht es um E-Produkte, oder um Prozesse oder ganz breit um Content Management?
Christian Kohl: Es geht sicherlich in den allermeisten Fällen um die Prozesse, nicht um einzelne Produkte. Die Produktionsabläufe für E-Content müssen vereinheitlicht und gestrafft werden, Abläufe müssen zumindest teilweise automatisiert werden. Das gilt für den gesamten Prozess. Ziel muss sein, dass "e-Produkte" nicht mehr etwas besonderes sind, sondern die damit verbundenen Abläufe zu Routineabläufen werden. Außerdem müssen die (technischen und organisatorischen) Voraussetzungen getroffen werden, um schnell auf veränderte Rahmenbedingungen reagieren zu können. Die Fähigkeit, sich schnell an Veränderungen, seien es Datenformate, Verkaufskanäle etc., anpassen zu können, ist (neben Innovation) ein zentraler Erfolgsfaktor.
Was ist Ihre Kernbotschaft bei Ihrem Part in der Winter School?
Christian Kohl: Erster, zweiter und dritter Erfolgsfaktor im Projektmanagement ist Kommunikation. Als Projektmanager im E-Publishing müssen Sie regelmäßig und offen mit den Stakeholdern kommunizieren. Verabschieden Sie sich außerdem von starren Plänen und Abläufen und bleiben Sie flexibel - Veränderungen sind keine Bedrohung, sondern eine Chance.
Abonnieren
Posts (Atom)