Permalink

0

Reader Analytics: Zielgruppenwissen für Verlage oder Humbug?

Reader AnalyticsMarketingmenschen sind Zahlenfetischisten. Alles, was nicht bei eins auf den Bäumen ist, wird gezählt, A/B-Tests gemacht, in Funnel-Analysen werden Bestell-Hemmnisse analysiert, um die Konversionsrate zu erhöhen. Aber sind solche Metriken auf das getippte Wort, auf Literatur übertragbar? Die Antwort lautet wie so oft im Leben: Jein.

In mehr oder weniger regelmäßigen Abständen taucht das Thema »Datenanalyse« und »Auswirkungen auf den Inhalt« in den Branchendiskussionen auf, mal eher skurril wie im Falle des »Hawking-Index«, mal eher ernsthaft aber mit wenig Aussagekraft wie das Whitepaper »Publishing in the Era of Big Data« von Kobo mit Zahlenmaterial aus deren Kobo Reading Life-Programm. Die bisherigen Erkenntnisgewinne waren eher mager – oder was bringt es einem deutschen Belletristikverleger, wenn er durch Kobo weiß, dass Titel aus dem Bereich »Romance« im weltweiten Durchschnitt nur zu 70% gelesen werden (am ausdauerndsten dabei: Italien)? Oder religiöse Literatur nur zu maximal 45%? An letzterem Punkt kann man übrigens schon erkennen, welche Grenzen der Mathematik gesetzt sind. Überspitzt formuliert: wer liest denn schon die Bibel von Anfang bis Ende – am Stück? Doch dazu später mehr.

Diskutiert wird dennoch fleißig und mit Emphase. Francine Prose, New York Review of Books, sieht eine Zukunft kommen, in der »writers (and their editors) could soon be facing meetings in which the marketing department informs them that 82 percent of readers lost interest in their memoir on page 272. And if they want to be published in the future, whatever happens on that page should never be repeated.« Jonathan Galassi, Verleger bei Farrar, Straus & Giroux, kann mit dieser Sichtweise aber überhaupt nichts anfangen und trotzt: »We’re not going to shorten ›War and Peace‹ because someone didn’t finish it.«

Dies sind nur zwei gegensätzliche Pole in der Diskussion um Sinn und Unsinn von Nutzungsanalysen bei der Rezeption von Inhalten, meist basierend auf belletristischen Inhalten. Allerdings gilt auch hier die alte Binse »Verlag ist nicht Verlag«.  Den Krieg-und-Frieden-Verleger (und vielleicht auch -Leser) ficht dies alles vielleicht nicht an, aber bei Ratgeberliteratur, Fachbüchern etc. kann dies schon wieder ganz anders aussehen. Wenn beispielsweise die Leser eines E-Books zu 100 Hunderassen immer auf das Kapitel zum Dackel zugreifen – wie wäre es mit einer Dackel-Monographie? Noch schicker wäre es, diese Monographie den Interessierten anbieten zu können – aber dies würde erstens ein funktionierendes CRM voraussetzen, mehr aber noch Zugriff auf die Nutzerdaten wie E-Mailadresse. Dies lassen die Shop-Plattformen jedoch nicht zu. Was sie im übrigen mit dem Buchhandel gemein haben, aber das ist ein anderes Thema.

Reader Analytics – Hype oder Hoax?

Einige der Unternehmen der ersten Stunde, die sich dem Thema »Reader Analytics« verschrieben haben, sind auch schon vom Markt verschwunden, man denke nur an Hiptype. Und dennoch lässt das Thema die Verlagsbranche nicht los, wie erst kürzlich auf dem EbookCamp Hamburg gesehen, als Kornelia Holzhausen und Susanne Schmitz von Piper das »Projekt Marille« und einen spannenden Werkstattbericht zum Tracking in E-Books vorstellten. Doch auch in der Diskussion auf dem EbookCamp war sofort wieder der Gegensatz zwischen Technikbefürwortern und Literaturbewahrern spürbar.

Es ist wohl an der Zeit, sich einmal aus technischer Sicht genauer anzusehen, worüber wir beim Thema „Reader Analytics“ eigentlich reden, welches Datenmaterial überhaupt zur Verfügung steht, welche Messmethoden zur Anwendung kommen.

Dies sind zum einen reine Nutzungsdaten, wie sie große Plattformen mehr oder weniger offen erheben, also quantitativ. Oder zum anderen qualitative Daten, die in Fokusgruppen erfasst werden – Piper hat dies gemacht, also Nutzungsdaten, angereichert aber mit dezidierten Befragungen der Leser, ein anderes grosses westdeutsches Verlagshaus testet ein ähnliches Verfahren mit der SocialReading-Plattform Wattpad.

Beide Methoden haben ihre Vor- und Nachteile. Erstere führt zu Ergebnissen wie obenstehend seitens Kobo, letztere zu einer unter Umständen eingeschränkten, nicht wirklich repräsentativen, auch leicht mehr oder weniger absichtlich manipulierbaren Sichtweise.

Auch die einzelnen Messmethoden unterliegen ihren ganz eigenen Beschränkungen, teilweise von unerwarteter Seite, beispielsweise dem Datenschutz. Vielleicht sind dem werten Leser dieser Zeilen schon die mehr oder weniger versteckten Hinweise beim Besuch von Websites aufgefallen, man möge doch bittebitte Cookies, diese kleinen gemeinen Datensammler, aktivieren. Tut man dies nicht, kann die Gegenseite nicht messen – und ein bisher unklar großer Anteil an Websitenbesuchern spaziert mit dem digitalen Äquivalent von Harry Potters »Invisibility cloak« umher, ein Alptraum für jeden Analysten. Ähnliches gilt dann auch im Bereich der quantitativen Nutzungserfassung von digitaler Lektüre.

Manchmal können Analyse-»Fehler« auch recht triviale Gründe haben. Technisch hört ein E-Book am Ende auf. Klingt logisch, oder? Aber endet der Inhalt auch wirklich am Ende? Vielleicht auch einmal etwas früher, man war ja so frei als Verlag und hat noch ein paar Anzeigen an den Schluss des E-Books gepackt. Hier muss man also genau hinsehen.

Noch schlimmer und ein weiterer Nightmare jedes Analysten: Es gibt kein eindeutiges Ergebnis. »Die hören alle bei 67% Umfang auf!« wäre vielleicht nicht schön, aber wenigstens eine klare Aussage. Was aber, wenn sich die Leseabbrüche halbwegs proportional verteilen? Mit der qualitativen Messmethode ließen sich die Leser wenigstens befragen, aber mit der quantitativen wurde in diesem Fall nur Strom verbraucht.

Die richtigen Fragen stellen

Sich an wenigen Kennzahlen zu orientieren kann zu fehlerhaften Schlüssen und Entscheidungen führen. Wichtig sind auch Umfelddaten und eine gesunde Einschätzung aller Faktoren untereinander. Zur Illustration mag hier die kürzliche Einführung des »Article Score« durch die Verantwortlichen der Tageszeitung »Die Welt« dienen – das fast schon in Stein gemeißelte goldene Kalb der reinen Zugriffe wurde um qualitative Faktoren erweitert: »Ein User, der von irgendwoher in einem Artikel landet und nach acht Sekunden welt.de wieder verlässt, hat uns im Grunde genommen wenig gebracht. Er hat sich offenbar nicht mit dem Inhalt beschäftigt, kaum zu Ende gelesen, unsere Marke nur marginal wahrgenommen.« Das Ergebnis der Überlegungen war, Zahlen wie Verweildauer, Abbruchraten oder Zugriffe aus sozialen Netzwerken mit hinzuzuziehen, um ein ganzheitliches Nutzungsbild zu bekommen.

Um dieses Nutzungsbild sinnvoll erfassen und auswerten zu können, ist es aber wichtig, vorher sich selbst die »richtigen Fragen« zu stellen, ganz un-technisch. Schon allein, um nicht im Zahlenwust gänzlich unterzugehen. Also ganz konkret überlegen, was man denn wissen will – Leseabbrüche, Lesezeit, Markierungen, allgemeine Lese-Schwerpunkte zur Generierung von Produktideen, lineares versus sprunghaftes Lesen etc. Oder vielleicht auch einmal andersherum: »Prototypen« zur Verfügung stellen, Nutzung evaluieren und mit diesen Erkenntnissen dann das endgültige Produkt ferigstellen. Der Möglichkeiten sind viele, nur sollte man sich über das Ziel (nicht das Ergebnis natürlich) eines Messverfahrens vorher im Klaren sein. Bei einer sinnvollen Analyse geht es um möglichst umfassendes Wissen über den Kunden in Relation zu Produkten und Services, und erst das Zusammenspiel vieler Daten ergibt Sinn.

Und wo sind sie jetzt, die schönen E-Book-Daten?

Was dem Onliner seine Cookie-Verweigerer, das sind dem Verlag die Shop-Plattformen – black boxes, in die nicht hineingeschaut werden kann. Verkaufszahlen ja, aber eben nicht mehr. Nutzungs- und Käufer-Daten liegen meist im sicheren digitalen Safe des Betreibers, zumindest bei den größeren Plattformen. Ein Grund übrigens auch, warum im Moment halbwegs valide Zahlen nur aus den qualitativen MaFo-Analysen ausserhalb der grossen Plattformen kommen, und diesen mangelt es an hoher Nutzerzahl. Oder anders ausgedrückt: die einen sitzen auf Petabytes an Daten, geben diese aber nicht heraus, die anderen können qualitativ (aus der Not heraus) punkten, aber nur mit wenig repräsentativen Nutzerzahlen. Im Moment begnügen sich Zahlenfreunde denn auch mit der Apple-Plattform, die als einzige die nötigen technischen Verfahren zulässt – aber mit Verlaub, wie repräsentativ ist deren Marktanteil in Deutschland?

Ob diese Plattformen Nutzungszahlen jemals herausgeben werden? Eher unwahrscheinlich, da Nutzer- und Nutzungsdatenanalyse ja zu deren Kerngeschäft gehört, dazu braucht man auch gar nicht erst das oft gehörte Beispiel von Netflix heranziehen. Vielleicht wird es ähnlich wie bei Facebook oder etwa seit Neuestem bei Spotify die Möglichkeit geben, auf anonymisierte Daten zuzugreifen. Aber warum sollten Größen wie Amazon dies tun, solange der Content-Nachschub ungebrochen ist? Analyse zur wie auch immer gearteten Optimierung einzelner Produkte spielt hier keine Rolle, so lange neue Produkte stetig nachfolgen.

Also was tun? Vielleicht einen Schritt zurücktreten und sich vergegenwärtigen, was E-Books eigentlich sind, nämlich verkürzt nichts anderes als Webseiten (weswegen ja die Analyseverfahren altvertraute aus dem Online-Bereich sind), bewährte, offene Technologien. Problemlos abrufbar über eine Lese-Software, die auf fast jedem digitalen Device, von Smartphone bis SmartTV, vorinstalliert ist: dem guten alten Browser. Dazu eine sinnvolle, neutrale E-Commerce-Umgebung und ein Repository (auf gut deutsch: eine E-Book-Bibliothek), die von jedem Gerät auf ein anderes übertragbar wäre, gebunden an den Nutzeraccount. Damit wäre nicht nur das Analyse-Problem behoben, sondern gleich auch den großen Plattform-Monolithen die Stirn geboten. DAS wäre einmal ein Branchen-Projekt! Und wie immer bei solchen Themen ist die Realisierungswahrscheinlichkeit nahe bei Null. Aber man wird ja noch träumen dürfen …

Zuerst erschienen im BookBytes-Blog des Börsenblatts in zwei Teilen.

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.