Fabian Kern, Fachreferent der Abendgesprächsreihe Publishing Monday (#pubmon), hat seinen Vortrag zu Big Data-Trends und Best Practices, wie z. B. die nutzergesteuerte Erstellung von E-Book-Reihen und die Nachverfolgung von Verlags-Content in sozialen Netzwerken, noch einmal zusammengefasst.
Lange war es nur ein Schlagwort aus der Welt der Suchmaschinen und der großindustriellen Datenverarbeitung: Big Data. Längst ist der Trend jedoch auch in der Medienbranche angekommen, und kann für diesen Bereich über das wortwörtliche Verständnis als Technologieansatz für die Verarbeitung von Datenmengen im Terabyte/Petabyte-Bereich hinaus eine deutlich wichtigere Bedeutung haben: Als ein eigenständiges Paradigma im Umgang mit Daten, insbesondere mit Kundendaten.
Die Beispiele kommen dabei wie so oft aus den USA: Die Verwendung von aggregierten Nutzerdaten und Big Data-Auswertung zu Erstellung von Bedürfnis-getriebenen Produkten nach Kundenwunsch wird dort insbesondere in den News-Medien zunehmend verwendet. Bei diesen Verfahren werden vom Kunden signalisierte Daten, etwa Suchanfragen oder die Art und Menge an Artikel-Klicks über bestimmte Themen-Gebiete zu Trends verdichtet, in denen offenbar ein Informationsbedürfnis besteht. Aus bestehendem News-Content und situativ zusätzlich erstellten Artikeln wird dann, ebenfalls mit maximal optimiertem Produktionszyklus, ein Neu-Produkt erstellt, das passgenau auf das Informationsbedürfnis zugeschnitten ist.
Die Online-Plattform AskMen hat auf diesem Ansatz beispielsweise ein neues eBook-Programm aufgebaut, das thematisch direkt auf ihrem Portal aufsetzt und die Inhalte aufnimmt und fortschreibt, die dort in anderer Form veröffentlicht wurden. Klar ist dabei natürlich: Je mehr Nutzer und je mehr Interaktion eine Plattform hat, umso interessanter können auch die entstehenden Produkte werden. Auch die vielen neu entstandenen eBook-Reihen in Deutschland, wie etwa bei der ZEIT, dem Spiegel oder der FAZ, zeigen das Potenzial in diesem Bereich. Hier werden zwar bisher im wesentlichen vorhandene Inhalte zweitverwertet, neu zusammengestellt und über eBook-Vertriebskanäle distribuiert – werden aber die Möglichkeiten von Analytics ausgenutzt, hätte alle genannten Plattformen sicher das Potenzial, auch generische Digitalmedien zu entwickeln.
Die New York Times dagegen hat in ihren NYT Labs zunächst einen eher experimentellen Ansatz ausprobiert: Aus einem Projekt von Daten-Artisten und Visualisierungs-Spezialisten ist das Social Media Monitoring-Tool „Cascade“ entstanden. In Echtzeit werden dabei die Tweets von NYT-Content in ihrer Verbreitung durch die Netzwerke visualisiert, sowohl auf Makro-Ebene, im Zeitverlauf oder über ihre geographische Verteilung, aber auch zoombar bis hinunter auf die Ebene des einzelnen Tweets.
Cascade entstand dabei zunächst ohne einen konkreten Verwendungszweck, sondern als Werkzeug, um zu lernen, wie Content aus einem Print-Medium in anderen Medien ganz unterschiedlich verwendet wird. Mittelfristig resultieren aus solchen Tools natürlich strategische Erkenntnisse über die Verteilung von Zielgruppen, Möglichkeiten zur Optimierung von Social Media-Kanälen oder auch Wissen über das Arbeiten mit Influencern im Marketing.
Noch wird Big Data oft als Buzzword angesehen, das „schon wieder vorbei gehen wird“. Nimmt man aber die Möglichkeiten der datenorientierten Perspektive ernst, können daraus ganz neue Wege entstehen, den Kunden zu sehen und ihm zielgerichtet Produktangebote erstellen zu können