Telefon: +49 (0) 89 / 29 19 53 - 0|info@medien-akademie.de
Home » Blog » Allgemein » Datenjournalismus: Der Datensatz als Interviewpartner

Datenjournalismus: Der Datensatz als Interviewpartner

Die Aussagekraft gut recherchierter und genau ausgewerteter Daten ist unbestechlich – das können Datenjournalisten nutzen, um spannende und lesenswerte Geschichten zu erzählen. Welche Tools dabei helfen und welche Fragestellungen sich mit Daten beantworten lassen, erklärt Bernd Oswald, Trainer für digitalen Journalismus und Leiter des Seminars „Datenjournalismus“ (09.-10.07.18 in München) im Interview.

Herr Oswald, was verbirgt sich hinter dem Begriff Datenjournalismus?
Datenjournalismus ist eine Recherchetechnik, die Geschichten aus Datensätzen lesen will. Der Begriff wird in Deutschland meistens in einem weiteren Sinne gebraucht: Als Berichterstattung über Statistiken mit einer oder mehreren Visualisierungen. Wichtig ist aber in jedem Fall, dass man nicht bereits vorliegende Ergebnisse vermeldet, sondern den Datensatz selbst ausgewertet hat. Im engeren Sinne bedeutet Datenjournalismus, dass man selbst einen Datensatz erstellt: Sei es durch Scrapen, also „Herunterkratzen“ von Daten aus dem Netz, durch eine eigene Datenerhebung oder sogar durch eine Kombination dieser Elemente. Das ist natürlich schwieriger und aufwändiger und dementsprechend auch seltener anzutreffen.
Welche journalistischen Fragestellungen können mit Daten beantwortet werden?
Naturgemäß geht es im Datenjournalismus um alles, was messbar ist. Das heißt, die Frage „Wie viel?“ lässt sich gut anhand von Zahlen beantworten. Weil viele Statistiken auch regional vorliegen, lässt sich auch die Frage „Wo?“ sehr gut beantworten. Daten eignen sich also sehr gut für Vergleiche, sowohl zeitlich als auch räumlich.

Welche Regeln und Workflows gilt es bei der journalistischen Arbeit mit Daten zu beachten?
Zu Beginn der Recherche sollte man eine Hauptfrage stellen und spannende Nebenfragen daraus ableiten. Im nächsten Schritt überlegt sich der Datenjournalist dann, welche Daten er braucht, um die Fragen zu beantworten und woher er diese Daten bekommt. Dann steht die Datenrecherche und der Datendownload an. Hat man die gewünschten Daten, muss man sie überprüfen, bereinigen (im Sinne einer einheitlichen Formatierung) und strukturieren. Ziel ist ein sauberer, maschinenlesbarer Datensatz. Meistens kommt man mit Tabellenkalkulationsprogrammen wie Excel gut zurecht. Kernstück ist dann die Analyse und Interpretation der Daten. Sehr großen Datenmengen werden oft mit Programmiersprachen wie R oder Python ausgewertet. In beiden Fällen ist es von zentraler Bedeutung, keine Aussagen zu treffen, die die Daten nicht hergeben. Wenn man einen Befund hat, formuliert man ihn aus und untermauert ihn durch aussagekräftige Visualisierungen.

Daten verifizieren, bereinigen, visualisieren – das klingt ja zunächst recht technisch. Wie entstehen aus Tabellen, Diagrammen und Funktionen lesenswerte Geschichten?

Wenn man so will, kann man sich den Datensatz als Interviewpartner vorstellen, dem man eine Reihe von Fragen stellt. Man geht hier vom Allgemeinen zum Speziellen. Die Hauptfrage „Ist Autofahren in den letzten 30 Jahren sicherer geworden?“ kann man durch eine Reihe von Nebenfragen, zum Beispiel „Wie hat sich die Zahl der Todesopfer pro gefahrenem Kilometer entwickelt?“ beantworten. Oft muss man dazu einen Anteil berechnen – und das über einen bestimmten Zeitraum, um eine Tendenz erkennen zu können.

Wo und wie recherchiert man die benötigten Daten? Gibt es auch spezielle Tools, die dabei helfen, an die benötigten Zahlen und Fakten zu gelangen?

Wo man die Daten recherchiert, hängt vollkommen von der Fragestellung ab. Manchmal ist es relativ eindeutig, dass man offizielle Daten braucht. Die amtliche Statistik bietet wahnsinnig viel Material. Manchmal geht es aber auch um ein Unternehmen oder Nutzungsdaten eines Netzwerks. Dann muss man dort anfragen – und wenn man nicht weiterkommt, kann man es mit Scrapen versuchen. Tools gibt es natürlich Tausende. Wenn es um den Download von Tabellen geht, helfen Browser-Plugins wie Table Capture. Google bietet in seinem Tabellenkalkulationsprogramm viele Datenimport-Funktionen an. Tabula extrahiert Tabellen aus pdfs, um nur ein paar einfache Beispiele zu nennen. Für komplexere Anfragen ist oft ein Scraper nötig, der eigens für die anvisierte Website geschrieben werden muss. Das können die wenigsten Journalisten, hier ist ein Programmierer gefragt.

Sie wollen erfahren, wie auch Sie Daten systematisch recherchieren, auswerten und zu journalistisch wertvollen Stories aufbereiten? Dann nehmen Sie teil am Seminar „Datenjournalimus“ mit Bernd Oswald vom 09.-10.07.2018 in München.

2018-04-16T15:43:10+00:00

Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen zu Cookies erhalten Sie in unserer Datenschutzerklärung. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um Ihnen das beste Surferlebnis zu ermöglichen. Wenn Sie diese Website ohne Änderung Ihrer Cookie-Einstellungen verwenden oder auf "Akzeptieren" klicken, erklären Sie sich damit einverstanden.

Schließen