• 13. Oktober 2011 22:10
  • Besprechung, Sendung vom 15.10.2011

Kollaborative Datenextraktion

Scraperwiki und Tools für Datenjournalisten


> MP3-DOWNLOAD

Der Begriff des Datenjournalismus verfeinert sich ebenso wie die Dichte der Daten, die im Netz zugänglich sind. Der Datenjournalismus sei eine „Folge der zunehmenden Menge an numerischen Daten in der Produktion und Verbreitung von Informationen“, schreibt das deutschsprachige Fachblog datenjournalist.de und bezieht sich dabei auf die aktuelle Debatte um eine Definition des Begriffs. Der Datenjournalismus sei zudem das Ergebnis der wachsenden Zusammenarbeit von Journalisten, Designern, Programmierern und Statistikern.

Das Potenzial für diesen neuen Berufszweig scheint riesig. Das dokumentieren diverse datenjournalistische Projekte. Denn der Bestand an rohen, blanken Daten im Netz ist riesig. Aber genau das ist auch ein Problem. Denn erst der einfache, maschinenlesbare Zugriff und die sinnhafte Verknüpfung macht aus den rohen Datenbergen einen geschliffenen Datenschatz.

Mit anderen Worten: „There’s lots of useful data on the internet. But getting at it isn’t always easy. It’s like trying to build something from Lego when someone has hidden the bricks all over town and you have to find them before you can start building!“ Das schreiben die Macher der ScraperWiki-Plattform. Deren Ziel ist es, so genannte Screen Scrapers, Programme also, die Rohdaten aus dem Netz extrahieren, für Interessierte frei zugänglich zu machen. Über diese Form der kollaborativen Datenextraktion und Verknüpfung sprechen wir mit dem Informationsarchitekten und Datenjournalisten Mikro Lorenz.

Weiterführende Links
Los Angeles Times Data Desk
Datenjournalist – Blog über OpenData & Data-Driven-Journalism
Guardian Data Blog
Data Journalism Blog
Data Miner UK Blog
Open Data Blog bei Zeit.de

Foto: CC-BY Flickr/blprnt_van