I15

Über den Wert offener Daten

Timo Grossenbacher

Offene Daten fördern Innovation, heisst es oft. Doch ihr wahrer Wert liegt anderswo: Ihre Dokumentation, Zuverlässigkeit und Maschinenlesbarkeit sind selbstverständlich. Will unsere Gesellschaft Daten sinnvoll nutzen, muss sie sich daran ein Beispiel nehmen. Denn noch zu oft werden solche Qualitätskriterien ignoriert, wie ein aktuelles Beispiel zeigt.

Manchmal lässt sich ein Konzept am besten anhand einer Geschichte erläutern. Diese geht so: In einem Land bricht eine tödliche Epidemie aus, die sich nur schwer in Schranken halten lässt. Die Bevölkerung hat einen grossen Wissensdurst. Wo steckt man sich am ehesten an? Welche Altersgruppen landen im Spital? Wer ist am stärksten gefährdet?

Nie zuvor haben sich die Bürgerinnen und Bürger der führenden Industrienation, die sich die Digitalisierung stolz auf die Fahne schreibt, über eine so lange Zeit so stark für ein Phänomen interessiert. Die Wissenschaftler suchen nach Zusammenhängen, mit denen sie das Virus erklären können. Die Journalistinnen lechzen nach Zahlen, damit sie sie visualisieren können. Alle brauchen Daten, und zwar sofort.
Gleichzeitig versagt die federführende Behörde, bei der alle Datenstränge zusammenfliessen, digital total. Sie schafft es über Monate nicht, noch so grundsätzliche Anforderungen an die Datenqualität zu erfüllen. Lange veröffentlicht sie nur PDFs und versteckt die wichtigsten Zahlen in kaum erläuterten Grafiken. Dann wechselt sie auf willkürlich formatierte und ständig ändernde Excel-Dateien, die sich kaum in automatische Prozesse einlesen lassen.

Eigentlich eher ein Schauermärchen, nur dass es sich heuer exakt so in der Schweiz zugetragen hat. Doch es gibt ein Happy End: Während das Bundesamt für Gesundheit noch mit tausenden von Faxnachrichten kämpft, betritt eine andere Akteurin die Bühne. Zusammen mit der Zivilgesellschaft – mit dutzenden freiwilligen Helfern – stellt das Statistische Amt des Kantons Zürich im Nullkommanichts eine veritable Datenmaschinerie auf die Beine.

Zusammen mit der Zivilgesellschaft – mit dutzenden freiwilligen Helfern – stellt das Statistische Amt des Kantons Zürich in Nullkommanichts eine veritable Datenmaschinerie auf die Beine.

Mehrmals am Tag sammeln die Freiwilligen und Kantonsangestellten die aktuellsten Zahlen von allen kantonalen Webseiten zusammen, bringen sie in ein einheitliches Format und veröffentlichen sie als Open Data: zentral, maschinenlesbar, gut dokumentiert und vor allem zuverlässig. Ist eine Änderung in der Struktur geplant, werden die wichtigsten Nutzerinnen – Journalisten und Wissenschaftlerinnen – im Voraus persönlich angeschrieben.

Die Wichtigkeit von Metadaten

Dieses Beispiel zeigt: Eine moderne Gesellschaft  ist auf qualitativ hochstehende Daten angewiesen, besonders in der Krise. Zur Datenqualität gehören aber nicht nur Umfang, Exaktheit und ein hoher Detailgrad, sondern auch das Drum und Dran – die sogenannten Metadaten. So werden offene Daten häufig nach anerkannten Standards dokumentiert, sie sind maschinenlesbar und ermöglichen so die Integration in beliebige Applikationen. Das ist umso wichtiger für automatische Systeme, wie sie in einer gut vernetzten Stadt dereinst eingesetzt werden könnten: Lautsprecher, die an Haltestellen vollautomatisch vor Verkehrsstörungen warnen. Sensoren, die die Lärmvorschriften neben einer Baustelle kontrollieren. Eine App, die einem die nächste, am geringsten ausgelastete Badi mit der angenehmsten Wassertemperatur empfiehlt.

Pendlerbeziehungen

Werden Daten für einen breiten Nutzerkreis auf einfache Art zugänglich und nutzbar gemacht, werden diese auch vermehrt verwendet. Oftmals fliessen die Methoden, Instrumente und Erkenntnisse aus diesen Anwendungen dann auch wieder an die Allgemeinheit zurück.
Die Daten des Bundesamts für Statistik zu den Pendlerbeziehungen nutzt Metron regelmässig. Zur Vereinfachung der Analyse wurde eine App konzipiert, die von allen genutzt werden kann.

Hier gehts zur App

All diese Systeme lesen am Fliessband Daten ein, transformieren sie, geben sie weiter. Die Codezeilen dahinter verzeihen keine Fehler. Sie sind darauf angewiesen, dass die Daten exakt so dahergekommen wie geplant. Plötzliche, schlimmstenfalls unangekündigte Änderungen im Datenfluss verursachen hohe Anpassungskosten. Denn aller Digitalisierungseuphorie zum Trotz: Noch allzu oft sind behördlich und privat eingesetzte IT-Systeme intransparente Wundertüten, die sich teils auf uralte und schlecht dokumentierte Dateiformate verlassen und dementsprechend kaum wartbar sind.

Plötzliche, schlimmstenfalls unangekündigte Änderungen im Datenfluss verursachen hohe Anpassungskosten.

Ohne Infrastruktur keine Innovation

Selbstverständlich ermöglichen offene Daten auch Innovationen. So wäre die Entwicklung der Viadi-App ohne öffentlich verfügbare Fahrplandaten nicht möglich gewesen.1 Deren hilfreiches Touch-Feature ist heute nicht mehr aus der offiziellen SBB-App wegzudenken. Auch Projekte im Planungsbereich, wie der Solarrechner des Bundesamtes für Energie, werden durch einfach verfügbare Umweltdaten erst ermöglicht.
Gleichzeitig wird auch zukünftig vieles «verschlossen» bleiben – schon nur aus Datenschutzgründen. Auch wird man für viele Daten weiterhin zahlen müssen. Daran ist nichts Falsches. Nur: Wollen wir intelligente Systeme bauen, die miteinander kommunizieren können, die wartbar sind und deren Daten transparent und nachvollziehbar unsere Entscheidfindung unterstützen, dann müssen wir uns vermehrt ein Beispiel an offenen Daten nehmen.
Denn es ist gerade diese Beispielhaftigkeit in Sachen Metadaten, die für die digitale Infrastruktur so wichtig ist: Wenn Daten das neue Öl sind, dann sind gute Metadaten das Schmiermittel, das die Infrastruktur einer modernen Gesellschaft geschmeidig hält. Ist diese nicht oder nur schlecht vorhanden, dann gibt es auch keine Innovation.

Timo Grossenbacher

Projektleiter für automatisierten Journalismus bei Tamedia. Zuvor war er während rund fünf Jahren als Datenjournalist für SRF tätig. Hat an der Universität Zürich Geographie und Infor­matik studiert.