Morgen endlich – Big Data. Von danah boyd und Kate Crawford. Den Text als Vortrag gibt es auch:
Für mich ist die zentrale Erkenntnis, die sich gerade aus der politisch-theoretischen Betrachtung von Big Data ergibt, dass technologische Werkzeuge durchaus dafür geeignet sind, die ihnen eingeschriebene Vorstellung von Wissen und Identität durch ihren Einsatz selbst zur Realität zu machen. Hinter der Anwendung von Big Data steht eine ganz bestimmte Vorstellung von Wahrheit und Wissen. Diese wird wirkmächtig – und es ist eine ethisch-politische Frage, ob wir das wollen. ich würde diese Frage gern mit euch im Seminar diskutieren.
Tags: Big Data, boyd, Crawford, digital, surveillance
Am 21. Januar 2016 um 20:18 Uhr
Ich fand die kritischen Überlegungen zu Big Data und seiner wissenschaftlichen Nutzung wirklich großartig. Bei wissenschaftlichen Untersuchungen, die ich in den letzten Jahren gelesen habe, hatte ich den Eindruck, dass allein die Tatsache, dass große Datenmengen analysiert wurden, automatisch Wahrheit generiert. Ein populäres Beispiel hierfür ist die Schuldengrenze, die so rigoros in der Griechenlandkrise angewendet wurde. Da hat ein Forscher mal große Datenmengen analysiert und dann gesagt, wenn das Schuldenniveau eines Landes eine bestimmte Relation zum Bruttoinlandsprodukt überschreitet, dann droht ein wirtschaftlicher Zusammenbruch. Später hat man herausgefunden, dass seine Analyse falsch und willkürlich war, aber zunächst wurde ihm geglaubt, einfach weil er ja viele Daten analysiert hat. Dabei wurde übersehen, dass es überhaupt keine logische Erklärung für die vom fraglichen Forscher publizierte Schuldengrenze gab und alle theoretischen Erkenntnisse über Staatsverschuldung und Wachstum in andere Richtungen gehen. Kernpunkt war aber, dass allein der Zugang zu und die Analyse von großen Datenmengen Wahrheit generiert hat. Das ist besonders problematisch, weil in aller Regel eine Grundqualität wissenschaftlichen Arbeitens, nämlich die Überprüfbarkeit, auf der Strecke bleibt. Überprüfbar sind die aus Big Data gewonnenen Analysen nämlich nur dann wenn der Datensatz und seine Grundlagen (Kontext der Daten, Auswahl der Daten, Datenaufbereitung etc.) sowie die Analysemethoden und damit die impliziten Fragestellungen offen gelegt werden. Und wenn man auf diese Art an die Arbeiten herangeht, merkt man schnell, dass überall dann doch wieder menschliches, theorie- oder interessengeleitetes Handeln wirksam wird und die Aussage „Numbers speak for themselves.“ überhaupt nicht gilt. Die „Numbers“ sagen nämlich nicht selten das, was der Analysierende wollte, dass sie sagen – nur behaupten sie, objektiv und damit alternativlos zu sein. Und damit wird vor allem die Machtfrage aufgeworfen, die auch Boyd und Crawford in ihrem Beitrag ansprechen: Wer Zugang zu den Daten und Analysetools hat (Boyd und Crawford nennen exemplarisch Unternehmen/Regierungen im Gegensatz zur Forschung, reiche Universitäten im Gegensatz zu armen, Männern im Gegensatz zu Frauen – und die Liste ließe sich fortsetzen), bestimmt die Wahrheit, wenn wir akzeptieren, dass Big Data-Analysen eben immer Wahrheiten produzieren. In diesem Zusammenhang (ebenso wie in der Frage der Ethik der Nutzung bestimmter Daten, die ich hier aber nicht auch noch aufgreifen wollte) ist dringend eine gesellschaftliche Diskussion und eine Entmystifizierung der Big Data notwendig.
Am 12. Februar 2016 um 19:17 Uhr
Höchst spannender Artikel zur Nutzung von Daten im US Wahlkampf:
https://bigstory.ap.org/article/2db0fc93cf664a63909e26e708e91c67/cruz-app-data-collection-helps-campaign-read-minds-voters