Big Data. Ein paar kleine Fragen.Lesedauer ca. 6 Minuten

In der Sternstunde Philosophie spreche ich mit Viktor Mayer-Schönberger und Barbara Bleisch über Big Data. Ein paar zusätzliche Überlegungen.

 

 

Trotz des angenehmen Zeitrahmens bleiben auch in einer Stunde Fragen offen, Gedanken knapp angesprochen und nicht fertig gesponnen. Darum nutze ich hier die Möglichkeit, einige meiner Fragen, die ich zu meiner eigenen persönlichen Vorbereitung formulierte, zu dokumentieren. Damit sie vielleicht Anregung zum Weiterdenken sein können.

Denn dies ist aus meiner Sicht die Hauptproblematik unserer rasanten technischen Entwicklung im Bereich der Informationsgesellschaft: Dass wir gedanklich als Einzelpersonen, als Gesellschaft, als demokratisch verfasste politische Einheit dem technisch Möglichen hinterherhinken. Nicht oder erst spät merken, welche Paradigmawechsel um uns herum bereits Alltag sind. Ohne dass wir sie gedanklich bewältigen würden oder gar ihre Folgen abschätzen könnten. Technikfolgeabschätzung würde sich das nennen – und ist aus meiner Sicht eine der Wurzeln grünen Engagements (…erinnern wir uns an die Grüne Kritik am „Atomstaat“ – und damit an einer Gross-Technologie, die ganz grundlegend nicht demokratietauglich ist).

UPDATE 30.12.2013: Hier noch ein Link zu einem Essay zu Big Data in der NZZ

Ein paar offen Fragen und angefangene Überlegungen zu Big Data

Die Dienstleistung, den Vorteil, die Big Data mir bringen, führt zu einer Filter Bubble. Erlebe ich noch etwas Neues? Oder werde ich auf mich selbst und ähnlich denkende zurückgeworfen? Mir werden zwar spannende Bücher vorgeschlagen, die zu meinen bisherigen Interessen passen, und die ich sonst kaum gefunden hätte. Aber werde ich je wieder ganz Neues, Gegensätzliches, in einem anderen Themenbereich angesiedeltes vorgeschlagen erhalten? Und was bedeutet das, wenn eine ganze Gesellschaft, die EntscheiderInnen in Wirtschaft, Politik etc. in Filter Bubbles gefangen sind?

Dennoch kann es immer noch Paradigmawechsel geben. Die kamen immer unerwartet, aus dem Blauen, «black swan». Wird «Querdenken» zur herausragenden Qualifikation, wenn die Big Data-Analysen aus dem Datenmeer automatisch Zukunftsprognosen erstellen?

Das Problem der Öffentlichkeit – als Gegensatz zur Filter Bubble. Schon heute gibt es viele Öffentlichkeiten. Je länger desto mehr inkongruente. Durch Online-Newsdienste, die mir die für mich „passenden“ News zusammensuchen, wird dieses Problem aber massiv zugespitzt. Allerdings ist dies vielleicht auch zu kulturpessimistisch gedacht. Was heute Fox-News für die US-Republikaner oder die linksliberale Blogosphäre für Obama-Anhänger ist, das waren doch vor ein paar Jahrzehnten die damals verbreiteten Parteizeitungen auch. Dennoch: Die Klickdemokratie leidet nicht nur an ihrem kurzen Atem. Sondern auch an ihrem verengten Blick.

Recht auf Vergessen – was bedeutet es, wenn wir unserer Vergangenheit nicht mehr entkommen? Die Frage stellt sich nicht nur im Rechtsstaat, der heute (noch?) auf die Resozialisierung setzt, sondern auch auf der gesellschaftlichen Ebene.

Geschichte besteht aus Erinnerung – und Erinnerung ist zu guten Teilen nicht nur Umschrift des Vergangenen sondern auch selektives Vergessen. Dies gilt für die kollektive wie auch für die individuelle Geschichte. Was geschieht aus mir, wenn ich nicht mehr eine Geschichte in diesem Sinne habe, sondern gegenüber einem mir äusserlichen Allwissen über mich fortschreiben muss? Was geschieht aus einer Gesellschaft, wenn sie sich nicht mehr ihre eigene Geschichte schaffen kann, sondern sich einem umfassenden, ihr äusserlichen Allwissen positionieren muss?

Wer stellt die Fragen an Big Data? Welche Antworten werden gesucht, welche Prognosen gestellt, welche Reaktionen in die Wege geleitet? Ist nicht die Idee von Big Data in dem Sinne auch ein Paradox, dass einerseits eine Determinierung der Zukunft aus der Vergangenheit vorgegeben wird, und andererseits daraus genau eine andere Reaktion als die früher mögliche/wahrscheinlicheabgeleitet wird? Finden noch Brüche, finden freie Entscheidungen statt?

Ersetzt das Big Data-Paradigma die Kausalität der Naturgesetze ganz offensichtlich durch die Kausalität der Macht in der Nutzbarmachung der Prognosen? 

Wem gehören die Daten? Wer verfügt über sie, wer verwertet sie kommerziell, wer verwertet sie handlungsmächtig? Muss der Staat Google bezahlen dafür, dass er die Grippeprognosen erhält, die er braucht, um eine Epidemie rascher eindämmen zu können? Die privatisierte Verwertung des Wissens, das nur durch den Rechtsrahmen des Staates überhaupt „privatisiert“ werden kann, müsste aufgebrochen werden – die Wissensgesellschaft entfaltet ihr positives Potential nur, wenn das Wissen aus den Klauen des geistigen Eigentums befreit wird, seine positiven Externalitäten fruchtbar gemacht werden.

Ein Machtgefälle besteht in verschiedener Hinsicht. In technisch/wissenschaftlicher Hinsicht: Wer beherrscht schon die Fachbegriffe, weiss, welche Daten er/sie unabsichtlich erzeugt, was  damit gemacht werden könnte? Letzteres ist umso schwieriger abzuschätzen, als ja die Big Data Analysen zu Ende gedacht auch sämtliche unzusammenhängenden Daten in Simulationen mit einbeziehen, darauf basierend erst Korrelationen zur untersuchten Fragestellung herausschälen und so möglicherweise auch vernetzen, was aus unserer Sicht nie zusammengehört hätte?

Ein Machtgefälle besteht ganz simpel auch juristisch: Die AGB der grossen Datenkraken sind so gehalten, dass ein durchschnittlicher Jurist bereits Mühe hat, sie rasch zu erfassen, geschweige denn en ganz normaler Mensch ohne juristische Ausbildung.

«If you don’t pay for a product, you are the product being sold.» (Quelle?)

Kann man Big Data auch als «Verschwinden des Wissens» bezeichnen? Die Wahrscheinlichkeit ersetzt die Kausalität. Die Korrelation den Zusammenhang. Wo bleibt hier das Wissen? Resp. wie ist dieses neue Dispositiv der Wissensproduktion zu bewerten? Es gibt sich nach aussen hin vollkommen neutral. Es baut auf keiner anderen Basis als auf dem nihilistischen Glaube an die ewige Wiederkehr des Gleichen.

Vielleicht ist Big Data auch die Form der Wissenschaft, die dem «Ende des Fortschritts» zugehört? Das citior, altior, fortior, der Fortschrittsglaube des deutschen Idealismus, der Glaube, dass in der Zukunft nicht nur alles anders, sondern alles besser wird, dass die Geschichte eine Richtung hat und ein Ziel der Perfektion – dieser geschichtsfixierte Zukunftsglaube, der – gepaart mit der geschichtslosen, beispiellosen Ausbeutung durchaus endlicher Ressourcen – auch zu einem gesellschaftlich-wirtschaftlichen Wandel im Extrembereich geführt hat, zu Moderne, Industrialisierung, Globalisierung – kommt das alles zur Ruhe in einer wieder zyklischen Gesellschaft, in einem in sich selbst aufgehobenen Allwissen, die beide ihren Ursprung wie ihre Zukunft in sich selbst schon tragen. Heute ist gestern ist morgen. Und die fixen Ordnungen des Ständestaats werden ersetzt durch die vergangenheitsbasierten, anonymen maschinellen Prognosen eines jeden Lebenswandels – Computer statt Präcogs wie in Minority Report. Freiheit nicht mehr als höchster Wert: die Freiheit, auch ein anderer zu werden, zu sein. Sondern in diesem globalen Ausgeliefertsein an ein Wissen, das mehr ist, was wir je selbst als Einzelne über uns wissen können, entsteht da eine neue «Geborgenheit» sich selbst genug sein zu dürfen, nicht  immer mehr tun müssen, nicht immer sich neu erfinden zu müssen?

Die höchste Individualität – ich stelle mir sie exemplarisch vor im Shopping-Erlebnis, in einer Konsumgesellschaft ja vielleicht der typischste Moment der Selbstdefinition -, die Freiheit, aus Milliarden von Büchern auswählen zu können, nicht nur aus jenen, welche die Buchhandlung meines Vertrauens ausstellt oder die Buchhändlerin mir empfiehlt, sie schlägt auf Amazon um ins Zurückgeworfensein auf eine archaische Gruppenzugehörigkeit, der man sich durch sein bisheriges Verhalten zugehörig erklärt hat, die da ist, ohne uns bekannt zu sein, der wir angehörig sind, ohne sie zu kennen.

«Privacy is not about secrecy, it is about (control of the) context» sagt Bruce Schneier.

Big Data ist radikale Dekontextualisierung von Daten, die aber dennoch einfach auf das Individuum zurückzuführen ist. Mit vier, fünf Datenpunkten kann bereits mit hoher Wahrscheinlichkeit ein Individuum erkannt werden. In dem Sinne hat Big Data das Potential zur radikalen Privatsphärenverletzung – weil die Kontrolle über den Verwendungskontext wegfällt, die grundlegende Regel der alten Datenschutz-Gesetze wegfällt, dass Daten immer nur für und in Hinblick auf einen vorab definierten Verwendungszweck überhaupt gesammelt werden dürfen.