*das ist „Binärisch“ und bedeutet:…24
Datenkolonialismus, das ist die Plünderung und Ausbeutung von Daten durch die großen Technologiekonzerne, insbesondere im globalen Süden. Welche Konsequenzen das hat und warum die Big Player nicht ganz uneigennützig die Weltbevölkerung ans Internet anschließen wollen, darüber sprechen wir mit der Forscherin und Doktorandin, Aisha Kadiri. Von GEFAM habt ihr wahrscheinlich noch nichts gehört, von Google, Amazon, Facebook, Apple und Microsoft aber definitiv. Was meint ihr, welche Macht haben diese Konzerne auf uns alle? Wir sprechen außerdem über algorithmische Diskriminierung und wie das im Alltag zu Ungleichbehandlung führen kann und ob regulierte Dezentralisierung der Daten eine Einheitslösung wäre. Ein ausbleibendes nein bei beispielsweise Cookie-Einwilligungen darf kein ja sein und man darf auch durch die Nicht-Erhebung von Daten nicht zum Schluss führen, dass ein Problem nicht bestehe. Bleibt dran, wenn ihr dazu mehr erfahren möchtet!
Hört gerne in unsere Folge rein uns hinterlasst uns eure Meinung auf Twitter oder Instagram!
Bei Fragen oder Anregungen schreibt uns gerne eine Mail an hallo@dasou.law und folgt uns auf Twitter/Instagram bei dasou_law.
.
Show-Notes
Aisha Kadiri auf Twitter: https://twitter.com/APLKadiri
Aisha Kadiri auf LinkedIn: https://fr.linkedin.com/in/aplk
Online-Artikel auf Internet Policy Review: https://policyreview.info/articles/analysis/data-and-afrofuturism-emancipated-subject?msclkid=2479371fb8c511ec9af80fd567aecd2e
.
Transkript
Karina Filusch:Mein Name ist Karina Filusch. Ich bin Datenschutz-Anwältin und externe Datenschutzbeauftragte. In jeder Folge sprechen wir mit einer Expertin oder einem Experten über das Thema DaSou. Das ist die Abkürzung für Datensouveränität. Heute wollen wir über Datenkolonialismus sprechen. Für mich war das ein neuer Begriff, aber ich bin sehr dankbar, dass wir darauf aufmerksam gemacht wurden. Wir werden darüber sprechen, was das genau ist, schauen uns Beispiele an, sowie aktuelle Fälle und, was die Lösungen für diese Problematik sein könnten. Dazu sprechen wir mit Aisha Kadiri. Sie ist Doktorandin in Paris an der École Normale Supérieure. Das ist eine Eliteschule in Frankreich. Ihre Doktorarbeit schreibt sie im Bereich der politischen Philosophie. Außerdem forscht sie zu sozialen Fragen von Technik, digitalem Kolonialismus und Datensouveränität. Sie ist auch Forscherin bei der Initiative Digital Africa. Liebe Aisha, schön, dass du da bist. Könntest du uns zuerst sagen, was Datenkolonialismus eigentlich ist? Ich habe da zunächst an eine historische Auslegung des Begriffs gedacht. Wie ist es denn wirklich?
Aisha Kadiri:Ja, das stimmt zum Teil. Um Datenkolonialismus zu verstehen, müssen wir wahrscheinlich erst mal den Kolonialismus definieren und das, was vielen wahrscheinlich zuerst einfällt, ist eine historisch ausgerichtete Definition. Hier wird der Kolonialismus definiert als einer auf den Erwerb und Ausbau von Kolonien gerichtete Politik. Dies beinhaltet zum Beispiel die Inbesitznahme von Territorien, die Unterwerfung der Bevölkerung und die Plünderung von Ressourcen. Allerdings beinhaltet der Kolonialismus noch viel mehr. Besonders interessant ist hier die Verzweigung von Rassismus und Kolonialismus. Generell kann der Kolonialismus als strukturell-rassistisches Unrechtssystem bezeichnet werden. Hier spielen zum Beispiel die Wissensproduktion und die Legitimation von Wissen eine große Rolle, mit der die Enthumanisierung von Menschen und dann wiederum die Rechtfertigung für den Kolonialismus geliefert wurde. Bestimmte Konzepte, bestimmtes Wissen und bestimmte politische Handlungen werden dadurch ermöglicht. Beim Datenkolonialismus spricht man von kolonialen Strukturen oder Funktionsweisen im digitalen Raum und/oder mit digitalen Mitteln. Hier gibt es verschiedene Auslegungen des Begriffs. Manche Forscher*innen konzentrieren ihre Kritik auf die digitale Transformation und die dieser Transformation zugrunde liegenden Extraktion, also die Abschöpfung von Daten und die Parallele zur Plünderung von Rohstoffen, die wir in der historischen Definition vom Kolonialismus auch sehen. Das heißt, die Wertschöpfung, die Monetarisierung der Daten, findet zumeist im globalen Norden statt, während die Daten im globalen Süden gesammelt werden. Andere Forscher*innen fokussieren sich bei der Kritik des digitalen Kolonialismus oder des Datenkolonialismus eher auf die zentrale Stellung, die großen Technologiekonzerne im globalen Süden einnehmen, zum Beispiel in der Infrastruktur. Wiederum andere schauen besonders auf die Narrative, mit denen große Technologiekonzerne Projekte im globalen Süden vorantreiben.
Karina Filusch:Du hast jetzt den Begriff Datenkolonialismus verwendet, aber auch den Begriff digitaler Kolonialismus. Ist das dasselbe?
Aisha Kadiri:Ja, das wird gerade noch diskutiert. Wie gesagt, es gibt verschiedene Forscher*innen, die sich mit dieser Kritik und insbesondere mit der Kritik der Extraktion, also dieser Abschöpfung der Daten und der Parallele zu der Plünderung von Rohstoffen, auseinandersetzen. In diesem Zusammenhang wird oft der Begriff Datenkolonialismus verwendet. Bei der Kritik zur zentralen Stellung der Technologiekonzerne, wird oft der Begriff digitaler Kolonialismus verwendet. Momentan kann man beide noch als Synonyme verwenden. Ich denke, daran wird sich in der Zukunft vielleicht ein bisschen was ändern. Derzeit gibt es da keine riesigen Unterschiede. Bei beiden Begriffen geht es grundlegend darum, inwiefern sich bestimmte koloniale Mechanismen im digitalen Raum wiederfinden.
Karina Filusch:Also brauche ich erst erstmal keine Sorge zu haben, dass ich einen Begriff falsch verwende? Das ist schon einmal beruhigend.
Aisha Kadiri:Vielleicht ist das ähnlich wie bei der Datensouveränität und der digitalen Souveränität. Da gibt es auch Nuancen, aber ich glaube, im allgemeinen Gespräch oder im allgemeinen Diskurs werden beide als Synonyme verwendet.
Karina Filusch:Ja, stimmt, in der Tat. Ja, da kann man das auch oft so beobachten. Könntest du uns Beispiele für Datenkolonialismus oder digitalen Kolonialismus nennen, damit wir einen kleinen Eindruck bekommen?
Aisha Kadiri:Einer der ersten Fälle, in denen der Begriff digitaler Kolonialismus verwendet wurde, war im indischen Kontext. Dort hat Facebook 2013 zusammen mit verschiedenen Unternehmen die Initiative Internet.org gegründet, die dann nachher in Free Basics umbenannt wurde. Mit dieser Initiative sollten Nutzer:innen bestimmte Seiten im Internet kostenlos aufrufen können. Indische Behörden haben dieses Projekt dann 2016 mit Verweis auf die Verletzung der Netzneutralität verboten. In diesem Kontext kam der Begriff Kolonialismus und digitaler Kolonialismus ins Spiel, weil Facebook das Ziel hatte, die Weltbevölkerung ohne Internetanschluss mit dem Internet zu verbinden. Ich verwende das Wort Internet hier in Anführungszeichen, weil es als Synonym für Facebook und andere von Facebook ausgewählte Seiten verstanden wurde. Dies geschah nicht nur aus altruistischen Gründen, sondern als Markterschließung für neue Nutzer:innen, deren Daten dann wiederum monetarisiert werden können. Hier schwang vor allem auch das Narrativ der sogenannten White man’s burden mit, also die Bürde des weißen Mannes, in diesem Fall die Bürde der Technologiekonzerne, die Bewohner des globalen Südens für die digitale Ökonomie verfügbar zu machen.
Karina Filusch:Apropos Facebook, vielleicht erinnern sich die Personen, die uns zuhören, noch an die Anhörung im Finanzausschuss in dem US-amerikanischen Finanzausschuss von Mark Zuckerberg, in der er von der Abgeordneten Ocasio-Cortez regelrecht gegrillt wurde. In Anbetracht dessen fragt man sich vielleicht schon: Haben Internetkonzerne nicht unbegrenzte Macht, wenn weder Politik noch Gerichte wirklich einen Riegel vorschieben können?
Aisha Kadiri:Ja, das ist eine interessante Frage. Damit habe ich mich tatsächlich in meiner Promotion beschäftigt. Ich fasse die Internetkonzerne unter dem Akronym „GAFAM“, also Google, Amazon und Facebook, Apple und Microsoft, zusammen. Diese Unternehmen sind aufgrund ihrer Marktmacht als Monopole, aber auch wegen ihrer schieren Rechenleistung und der daraus resultierenden Möglichkeit zur Auswertung von Daten, interessant. Wie eben erwähnt, ist die Frage des Datenkolonialismus eng verbunden mit der Frage der Macht der Internetkonzerne. Diese Frage ist nicht nur auf die US-amerikanischen Internetkonzerne begrenzt, sondern beinhaltet zum Beispiel auch Unternehmen wie Huawei. Ich bin mit dieser Frage nicht alleine, denn momentan forschen extrem viele Wissenschaftler:innen zu der Macht der „GAFAM“ – zu der politischen Macht, der ökonomischen Macht und der kulturellen Macht. Im deutschen Kontext gibt es hier zum Beispiel Philipp Staab, der zum Plattformkapitalismus forscht. Begriffe wie Überwachungskapitalismus kommen auch immer wieder auf. Ein anderer Begriff, der es ganz gut auf den Punkt bringt, ist „algorithmic governance“, der zusammenfasst, was für ein Einfluss Algorithmen auf die soziale und politische Ordnung haben. Diese großen Internetkonzerne, unter anderem auch Facebook, haben natürlich eine unfassbare Macht, was diese Ordnung angeht. Ich denke mal, in diesem Kontext stellt sich die Frage, auf welche politischen Maßnahmen wir einen Fokus legen. In den USA zum Beispiel geht es momentan viel um Wettbewerb und die Monopolstellung der großen Technologiekonzerne. Ich glaube, das sind auch alles wichtige Anstöße, die aber grundlegender parallel laufen müssen mit der Frage, was für ein Umgang mit Technik und Daten wir eigentlich wollen und wie radikal wir die Regulierung von Digitalisierung denken können und wollen. Da gibt es momentan sehr viele kluge Leute, die sich dazu Gedanken machen und ich glaube, da gibt es auch viele Ansätze zur Regulierung. Dementsprechend bin ich optimistisch.
Karina Filusch:Was denkst du denn, was es für Möglichkeiten gibt? Wäre es zum Beispiel eine Möglichkeit, dass man mehrere mittelgroße Unternehmen nimmt und dann die Dienste, auf die wir im Alltag so angewiesen sind, auf sie aufteilt?
Aisha Kadiri:Da bin ich keine Expertin. Aber ich denke mal, es ist interessant, in die Richtung zu denken, dass Daten nicht an einer Stelle ausgewertet und gesammelt werden, sodass es kein Monopol an Daten gibt. Dezentralisierung ist ein Stichwort, welches schon seit mehreren Jahren, wenn nicht sogar seit Jahrzehnten, diskutiert wird. So fragt sich, wie eine Dezentralisierung technisch möglich ist und was für einen politischen Willen es gibt. Dies ist aber nicht die einzige Möglichkeit, diese Unternehmen zu regulieren.
Karina Filusch:Was denkst du, wie viel Regulierung sollte es dort geben und wie viel wäre an der Stelle wirklich hilfreich?
Aisha Kadiri:Ich denke, Transparenz hilft auf jeden Fall. Ich weiß nicht, ob sich alle Nutzer*innen dessen immer bewusst sind und ob es dann eine bewusste Entscheidung für Gmail oder für diese Datensammlung ist. Meiner Meinung nach ist dieser Podcast schon ein wichtiger Anfang. Es ist wichtig, dass man überhaupt anfängt darüber zu sprechen, was denn mögliche Alternativen wären, wie man Regulierung gestalten kann und vor allem aber auch sehr sichtbar machen kann, dass nicht jede neue Technologie, nur weil sie entwickelt wurde, auch verwendet werden muss. Es gibt unfassbar viele Anwendungsbereiche, zum Beispiel für künstliche Intelligenz, aber das heißt nicht, dass wir als Gesellschaft wollen, dass diese auch tatsächlich genutzt werden. Es gibt in einer Demokratie und ich denke mal, hier kommt Regulierung ins Spiel, immer auch die Option der Nichtanwendung, der nicht Erhebung von Daten. Mit Transparenz meine ich hier, dass wir uns bewusst sein müssen, was die Rahmenbedingungen dieses politischen Prozesses sind.
Karina Filusch:Gibt es Datenkolonialismus auch bei uns hier in Europa und bei uns in Deutschland, beziehungsweise in Frankreich, wo du sitzt?
Aisha Kadiri:Ja, Frankreich ist ganz interessant, weil Frankreich vor ein paar Jahren eine große Initiative gestartet hat, um die großen Technologiekonzerne zu besteuern. Da kam auch die Argumentation auf, dass der französische Staat und die französische Gesellschaft an der Monetarisierung beteiligt werden sollen. Wie steht es um Datenkolonialismus in Europa und Deutschland? Ich denke die Logik der Datenextraktion, also diejenige, die die Theorie vom Datenkolonialismus kritisiert, ist geografisch nicht auf den globalen Süden beschränkt. Das heißt, die Extraktion von Daten für die Gewinnbringung von privaten Unternehmen findet auch in Europa statt. Allerdings haben wir hier in Europa bestimmte Gesetze wie die DSGVO (Datenschutzgrundverordnung), die uns schützt. In vielen Ländern des globalen Südens findet diese Datenabschöpfung in einem anderen Ausmaß statt und teilweise ohne adäquate rechtliche Rahmenbedingungen. Ein anderes Beispiel, über das man im Kontext von Europa und Deutschland im Hinblick auf das Zusammenspiel von kolonialen Strukturen oder Funktionsweisen und Rassismus nachdenken könnte, sind europäische Grenzen, an denen zum Beispiel auch Daten von Geflüchteten gesammelt werden. Dies wirft zum Beispiel die Frage auf, wer schutzbedürftig ist und wer nicht, an wem experimentiert werden darf und an wem nicht, von wem Daten gesammelt werden, von wem biometrische Daten erhoben werden und wer davor geschützt wird. Zum Beispiel ist es ein großes Problem im europäischen Kontext, dass teilweise schwerwiegende Fehler in der Verarbeitung dieser Daten vorkommen. Das heißt, zum Beispiel werden Asylanträge wegen einer falschen Schreibweise der Namen abgelehnt. Ich denke mal, das sind Ansätze, mit denen man darüber nachdenken könnte, inwiefern sich diese Strukturen in Europa wiederfinden.
Karina Filusch:Ja, in Deutschland werden diese großen Konzerne nicht extra besteuert. Sie werden größtenteils in Irland besteuert. Dort ist auch der Hauptsitz dieser Unternehmen. Das ist eine erfreuliche Entwicklung, dass Frankreich da schon nachgezogen hat.
Aisha Kadiri:Das war viel politischer Zirkus und soweit ich es verstanden habe, ging das dann über die EU-Ebene. Es war keine einzelne Initiative. Worüber man auch sprechen sollte, ist, dass diese Rahmenbedingungen nicht unbedingt auch heißen, dass sie umgesetzt werden. Was Cookies angeht, kann jeder nachvollziehen, dass manche Websites sich nicht an die Richtlinien halten. Die Frage ist dann immer: Inwiefern müssen sie dann eine Strafe zahlen und werden sie an Behörden weitergeleitet? Inwiefern schaffen es die Behörden mit ihren Ressourcen, dem dann nachzugehen? Rahmenbedingungen sind eine Sache und die Umsetzung ist ein ganz anderes Thema, auch im europäischen Kontext.
Karina Filusch:Du hast gerade Cookies erwähnt. Das hat immer etwas mit Einwilligung und der Entscheidung zu tun, ob ich meine Daten preisgebe oder nicht. Man kann sich den Alltag gar nicht mehr ohne diese ganzen Einwilligungen vorstellen, nicht nur beim Surfen im Internet über Cookie-Banner, sondern auch bei Verträgen oder im Beruf oder auch in sozialen Medien. Was denkst du, inwieweit hat es hier Sinn daran zu denken, wie wir davon wegkommen und auch nach Alternativen zu suchen?
Aisha Kadiri:Da stecken, glaube ich, zwei Fragen und Antworten drin. Ich fange mal mit den Cookies an, weil das tatsächlich auch mit meiner Forschung zu tun hat. Und zwar habe ich einen Artikel geschrieben, der in der Sonderausgabe der Zeitschrift Internet Policy Review erschienen ist, die sich mit dem Thema feministischer Datenschutz auseinandergesetzt hat. Da muss ich hier mal ein bisschen Werbung machen, weil darin tatsächlich sehr viele interessante, spannende Argumente erschienen sind, inwiefern feministische Theorien unseren Blick auf den Umgang mit Daten schärfen können. Ein Beispiel davon (jetzt nicht genau aus meinem Artikel) ist, inwiefern die feministische Theorie diese Einwilligung und das Thema Consent auch kritisch durchleuchten kann, weil sich gerade im Kontext von Feminismus viele Denker:innen mit dem Thema Consent beschäftigt haben und inwiefern das Konzept mit Blick auf Machtverhältnisse neu gedacht werden muss oder kritisiert werden muss. Zum Beispiel fand im Rahmen von sexueller Belästigung und Missbrauch, aber auch generell von Sexualität eine sehr interessante Debatte um die Grenzen und Möglichkeiten dieses Konzepts statt, woran sich viele vielleicht noch erinnern können. Ein Ausbleiben von einem „Nein“ kann nicht mit einem „Ja“ gleichgesetzt werden. Dementsprechend gab es dann einen Paradigmenwechsel von „Nein heißt Nein“ zu „Ja heißt ja“. Ich denke mal, diese Überlegung, inwiefern Machtverhältnisse im Consent und in der Einwilligung in diesem Moment der Einwilligung eine Rolle spielen, muss auf jeden Fall neu gedacht werden in Zeiten von Cookies und Cookie-Bannern.
Karina Filusch:Das ist eine spannende Perspektive. Was war die zweite Frage und Antwort?
Aisha Kadiri:Genau, die zweite Frage und Antwort: Ich hatte ja schon gesagt, dass ich diesen Artikel geschrieben habe. So gab es in den letzten Jahren immer mehr Berichte über algorithmische Diskriminierung und Rassismus in und mithilfe von digitalen Technologien, zum Beispiel Gesichtserkennungssoftware und inwiefern dies, besonders schwarz gelesene Menschen betrifft. Ich habe mich gefragt, inwiefern gegenwärtige Datenschutzrichtlinien diesem digitalen Rassismus und der algorithmischen Diskriminierung gerecht werden. Ich bin aber keine Juristin, sondern forsche im Bereich der politischen Philosophie. Dementsprechend habe ich mich dem Thema aus dieser Perspektive genähert, das heißt, inwiefern bestimmte Grundannahmen hinterfragt werden können oder müssen. Die europäische Datenschutzgrundverordnung (DSGVO) definiert das Datensubjekt als eine natürliche Person, deren persönliche Daten von einem Datenverantwortlichen oder Auftragsbearbeiter verarbeitet werden. Das meint die Entität, deren Daten und Privatsphäre geschützt werden sollen, also im Prinzip uns. Angesichts des Rassismus mit und durch Algorithmen habe ich also ein Konzept vom Datensubjekt kritisiert, dass das liberale und eurozentrische Individuum als Ausgangspunkt nimmt. Hier habe ich mich vom Afro-Futurismus inspirieren lassen. Das ist eine afro-amerikanische kulturelle Strömung, die Künstler wie den Jazzmusiker Sun Ra oder auch die Science-Fiction Schriftstellerin Octavia E. Butler umfasst. Vielleicht kennen die einige. Der Vorteil des Afro-Futurismus, der ja erst einmal sehr weit weg erscheint, wenn man sich das Datensubjekt anschaut, ist, dass er eine ausdrücklich subjektive Lebensrealität sichtbar macht. Durch diese Sichtbarkeit können bestimmte Dinge politisch handlungsfähig gemacht werden. Das ist ein Weg zur Selbstermächtigung, könnte man sagen. Technologie spielt hier eine entscheidende Rolle, sowohl als Ermächtigung, als auch als Werkzeug der Unterdrückung aus diesen verschiedenen kulturellen Richtungen: Musik und Literatur oder auch Film. Black Panther ist zum Beispiel ein Film, der dem Afro-Futurismus zugerechnet wird. Ich habe bestimmte Prinzipien für das Datensubjekt herauskristallisiert. Erstens eine radikale Subjektivität, zweitens eine Kollektivität und drittens eine Kontextualität. Ich habe versucht, diese drei Prinzipien anhand des Afrozensus zu illustrieren, also inwiefern diese Prinzipien das Datensubjekt, so wie es momentan im europäischen Kontext verstanden wird, erweitern können, beziehungsweise inwiefern diese drei Prinzipien das Datensubjekt als Konzept im europäischen Raum herausfinden können. Dafür habe ich versucht, das im Afrozensus zu illustrieren. Der Afrozensus ist die erste Befragung unter schwarzen, afrikanischen und afrodiasporischen Menschen in Deutschland zu fünf Themenbereichen, zum Beispiel Diskriminierungserfahrungen am Arbeitsplatz und im Umgang mit der Polizei, also Racial Profiling. Die drei Punkte Subjektivität, Kollektivität und Kontextualität zeigen sich dadurch, dass der Afrozensus in der Subjektivität zum Beispiel die Existenz schwarzer Menschen in Deutschland sichtbar und auch unleugbar macht und im Zuge dessen auch deren Lebensrealität. Das geht dann auch in die Kollektivität über, und zwar wird ein kollektives Datensubjekt geschaffen. Es werden Daten erhoben, die es vorher nicht gab. Meiner Meinung nach ist die Kontextualität am wichtigsten. In diesem Fall ist Datenschutz der Schutz durch Daten und nicht nur der Schutz von Daten. Das heißt, nur Daten, die erfasst werden können, können auch politisch diskutiert werden. Ein gutes Beispiel hierzu ist die Polizeistudie in Bayern, über die viel diskutiert wurde und in deren Rahmen auch diskutiert wurde, dass Rassismus in der Polizei nicht vorhanden ist, wenn keine Daten darüber gesammelt werden. Das heißt, man kann ein Problem durch ein Weglassen von Daten unsichtbar machen.
Karina Filusch:Ich finde das spannend, dass du gerade aufgezeigt hast, dass Datenkolonialismus in beide Richtungen gehen kann. Sowohl wenn Daten aufgrund der Struktur gesammelt und missbraucht werden als auch wenn man gar keine Daten sammelt und dadurch Leute diskriminiert werden. Das ist eine neue Perspektive für mich und sehr spannend.
Aisha Kadiri:Im US-amerikanischen Raum gibt es tatsächlich eine sehr interessante Initiative. Jetzt muss ich gerade mal kurz das Wort googeln. Und zwar heißt diese Initiative „Abolish big data“. Das ist eine Initiative, die sich nicht unbedingt dafür einsetzt, dass gar keine Daten mehr gesammelt werden, sondern die sich gegen eine Initiation, also gegen eine Bewaffnung durch Daten einsetzt. Das heißt, es geht genau um den Punkt, dass wir uns in dem Moment, in dem wir immer mehr Berichte von Diskriminierung und Rassismus durch und mit Daten erleben und sehen, eigentlich fragen müssen, wofür diese Daten verwendet werden und inwiefern wir Datenschutz neu denken müssen, wenn es bestimmte Bevölkerungsgruppen trifft. Es geht darum, inwiefern diese „Weaponization“, diese Bewaffnung oder die Daten als Waffen gegen bestimmte Bevölkerungsgruppen, in viele traditionellen Konzepte vom Datenschutz nicht eingerechnet werden, beziehungsweise nicht erfasst werden können.
Karina Filusch:Ich wollte noch ein anderes Beispiel mit dir besprechen, und zwar hattest du in der Vorbesprechung von einem Fall von Datenkolonialismus bei den Taliban erzählt, vielleicht könntest du das noch erläutern.
Aisha Kadiri:Es ist fraglich, ob hier der Begriff des Datenkolonialismus zutrifft, aber auf jeden Fall gibt es hier eine gewisse Nicht-Gleichbehandlung von Daten- und einen nicht vorhandenen Datenschutz, vielleicht auch ein bisschen Ungleichbehandlung in unserer Aufmerksamkeitsökonomie. Es ging hier um das US-Militär, das in Zusammenarbeit mit mehreren afghanischen Ministerien umfangreiche Datenbanken aufgebaut hat. Zum Beispiel wurde im Namen der Terrorismusbekämpfung eine unheimliche Menge an Daten gesammelt, also biometrische Daten, zum Beispiel Iris Scan, aber auch so Dinge wie Lieblingsobst oder Namen der Verwandtschaft bis zu Namen von Personen, die ein hohes Ansehen innerhalb der Gemeinschaft genießen und dann für die jeweilige Person bürgen, deren Daten dann gesammelt wurden. Die Daten waren zum Beispiel verpflichtend bei der Beantragung eines Führerscheins oder eines Reisepasses oder beim Einstieg ins Militär. Genau durch diese Daten lässt sich nicht nur die individuelle Person bis aufs kleinste Detail nachvollziehen, sondern auch soziale Zusammenhänge und ein größeres Netzwerk an Personen. Zum einen fand die Sammlung dieser Daten in einem Kontext statt, in dem Personen besonders gefährdet sind. Nach dem Truppenabzug der US-Truppen in Afghanistan wurde dann klar, dass nicht alle Daten gelöscht wurden und eventuell in die Hände der Taliban fallen könnten, welche dann mithilfe der biometrischen Daten einen ziemlich sicheren Weg zur Identifikation von unerwünschten Personen und „Kollaborateuren“ hätten. Darüber hinaus wurde auch Equipment zurückgelassen, also Equipment, das die biometrische Erkennung zulassen würde. Hier wurde ganz klar das Prinzip der Datensparsamkeit verletzt, das heißt nur die Daten zu sammeln, die unbedingt notwendig sind. Dann kommen Fragen hinzu, wie es um die Selbstbestimmung dieser Menschen stand und inwiefern diese Menschen wirklich die Wahl hatten, diese Daten z.B. nicht weiterzuleiten oder zu verweigern. Noch weit gefasster geht es aber darum, dass digitale Identitätsregister und Überwachungstechnologien getestet wurden, die im globalen Norden wahrscheinlich nicht genutzt würden.
Karina Filusch:Was würdest du eigentlich sagen, gehen wir hier in Europa wirklich fortschrittlicher mit Daten um als andere Länder, wie man vielleicht denken mag oder ist das aufgrund der Marktstellung von Google und der anderen großen Unternehmen eigentlich zu idealistisch gedacht?
Aisha Kadiri:Das ist eine sehr interessante Frage, die sich, glaube ich, viele Menschen stellen. Es gibt zwei Wörter, die den Anlass dazu geben, diese Frage kritisch zu durchleuchten. In diesem Zusammenhang ist Fortschritt ein sehr interessantes Wort, weil es einerseits natürlich stimmt, dass europäische Ansätze wie die DSGVO wichtige Anstöße sind. Ich glaube aber auch, dass es hier die Gefahr gibt zu denken, dass es universelle Lösungen gibt, was nicht möglich ist. Die Frage ist hier, inwiefern Konzepte, mit denen wir digitale Technologien und Algorithmen verstehen, eurozentrisch sind. Das heißt, was für kulturelle, politische und philosophische Kontexte fließen in diese digital-politischen Regulierung ein? Inwiefern werden diese dann unsichtbar gemacht, indem die Regulierung als universell oder objektiv dargestellt wird? Hier können andere Kontexte andere Regulierungen hervorbringen und vielleicht auch einen anderen Umgang mit Daten. Ethische Grundlinien für die Regulierung von künstlicher Intelligenz, die sich an Immanuel Kant orientieren, kommen sehr wahrscheinlich zu anderen Schlüssen als solche, die sich an der südafrikanischen Philosophie Ubuntu orientieren. In Ubuntu liegt das Augenmerk besonders nicht nur auf den Rechten eines Individuums, sondern auch der Verantwortung des Individuums gegenüber einer größeren Gemeinschaft. Zusammenfassend würde ich sagen, dass es sehr wichtig ist, diesen Überlegungen Raum zu geben und eine Vielfalt an Stimmen zuzulassen. Das zweite Wort idealistisch halte ich eigentlich für sehr gut. Ich denke nämlich, dass idealistisch zu sein, also nach bestimmten Idealen zu streben, in meinen Augen erst mal eine gute Sache ist. Ich glaube, dass wir eine gute Portion Idealismus brauchen, um eine digitale Zukunft zu gestalten, in der Dinge wie digitaler Kolonialismus oder digitaler Rassismus hoffentlich nicht mehr vorhanden sind.
Karina Filusch:Was ist denn für dich persönlich DaSou?
Aisha Kadiri: Ich glaube, ich habe ein ambivalentes Verhältnis zum Thema Datensouveränität. Ich denke, wie bei allen anderen Fragen fällt es mir schwer, das Persönliche vom Theoretischen zu trennen. Ich glaube, der Begriff der Datensouveränität kann sehr nützlich sein, um ein Konzept für politische Handlungsmacht zu entwickeln. Aber als politische Philosophin ist das Konzept der Souveränität generell kein leeres Blatt. Das heißt, ursprünglich ist der Begriff einer der Grundbausteine der internationalen Beziehungen, also der Beziehung zwischen souveränen Nationalstaaten, aber auch der politischen Theorie der Souveränen und der Fragen des Gewaltmonopols und politischer Macht. Ich glaube, dass, je nachdem, wen man fragt, bei diesem Wort gewisse Konnotationen und Assoziationen mitschwingen. In diesem Kontext ist es wichtig, sich einer gewissen Instrumentalisierung bewusst zu sein, die möglicherweise stattfinden könnte. In welchem Kontext wird der Begriff benutzt und zu welchem Zweck? Hier ist ein Beispiel, wie die Europäische Union diesen Begriff verwendet, um ein „europäisches Modell der Regulierung digitaler Technologien im Ausland“ als universell beste Lösung zu vermarkten, vor allem auch als Ergänzung zu geopolitischen Interessen im Wettkampf mit China und den USA. Aber, um auf die ursprüngliche Frage zurückzukommen – der Titel dieses Podcast. Ich glaube, beziehungsweise ich bin mir noch nicht sicher, ob der Begriff der Datensouveränität oder der digitalen Souveränität richtig ist oder ob wir in Zukunft andere Konzepte brauchen. Ich denke aber – und dafür ist der Podcast ein sehr gutes Beispiel, dass dieser Begriff erstens sehr helfen kann, politische Macht sichtbar zu machen, sowohl auf das Individuum, als auch auf das Kollektiv bezogen. Zweitens kann der Begriff helfen, einen Dialog anzustoßen, auch einen demokratischen Dialog, welchen Umgang wir in der Zukunft mit Technologien pflegen wollen und welche Rolle sie in unserer Gesellschaft einnehmen. Drittens kann er helfen, Handlungsmöglichkeiten zu erkennen und diese technologisch umzusetzen.
Karina Filusch:Jedes Mal, wenn ich diese Frage den Gästen stelle, lerne ich immer dazu, weil ganz verschiedene Antworten kommen und ich diesen Begriff der Datensouveränität natürlich auch immer mehr hinterfrage. Mir gefällt dein positiver Blick darauf, dass Datensouveränität grundsätzlich ja erst mal ein Ausgangspunkt sein kann, um darüber zu reden und dann einfach erst mal das Gespräch bzw. den Diskurs zu starten. Ich danke dir sehr für die ganzen neuen Perspektiven, nicht nur in diesem Punkt, sondern auch bei den Themen, die wir vorbesprochen haben. Vielen lieben Dank, dass du dir so viel Zeit genommen hast. Danke schön.
Aisha Kadiri:Sehr gerne!
Karina Filusch: Danke, dass ihr wieder in die Folge hineingehört habt. Ich hoffe, ihr hattet Spaß. Lasst uns doch eine Nachricht bei Twitter oder Instagram da, wenn ihr mögt. Ihr findet uns dort unter dasou_law. Wir freuen uns sehr über jede Nachricht, über jeden Like und natürlich auch über jedes Abo bis zur nächsten Folge. Dasou ist eine Produktion der Kanzlei Filusch. Mehr Infos findet ihr auf unserer Webseite dasou.law. Die Redaktion besteht aus Anja Lindenau, Aileen Weibeler und Karina Filusch. Der Jingle wurde komponiert von Mauli. Die Idee zu Dasou hatte Axel Jürs. Das Cover hat Hélène Baum erstellt. Beraten wurden wir von Susan Stone. Editiert wurde der Podcast von Christoph Hinners.