*das ist „Binärisch“ und bedeutet:.. 34
Shownotes
Was wäre, wenn Dich nichts mehr kostet als das Kostenlose? Die kostenlose App, die Du dir neulich runtergeladen hast? Für sie hast du teuer bezahlt: mit Deinen Daten und Deiner Privatsphäre.
Mit Dr. Felix Sühlmann-Faul sprechen wir in dieser Folge über sein neues Buch „Der Goldene Käfig des Digitalkapitalismus – nichts kostet mehr als kostenlos“. Er klärt uns darüber auf, was „Digitalkapitalimus“ eigentlich ist, wie der Handel mit unseren Daten funktioniert und über die Gefahren die dahinterstecken. Er nennt uns schockierende Beispiele, wo der Handel mit Daten an einen Überwachungsstaat erinnert. Wir fragen ihn außerdem welche Rolle KI in diesem Konzept spielt und wie Kinder geschützt werden können.
Dr. Felix Sühlmann-Faul stellt uns seine Lösung vor: PRIVASCORE. Eine Ampel, die als Entscheidungshilfe bei der Auswahl von datenschutzfreundlichen Apps und digitalen Angeboten dient. So kannst auch Du künftig leicht und unkompliziert im Alltag datenschutzfreundliche Entscheidungen treffen!
Hört gerne in unsere Folge rein und hinterlasst uns eure Meinung auf unseren Social-Media-Kanälen. Bei Fragen oder Anregungen schreibt uns auch gerne eine Mail an hallo@dasou.law und abonniert uns sowohl bei eurer Podcast-App als auch auf Social Media.
Website von Dr. Felix Sühlmann-Faul: https://suehlmann-faul.com/
Link zum Buch „Der Goldene Käfig des Digitalkapitalismus“: https://www.oekom.de/buch/der-goldene-kaefig-des-digitalkapitalismus-9783987260797
Link zu PRIVASCORE: https://privascore.org/
Aktuelle EuGH-Entscheidung zu Meta-Daten: https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX%3A62021CJ0470
Transkript
Digitalkapitalismus – Nichts kostet mehr als kostenlos
DaSou-Podcast-Folge mit Dr. Felix Sühlmann-Faul
Karina Filusch: Hallo und herzlich Willkommen zu dem DaSou Podcast. Mein Name ist Karina Filusch. Ich bin Datenschutz Anwältin und einmal im Monat spreche ich mit einer Expertin oder einem Experten über das Thema Datensouveränität, abgekürzt Dasou. Heute spreche ich mit Dr. Felix Sühlmann-Faul. Er ist Experte für Digitalisierung und Nachhaltigkeit und Techniksoziologe, Speaker, Berater und Autor verschiedener Bücher. Und über eines dieser Bücher möchten wir heute mit Felix sprechen. Er hat jetzt nämlich in diesem Jahr das Buch „Der goldene Käfig des Digitalkapitalismus“ veröffentlicht und darüber werden wir mit ihm sprechen. Es wird auf jeden Fall eine überraschend emotionale Folge. Man denkt vielleicht bei Digitalkapitalismus, dass es sehr theoretisch ist, aber Felix nennt, insbesondere am Ende der Folge, einige negative Beispiele des Digitalkapitalismus, die einen doch kurz erschüttern, würde ich sagen. Dann komme ich jetzt zu meiner ersten Frage. Lieber Felix, ich bin froh, dass du heute hier bist und dass wir heute über dein Buch sprechen. Vielleicht kannst du uns etwas über das Buch erzählen, denn ich finde das sehr gut recherchiert. Es ist alles sehr gut wissenschaftlich belegt, was du schreibst, und es liest sich zeitgleich aber sehr gut, also es ist sehr spannend. Eine sehr spannende Lektüre. Aber fasse doch mal bitte so die zentralen Aussagen deines Buches zusammen.
Dr. Felix Sühlmann-Faul: In einem Satz geht es eigentlich um den Konflikt zwischen Digitalkapitalismus und Datenschutz. Aber das ist quasi nur der Kern, weil das verweist auf ein sehr viel breiteres Spektrum. Dass der Datenschutz aktuell in unserem digitalen Zeitalter stark unter die Räder gerät, ist sozusagen ein Symptom. Was darüber steht, ist eigentlich die Machtasymmetrie zwischen den großen Digitalkonzernen, also die Amazons, die Microsofts, die Googels, gegenüber ganzen Nationen, Staaten, öffentlichen Einrichtungen bis hinunter zu Anna Normalnutzerin quasi oder Otto Normalnutzer.
Karina Filusch: Der Untertitel deines Buches ist „Nichts kostet mehr als kostenlos“. Ich habe ein bisschen gebraucht, um den Satz zu verstehen und musste ihn erstmal zwei, dreimal lesen, aber ich kann ihn total nachvollziehen und teilen diesen Gedanken mit dir. Was steckt aber genau dahinter? Was genau bedeutet dieser Untertitel?
Dr. Felix Sühlmann-Faul: Also, es ist so eine Art Dekonstruktion oder, sagen wir mal, Hinterfragung dieses unausgesprochenen Gesellschaftsvertrags, den der digitale Kapitalismus beinhaltet, der in der Wahrnehmung vieler Leute ganz normal ist oder beziehungsweise, an den wir uns irgendwie sehr gewöhnt haben. Und dieser Gesellschaftsvertrag lautet: wir geben dir kostenlose Apps, Spiele, Unterhaltung, Konsumchancen und so weiter, aber wir bekommen im Gegenzug deine Daten für unsere Zwecke und dürfen dich ausführlich beobachten. Und das ist verpackt in auch ein hohes Maß an Ideologie – von der Befreiung des Menschen durch Technologie und so weiter – und zunächst verdreht das im ersten Moment dieses kapitalistische Prinzip, weil es gibt eigentlich nichts Kostenloses. Aber was dahintersteckt, ist natürlich ganz normales kapitalistisches Prinzip, inklusive diversen unangenehmen Machenschaften und Plänen und so weiter. Und von daher bewahrheitet sich eben auch das, was es im Englischen gibt: there is no such thing as a free meal. Also, es gibt nicht so etwas wie ein kostenloses Essen. Manche Leute sagen zum Beispiel: wenn irgendwas kostenlos ist, dann bist du das Produkt. Das ist prinzipiell richtig, aber das reduziert die Problematik auf so einen trivialen Satz. Was da abgeschnitten wird ist eigentlich, dass da eine Strategie dahintersteckt und diese Art und Weise, viele „kostenlose Dinge“ anzubieten, ist im Grunde einfach ein Einfallstor, ganz normal sehr viel Geld zu verdienen. Und in dem Fall noch der unangenehme Zusatz, nämlich nicht nur Geld zu verdienen, sondern auch sich zu bereichern an unserer Privatsphäre und an unseren Daten.
Karina Filusch: Was hat dich persönlich bewegt, über dieses Thema ein Buch zu schreiben? Also, es ist nicht dein erstes Buch, aber konkret dieses Buch. Gab es da so ein Erlebnis in deinem Leben, wo du gesagt hast, das hat mich so aufgeregt. Ich möchte jetzt darüber etwas schreiben und die Menschen mitnehmen auf meinem Gedankengang und ihnen das näher bringen.
Dr. Felix Sühlmann-Faul: Da muss ich ein kleines bisschen ausholen. Das hängt auch mit dem ersten Buch zusammen. Damals war es so, dass ich von der Robert Bosch Stiftung und vom WWF Deutschland beauftragt wurde. Die wollten so eine Art Überblicksstudie. Das war 2016. Also da war das Thema Digitalisierung und Nachhaltigkeit noch nicht so ganz in der Öffentlichkeit, aber es ist so ein bisschen mehr ins Bewusstsein gerückt. Also auf jeden Fall die wollten so eine Art Überblicksstudie über dieses, damals noch im deutschsprachigen Raum relativ neue, Thema und dann war diese Studie, eine sehr wissenschaftliche Studie, fertig. Und dann ist mir dieses Thema so sehr ans Herz gewachsen, dass es mir wichtig war, das im Grunde an die Öffentlichkeit zu tragen. Und dann habe ich diese Studie genommen und nochmal allgemein verständlich umformuliert, sodass es eben nicht so trocken ist wie eine wissenschaftliche Studie. Und habe dann dieses Buch rausgebracht: „der blinde Fleck der Digitalisierung.“ Und so ähnlich war das jetzt bei meinem zweiten Buch auch. Das Buch basiert im Grunde auf meiner Doktorarbeit, aber es ist sehr viel länger als meine Doktorarbeit und es ist eben für die Öffentlichkeit verständlich umgeschrieben. Und der Kern dieser Angelegenheit, der Kern der Doktorarbeit, und was auch ein wichtiger Teil in dem Buch ist, ist der PRIVASCORE. Ab und zu liege ich nachts wach und grübele so vor mir her. Ab und zu habe ich dann so Eingebungen sozusagen, und da war meine Überlegung: das Thema Datenschutz ist sehr vielen Leuten sehr wichtig, aber man wird ja an allen Ecken und Enden eigentlich daran gehindert, sich tatsächlich aktiv um den Datenschutz zu kümmern. Ob es jetzt darum geht, dass man zum Beispiel gezwungen ist eine bestimmte App zu verwenden und dann auf Teufel komm raus eben auf Einverständnis klickt, oder auch, wenn man sich selber tatsächlich aktiv damit beschäftigen möchte, dann müsste man ja zum Beispiel sehr lange juristische Texte lesen und die eben auch verstehen. Deswegen war meine Überlegung, und das war diese Eingebung in dieser einen Nacht, es müsste eigentlich so einfach sein wie dieser Nutrition-Score im Supermarkt. Dieser Nutritionscore, der hat ja diese Skala, also von „sehr gesund“ bis „sehr ungesund.“ Also dieses Grüne A bis runter zu dem dunkelroten E. Und es müsste eigentlich so einfach sein für Leute, die technisch vielleicht nicht so bewandert sind und die auch keine Zeit haben, lange AGBs und so weiter zu lesen. So einfach müsste es eigentlich sein, zu erkennen, wie gut schützt dieser Dienst oder diese App meine Daten: Kann ich das guten Gewissens verwenden, oder sollte ich mich vielleicht eher nach einem anderen Produkt, das denselben Zweck erfüllt, umschauen, was aber dann ein höheres Datenschutzniveau besitzt?
Karina Filusch: Bleiben wir doch gleich beim PRIVASCORE. Du hast das Projekt auch auf einer Website vorgestellt. Ich werde das in den Shownotes verlinken. Es gibt auch ein ganzes Kapitel zum PRIVASCORE in deinem Buch. Du hast gerade schon gesagt, es ist angelehnt an den NutriScore – an diese ABC Buchstaben – dass die Chips zum Beispiel sehr ungesund sind, dann sind die bei E eingestuft oder so und ein gesünderes Produkt dann eher bei A. Und genauso hast du das für Datenschutz gemacht. Und zwar nicht so pi mal Daumen, sondern tatsächlich hast du richtig definiert, welcher Faktor wie schwer gewichtet werden muss, und hast dann, zum Beispiel anhand der Messenger, richtig eingestuft, welcher Messenger der datenschutzfreundlichste ist. So würde ich das jetzt bezeichnen. Und hast den Leserinnen und Lesern eine Anleitung an die Hand gegeben und auch gut begründet, warum sie einen bestimmten Messanger vielleicht eher nutzen sollten als einen anderen. Gerade ist ja die Diskussion um Telegramm zum Beispiel sehr aktuell. Telegramm hast du nämlich „auseinandergenommen.“ Apropos, welchen würdest du empfehlen? Welchen Messenger?
Dr. Felix Sühlmann-Faul: Für ganz normale, wie gesagt, Anna Normalnutzerin und Otto Normalnutzer, gibt es zwei Produkte, die empfehlenswert sind. Das eine ist eben Threema aus der Schweiz. Der kostet zwar einmalig, ich glaube 5€ oder so, aber das ist sehr gut investiertes Geld, und darüber finanziert sich zum Beispiel Threema auch einfach. Deswegen ist ein Teil dieser Bewertung der Messenger eben auch: Welches Geschäftsmodell steckt dahinter? In dem Fall ist es ein sauberes Geschäftsmodell. Die bieten ein Produkt an und man gibt ihnen Geld dafür und damit ist die Sache geritzt. Das zweite Produkt, das empfehlenswert ist, das ist Signal. Signal hat auch ein sauberes Geschäftsmodell, weil die sich über Spenden finanzieren. Dafür ist die App allerdings auch kostenlos. Also man kann sie nutzen. Man kann aber natürlich auch, was man immer tun sollte, wenn man freie Software verwendet, eben auch Geld dafür geben. Aber es ist einem selbst überlassen. Signal hat im Grunde eine sehr ähnliche Oberfläche wie WhatsApp. Das heißt, die Umstellung ist entsprechend einfach, aber dafür haben Threema Signal eben ein sehr hohes Datenschutzniveau.
Karina Filusch:Man kann übrigens, falls man seine ganze Familie oder die Fußballmannschaft überführen möchte, von WhatsApp oder Telegramm zu Threema – es kostet ja, wie du gerade gesagt hattest – kann man auch einen Gutschein für den Appstore zum Beispiel verschenken, sodass die Leute sich Threema herunterladen können. Es kann ja durchaus ein Hindernis sein für die Nutzung dieser datenschutzfreundlichen App. Deshalb, so als kleiner Tipp, die kann man zum Beispiel zu Weihnachten oder so verschenken.
Dr. Felix Sühlmann-Faul: Ja. Genau sehr gut.
Karina Filusch:Der neueste Beitrag auf dem PRIVASCORE, meine ich, sind Periodenapps. Die hast du jetzt gerade auch bewertet. Das kann man dort auch auf deiner Webseite nachschauen, welche gerade die beste App ist aus Sicht des Datenschutzes. Man sollte dir auch übrigens immer auf LinkedIn folgen, habe ich gesehen. Also du postet unglaublich viele aktuelle Beiträge. Das lohnt sich auf jeden Fall, bei dir vorbeizugucken. Wollen wir vielleicht zurückkommen zum Thema Digitalkapitalismus? Das ist ja der Haupttitel. „Der goldene Käfig des Digitalkapitalismus.“ So heißt dein Buch ja schließlich. Vielleicht gucken wir uns nochmal an, was ist Digitalkapitalismus und welche zentralen Einflüsse hat es überhaupt?
Dr. Felix Sühlmann-Faul: Historisch gibt es unterschiedliche Epochen des Kapitalismus. Wenn wir jetzt mal zum Beispiel von der industriellen Revolution aus betrachten: der Industriekapitalismus, der sich da ergeben hat. Dieser hatte eben bestimmte Charakterzüge. Und jetzt in der Zwischenzeit ist es eben der Digitalkapitalismus, der sich durch zwei sehr zentrale Dinge abgrenzt von vorangegangenen Epochen des Kapitalismus. Also einerseits ist das Thema Daten als Produktionsmittel dazugekommen. Daten waren natürlich schon immer wichtig, klar, weil es geht ja letztendlich auch um Geld und solche Themen. Aber Daten als Produktionsmittel, das ist neu dazugekommen. Und was zusätzlich in Verbindung mit diesen Daten dazugekommen ist nämlich, dass wir tatsächlich diese Daten erzeugen. Also wir erzeugen dieses Produktionsmittel, was gleichzeitig im Grunde der Motor der Digitalwirtschaft ist. Und da sieht man eine interessante Entwicklung. Also, wenn wir jetzt nochmal zum Industriekapitalismus zurückgehen, da ist es beispielsweise so, dass bei den Arbeiterinnen und Arbeiter in der Fabrik, da war deren Arbeitskraft ein Kapital und Produktionsmittel und eine Ware, die man verkaufen konnte. Karl Marx im Kapital hat das gezeigt, dass das eine Entmenschlichung ist. Das heißt, man verkauft das, was vom Menschen ausgeht, und das ist die Arbeitskraft. Aber das ist rein Kapital, das heißt, der Mensch, der dahintersteckt, der tritt hier in den Hintergrund. Das ist eine Verdinglichung. Das Bizarre jetzt im Digitalkapitalismus ist, dass wir auch dieses Produktionsmittel, diese Ware, dieses Kapital erzeugen und treten auch dahinter zurück, obwohl das sehr stark in unsere Privatsphäre und so weiter eintritt. Also, Dinge, die uns selbst definieren, die werden von uns abgegriffen, und das sind unsere eigensten, persönlichsten Dinge. Aber trotzdem treten wir und unsere Würde und unsere Rechte treten da dahinter. Das heißt auch wir sind dann als Mensch verdinglicht.
Karina Filusch: Bevor ich darauf einsteige, in deinem Buch hat mir sehr gut gefallen, dass du jedes größere Kapitel mit einem Zitat eröffnet hast. Da ist wirklich von Karl Marx bis Linkin Park alles mit dabei. Also das fand ich großartig. Das war immer ein schöner Einstieg in das Thema. Du hast gerade von Entmenschlichung geredet. Verlieren wir dann so ein bisschen unsere Menschenwürde im Digitalkapitalismus? Ich frag einfach mal so spontan.
Dr. Felix Sühlmann-Faul: Im Grunde ja. Viele Dinge, die Endgeräte, die Wearables, also die smarten Uhren, die wir mit uns rumtragen, irgendwelche smarten Lautsprecher und so weiter und so fort. Das sind ja im Grunde Geräte, die einerseits ja so einen gewissen Komfort, Luxusfaktor verbreiten sollen, aber andererseits ist es so, dass alle diese Geräte sehr stark darauf angelegt sind, Daten zu erfassen und Daten weiterzureichen. Es gibt ein Buch dazu von einem Soziologen, der heißt „Voß“ und das Buch „der arbeitende Kunde.“ Also, wir nutzen einerseits diese Geräte, aber gleichzeitig macht uns das zu unfreiwilligen Mitarbeitern und unfreiwilligen Helfern eigentlich für den Gewinn dieser privatwirtschaftlichen Unternehmen.
Karina Filusch: Es gibt einen Satz in deinem Buch, der mir da sehr aus der Seele gesprochen hat. Der passt gerade: „Ich habe nichts zu verbergen.“ Den hast du hier auch als Überschrift. Regt dich dieser Satz auch so auf wie mich?
Dr. Felix Sühlmann-Faul: Also, viele Leute stellen sich auf diesen Standpunkt: „Ich habe ja nichts zu verbergen.“ Also Google darf irgendwie alles von mir wissen und so weiter. Da gibt es ganz viele Sachen, die man dazu sagen kann. Das fängt gleich schon mal dabei an, dass das Thema Privatsphäre in einen Bereich verschiebt, der eigentlich sagt, alles, was in meiner Privatsphäre stattfindet, dass das irgendwas Kriminelles oder sowas an sich hat. Das ist ja im Grunde so eine Art Verdrehung. Natürlich finden Verbrechen und verbrecherisches Verhalten, Kriminalität, keine Ahnung, Drogenkonsum und so – das findet natürlich auch in einer versteckten Form irgendwie statt und in einem versteckten Bereich. Aber die Privatsphäre ist ein viel größerer Bereich, der überhaupt erst mal gar nichts damit zu tun hat, dass man etwas Verbotenes tun möchte. Also ganz guter Test ist eigentlich immer, würde man bestimmte Dinge zum Beispiel tun, wie: würde man da seine Nachbarn dazu einladen? Um es jetzt mal ganz primitiv zu sagen, wenn wir aufs Klo gehen, machen wir doch auch die Tür zu.
Karina Filusch: Kannst du uns noch erklären, wie genau dieser Digitalkapitalismus funktioniert? Also wie werden da meine Daten verkauft, und was sind die wert? Kannst du das auch in Euro und Cent beziffern?
Dr. Felix Sühlmann-Faul: Das ist extrem komplex, dieses Thema. Ich kann das tatsächlich nicht beziffern in Euros oder so. Aber es funktioniert im Grunde so: Für was unsere Daten zu größeren Teilen verwendet werden ist das eins der zwei Geschäftsmodelle, die im Internet gut funktionieren, ab einer gewissen Größe. Es gibt eigentlich nur zwei Geschäftsmodelle, die im Internet gut funktionieren. Das ist einerseits der E-Commerce, aber das zahlt sich im Grunde auch nur für große Konzerne aus oder große Firmen. Der größte Batzen bei der Angelegenheit ist eigentlich personalisierte Werbung. Also Werbung, die so gestaltet ist, dass die Person, die jetzt gerade auf dieser Website ist eine bestimmte Werbeanzeige gezeigt bekommt, die exakt auf die Vorlieben, Wünsche, das Verhalten, Hobbys, (…) dieser einen Person angelegt ist, damit sie dann eben auf diese Werbung klickt und dann ein tolles Angebot bekommt oder so was. Das heißt, diese großen Firmen, Meta oder Google, die haben im Grunde einen großen Katalog von extrem segmentierten Zielgruppen. Also beispielsweise: es gibt ein Produkt und das soll konservativen Wählerinnen, die Mitte 20 sind und beispielsweise zwei Kinder haben oder sowas, soll das angelegt sein. Und dann wenden sich die Werbeagenturen oder Vermittler, wenden sich dann an Google und können in diesem breiten Katalog auswählen, was deren Zielgruppe ist. Sodann wird das eben den konservativen Wählerinnen, die Mitte 20 sind und die vielleicht zwei Kinder haben auf ihren Streifzügen im Internet gezeigt. Deswegen ist es interessant, uns und unsere Privatsphäre zu durchleuchten, weil auf die Art und Weise eben diese Werbeanzeigen und Produkte sehr maßgeschneidert auf uns angelegt werden können. Es steckt extrem viel Geld dahinter und deswegen ist unsere Privatsphäre da auch keine Hürde oder sowas, sondern einfach hochinteressant, um damit Geld zu verdienen.
Karina Filusch: Jetzt, wo du es gerade sagst: personalisierte Werbung – als ich schwanger war, das war ganz extrem. Ich habe überall auf allen sozialen Medien natürlich Produkte für Schwangerschaft, Kinder und so weiter angezeigt bekommen. Irgendwann habe ich mal nachgelesen, dass das Datum einer Schwangeren ungefähr so für 1,50 Euro gehandelt wird. Das finde ich unglaublich viel. Also man muss sich dessen einfach mal bewusst sein, wie viel unsere Daten eigentlich wert sind. Was kann ich denn jetzt als Nutzerin konkret tun? Kann ich das ablehnen? Kann ich meine Einwilligung entziehen? Was mache ich jetzt?
Dr. Felix Sühlmann-Faul: Also das ist tatsächlich so, dass wir als Nutzerinnen und Nutzer sind im Grunde darauf zurückgeworfen uns selber zu schützen. Das hängt einerseits damit zusammen, dass Gesetzesvorlagen, Gesetzesinitiativen und so weiter durch Lobbyarbeit der Digitalwirtschaft, zum Beispiel, sehr stark aufgeweicht werden. Das hat man bei der DSGVO, also der Datenschutzgrundverordnung, gesehen. Da gibt es ja zum Beispiel diesen Artikel 6 des berechtigten Interesses. Über diesen reden sich dann sehr viele Firmen raus. Auch beispielsweise Meta und so weiter. Das kann man dann in der Datenschutzrichtlinie von Meta-Produkten, also bei Instagram, Whatsapp und so weiter kann man das eben lesen: „Ja, Artikel 6 berechtigtes Interesse. Also, wir müssen unser Geschäft schützen und auch unsere Nutzerinnen und Nutzer, und deswegen haben wir ein berechtigtes Interesse, möglichst viele Daten abzugreifen.“ Um das jetzt mal verkürzt gesagt zu sagen. Man sieht das auch bei anderen Sachen, zum Beispiel E-Privacy. Da war eine wichtige Gesetzesinitiative, die zum Beispiel auch den Schutz der Metadaten beinhaltet hätte. Das ist massiv torpediert worden von der Digitalwirtschaft auf Ebene des EU-Parlaments und der Kommission. Das ist jetzt erst mal weit nach hinten verschoben. Ob das irgendwann überhaupt noch kommen wird, das ist ein bisschen unklar. Den aktuellen Status habe ich jetzt auch nicht genau. Vor längerem hieß es mal, im Jahr 2026 wird nochmal ein neuer Anlauf gestartet, aber ob das dann tatsächlich passiert, das ist ein bisschen unklar.
Karina Filusch: Kannst du noch kurz sagen, was Metadaten sind?
Dr. Felix Sühlmann-Faul: Wenn wir jetzt das Beispiel Messanger nehmen: dann sind Metadaten nicht der Inhalt der Nachrichten, sondern Metadaten sind beispielsweise die Telefonnummer der zwei Leute, die sich miteinander unterhalten; wann diese Nachricht ausgetauscht wurde; wann geantwortet wurde; wann diese Person online war und nicht online war; wo diese Person sich befand, als sie diese Nachricht geschrieben hat; und so weiter. Das heißt, das sind Daten, die eine Aussage über andere Daten machen. Dies sind Metadaten. Das klingt jetzt erst mal irgendwie so lapidar, aber es gibt diese berühmte Aussage eines amerikanischen Generals, der ehemaliger Chef der NSI, also der National Security Agency von Amerika, also der Inlandsgeheimdienst der Vereinigten Staaten, war, der in einem Fernsehinterview gesagt hat: „Wir töten auf Basis von Metadaten.“ Was dahintersteckt ist, dass die, also der Auslandsgeheimdienst der Vereinigten Staaten, auf Basis eben dieser Metadaten agieren. Die müssen nicht wissen, welcher Terrorist jetzt gerade an welchen Terrorist was konkret schreibt, sondern es reicht im Grunde, durch Auswahlverfahren herauszufinden: „ah, es ist diese Person, die schreibt, um diese Uhrzeit an diese und jene Person und auf die Art und Weise.“ Durch so ein Auswahlverfahren wurde herausgefunden, wer diese Personen eben sind, und dann zugeschlagen.
Karina Filusch: Mein Gott, das schockiert mich zutiefst so ein Beispiel. Es gibt aber noch andere Beispiele, die eine gewisse Gefahr des Datenkapitalismus aufzeigen. Zum Beispiel Black Lives Matter. Was war dort das Problem?
Dr. Felix Sühlmann-Faul: Google, Meta und so weiter sammeln natürlich jede Menge Daten, verkaufen diese Daten aber auch weiter an sogenannte Data Broker, also Datenhändler. Das sind kleinere Firmen, die im Grunde nichts anderes machen, als Daten zu kaufen und die dann wieder zu verkaufen. Von diesen Data Brokern gibt es tausende, abertausende. Wenn man sich die Mühe machen möchte, könnte man zum Beispiel mal in den nächsten Cookiebanner reinschauen, wie viele Firmen da tatsächlich dahinterstecken, die einem jetzt gerne das Cookie schieben möchten und hinterher auslesen. Also, das sind immer extrem viele Firmen. Also auf jeden Fall, diese Data Broker leben davon Daten zusammen und die dann eben entsprechend zu verkaufen. Und bei den Demonstrationen in Amerika zum Thema „Black Lives matter“ war es so, dass das FBI beispielsweise Daten gekauft hat von Leuten, die auf diesen Demonstrationen waren. Das hat im Grunde so funktioniert, weil alle diese Leute, die auf den Demos waren, oder der Großteil der Leute, die auf diesen Demos waren, die hatten natürlich ihr Smartphone in der Tasche, und es gibt eben genügend Apps, die Standortdaten sammeln und auch an Data Broker weiterverkaufen. Und Ermittlungsbehörden, auch in Europa, sind gern gesehene Kunden bei Data Brokern, weil sie auf die Art und Weise Ermittlungen anstoßen können, beispielsweise auf Basis von Metadaten oder so. Und jetzt in dem Fall konnte dann das FBI eine große Datenbank anlegen über Demonstrierende bei diesen Black Lives Matter Demos.
Karina Filusch: Das zeigt eigentlich, dass wir unseren eigenen Überwachungsstaat gründen, indem wir einfach unser Handy immer nutzen und immer dabeihaben. Also, wir brauchen noch nicht mal, wie zum Beispiel in China, so einen Überwachungsstaat, wo über Kameras aufgestellt sind und KIs, also künstliche Intelligenz, genutzt wird, um die Bürger zu verfolgen und deren Verhalten zu bewerten. Sondern wir machen das im Grunde selber. Das ist wirklich etwas, was mich mitnimmt und mich erschüttert, das wir es haben so weit kommen lassen. KI ist auch ein Thema in deinem Buch. Du hast ein ganzes Kapitel der künstlichen Intelligenz gewidmet. Was macht die KI so relevant im Digitalkapitalismus?
Dr. Felix Sühlmann-Faul: Es gibt im Grunde zwei Punkte, die KI als zentrales Werkzeug oder Medium so interessant im Digitalkapitalismus machen. Das eine ist natürlich, dass KI extrem viele Daten braucht, um trainiert zu werden, weil was KI letztendlich meistens macht, ist in irgendeiner Art und Weise eine Form von Muster zu erkennen. Das heißt, eine KI, die beispielsweise süße Katzenbilder identifizieren soll aus einer 1 Million ganz wild durcheinander gewürfelten Bilder, da soll sie die süßen Katzenbabys raussuchen – dann muss sie davor sehr viele Katzenbabys gesehen haben, ganz unterschiedliche. Das heißt, diese KI braucht extrem viele Daten. Und weil wir jetzt die ganze Zeit davon gesprochen haben, dass wir unsere personenbezogenen und sonstige Daten eben erzeugen: die KI wird natürlich auch trainiert mit den Daten, die wir so hinterlassen. Das heißt, einerseits ist es eben dafür da, uns maßgeschneiderte Werbung und so weiter anzudrehen, und andererseits werden unsere Daten eben auch für die KI verwendet. Der zweite Punkt, abgesehen von den Daten, die wir erzeugen, dass die eben auch genutzt werden für das Training der künstlichen Intelligenz, ist eben auch, dass die Digitalfirmen, welche ich vorhin schon genannt habe – also die Amazons und die Microsofts und die Googles und so weiter – in der Entwicklung von Systemen künstlicher Intelligenz die Nase sehr weit vorne haben. Einfach deswegen, weil sie sehr viel Geld haben und weil sie relativ eng am Puls der technologischen Innovation sind. Und es gibt ihnen eine neue Möglichkeit mehr Macht im Grunde aufzubauen, neue Monopole zu erschaffen und auf die Art und Weise längerfristig, und darum geht es eigentlich diesen Konzernen, Abhängigkeiten zu erzeugen, weil jede Menge andere Firmen dann im Grunde die Produkte nutzen müssen, die diese Digitalkonzerne anbieten.
Karina Filusch: Gucken wir uns noch die kleinsten Menschen unserer Gesellschaft an, unsere Kinder. Wie können wir diese schützen? Sie nutzen ja Medien immer früher und immer intensiver. Mein Sohn, der guckt zum Beispiel total gerne YouTube-Videos. Ich versuche dann immer, alle Einstellungen so datenschutzfreundlich, wie es nur geht, einzustellen. Aber ja, wie kann man unsere Kinder davor schützen?
Dr. Felix Sühlmann-Faul: Es fängt erst mal grundsätzlich Zuhause an. Also Eltern sind die wichtigsten Vorbilder. Da geht es allgemein um das Thema Mediennutzung. Also habe ich zum Beispiel das Telefon in der Hand, während ich mich mit jemandem unterhalte. Das ist ein ganz primitives Beispiel. Oder wie oft habe ich das Telefon beispielsweise vor mir insgesamt? Also, Eltern sind da die wichtigsten Vorbilder und es braucht eigentlich, meiner Ansicht nach, für das Thema Medienkompetenz, was jeden Tag wichtiger wird, jetzt in der Zwischenzeit ein Skeptizismus. Also gehe ich davon aus, dass das, was ich jetzt beispielsweise auf Webseite XY gelesen habe, ob das der Wahrheit entspricht. Das gehört zur Medienkompetenz dazu. Und da gibt es im Grunde jetzt in der Zwischenzeit keinen frühsten Zeitpunkt, bei dem man damit anfangen müsste. Also, es bräuchte eine frühe „digitale Aufklärung“ über auch die negativen Folgen der Digitalisierung auf Ebene von sozialer und ökologischer Nachhaltigkeit. Und, wie gesagt, jetzt das Thema „Hinterfragung von Inhalten.“ Wir hatten ja über KI gesprochen: im Rahmen von Deepfakes, also der Imitation einer wahren Person oder die Imitation einer Person, die vielleicht auch nicht existiert, die aber so tut, als wäre sie eine echte Person – ist das eine Fähigkeit, die wir ganz früh ins Bewusstsein unserer jüngsten Mitglieder dieser Gesellschaft einpflanzen müssen.
Karina Filusch: Denkst du, es gibt eine Lösung für das Problem Digitalkapitalismus, so auf politischer Ebene?
Dr. Felix Sühlmann-Faul: Also, das schreibe ich auch im Zusammenhang mit dem PRIVASCORE. Der PRIVASCORE ist eine gute Idee und sie funktioniert gut und sie gibt Anna und Otto Normalnutzer die Möglichkeit, eine informierte Entscheidung zu treffen. Aber eigentlich sollte das nicht in der Verantwortung des Einzelnen liegen, weil es dann auch ein hohes Maß an Diffusion erzeugt. Du hast vorhin selber gesagt, du nutzt WhatsApp auch, und das hängt damit zusammen, dass dieser Netzwerkeffekt besteht. Das heißt, ganz viele Leute sind auf WhatsApp, und manche wollen dann auch nicht wechseln unter der Argumentation, da sind halt alle meine Freunde und so weiter. Es bräuchte deswegen massiv große politische Schritte, und das ist eine schwierige Angelegenheit. Ich schreibe in dem Buch von Lobbyverbot. Das ist ein bisschen kurz gegriffen, deswegen weil es auch Lobbys gibt, die sich nicht für die digitale Wirtschaft einsetzen, sondern zum Beispiel für Menschenrechte. Aber es bräuchte sowas wie eine Lobby-Fußabdruck. Das ist, glaube ich, ein Vorschlag von Amnesty, also das ein Indikatoren-Modell aufgestellt werden muss, welches zeigt, wie negativ sind die Einflüsse einer bestimmten Lobby, und das transparent darstellen zu können. Es bräuchte grundsätzlich ein sogenanntes „Privacy by Design.“ Das heißt, bei digitalen Geräten, Apps, Diensten und so weiter, muss ein allgemeines Opt-In enthalten sein. Das heißt, ich muss aktiv gefragt werden: möchte ich überhaupt, dass meine Daten von diesem Gerät übermittelt werden? Das muss es geben in einer notwendigen oder nicht-notwendigen Version. Das heißt, man muss eigentlich erst einmal grundsätzlich zustimmen und dieses Gerät muss trotzdem auch funktionieren, ohne dass man seine Daten teilt. Das wäre eine politische Aufgabe dieses Privacy by Design umzusetzen. Dann beispielsweise auch an manchem Punkt die Verschärfung des bestehenden Datenschutzrechts. Die DSGVO ist wichtig, die erzeugt ein hohes Datenschutzniveau, aber einerseits muss die auch durchgesetzt werden – das wird an ganz vielen Punkten nicht gemacht, und zum anderen bräuchte im Grunde so eine Art DSGVO 2.0, die dann eben beispielsweise auch das Thema Metadaten und so weiter beinhaltet. Die DSGVO befasst sich nur mit personenbezogenen Daten und Metadaten sind da außen vor. Das heißt, Metadaten sind nach wie vor eine Angelegenheit, die man einfach so sammeln und nutzen darf und so weiter, obwohl sie eben sehr große Aussagen über uns machen können.
Karina Filusch: Obwohl es da auch gerade ein Urteil gab, dass erstmalig Metadaten auch unter die DSGVO stellt. Ich kann das auch in den Shownotes verlinken. Das ist gerade eine brandaktuelle Neuerung. Aber du hast recht: Metadaten ist ein Riesenproblem. Du hast das gut erklärt an zwei sehr traurigen Beispielen, was Metadaten eigentlich für Konsequenzen haben. Die technische Lösung, die du vorhin vorgestellt hast – da bin ich sofort dabei, würde ich sofort unterschreiben, finde ich total toll, wenn das genauso käme und wir Datenschutz by Design hätten. Das wäre total toll! In deinem Buch erwähnst du das Wort Datensouveränität. Ich bin ja eine große Freundin von diesem Begriff, und ich habe mich sehr gefreut, dass du diesen Begriff auch benutzt, denn es gibt durchaus Leute, die ihnen nicht so mögen, die ihnen sehr kritisch sehen. Du setzt sich damit auseinander mit diesem Begriff, und deswegen würde ich dich jetzt gerne fragen: was bedeutet DaSou, also Datensouveränität, denn für dich?
Dr. Felix Sühlmann-Faul: Ich war bis vor kurzem Teil einer Arbeitsgemeinschaft für das Thema „digitale Souveränität für Hochschulen“ und da gibt es auch ein Arbeitspapier dazu, das wir veröffentlicht haben. Dort stellen wir erst mal relativ früh fest, dass digitale Souveränität oder Datensouveränität Begriffe sind, die nicht konkret zu definieren sind, sondern man muss sich da eben was dazu suchen. Ich habe es mir in dem Buch so zurechtgelegt, dass Datensouveränität sich im Grunde stark überschneidet mit der sogenannten informationellen Selbstbestimmung, denn beide Begriffe heben die Bedeutung der individuellen Freiheit und des Schutzes der Privatsphäre im Kontext von Datenverarbeitung hervor. Beide Begriffe beziehen sich auf dieselbe Idee eigentlich, nämlich die Einzelperson muss Kontrolle haben über ihre eigenen Daten. Das heißt, sie muss darüber bestimmen, wem übergebe ich diese Daten; was macht diese andere Institution mit diesen Daten zu welchem Zweck. Und daher denke ich, dass Datensouveränität sich hier stark mit der informationellen Selbstbestimmung überschneidet.
Karina Filusch: Vielen Dank, lieber Felix, für das schöne Gespräch. Ich habe sehr viel dazugelernt durch das Gespräch, aber auch durch das Buch von dir und möchte mich bedanken. Vielen Dank.
Dr. Felix Sühlmann-Faul: Das war mir eine große Freude bei dir zu sein und ich danke dir sehr für die Einladung.
Karina Filusch: Ich hoffe, euch hat die Folge gut gefallen. Abonniert uns gerne und hinterlasst uns auch sehr gerne eine gute Bewertung in eurer Lieblings-Podcast-App. Ihr könnt uns zum Beispiel per E-Mail erreichen unter hallo@dasou.law. DaSou ist eine Produktion der Kanzlei Filusch. Mehr Infos findet ihr auf unserer Webseite www.dasou.law. Zur Redaktion gehören Lynn Böttcher und Karina Filusch. Editiert wurde der Podcast von Christoph Hinners. Der Jingle wurde, komponiert von Mauli. Die Idee zu DaSou hatte Axel Jürs. Bei der Konzeptionierung unterstützte uns Susan Stone. Das Cover hat Hélène Baum gestaltet.