*das ist „Binärisch“ und bedeutet:…26
Spätestens seit dem Beginn der Corona Pandemie hat sich das Arbeiten im Homeoffice etabliert. Doch inwiefern werden wir in unserem eigenen Zuhause von unseren Arbeitgebern überwacht? Was ist Überwachung überhaupt und wie weit darf Überwachung am Arbeitsplatz gehen? Diese und weitere spannende Fragen wollen wir mit unserem heutigen Gast klären. Dr. Carsten Ochs ist Soziologe, Mitglied im Forum Privatheit und Wissenschaftlicher Mitarbeiter im BMBF-Projekt „Demokratieentwicklung, Künstliche Intelligenz und Privatheit“ an der Universität Kassel. Er zeigt uns die historische Entwicklung der Überwachung am Arbeitsplatz von der Aufsicht in der Fabrikhalle bis hin zu technischer Spyware im Homeoffice auf und erklärt uns welche Spielregeln im Umgang mit Daten in welchen Sozialbereichen zu beachten sind. Ihr wüsstet gerne mehr über die Überwachung am Arbeitsplatz? Dann hört unbedingt rein und verpasst auch nicht unsere zweite Folge zur Überwachung am Arbeitsplatz mit Barbara Wimmer.
Wir freuen uns, eure Meinungen zu hören. Schickt uns gerne eine Nachricht auf Twitter oder Instagram!
Bei Fragen oder Anregungen schreibt uns gerne eine Mail an hallo@dasou.law und folgt uns auf Twitter/Instagram bei dasou_law.
.
Show-Notes
Dr. Carsten Ochs an der Universität Kassel: www.uni-kassel.de/fb05/fachgruppen-und-institute/soziologie/fachgebiete/soziologische-theorie/team/dr-carsten-ochs
Whitepaper zum Tracking: www.forum-privatheit.de/wp-content/uploads/Forum-Privatheit-Whitepaper-Tracking.pdf
.
Transkript
Karina Filusch:Hallo und herzlich willkommen zum DaSou-Podcast. Mein Name ist Karina Filusch. Ich bin Datenschutz-Anwältin und externe Datenschutzbeauftragte. In jeder Folge spreche ich mit einer Expertin oder einem Expertin über das Thema Datensouveränität, abgekürzt DaSou. Heute startet wieder eine kleine Miniserie bei uns, und zwar geht es um das Thema Überwachung am Arbeitsplatz. Wir beginnen heute mit Dr. Carsten Ochs. Er arbeitet an der Universität Kassel und ist dort wissenschaftlicher Mitarbeiter in einem Projekt des Bundesministeriums für Bildung und Forschung. Das Projekt heißt „Demokratieentwicklung, künstliche Intelligenz und Privatheit”. Dr. Carsten Ochs hat gerade seine Habilitation zum Thema „Soziologie und Privatheit” abgeschlossen. Zudem ist er Mitglied des Forschungsverbundes Forum Privatheit. Das Forum Privatheit ist auch ein Projekt, das vom Bundesministerium für Bildung und Forschung initiiert wurde. Es ist ein interdisziplinäres Netzwerk, um Privatheit und Selbstbestimmung in der digitalen Welt zu stärken. Ziel ist es, allen Bürgerinnen und Bürgern einen reflektierten und selbstbestimmten Umgang mit ihren Daten, technischen Geräten und digitalen Anwendungen zu ermöglichen. Wenn ihr wollt, geht auf die Seite www.forum-privatheit.de, um mehr Informationen zu bekommen. Mit Dr. Ochs möchte ich heute in das Thema „Überwachung am Arbeitsplatz” einsteigen. Wir sprechen über die historische Entwicklung und darüber, wo es früher schon Überwachung gab und wie sich das bis in die heutige digitale Welt entwickelt hat. Vor allem sprechen wir darüber, wie sich alles durch Corona, Lockdown und Homeoffice verändert hat. Lieber Herr Dr. Ochs, vielen lieben Dank, dass Sie heute da sind. Vielleicht können wir erst einmal aus soziologischer Sicht in das Thema einsteigen, weil Sie ja Soziologe sind. Was ist eigentlich Überwachung?
.
Dr. Carsten Ochs:Ja, zur Überwachung fallen mir mindestens zwei Dinge ein: eine Historisierung der Überwachung und eine Unterscheidung von Formen der Überwachung. Beides geht auf einen englischen Soziologen zurück, Anthony Giddens, der sich damit befasst hat, wie sich die Sammlung von Informationen in historischen Prozessen sowie die direkte Beobachtung von Verhalten entwickelt und voranschreitet – als Machttechnik, wenn man so will. So, um das kurz zu erläutern: Giddens unterscheidet erst einmal zwischen einer Sammlung von Informationen oder von Daten, aus denen man Informationen generieren kann. Dazu muss die überwachende Instanz nicht direkt anwesend sein. Gemeint ist also das, was Behörden oder Verwaltungsapparate machen. In diesem Zusammenhang denken wir an Akten, an Register und an solche Datensammlungen. Das, könnte man sagen, ist eine Form von Überwachung. Die andere Form von Überwachung ist eben das, was derzeit zum Beispiel historisch in der europäischen Geschichte mit Fabriken stark aufkommt, nämlich die direkte Beobachtung von Verhalten, die schon der Verhaltensformung dient. Aufsichtsinstanzen in der Fabrik beobachten die Arbeiter*innen bei der Arbeit und das mag dann eben eine disziplinierende Wirkung haben. Dies ist eine direkte Form der Überwachung. Wenn man diese Unterscheidung zwischen den beiden Überwachungsformen zugrunde legt, kann man weitergehen. Giddens sagt dann, dass es historisch zu einer Ausweitung kommt. In mittelalterlichen Verhältnissen, also dem Feudalismus, kontrollierten die adligen Herrschaftsfamilien die anderen Stände, namentlich die Bauern und Bäuerinnen auf dem Feld. In einer solchen gesellschaftlichen Konstellation kann man sagen, dass die Überwachung und die Formung des alltäglichen Verhaltens eher gering ist. Das Argument von Giddens ist dann zu sagen: Na ja, es gibt eine weniger intensive Überwachung. Aus Giddens Ansatz kann man zumindest interpretieren, dass durch eine Anwendung heftiger Gewalt aufgewogen wird. Dass die Machtausübung nicht so intensiv in die alltäglichen Strukturen hinein reicht, wird im Zweifelsfall durch heftig gewaltsame Disziplinierung aufgewogen. Man kann die Geschichte bis zur modernen Gesellschaft und bis hin zur digitalen Gesellschaft als eine Ausweitung von Überwachungstechniken beider Art betrachten oder interpretieren. Vor allem kommt es jedoch zu einer Intensivierung der Datensammlung. Giddens beschreibt auch, was für Möglichkeiten Nationalstaaten für die Informationensammlung bzw. Datensammlung und Informationengenerierung zur Verfügung haben. Das ist überhaupt nicht vergleichbar mit dem, was zuvor im Feudalismus oder im absolutistischen Staat möglich war, obwohl der absolutistische Staat eben verstärkt mit dieser Datensammlung anfängt und einen Verwaltungsapparat aufbaut. Moderne Nationalstaaten haben da nochmal ganz andere Möglichkeiten. Natürlich haben sie weitere Möglichkeiten, über Behörden usw. in die Alltagspraktiken hineinzuwirken, um diese zu beeinflussen. Im Umkehrschluss kommt es dann auch tatsächlich zu einer Minderung von Gewalt. Damit meine ich physische Gewalt und solchen Zwangsmaßnahmen. Aus soziologischer Sich ist es sehr interessant, dass sich die Diskussion um Digitalisierung, zumindest vordringlich gar nicht mehr um die staatlichen Behörden dreht. Ich will es auch nicht verharmlosen, was an staatlicher Sammlung digitaler Daten passiert und wozu das genutzt wird. Dafür gibt es aber vergleichsweise ausgereifte regulatorische Spielregeln, was Behörden dürfen und was sie nicht dürfen. Und so weiter. Heute ist es dann eben eher die Datenökonomie, die ganz andere Möglichkeiten hat. Das Interessante daran ist, dass gleichzeitig Daten gesammelt werden und auf das Verhalten Einfluss genommen wird, obwohl ich mir gegenüber überhaupt keine Fabrikaufsicht mehr habe. Die Verhaltensbeeinflussung erfolgt darüber, dass die Interaktions- und Entscheidungsarchitekturen im digitalen Bereich beeinflussbar werden. Wir werden genudged, bzw. gehypernudged und so weiter. Predictive Analytics ermöglicht eine Verhaltensformung bis zu einem gewissen Grad. Da das heute eher unter ökonomischen Vorzeichen stattfindet, kann man sagen, dass sich diese beiden Überwachungsformen verbinden. Gerade was die Alltagspraktiken, also die Eingriffe in die Alltagspraktiken angeht, wird das noch intensiviert und dies ist soziologisch interessant, weil es eine neue Situation ist. Gesellschaften müssen jetzt lernen, mit dieser Situation umzugehen. Das Arbeiten im Homeoffice innerhalb von digitalen Systemen ist ein Aspekt dieser Entwicklungen.
Karina Filusch:Jetzt hatten Sie zwei Worte benutzt. Ich wollte nochmal nachfragen, was sie bedeuten. Einmal genudged und einmal Predictive Analytics.
Dr. Carsten Ochs:Es gibt verschiedene Formen des Nudgings. Nudging meint, dass mir bestimmte Entscheidungen nahegelegt werden. Das berühmte Beispiel dafür ist, dass in der Mensa der Obstkorb mit den gesunden Nahrungsmitteln ganz vorne, prominent platziert wird und die fettige zuckerige Nahrung eher in der Ecke gestellt wird. Damit werde ich, wenn ich in die Mensa gehe, sozusagen genudged. Genudged bedeutet übersetzt anstupsen, also dass ich so in die Richtung einer „richtigen Entscheidung“ geschoben werde oder ermutigt werde, hier die richtige Entscheidung zu treffen. Es gibt sicherlich Situationen, da ist das eine Technik, die man, wenn man sie sich jetzt genauer anguckt, nicht unbedingt problematisieren muss. Nur der Punkt ist, dass das in der offline Welt, also in dem Beispiel, das ich gerade genannt habe, so funktioniert. Alle werden auf die gleiche Art und Weise genudged. Alle, die in die Mensa reinkommen, sehen diesen Obstkorb und es wird jetzt kein Wissen über die Person, über Schwachpunkte der Person oder Anfälligkeiten der Person zugrunde gelegt, um die Nudging Technik daraufhin auszurichten. Das ist etwas, was im Hyper Nudging intensiviert wird. Da gibt es eine große Datenbasis. Es werden Daten gesammelt und ausgewertet. Problematisch wird es, wenn Schwachpunkte der Person ausgenutzt werden. Bei dem Hyper Nudging ist das natürlich auch so. Wenn wir im Alltag ständig von digitalen Diensten begleitet werden, kann immer nachgebessert werden, wenn wir uns anders entscheiden, als der Dienst uns nahelegt. Dann gibt es noch mal eine Möglichkeit, auf uns Einfluss zu nehmen, noch mal eine Möglichkeit, wenn wir zum Beispiel bestimmte Maps nutzen oder solche Dienste. Uns werden Restaurants angezeigt oder Ähnliches. Wenn wir im ersten Moment nicht die Entscheidungen treffen, die der Dienst uns nahelegt, dann wird der Dienst später vielleicht noch einmal eine Möglichkeit haben, ein weiteres Mal auf die Entscheidung, die wir treffen, Einfluss zu nehmen. Das hat viel mit diesen Überwachungsformen zu tun oder mit dieser neuen Logiküberwachung, Tracking und Verhaltensbeeinflussung, von der ich am Anfang im Zusammenhang mit Anthony Giddens gesprochen habe.
.
Karina Filusch:Wie sieht Hyper Nudging im Arbeitsalltag oder im Homeoffice aus?
.
Dr. Carsten Ochs:Ich keine gute Antwort darauf. Ich glaube für die meisten von uns, und das ist ein weiteres Problem, sind diese Systeme einigermaßen undurchschaubar. Dass solche Techniken in einem Arbeitskontext angewendet werden, jetzt nicht im Homeoffice, aber zum Beispiel bei Uber, ist bekannt. Es werden also bestimmte Mechanismen eingesetzt, um Uber Fahrern und Fahrerinnen immer besonders lukrative Angebote in der Umgebung zu machen, wenn sie gerade aufhören wollen. Da gibt es jetzt einen Fahrgast und der hat demnächst einen besonders lukrativen Auftrag, also eine besonders weite Fahrt oder so. Um zu verstehen, wie das jetzt bei einem einzelnen Homeoffice System konkret abläuft, muss man sich diese Systeme wahrscheinlich per Reverse Engineering genau angucken. Aber das solche Mechanismen dort grundsätzlich einsetzbar sind, leuchtet glaube ich ein. Das ist ein Aspekt. Es gibt auch noch einen anderen Aspekt: Wir sind eigentlich ständig mit diesen Nudging Mechanismen konfrontiert, z.B. wenn wir zustimmen sollen, dass Cookies gesetzt werden oder etc. Es ist oft so, dass die Entscheidungsmöglichkeiten, die im Sinne der Anbieter sind, in den Vordergrund gerückt werden. Der Knopf, der im Sinne des Anbieters ist, wird sehr prominent und sehr groß dargestellt und der Knopf, der für den Anbieter alles verkompliziert, ist nur ganz klein in der Ecke zu sehen. Es würde mich wundern, wenn solche Mechanismen im Zusammenhang mit dem Homeoffice überhaupt gar keine Rolle spielen würden.
Karina Filusch:Noch kurz zum Reverse Engineering, das ist die Zurück Programmierung. Also man rollt ein Programm von hinten auf, um sich anzugucken, was in dem Programm selbst enthalten ist, nicht wahr? So würde man das beschreiben?
Dr. Carsten Ochs:Genau. Ich habe das von meinen Kolleg*innen aus der Informatik ungefähr auch so gelernt. Man baut ein System nach, um dann verstehen zu können, wie es intern funktioniert oder funktionieren könnte. Das muss man oft machen, weil diese Systeme Eigentumsregelungen unterliegen und deshalb kein Zugang zu den Algorithmen usw. besteht. So versucht man sich dann zu behelfen.
Karina Filusch:Könnten wir noch über Predictive Analytics sprechen, also was sich dahinter verbirgt?
Dr. Carsten Ochs:Predictive Analytics bedeutet eigentlich, dass ich aus der Gesamtheit vielen Daten, die ich z.B. über Nutzer*innen Populationen sammele, bestimmte Schlüsse auf einer Wahrscheinlichkeitsebene ziehen kann und dann für einzelne User Vorhersagen treffen kann, wie sie sich verhalten werden, was ihre Präferenzen sind, usw. Das bedeutet, ich habe eine Information über eine bestimmte Person nicht. Ich kann diese Information aber mit einer statistischen Wahrscheinlichkeit aus einem Datensatz generieren. Das wiederum bedeutet, dass die Person eben nicht mehr die informationelle Selbstbestimmung ausüben kann, weil die Person diese Information gar nicht selbst freigegeben hat, dass sie z.B. introvertiert ist. Ich kann diese Information, zumindest mit einer gewissen Wahrscheinlichkeit, trotzdem in Erfahrung bringen und der Person unterschieben. Sehr oft funktioniert das auch. Das kann man jetzt noch mit einem weiteren Punkt verbinden: Rainer Mühldorf, Philosoph und Informatiker, hat daraus Predictive Privacy als Konzept entwickelt. Das geht noch weiter. Er stellt mit diesem Konzept stark auf Machine Learning Verfahren, die diese Projektionen vornehmen, also die auf Basis statistischer Erkenntnisse und statistischer Häufungen auch neue Informationen generieren und die dadurch auch die informationelle Selbstbestimmung aushebeln. Das zusammengenommen ist eine neue Problemlage, mit der wir konfrontiert sind.
Karina Filusch:Sie hatten ganz zu Beginn einen sehr guten Überblick über die Entwicklung der Überwachung gegeben. Ich frage mich, wie weit darf Überwachung gehen? Bis zu welchem Punkt findet die Gesellschaft Überwachung noch okay und kann sie tolerieren und akzeptieren?
Dr. Carsten Ochs:Das sind, glaube ich, zwei verschiedene Dinge. Das eine ist: Wie weit findet die Gesellschaft das okay? Da können Sie Umfragen machen, Leute befragen und qualitativ dazu forschen, welches Maß an Überwachung Menschen erträglich finden. Da gibt es natürlich sehr, sehr viel zu berücksichtigen. Also wir selbst machen solche Services nicht. Aber bei uns im Projekt, im Forum Privatheit, macht die Medienpsychologische Abteilung solche Studien und da können Sie dann gucken, was für Präferenzen, was für Befürchtungen, was für Privatheitsbedürfnisse die Menschen haben? Das kann man empirisch erheben. Zu berücksichtigen ist dabei glaube ich, dass es gar nicht so einfach ist, in die Alltagssituationen, in denen Menschen mit Überwachung konfrontiert sind, wirklich reinzukommen. Das ist eine methodische Herausforderung. Es ist in gewisser Weise ein bisschen abstrakt, aber trotzdem bekommt man da sicherlich auch schon mal Anhaltspunkte. Es gibt da offensichtlich immer sehr viele Trade Offs. Wir gewinnen ein hohes Maß an Bequemlichkeit, nicht nur an Bequemlichkeit – Wir sind in hohem Maße darauf angewiesen, digitale Datentechnologien zu nutzen. In der digitalen Gesellschaft kommt niemand ernsthaft daran vorbei, bzw. nur um den Preis, Lebenschancen nicht generieren zu können. Wenn Sie insofern Menschen fragen, was für sie ein erträgliches Maß an Überwachung ist, dann werden die vielleicht immer diese Trade Offs mitberücksichtigen. Wir bekommen vielleicht Sicherheit, wir bekommen vielleicht Bequemlichkeit und die ganzen personalisierten Dienste. Dadurch haben wir schließlich auch viele Vorteile. In der Abwägung scheint die Überwachung dann nicht so problematisch zu sein, weil wir das eben auch auf individueller Ebene selten zu spüren bekommen, was es eben heißt. Vielleicht werden wir diskriminiert oder wir bekommen einen Kredit nicht oder wir bekommen einen Arbeitsplatz nicht, wenn wir uns irgendwo beworben haben. Wir werden gleich ausgesiebt, aber wir merken es halt gar nicht. Wir kriegen nur die Ablehnung. Es ist keine irrelevante Frage, welches Maß an Überwachung für Menschen erträglich ist – was sie erträglich finden. Aber das ist jetzt erst mal ein empirischer Anhaltspunkt. Das ist deshalb relevant, weil natürlich ein gesellschaftlicher Druck entsteht oder nicht entsteht, je nachdem, wie viel Überwachung Menschen zu spüren bekommen und wie sie das einschätzen. Wenn wir Interviews mit User*innen führen, dann bekommen wir immer zu hören: „Ja, ich weiß eigentlich schon, es ist irgendwie problematisch, aber man kommt ja nicht so ganz daran vorbei, diese Sachen zu nutzen. Und eigentlich ist es halt auch bequem. Ich weiß, ich sollte mich besser schützen, aber ich weiß auch gar nicht so genau, wie das geht.“ Das sind auch Diskurse. Wie nimmt die Gesellschaft das wahr? Was passiert da eigentlich gerade auch im Zusammenhang mit Homeoffice, aber insgesamt mit Digitalisierung? Da gibt es auch zivilgesellschaftliche oder Interessengruppen, die unterschiedliche Einstellung zu der Thematik haben. Also im Zusammenhang mit Homeoffice war es z.B. so, da hat die Berliner Datenschutzbeauftragte (ich glaube es war Maja Smolka), auf die Problematik der Videokonferenzsysteme hingewiesen. Sie hat darauf hingewiesen, dass personenbezogene Daten in die USA weitergeleitet werden und die rechtlichen Garantien dort nicht so sind, wie sie in Europa sind. Ferner zeigte sie auf, dass das problematisch ist und dass man beim Einsatz dieser Systeme vorsichtig sein sollte oder vielleicht auch davon absehen sollte. Dafür hat sie natürlich auch viel Kritik bekommen, von anderen Interessengruppen, die gesagt haben: „Na ja, wir haben eine Pandemie und es steht uns überall sozusagen das Wasser bis zum Hals, der Problemdruck ist groß und jetzt kommt wieder die nervige Datenschützerin mit ihrem Datenschutz.“ Da rollen viele mit den Augen. Aber, und jetzt kommt mein großes Aber: Wenn wir gesellschaftsstrukturell auf diese ganze Sache gucken, dann lässt sich Überwachung im Moment vielleicht so verstehen, dass historisch entwickelte Grenzziehungen zwischen unterschiedlichen sozialen und gesellschaftlichen Bereichen durch Überwachung unterlaufen werden. Homeoffice ist ein schönes Beispiel dafür, wie diese Trennung und die Spielregeln in den unterschiedlichen Bereichen temporär im Lockdown zusammengeschnürt sind und wie dadurch neue Problemlagen entstehen und wir jetzt als Gesellschaft hinterherrennen müssen und erst mal fragen müssen. Auch viele Fragen, die Sie mir gestellt haben, die deuten ganz deutlich darauf hin. Wir müssen jetzt erst einmal sagen: Ja, Moment mal, was ist denn überhaupt legitim, was ist fair, was darf getrackt werden, was nicht? Und so weiter. Eine Antwort auf diese Frage der Legitimität, also darauf, was an Überwachung legitim ist hat Helen Nissenbaum, Privacy Scholar/Privatheitstheoretikerin aus New York. Sie hat vor gut zehn Jahren ein Buch über Sexual Integrity geschrieben. Darin war ihre Antwort darauf: „Überwachung und Tracking ist legitim, solange es sozusagen den Spielregeln eines bestimmten Sozialbereiches entspricht.“ Also ich gebe ein Beispiel dafür aus dem Sozialbereich der Medizin: Wenn ich zu meiner Ärztin gehe, welche Informationen darf die über mich haben? Sie darf meinen Gesundheitszustand kennen und den auch sehr detailliert. Sie darf mich alles fragen, weil sie diese Informationen über meinen Gesundheitszustand benötigt sie, um den Zweck dieses sozialen Bereiches überhaupt zu erfüllen. Was passiert, wenn meine Ärztin mich nach meinem Kontostand fragt, nach meinen Ersparnissen, nach meinem monatlichen Gehalt? Da bin ich ziemlich irritiert. Das ist eine Information, die nicht in diesen Sozialbereich gehört. Da gibt es eine informationelle Grenze, die gezogen worden ist. Wenn Überwachung darüber hinausgeht, dass solche Informationen in einen Sozialbereich kommen, wo sie nicht hingehören, dann ist die Grenze überschritten. Dann könnte man sagen, das ist illegitim. Umgekehrt: Wenn ich zu meiner Bank gehe, also jetzt ist es Onlinebanking, aber als es noch Bankschalter gab, dürfen die Leute, die da arbeiten, im Zweifelsfall alles über meine finanzielle Situation wissen, denn die haben einen Einblick darin. Wenn die mich allerdings nach meinem Gesundheitszustand fragen, genau umgekehrt, bin ich doch recht irritiert. Daran sehen wir diese Informationschranke: Welches Maß ist erträglich für eine Gesellschaft? Es entstehen für die moderne Gesellschaft dann Probleme, wenn diese Grenzen unterlaufen werden. Es gibt eben Argumente, Analysen, Beobachtungen, dass genau das im Digitalbereich gerade durch Vernetzung und Datafixierung passiert. So kann es sein, dass ich zum Beispiel eine Lebensversicherung nicht bekomme, weil Informationen über mich generiert werden können, die die Versicherungsnehmer legitimerweise gar nicht haben sollten, ohne dass ich selbst die Information irgendwo freigegeben habe. Ein berühmtes Beispiel ist, dass die Krankenkasse die Beitragssätze an mein Gesundheitsverhalten anpasst. Das sind alles so Beispiele dafür. Überwachung ist nicht mehr legitim, wenn sie diese Schranken durchbricht. Für die hergebrachte Gesellschaftsform und die Art und Weise, wie Gesellschaft funktioniert, entstehen neuartige Problemlagen. So würde ich das erst mal vorsichtig formulieren. Wir müssen jetzt lernen, mit diesen Problemlagen umzugehen. Was das dann genau heißt, also ob wir jetzt auf eine völlig differenzierte Gesellschaft zulaufen oder so, das sind noch mal andere soziologische Fragen, wohin die digitale Gesellschaft steuert. Aber es ist eine neue Situation, dass diese Garantien, die wir vielleicht aus dem 20. Jahrhundert stark gewöhnt sind, dass es diese Informationsschranken gibt – dass die durch diese neuartigen Überwachungsformen quasi unterlaufen oder destabilisiert werden.
Karina Filusch:Sie hatten jetzt gerade davon gesprochen, dass die Grenzen überschritten werden. Genau das ist jetzt in der Pandemie passiert – Sie haben es auch schon angedeutet – in der Pandemie, als wir alle zu Hause saßen, Lockdown war und wir im Homeoffice gearbeitet haben. Wie weit geht das mittlerweile?
Dr. Carsten Ochs:Im Zusammenhang mit Homeoffice? Wie tief das gegangen ist, darüber kann ich bis zu einem gewissen Grad nur spekulieren. Ich weiß, was ich von den Datenschutzbehörden mitbekommen habe, die da genau draufgucken und die auch Empfehlungen aussprechen können, welche Systeme rechtssicher sind oder welche Systeme wie viel Daten erheben. Was ich von der Seite mitbekommen habe, war eben, dass zum Beispiel personenbezogene Daten übertragen werden, zum Teil zu Abrechnungszwecken und, dass sich die Firmen per AGB Klausel vorbehalten haben, diese Daten zu unbegrenzten Zwecken zu verwenden. Ich weiß nicht, ob die Art und Weise, in der ich mich ausdrücke, juristisch sattelfest ist, aber es wurde sozusagen die Zweckbindung unterlaufen – ein altbewährtes Datenschutzrechtprinzip, das ja sehr viel mit dem zu tun hat, was ich gerade geschildert habe und das im Datenschutzrechtprinzip umgesetzt worden ist. Zweckbindung heißt Dateninformationen sind an einen bestimmten Kontext gebunden und dürfen für den Zweck dieses Kontexts verarbeitet werden, aber nicht darüber hinaus. Im Zusammenhang mit Homeoffice und der Digitalisierung war es so, dass solche Zweckbindungsprinzipien offensichtlich unterlaufen worden sind – teilweise, oder, dass zumindest die Möglichkeit dazu bestand. Ich würde an der Stelle sagen, nachdem, was ich zuvor geschildert habe, dass niemand erwarten kann, dass sie/er auf die Arbeit geht und die Arbeitgeber dort nicht darauf schaut, wie die Arbeit verrichtet wird. Ja, also da gibt es ein Maß an Überwachung. Da würde ich jetzt persönlich sagen, dass das durchaus legitim ist. Das darf man nicht aus den Augen verlieren. Wenn man jetzt aber sagt: Na ja, es gibt zivilisatorische Spielregeln für den Arbeitsbereich, jetzt gehen die Leute auf einmal ins Homeoffice und arbeiten da; Werden denn diese Spielregeln da überhaupt noch eingehalten? Es gibt einen sehr starken Problemdruck, und erstmal hat auch überhaupt niemand die Zeit, in dieser gesellschaftlichen Schwächephase darauf zu gucken, welche Daten jetzt gerade hier gesammelt werden, wo die hingeleitet werden. Und so weiter. Deshalb haben die Datenschutzbehörden auch darauf reagiert und zum Beispiel eigentlich zweifelhafte Systeme für eine ganze Weile geduldet, die von Schulen genutzt wurden. Was zum Beispiel der Sprecher des Projektes, in dem ich arbeite, im Forum Privatheit, Alexander Holznagel, der jetzt hessischer Landesbeauftragte für den Datenschutz und Informationsfreiheit ist, hatte das im Zusammenhang mit den Schulen genau beobachtet und erst mal eine Duldung ausgesprochen und die dann auch irgendwann auslaufen lassen. Also wie weit geht das rein, wie tief geht das rein? Meine Vermutung wäre jetzt eben, dass ich über solche Systeme eben auch sehen kann, wer mit wem kommuniziert. Ob die Kommunikation ausgewertet wird, also semantische Analysen, also die besprochenen Inhalte ausgewertet werden, kann ich nicht sagen, weil wir mittlerweile einfach so viele digitale Dienste verwenden und das als Einzelperson überhaupt nicht schaffen können, uns das überall genau anzugucken. Deshalb brauchen wir eigentlich die kollektiven Spielregeln dafür. Als letzten Aspekt dazu möchte ich sagen: Na ja, problematisch wird es dann eben, wenn man jetzt auf den Datenschutz seit den Achtzigern guckt. Dann muss man sagen, dass das Bundesverfassungsgericht damals darauf hingewiesen hat, dass es zum Beispiel problematisch sein könnte, wenn mein Arbeitgeber weiß, ob ich gestern auf einer Demonstration war. Besonders, wenn es da vielleicht um Dinge geht, die gegen die Arbeitgeberinteressen gerichtet sind. Genau deshalb soll jeder selbst darüber bestimmen können, wer wann, was und bei welcher Gelegenheit über ihn oder sie weiß. Im Zweifelsfall geht das meinen Arbeitgeber nichts an. Wenn es jetzt durch solche Systeme ermöglicht wird, solche Informationen über uns zu generieren, ohne dass wir sie zur Verfügung gestellt haben, dann wird es eben problematisch, wenn ich gekündigt werde, weil man aus meinem Arbeitsverhalten im Homeoffice Schlussfolgerungen ziehen kann, die meinen Gesundheitszustand betreffen. Dann rechnet der Arbeitgeber damit, dass ich nächstes Jahr vielleicht auf Kur muss oder so, und kündigt schon. Also das ist jetzt eine polemische Zuspitzung von mir, das weiß ich schon, aber es geht eben um Probleme dieser Art, und die werden an diesem zugespitzten Beispiel, glaube ich, ganz gut erkennbar.
Karina Filusch:Ja, aber in der Realität passiert so etwas durchaus manchmal. Ich darf Ihnen jetzt leider schon die letzte Frage stellen. Was ist DaSou für Sie persönlich? Also die Datensouveränität?
Dr. Carsten Ochs:Da kommt jetzt natürlich wieder so eine verklausulierte Soziologen Antwort. Erst mal: Der Souverän war der absolutistische Herrscher Ludwig XIV, der Sonnenkönig. An den denken wir vielleicht, der an der Spitze einer Machtpyramide sitzt. Die Macht läuft durch diese Gesellschaft von der Spitze her. Daher kennt man den Souveränitätsbegriff, zum Beispiel auch in den Studien von Michel Foucault. Man denkt also an eine bestimmte Machtform. Ich denke, es ist gut, diesen Kontext zu kennen, weil man sich dann darüber Gedanken machen kann. Was meint man denn eigentlich? Was möchte man eigentlich meinen mit Datensouveränität? Wir hatten im Forum Privatheit dazu auch einen Workshop. Die Kolleginnen und Kollegen haben sich viel intensiver damit befasst, auch aus der Rechtswissenschaft. In dem Workshop stellte sich heraus, dass man den Souveränitätbegriff auf Individuen beziehen kann. Man kann den Begriff auf die Datenwirtschaft, z.B. die bundesrepublikanische, oder auf die Nation, auf den Nationalstaat, beziehen. Diese Souveränitätstypen können in Widerspruch zueinander geraten. Die Datensouveränität des Staates kann in Widerspruch zur Datensouveränität der Individuen geraten. Wenn ich das als begrifflichen Hintergrund in Rechnung stelle, würde ich sagen, dass eine erstrebenswerte Form von Datensouveränität vielleicht eine solche wäre, wo es in einer digitalen Gesellschaft Spielregeln gibt, die regeln, was legitime Datenerhebungen sind und wozu Daten ausgewertet werden. Ob wir als Individuen im Hinblick auf die Datensammlung viel Souveränität ausüben können ist ein bisschen fraglich geworden. Ich glaube aber, dass es dann eben ganz wichtig ist, dass die Menschen darüber mitentscheiden können, welche Spielregeln entwickelt werden, was mit diesen Daten dann schlussendlich gemacht werden darf, für welche Verhaltensbeeinflussungen, sie eingesetzt werden dürfen und von wem und zu welchen Zwecken und zu welchen nicht. Da würde ich sagen, wenn das Datensouveränität ist, dann sind wir inmitten eines gesellschaftlichen Lernprozesses, eines recht schwierigen Lernprozesses, der zum Teil auch Verwerfungen mit sich bringt, weil das Innovationstempo sehr, sehr hoch ist. Wir reden auch so furchtbar gerne von der digitalen Gesellschaft und dem epochalen Wandel. Ich sage dazu immer, dass wir, wenn wir das wirklich ernst nehmen, sagen müssen, dass das die Tragweite der Industriegesellschaftlichen Transformation zur digitalen Gesellschaft hin ist. Wir müssen auf institutioneller Ebene, auf Ebene von Sozialpartnerschaft, auf regulatorischer Ebene auch akzeptieren, dass da ganz, ganz viel passieren muss. Wir brauchen Institutionen, wir brauchen Spielregeln und dass das Ganze in einer das Gemeinwohl förderlichen Weise abläuft, von der wir alle etwas haben. Wir können nicht immer so tun, als ob man die Finger vom digitalen Bereich lassen würde. Man würde dann immer die ganzen Dynamiken abwürgen. Das ist sicherlich ein Aspekt, der dort zu berücksichtigen ist. Aber wenn es um digitale Gesellschaft geht, dann müssen wir auch auf unseren Laden achtgeben und gucken, dass die digitale Gesellschaft die richtigen Spielregeln bekommt und die richtigen Institutionen. Und wenn das gelingen sollte, dann, glaube ich, ist Datensouveränität möglich.
Karina Filusch:Vielen lieben Dank, Herr Dr. Ochs, dass Sie sich so viel Zeit genommen haben, um heute mit uns über dieses sehr wichtige Thema, über Überwachung, zu sprechen. Vielen Dank.
Dr. Carsten Ochs:Ich danke Ihnen für die interessanten Fragen und das interessante Gespräch.
Karina Filusch:Ich hoffe, euch hat diese Folge gefallen. Hört unbedingt beim nächsten Mal wieder rein. Dann sprechen wir mit der Tech Journalistin Barbara Wimmer auch über das Thema Überwachung am Arbeitsplatz, allerdings aus einer etwas anderen Perspektive. Hört also unbedingt rein, abonniert uns auch bitte. Damit helft ihr uns nämlich sehr. Falls ihr Fragen habt oder uns eine Nachricht hinterlassen wollt, dann schreibt uns einfach. Ihr erreicht uns über Instagram und Twitter und zwar unter @dassou_law. Bis bald. Die Redaktion besteht aus Anja Lindenau, Aileen Weibeler und Karina Filusch. Der Jingle wurde komponiert von Mauli. Die Idee zu DaSou hatte Axel Jürs. Das Cover hat Hélène Baum erstellt. Beraten wurden wir von Susan Stone. Editiert wurde der Podcast von Christoph Hinners.