Folge OOOIO*: „Hört mein Handy mit?“ mit Svea Eckert

* das ist „Binärisch“ und bedeutet…: 2

Zur heutigen Folge dürfen wir Svea Eckert begrüßen. Sie ist investigative Journalistin beim NDR und der ARD, tritt bei der Tagesschau auf und zählt zu den Top 500 Medienfrauen Deutschlands. Gemeinsam mit Eva Köhler macht sie den Podcast „She Likes Tech“. Mit uns spricht sie über Geräte, die aus unserem Alltag nicht mehr wegzudenken sind, nämlich Sprach-Assistenten wie Alexa, Siri, Cortana und Co. Svea beantwortet Fragen wie: Was hören Sprach-Assistenten eigentlich so alles mit? Was passiert mit unseren Daten? Werden unsere Gespräche sogar von echten Menschen mitgehört? Kurz: Ist es smart sich einen Smart-Speaker ins Wohnzimmer zu stellen?

Bei Fragen oder Anregungen schreibt uns gerne eine Mail an hallo@dasou.law und folgt uns auf Twitter und Instagram: dasou_law.

Show-Notes:

Svea Eckert bei Twitter: @sveckert

https://sveaeckert.de/

„She Likes Tech“-Podcast: https://www.ndr.de/nachrichten/info/podcast4808.html

„Smart Speaker: Wobei Alexa, Siri & Co. heimlich mithören“ | STRG_F: https://www.youtube.com/watch?v=BBkXKPfvyBI

„Alexa und Amazon Echo: Smart Home, Steuerung und Datenschutz“ | Stiftung Wartentest: https://www.test.de/shop/multimedia/alexa-und-amazon-echo-sp0584/

Transkript

Download

Karina Filusch:Hallo und herzlich Willkommen beim DaSou-Podcast. Wir sind Rechtsexpertinnen und sprechen in jeder Folge über Datensouveränität, abgekürzt DaSou. Ich bin Karina Filusch. Datenschutz-Anwältin und externe Datenschutzbeauftragte.


Aileen Weibeler:Ich bin Aileen Weibeler und angehende Juristin.


Karina Filusch:Wir beschäftigen uns in unserem Büro täglich mit Datenschutz und bekommen täglich spannende Datenschutz-Alltags-Fragen, denen wir hier auf den Grund gehen wollen.


Aileen Weibeler:Hej Siri, wer bist Du?


Siri: Ich bin Siri, aber genug jetzt von mir. Wie kann ich Dir helfen?


Karina Filusch:Das war Siri. Damit hat alles angefangen und nun gibt es Alexa, Cortana und Co. Und wir wollen uns heute damit beschäftigen.


Aileen Weibeler:Problematisch könnte sein, dass Alexa, Siri und Co. immer mithören. Dass aber auch Menschen im Hintergrund arbeiten, die teilweise das Gehörte auswerten, um die Qualität zu verbessern.


Karina Filusch:Ja, teilweise hören diese Menschen dann ganz intime Momente mit. Deshalb müssen wir auf jeden Fall darüber sprechen. Diese Sprachassistenten werten aber nicht nur unsere Gespräche aus, sondern auch unsere Metadaten. Was das ist und warum wir damit sogar überführt werden können in einem Kriminalfall, darüber werden wir reden.

Aileen Weibeler: Und dafür haben wir uns natürlich einen kompetenten Gast zu diesem Thema eingeladen.


Karina Filusch:Ja, wir haben heute Svea Eckert hier. Sie ist investigative Journalistin beim NRD und der ARD. Ihr kennt sie bestimmt aus der Tagesschau. Sie zählt zu den Top 500 Medien-Frauen und hat einen Podcast, in den ich mich sofort schockverliebt habe „She likes Tech“. In dem Podcast spricht sie mit Frauen über Tech-Themen. Aktuell recherchiert sie für Ihren Podcast über Stalking-Software, die man z. B. heimlich auf dem Handy des Ex-Freundes installieren kann, um ihn auszuspionieren.


Aileen Weibeler:Heute möchten wir allerdings über eine andere Recherche von ihr sprechen, die in der Sendung „Steuerung F“ ausgestrahlt wurde, die wir hier auch in den Shownotes verlinken. Sie hat ein halbes Jahr umfangreich über Sprach-Assistenten recherchiert.


Karina Filusch:Svea, was ist DaSou für Dich?


Svea Eckert:Ja, also ich finde, das ist gar nichts, was man jetzt, also was ich ganz einfach beantworten kann, weil gut, im ersten Moment denkt man natürlich Datensouveränität, das ist, wenn ich die Gewalt über meine Daten habe, wenn ich entscheiden kann, was ich herausgebe und was ich eben nicht herausgebe. So fertig. Ende der Erklärung.

Beim zweiten Drüber-Nachdenken finde ich den Begriff Datensouveränität schon ein Stück weit komplizierter. Weil wir leben in einer Welt, auch in einer Internetwelt, die sehr stark von Monopolen geprägt ist. Also ich sag mal als Beispiel WhatsApp vielleicht. Finde ich ein sehr gutes Beispiel, weil selbst wenn ich ganz datensouverän sage, ich möchte WhatsApp nicht benutzen, weil das gehört zu Facebook und die sammeln alle meine Metadaten und bieten mir vielleicht irgendwo anders Werbung an und das möchte ich nicht. Dann werde ich vielleicht aus meiner Eltern-Gruppe ausgeschlossen., also dann bin ich vielleicht aus der Eltern-Gruppe ausgeschlossen oder beim Fußballverein. Oder aus der Kollegen-Gruppe, Kolleginnen-Gruppe, die sich dort austauscht. Das heißt, Datensouveränität ist für mich ganz wichtig und ich finde das auch sehr, sehr wichtig, dass es da eine Transparenz gibt und, dass jeder datensouverän handeln kann. Ich finde aber, gerade müssen wir auch ganz stark darüber diskutieren, dass wir eben diese großen Monopole haben, von denen wir ein Stück weit auch als Nutzer:innen abhängig sind. Und das ist sicherlich auch eine politische und wahrscheinlich auch juristische Frage. Wie können wir da so etwas wie Datensouveränität wieder erreichen?


Karina Filusch:Du hast auch eine Statistik in dieser Reportage vorgestellt, und zwar in Deutschland sind es mittlerweile eine von vier Personen und in Amerika sogar drei von vier Personen, die eine Alexa benutzen.

Was denkst du? Was bei den Menschen ja, was die Motivation für die Menschen ist, sich so eine Alexa ins Wohnzimmer zu stellen?


Svea Eckert:Ja, also es geht bei dieser Statistik nicht nur um Alexa, sondern Sprachassistenten allgemein. Nur nicht, dass jetzt jeder denkt, so „was, so viele Leute haben eine Alexa Echo Zuhause. Nein, es geht um Sprachassistenten und ich denke, dass ganz viele von unseren Hörer:innen wahrscheinlich gerade einen Sprachassistenten auf dem Handy haben oder auf dem Rechner. Denn es ist, sag ich mal, voreingebaut und auch zum Teil voreingestellt. Wenn ich einen neuen Computer kaufe oder ein neues Telefon, sei es ein Android-Telefon oder ein Apple-Telefon, dass dort ein Sprachassistent voreingestellt ist und genau deswegen denke ich, ist es auch total wichtig, dass wir einmal darüber sprechen, damit wir den Leuten sozusagen eine ja, dass man eine Art Hilfe, Entscheidungshilfe gibt. Soll ich das Ding einschalten? Was muss ich vielleicht beachten? Kann ich da vielleicht auch Einstellungen treffen, die mich datenschutztechnisch ein bisschen schützen?


Karina Filusch:Die Stiftung Warentest schreibt, dass die Worte beziehungsweise die Aufnahmen erst dann erfasst werden und an Amazon geschickt werden, erst dann, wenn wir das Trigger-Wort nennen.


Svea Eckert:Ja, das ist genau so, so ist das richtig. Trotzdem glaube ich, ist es wichtig hier nochmal zu differenzieren und es auch aufzufächern. Es ist so, Alexa hört immer zu. Die ist immer an, Alexa hat einen kleinen Chip eingebaut. Auf diesem Chip ist auch eine ganz kleine künstliche Intelligenz, also ein ganz kleines künstliches neuronales Netz eingebaut. Ein ganz kleines, schwaches, das ist nicht super mega klug, sondern wirklich nur ein ganz kleines. Und diese Alexa hört immer zu. Und dieses kleine neuronale Netz, dieser kleine Chip, hört auch immer zu. Und dieser Chip entscheidet dann, habe ich das Aktivierungswort Alexa gehört? Ja oder nein? Das alles in Sekundenschnelle oder Millisekunden und wenn dieser Internetchip entscheidet, ich habe das Aktivierungswort gehört, dann öffnet er sozusagen diese Verbindung zu Amazon. Dann gibt es den Datenaustausch und das ist genau das, was auch die Stiftung Warentest hier meint. Die sagen also, erst wenn das Aktivierungswort „Alexa“ gesagt wird, dann werden Daten geschickt. Und das ist so die Angst, die viele Menschen haben, dass sie denken, ich stelle mir eine Wanze ins Wohnzimmer, also die schneiden dann, Amazon schneidet dann ganze Gesprächsausschnitte mit. Das ist definitiv nicht der Fall. Ich hab da auch zusammengearbeitet mit Wissenschaftlern der Ruhr-Universität Bochum. Die haben auch so eine Alexa mal wirklich technisch auseinandergenommen. Also genauso wie man sich das vorstellt: aufgeschraubt, reingeguckt, Messungen gemacht. Die haben zum Beispiel Messungen gemacht, indem sie, weiß ich nicht, Musik abgespielt haben oder so. Oder auch gesprochen haben. Und dann haben die gemessen, werden Daten, ohne dass sich das Aktivierungswort „Alexa“ gesagt habe, übertragen. Und das war nicht der Fall. Nee, also das heißt, wenn ich nicht das Aktivierungswort sage, werden auch keine Daten übertragen. Trotzdem ist Alexa immer an und trotzdem hört sie immer zu. Weil ich meine, sonst könnte sie ja dieses Aktivierungswort auch nicht hören oder verstehen. Also ich glaube das macht schon Sinn.


Karina Filusch:Ich glaube diese Wissenschaftler haben herausgefunden, wie oft Alexa eigentlich mit diesem Trigger-Wort daneben liegt. Woran liegt es, dass Alexa das nicht so richtig erkennen kann, ob jetzt wirklich das Trigger-Wort gemeint war oder ein anderes Wort?


Svea Eckert:Das liegt an diesem schwachen neuronalen Netz, was auf diesem Chip verbaut ist, weil genau eben diese Verbindung nicht aufgemacht wird. Es gibt halt nur die Möglichkeit, ein kleines neuronales Netz in dem Gerät selbst zu verbauen. Das hat einfach was damit zu tun, also mit Kapazität, mit Rechenkapazität zu tun. Es hat etwas damit zu tun, dass man natürlich möchte, dass auch sehr schnell entschieden wird. Deswegen wird es, diese interne Entscheidung auf dem Gerät nicht supergut, sondern eigentlich die gute Spracherkennung findet dann erst auf dem Amazon-Server statt. Und das ist der Grund, warum es überhaupt zu diesen versehentlichen Aktivierungen kommt. Also ich will einmal kurz auf diese Forscher eingehen, die du angesprochen hast. Also was die gemacht haben ist super cool. Die haben Alexa, also Echo und auch, ich glaube noch 6, 7, 8 weitere Smart-Speaker auch chinesische Modelle und so, haben die mit Serien, ich sag mal beschossenen. Das heißt die haben also Tag und Nacht diesen Smart-Speakern Serien vorgespielt, Traumschiff, aber auch Nachrichtensendungen wie die Tagesschau und dann haben sie gemessen, wann die aus Versehen ausgelöst haben. Und das ist genau das, was du angesprochen hast, dass eben dann in einer bestimmten Zeitspanne eben die doch bei zahlreichen Wörtern angegangen sind. Das fängt dann bei sowas trivialen an, sage ich mal, wie wenn man jetzt in Berlin über Berlin spricht, bei dem Alex, Alexanderplatz, der Alex, dann kann das natürlich sein, dass die Alexa das missversteht, angeht und dann eine kleine Zeitspanne mitaufzeichnet. Und das endete aber auch, also es gab auch sowas wie „Hey Siri“ –„Daiquiri“ oder „Botswana“ – „Cortana“. Das waren so Wörter aus dem Traumschiff zum Beispiel, die dann die Smart-Speaker getriggert haben und dazu geführt haben, dass die aufzeichnen, ohne dass sie das sollen. Aber es gab auch so ganz seltsame Wörter wie „Wuppertaler Schwebebahn“, was jetzt gar keine Ähnlichkeit hat, mit Alexa oder Siri, wo diese Smart-Speaker dann angegangen sind.


Karina Filusch:Ja, ich habe sogar mal gelesen, dass es Werbung im Fernsehen geben sollte, die folgendermaßen klingt „Alexa, kauf dies oder jenes“, extra um diese Sprachassistenten, die wir im Wohnzimmer haben, zu aktivieren, damit sie für die Eigentümer dann Einkäufe erledigen. Solche Fälle soll es sogar schon gegeben haben. Apropos, was hattest du denn so für Fehlaufzeichnungen? Also wo hat bei dir Alexa mit aufgezeichnet, wo du das gar nicht erwartet hättest?


Svea Eckert:Ja, in so total absurden Momenten, wir können ja mal in einen reinhören. Zwei habe ich glaube ich sogar mitgebracht. In einen können wir jetzt mal gleich hineinhören, und zwar ist das Küchengeklapper.


Karina Filusch: Hören wir mal hinein.


Svea Eckert: So das ist jetzt offensichtliches Topf-Geklapper bei mir aus der Küche, weil die Alexa haben wir bei uns in die Küche gestellt, weil ich fand, das ist so ein Ort, der vielleicht nicht ganz so privacy-verletzend ist, wie das Schlafzimmer oder das Bad zum Beispiel. Obwohl man sagen muss, dass es Alexa mittlerweile auch für die Dusche gibt, weil ja klar, da kann man Musik hören und muss die Hände nicht benutzen und so, macht schon Sinn. Aber ich hatte die eben in der Küche stehen und deswegen hört man jetzt Topf-Geklapper und wundert sich „What?“, das hat Alexa aktiviert. Also ein Trigger-Wort gab’s da garantiert nicht und das ist auch etwas, was die Wissenschaftler gemacht haben. Die haben so Geräusche-CDs genommen, also es gab ja früher mal diese Geräusche-Schallplatten. Mittlerweile gibt es natürlich alles digitalisiert, MP3 oder WAV und die haben ihren Smart-Speakern auch Geräusche vorgespielt. Die Dinger gehen auch manchmal bei seltsamen Geräuschen an, ja.


Karina Filusch:Hören wir mal in die zweite Fehlaufzeichnung rein.


Svea Eckert:Let’s go!

Ja da hört man jetzt undefiniertes Kinder-Gequake und Familien-Geschnatter. Und da ist es im Prinzip eigentlich fast ähnlich wie bei dem Küchen-Beispiel. Alexa ist da wegen irgendwas aufgewacht, was wir jetzt hier nicht definieren können und das ist genau auch dieses Beispiel von der „Wuppertaler Schwebebahn“. Also dieser Alexa liegt dieses künstliche neuronale Netz zugrunde und dieses künstliche neuronale Netz muss trainiert werden, damit sie dieses „Alexa“ erkennt und damit es Sprache erkennt und Spracherkennung ist, das ist jetzt nicht ganz so trivial und was diese Geräte dafür brauchen ist eigentlich, je mehr Sprache sie haben, je mehr Wörter sie haben, je mehr Sätze sie haben, desto besser funktioniert diese Spracherkennung. Und jetzt kann es aber sein, dass es Wörter gibt, die dieses neuronale Netz, dieses künstliche, noch nie gehört hat. Also Beispiel jetzt „Wuppertaler Schwebebahn“ oder ein komisches Geräusch oder einen komischen Ausruf, der vielleicht in so einem Kinder-Geschnatter, Unterhaltung gefallen ist.

Und dann kann es tatsächlich sein, dass dieses künstliche neuronale Netz, das lernt ja, ganz anders wir Menschen, das funktioniert ja ganz anders, wie das Gehirn, das eben genau dieses Wort noch nie gehört hat, noch nie darauf trainiert wurde. Und dann entscheidet, das hat was mit statistischen Wahrscheinlichkeiten zu tun. Und dann entscheidet „das ist das Wort“. Das ist das Trigger-Wort. Und dann geht es eben an.


Karina Filusch:Ja, da kommen wir zu einem interessanten Punkt. Das war mir ehrlich gesagt nicht so klar. Erst als ich deine Reportage gesehen hatte, und zwar ich meine mit deinen Fehlaufzeichnung, die wir uns jetzt angehört haben, hattest du ja in Anführungsstrichen noch relativ viel Glück. Dann dachte ich zum Glück hört das kein anderer Mensch. Aber da lag ich falsch. Denn um diese KI zu trainieren, gibt es Menschen im Hintergrund, die dann bei Amazon oder Google sitzen und genau mithören und transkribieren, um diese Maschinen zu trainieren.


Svea Eckert:Genau. Ja, das ist der, könnte man sagen, Pferdefuß an der Technologie denn, also ich habe ja schon gesagt, dass ein künstliches neuronales Netz, braucht eben wahnsinnig viele Daten, um zu lernen. Jetzt braucht es nicht nur wahnsinnig viele Daten, sondern es muss auch bei Fehlentscheidungen korrigiert werden. Und wer könnte es korrigieren? Also es sind die Menschen und das ist genau der Grund, warum die großen Tech-Konzerne, um die Sprachassistenten immer besser zu machen, Mitarbeiter eingestellt haben, meistens. Also das ging lange Zeit über Subunternehmen. Inzwischen haben die das ein bisschen umgemodelt, damit die Leute nicht so gesprächig sind und Journalisten so viel erzählen und die Leute direkt eingestellt. Aber was da im Hintergrund passiert, ist das Gleiche. Die bekommen diese Fehlaufzeichnungen zugeschickt, natürlich ohne Namen, Hausnummer und Adresse. Die bekommen die Aufzeichnung zugeschickt und müssen dann transkribieren und der Maschine sagen, was sie falsch verstanden hat oder welcher Teil falsch verstanden oder missverstanden wurde. Und das geht sozusagen wieder zurück an das künstliche neuronale Netz. Und wenn ich dann das nächste Mal „Wuppertaler Schwebebahn“ sage, dann geht die Maschine nicht an und das haben wir auch, das haben die Wissenschaftler auch in ihrer Untersuchung tatsächlich feststellen können, dass sich das auch verändert hat. Das heißt, sie haben Serien, sag ich jetzt mal, die haben das vielleicht im November einmal ausprobiert und den Maschinen, also Serien vorgespielt. Und dann haben sie das im Januar oder Februar nochmal ausprobiert und konnten dann schon feststellen, dass manche der Wörter nicht mehr funktioniert haben, der falschen Trigger-Wörter. Und das war dann also, so nehmen sie eben an, tatsächlich ein Effekt, dass da im Hintergrund das künstliche neuronale Netz schon verbessert wurde und dass falsche Trigger, die vielleicht vor drei Monaten funktioniert haben, auch nicht mehr funktionieren, da sieht man, dass das quasi wie ein lebender Organismus ist und dass das lernt. Und das hat natürlich für die Nutzerinnen und Nutzer so ein bisschen den vielleicht auch gruseligen Moment, dass sie eben in Kauf nehmen, dass da im Hintergrund ein anderer Mensch sitzt. Und diese kleinen Momente, diese vielleicht, das sind in der Regel so 10 Sekunden, vielleicht, die die Sprachassistenten aus Versehen mitschneiden. Ich glaube mein längster war, vielleicht 20 Sekunden oder 15 Sekunden, dass das eben auch an Menschen geht. Und was ich aber eigentlich noch viel gruseliger fand, waren gar nicht nur die Fehlaufzeichnungen, sondern wenn wir Siri zum Beispiel benutzen, dann benutzen viele Leute die automatische Spracherkennung.

Also wenn sie zum Beispiel Notizen diktieren oder Emails diktieren, es gibt ja so eine Diktier-Funktion, dass sie das in ihr Handy ‘reindiktieren oder dass sie Siri so „Hey Siri“, schreibe eine SMS, XYZ. So oder schicke an meinen Kontakt diese und jene Nachricht und das wird auch, also das fällt natürlich dann auch unter diese Spracherkennung.


Karina Filusch:Du hattest ja sogar mit ein paar Leuten gesprochen, die mal bei Amazon und bei Siri saßen und transkribiert haben. Was haben diese Menschen dir denn so erzählt?


Svea Eckert:Ja, also ich habe tatsächlich mit einigen Kontakt gehabt. Das haben dann nur zwei beziehungsweise drei, habe ich auch im Interview bekommen. Das ist auch immer nochmal ein Unterschied. Oft habe ich mehr Leute, die mit mir reden im Hintergrund und die, die dann tatsächlich auch ein Interview geben und sei es anonym, ist dann oft wirklich nur die Spitze von einem Eisberg. Und so war es auch bei dieser Recherche, dass dann drei sich bereiterklärt haben, auch Interviews zu geben. Zwei ehemalige Apple-Mitarbeiter:innen beziehungsweise Mitarbeiter:innern, die noch bei einem Subcontractor, also bei einem Subunternehmen gearbeitet haben und eine ehemalige Mitarbeiterin von Amazon, die ich getroffen habe, auch also physisch sozusagen getroffen habe. Die hat damals in Aachen gearbeitet. Dort hat Alexa sprechen gelernt auf dem deutschen Markt. Da war das erste Büro, da saßen die ersten Transkriptor:innen. Mittlerweile sitzen die überall auf der Welt und auch zum Beispiel in Berlin gibt’s ein großes Büro, wo transkribiert wird. Und ja, natürlich muss man sagen, ich habe mit Aussteiger:innen gesprochen, also mit Menschen, die dort nicht mehr arbeiten wollten. Das heißt, natürlich hatten die dann dementsprechend auch eine ganz dezidierte Meinung dazu, weil die gesagt haben, ich fand das irgendwann gruselig. Also diese Kinderstimmen war jetzt eine, die hat vor allem diese Kinderstimmen, fand sie immer verstörend, die sie gehört hat, immer das Gefühl hat, sie hört da ja an so einen privaten Haushalt rein. Bei der anderen war es so, die bei Apple beziehungsweise beim Subunternehmen von Apple gearbeitet hat. Die fand das natürlich schon auch extrem. Gerade bei solchen SMS oder so diktierten Nachrichten, weil sie gesagt hat, ja da konnte ich dann hören, der oder der betrügt gerade seine Frau. Also wenn dann SMS hin und her gehen zum Beispiel. Und der Dritte hatte gesagt, dass er ja Drogendealer, also Nachrichten von Drogendealern irgendwie gehört hat, was die als verstörend empfanden und auch, wo die auch das Gefühl hatten, da ist eine riesige Abhörmaschinerie im Gange und keiner weiß eigentlich so richtig darüber Bescheid. Das war auch die Motivation, warum die dann bei uns mitgemacht haben, dass sie gesagt haben, wir wollen das gerne an die Öffentlichkeit bringen.


Karina Filusch:Das ist unglaublich, was die alles mitgehört haben. Ich glaube in einer Reportage hieß es sogar, dass die eine sogar Sex mitgehört hat. Dass sogar das aufgezeichnet wurde.


Svea Eckert: Kann man sich ja vorstellen.

Also Küchen-Geklapper, Kinder-Gequake, also, wenn die Sprachassistenten da Geräusche, ich sag mal hören oder Geräusche mitbekommen und das mit dem Trigger-Wort verwechseln, kann man sich eigentlich jede Situation vorstellen, die aus Versehen mitgeschnitten werden kann.


Karina Filusch:Also muss man gut überlegen, wann man vielleicht den Assistenten ausschaltet oder weiter weg legt usw. damit er dann nicht mithört. Apropos, du hast jetzt gerade die Drogendealer erwähnt. So was ich nachgelesen habe, bisher ist öffentlich noch nicht bekannt geworden, ob Alexa oder Siri den Täter, die Täterin wirklich überführt haben. Aber es gab schon von Staatsanwaltschaften solche Anfragen, denn man muss feststellen, dass das eigentlich eine riesige Vorratsdatenspeicherung ist, die wir dort haben. Ich glaube aber, man kann auch diese Nachrichten selbst abhören, nicht wahr?


Svea Eckert: Ja, da hat natürlich die DSGVO, die Datenschutzgrundverordnung, hilft uns da hier tatsächlich in Europa, muss man mal ganz positiv auch sagen. Also es gab zwei Dinge, die da geholfen haben, dass eine ist eben die DSGVO, die Datenschutzgrundverordnung und das andere ist, es gab ja, ich meine 2019 war es, diesen größeren Skandal. Gibt einen ganz tollen Artikel „Silicon Valley is listening to your most intimate moments“ und der, also das kam raus, 2019 über Bloomberg Businessweek.

Die haben das ganz groß gemacht, dass da Menschen sozusagen mitlauschen, und daraufhin hat sich natürlich tatsächlich etwas getan. Und ich glaube, dass ist jetzt auch ganz wichtig für alle, die uns zuhören und die vielleicht auch still und leise Fans von Sprachassistenten sind und die wahnsinnig praktisch finden, aber auf der anderen Seite vielleicht auch ein bisschen gruselig.

Also es gibt verschiedene Möglichkeiten. Ich fange einfach mal mit Amazon-Alexa an, bei Amazon-Alexa ist es tatsächlich so, dass man seine Spracheaufzeichnungen anhören kann und herunterladen kann. Also man kann sowohl die unabsichtlich mitgeschnitten als auch die absichtsvoll gesagten. Da gibt es so eine Art History und in die kann man Einsicht nehmen. Dann kann man bestimmen, ob die gelöscht werden oder nicht. Da kann man dann leider, kann man nicht einstellen, löscht sie immer sofort. Das fehlt mir, diese Funktion. Man kann einstellen, löscht sie alle drei Monate, löscht die alle sechs Monate und löscht die nie. Man kann soweit ich weiß, sie sogar auf Kommando löschen. Dann sagt man halt her, Alexa lösche alle meine Aufnahmen. Ich meine, sowas gibt es sogar. Und ich glaube, jetzt kommt das Wichtigste. Das ist tatsächlich, dass man sich einmal, wenn man sich so einen Sprachassistenten zulegt oder den aktiviert auf seinem Telefon oder Computer, dass man sich einmal mit diesen Terms of Service auseinandersetzen sollte, weil da gibt’s nämlich immer so kleine Häkchen, die man setzen kann. Und bei Alexa ist es zum Beispiel so, da ist voreingestellt, dass meine Daten zu diesen Transkriptoren geschickt werden und dass meine Daten helfen, Alexa zu verbessern.


Und ja, das klingt natürlich sehr nett. Das ist so ein bisschen wie bei den Cookies. Ja, so alles zustimmen, grünes, dickes Feld. Genauso ist es da auch. Das ist also voreingestellt, hilf Amazon Alexa zu verbessern. Und ich denke, das muss dann jeder für sich entscheiden, ob er das möchte oder nicht. Weil das, was man da im Prinzip macht, ist genau das, was du gesagt hast. Klar, man willigt halt ein in so eine Vorratsdatenspeicherung beziehungsweise darin auch ein, dass Dritte eben diese Nachrichten dann auch hören und ich denke da ist es schon ganz gut, dass es überhaupt diesen Click gibt. Nicht so gut finde ich, dass es voreingestellt ist.

Bei Apple ist es so, dass man bei der Installation von dem neuen Betriebssystem gefragt wird, beziehungsweise wenn man auch mit einem Erwerb von einem neuen Gerät gefragt wird, auch so, willst du helfen, Siri zu verbessern? Und ja, da muss man ja nicht auf „Okay“ klicken, wenn man es nicht möchte.


Karina Filusch: Ja, zumindest sollte man das mal kurz gelesen haben. Ich muss sagen, ich bin eine Datenschützerin, das heißt, ich schreibe den ganzen Tag Datenschutzerklärungen und Co. und wollte mir natürlich auch von Alexa und Siri die Datenschutzbestimmungen durchlesen. Und das war so schwierig, die zu finden. Ich bin an einem Abend resigniert. Ich war so traurig. Ich konnte sie einfach nicht finden, obwohl ich das von Berufswegen als Profi den ganzen Tag mache. Und ja, ich habe dann einen zweiten Abend mich hingesetzt und habe festgestellt, dass die so aufgeteilt sind. Also hier findest du etwas über deine Spracherkennung. Dort findest du irgendwas anderes und es war alles so aufgestückelt, bis ich dann alle Dokumente hatte. Ja, also die Leute werden vielleicht nicht gerade motiviert, um danach zu suchen. Es ist auf jeden Fall sehr schwer. Ich weiß, du hattest sie auch gelesen. Sehr vorbildlich. Es war wahrscheinlich nicht besonders aufregend.

Svea Eckert: Naja, vor allem war es genauso schwierig, wie du es eben beschrieben hast. Es war genauso. Ich saß da auch und ich bin auch erst einmal fast verzweifelt. Klick, klick, klick, klick. Was ist eigentlich hier? Was ist eigentlich da? In der Reportage ist es ein ganz kurzer, schnell zusammengeschnittener Moment. In Wahrheit war das natürlich genauso, wie du das beschreibst.


Karina Filusch:Hattest du dort irgendwas Spannendes gelesen in den Datenschutzbestimmungen? Irgendwas, was dich total überrascht hat oder aus der Bahn geworfen hatte?


Svea Eckert: Ich glaube, was ganz zentral ist zu sagen ist dazu, ist, dass Amazon da an keiner Stelle irgendetwas verschweigt. Sondern wenn man tatsächlich ins Kleingedruckte liest, dann steht es im Prinzip auch alles genau so drin. Also wir benutzen deine Daten für … na, weil wir dir Vorschläge machen wollen. Wir teilen deine Daten zu dem und dem Zweck. Also ich finde, man kann nicht den Vorwurf formulieren und sagen, die machen da irgendwas Geheimes, sozusagen hinter unserem Rücken.

Ich glaube die Unternehmen sind da transparent. Nur und das ist eben vielleicht am Ende doch kein Nur, es ist halt zum einen wahnsinnig im Kleingedruckten verschwurbelt, na und man muss da wahnsinnig daran arbeiten, um eben diese drei wichtigen Zeilen auch herauszulesen und rauszufinden. Und das ist das, was ich eingangs gesagt habe.

Was bleibt dem Verbraucher der Verbraucherin am Ende für eine Wahl? Jetzt mal nur als Beispiel Amazon. Ich glaube, dass für viele jetzt gerade auch während der Pandemie Amazon zu einem ganz zentralen Service geworden ist, um ganz alltägliche Dinge und Produkte zu bestellen. Was weiß ich, Baumarkt-Artikel oder so was. Baumärkte haben zu oder es ist schwierig. Ich brauch aber irgendwas für meinen Haushalt und ich glaube das ist halt genau dieser Punkt, dass die Unternehmen, die können da fast so transparent sein, wie sie wollen, die Leute werden trotzdem auf ja, Amen und OK klicken, weil sie gefühlt zumindest keine andere Wahl haben. Und ich glaube, da sind wir nochmal bei einem anderen Thema, aber bei einem ganz zentralen Problem.


Karina Filusch:Ja, im Grunde ist nicht die Stimme an sich das Gefährliche, sondern etwas ganz anderes, nämlich die Metadaten. Was sind diese Metadaten und was machen die?


Svea Eckert:Ja, tatsächlich, also war vielleicht das, was mich am Ende dann doch mit am meisten überrascht hat, weil diese versehentlichen Sprachaufzeichnung, das klingt auf den ersten Moment natürlich, also ein bisschen gruselig und auch aufregend. Aber wenn man es dann mal so ein bisschen mit Abstand und runter kocht es geht immer um vielleicht 10 Sekunden aus meinem Leben, wenn das auch nicht mit meinem Namen verknüpft ist und das liest dann mal einer hier, mein Gott so, also da könnte man am Ende noch sagen, ja gut. Aber jetzt kommt das Thema Metadaten. Ja, was sind Metadaten, das sind die Daten außen herum. Das heißt, wenn, da geht’s um Datum, Uhrzeit, solche Geschichten. Und das ist tatsächlich etwas, was mich dann doch überrascht hat. Ich habe nämlich diese ganzen Daten an meinen Kollegen Marvin gegeben, von NDR Data. Und ich habe das auch absichtlich nicht selbst ausgewertet, sondern wirklich, ich sag mal in Anführungszeichen einer fremden Person gegeben, weil ich dachte, okay, Marvin ist jetzt Amazon, mal gucken, was er über mich rausfinden kann und mein Leben. Marvin hat dann so Aufstellungen gemacht, wie man Tagesablauf aussieht. Weil wenn ich mit Alexa mein Licht einschalte, dann weiß Alexa natürlich, wann ich aufstehe und ausschalte, wann ich ins Bett gehe. Und man kann einfach sehen, wann ich Kuchen backe, weil ich ständig einen Timer stelle am Wochenende. Man kann sehen, wann ich im Urlaub war. Solche Dinge und ich glaube, dass man wahrscheinlich sogar noch mehr auswerten könnte, haben wir ja jetzt nicht gemacht. Aber der konnte mir sagen, wie ungefähr mein Haus aussieht, wie viele Zimmer ich da habe. Wenn ich in jedem Zimmer eine Lampe habe, kommt man da schon auch ein bisschen hinten her. Der konnte mir eben genau was über meine Routinen erzählen, theoretisch sogar über meine Ernährung. Wenn ich meine Einkaufsliste damit mache, kann er auch sagen, na da haste über die Stränge geschlagen, viel Schoki gegessen. So, oder hast du eine depressive Phase da gehabt? Alkohol schreibe ich da eigentlich nicht drauf. Aber ich formuliere es jetzt absichtlich auch ein bisschen überspitzt und genau diese Daten, das fand ich dann am Ende doch, ha, das hat mich schon sehr nachdenklich gemacht. Na das, wenn man die alle miteinander kombiniert und auch welches Bild man dann über den Nutzer, die Nutzerin gewinnen kann.


Karina Filusch:Aber wenn man daran denkt, dass Amazon oder Google jetzt diese Daten bekommen, ja, was könnten die denn mit diesen Daten machen? Sie könnten diese Daten zum Beispiel für personalisierte Werbung benutzen und dir dann plötzlich Kuchen-Werbung vorschlagen.


Svea Eckert:  Das machen die garantiert. Also Apple vielleicht nicht, weil das nicht das Geschäftsmodell ist, aber ich denke bei Amazon, wenn man sich halt fragt wie kommt dieses „Kunden kauften auch“ oder „wollen sie noch das kaufen?“, wie kommen diese Empfehlungen zustande? Dann ist das absolut möglich, dass wenn ich ein Prime-Konto besitze, was mit meinen Einkäufen, aber auch mit meiner Alexa verknüpft ist, dass genau solche Daten auch in solche Produktempfehlungen mit einfließen. Und da kommen wir dann schon in so eine Richtung, vielleicht auch überspitzt gesagt Manipulation. Also in so eine Richtung Nudging. Das heißt, habe ich dann am Ende selbst entschieden, dass ich Produkt XY noch dazu gekauft habe? Oder hat eigentlich der Algorithmus die künstliche Intelligenz, die mir diesen Vorschlag gemacht hat, mich so ein bisschen wie dahin gedrängt? Ich denke, viele kennen das von Anzeigen zum Beispiel auf Instagram oder Facebook, wo sie dann sagen „ja, da habe ich doch gestern mit meiner Freundin drüber gesprochen, wie können die das nun von mir wissen?“ und das geht so genau in diese Richtung, wo uns dann auch Maschinen ein Stück weit unheimlich werden, weil wir das Gefühl bekommen, „woher wissen die das?“. Ja, hören die uns ab? Nein. Wer hat es verraten? Die Metadaten! Also die wissen einfach wahnsinnig viel über uns.


Karina Filusch:Svea, lass uns doch nochmal gucken, was wir mit diesen Sprachassistenten machen. Sollten wir sie jetzt benutzen? Rätst du davon ab oder was ist da dein Vorschlag?


Svea Eckert:Ich finde, das ist eine ganz persönliche Entscheidung und mir fällt es schwer, dann Rat zu geben. Ich kann nur zunächst erst einmal vor allem für mich sprechen, wie ich die wie ich benutze. Also ich hab jetzt zum Beispiel Siri auf meinem Telefon so eingestellt, dass sie nicht aus Versehen angehen kann, sondern da sie bewusst aktivieren muss. Wenn ich sie per Tastendruck sozusagen aktivieren muss, wenn ich sie benutzen möchte, das habe ich jetzt einfach mal so nach dieser Recherche so gemacht. Ich habe sie aber auch nicht komplett aus meinem Haushalt verbannt.

Und was Alexa angeht, also ich benutze tatsächlich auch einen Smart-Speaker von Apple, also hab auch Hey Siri, bei mir im Wohnzimmer stehen vor allem für Musik und so Geschichten und auch Fernseher an/aus und so. Das heißt also ich habe diese sehr umfassende Recherche gemacht und was vielleicht noch ein ganz wichtiges Ergebnis ist, aber von den Wissenschaftlern, was mich dann doch etwas zu Apple gedrängt hat, also ich will hier auf keinen Fall Werbung machen, weil die sind einfach total teuer. Ist der Fakt, dass Apple eine robustere Spracherkennung hat. Das hat vielleicht was mit diesem Wake-word zu tun, was „Hey Siri“ ist, was zwei Wörter sind, das kann aber auch was damit zu tun haben, dass da einfach ein besserer Chip drin ist, der diese interne Spracherkennung macht, das weiß ich nicht. Aber Fakt ist auf jeden Fall, dass die Apple-Home-Pods seltener angehen, dass die robuster sind, dass die weniger Fehlaufzeichnung haben als die Alexa, die eben noch nicht so robust ist, sie ist halt auch viel, viel, viel günstiger. Und ich glaube, da ist es am Ende natürlich auch wieder eine Abwägungssache, wie viel Geld will ich für so ein Gerät ausgeben und was ist mir wichtig und was ist mir vielleicht auch am Ende egal? Ich denke es gibt sicher Leute, die sagen, es ist mir egal. Amazon weiß sowieso alles über mich oder es ist mir egal, wenn so ein großer Tech-Konzern alles über mich weiß. Oder ich mache halt dann ein Opt-out rein an der Stelle, dass halt niemand fremdes meine Daten haben darf. Aber ich glaube, das ist eine sehr individuelle Entscheidung. Ich denke, was ganz wichtig ist, ist, dass es eine bewusste Entscheidung ist und eine aufgeklärte Entscheidung. Da hoffe ich natürlich, dass ich da mit meiner Reportage einen kleinen Beitrag dazu leisten konnte.


Karina Filusch:Liebe Svea, ich danke dir ganz vielmals, dass du heute mit mir gesprochen hast und uns dieses Thema nahegebracht hast und ja, ich denke du hast ein großes Stück dazu beigetragen, damit wir souveräner mit unseren Daten umgehen können. Vielen lieben Dank!


Svea Eckert:  Danke dir. Ja, Danke, dass ich teilhaben durfte an deiner wunderbaren Reihe und ich hoffe, dass sie sehr viele Hörerinnen und Hörer findet, weil das ist ein ganz, ganz wichtiges Thema. Ja, danke dir, Karina.


Aileen Weibeler: Ich werde mir auf jeden Fall mal anschauen, ob ich meine Siri auch richtig eingestellt habe.


Karina Filusch:Falls ihr wissen wollt, wie man seine Alexa richtig einstellt, könnt ihr bei der Stiftung Warentest reingucken. Dort gibt es ein Heft, in dem alles Schritt für Schritt erklärt wird.


Aileen Weibeler:Mehr Infos dazu findet ihr in den Shownotes.

In der nächsten Folge reden wir dann über lästige Cookie-Banner und WhatsApp-Alternativen.


Karina Filusch:DaSou ist eine Produktion der Kanzlei Filusch. Mehr Infos findet ihr auf unserer Website www.dasou.law. Der Jingle wurde komponiert von Mauli, die Idee zu DaSou hatte Axel Jürs, das Cover hat Hélène Baum erstellt, beraten wurden wir von Susan Stone.


Aileen Weibeler:Habt ihr Fragen zu DaSou, schickt uns eine Mail an hallo@dasou.law oder folgt uns auf Twitter @dasou_law.


Karina Filusch:Danke fürs Zuhören. Bis nächstes Mal!


Aileen Weibeler: Bis nächstes Mal!

Kontakt

Rechtsanwältin und externe Datenschutzbeauftragte (TÜV Nord)
Karina Izabela Filusch, LL.M.

Friedrichstraße 95
10117 Berlin

Nähe S-/U-Bhf. Friedrichstraße

Tel.: 030 219 11 555
Mobil: 0170 23 85 788

Telefonische Sprechzeiten:
Mo – Do: 9:00 – 18:00 Uhr
Fr: 9:00 – 15:00 Uhr

E-Mail:
hallo@dasou.law

Sie können auch verschlüsselt mit uns kommunizieren.

    * Pflichtangaben