Datenschutz – Ein kurzer historischer Überblick

Eine Art des Datenschutzes wurde in einigen Berufsständen schon ohne eine Festlegung im Gesetzesbuch praktiziert. Zu den bekanntesten Beispielen gehören dabei die Schweigepflicht zwischen medizinischem Personal und Patienten, sowie der Austausch von Anwälten und ihren Mandanten. Doch wie und wann hat sich der Datenschutz juristisch verfestigt?

“That the individual shall have full protection in person and in property is a principle as old as the common law […]” (deutsch: “Dass der Einzelne in Person und Eigentum vollen Schutz haben soll, ist ein Grundsatz, der so alt ist wie das Gewohnheitsrecht”)

Samuel D. Warren, Louis D. Brandeis
“The Right to Privacy” (1890). Harvard Law Review, V. IV, No. 5

So steht es schon im Jahr 1890 in der von Samuel D. Warren und Louis D. Brandeis verfassten “Right to Privacy” geschrieben, einem der einflussreichsten Essays der US-amerikanischen Geschichte. Wesentliche Prinzipien des Datenschutzes, die in dem Essay vorkommen, wurden jedoch erst im Jahr 1974 bei der Verabschiedung des “Privacy Act” durchgesetzt.

Betrachten wir jedoch einmal die andere Seite des Ozeans: Europa und Deutschland

  • Im Jahr 1953 wurde mit Artikel 8 der Europäischen Menschenrechtskonvention (EMRK) eine der ersten rechtlichen Schutzmaßnahmen für personenbezogene Daten kodifiziert und somit das Recht auf die Achtung des Privat- und Familienlebens eingeführt.
  • In den 1960er Jahren wurde der Bedriff “Datenschutz” als Übersetzung für das englische “Privacy” eingeführt.
  • Im Jahr 1970 verabschiedete Hessen dann das weltweit erste Datenschutzgesetz, das von Spiros Simitis, dem “Vater des Datenschutzes” verfasst wurde. Aus heutiger Sicht erscheinen damalige Freiheiten wie z.B. die Verarbeitung von personenbezogenen Daten ohne Rechtsgrundlage und ohne Einwilligung der betroffenen Personen inakzeptabel.
  • Sieben Jahre später (1977) folgte dann das deutsche Bundesdatenschutzgesetz (BDSG), durch das unter anderem Datenschutzbeauftragte eingeführt wurden.
  • Im Jahr 1981 waren dann endlich auch Landesdatenschutzgesetze für alle Bundesländer beschlossen.
  • Nach dem Volkszählungsurteil des Bundesverfassungsgerichts im Jahr 1983 wurden die bisherigen Datenschutzgesetze als nicht genügend für die verfassungsrechtlichen Anforderungen angesehen. Es wurde ein “Recht auf informationelle Selbstbestimmung” abgeleitet, welches man allgemeiner als den “Schutz des Persönlichkeitsrechts bei der Verarbeitung personenbezogener Daten” formulieren kann.
  • Durch die explosionsartige Verbreitung von Computern in den 80er/90er Jahren wurden die nicht ausreichenden Regelungen in Europa deutlich. Daher wurde im Jahr 1995 die EU-Datenschutzrichtlinie in Kraft gesetzt, die auch Regeln für das Versenden von Daten außerhalb der EU festlegte. Damals wurden die US-amerikanischen Datenschutzgesetze beispielsweise noch als ausreichend für den Schutz personenbezogener Daten angesehen.
  • Durch die Einführung der Europäischen Datenschutz-Grundverordnung (EU-DSGVO) im Jahr 2018 wurden Aktualisierungen und Abänderungen vorgenommen. Als Änderungen traten zum Beispiel ein, dass Drittländer den DSGVO-Vorgaben unterliegen, Personen ihre Einwilligung zu einzelnen Datenverarbeitungsvorgängen geben müssen und diese auch jederzeit und unbegründet widerrufen können und dass Geldbußen auf Unternehmen zukommen, die gegen die Datenschutzgrundverordnung verstoßen.
  • Im Jahr 2020 wurde die Übermittlung personenbezogener Daten in die USA (Privacy Shield) von dem Europäischen Gerichtshof (EuGH) für unwirksam erklärt.

Es fällt auf, dass in einer kurzen Zeitperiode vergleichsweise viele Modernisierungen des Datenschutzes im juristischen Bereich unternommen worden. Doch wichtig ist, dass die Gesetze auch immer wieder aktualisiert und an neue Technologien angepasst werden, während man gleichzeitig Unternehmen und andere öffentliche Stellen auf deren Einhaltung überprüft, um die persönlichen Daten jedes Menschen sowie die individuelle und gesellschaftliche Digitale Souveränität zu schützen.

Definition “Big Data” und “Data Mining”: Was ist Big Data? Was ist Data Mining?

Der Begriff “Big Data” ist in vielen themenspezifischen Inhalten zu Technologien, Internet und Datenschutz zu finden und hat gerade in unserem digitalen Zeitalter eine große Präsenz. Doch was verbirgt sich hinter dem Begriff “Big Data”? Und welche Rolle spielt “Data Mining” in diesem Zusammenhang?

Soziales Handeln kann mithilfe der digitalen Medien heutzutage unabhängig von Raum und Zeit nachvollzogen werden (Venturini, Latour, & Meunier, 2015, S. 18). Von Bedeutung ist dabei die Speicherung und Prozessierung von Big Data: große, gespeicherte Volumen an Daten, oftmals „menschliche Informationen aller Art […]“ (Schwanebeck, 2017, S. 10). Jeder Mensch, der digitale Geräte (Schwanebeck, 2017, S. 10) bei sich trägt und Programme darauf nutzt, von einer Straßenkamera erfasst wird (Petersson, Leuuw, Breul, & Leuuw, 2017, S.1) oder sein Geld durch E-Banking managet (Venturini et al., 2015, S. 17), trägt zur Generierung solcher Big Data bei.

Ersichtlicher wird dies bei der beispielhaften Betrachtung eines Handys: Der Handykörper hinterlässt Spuren in Form von Verbindungsdaten, Daten über den Aufenthalt einer Person und mithilfe verbundener Geräte (z.B. Smartwatches) sogar Daten über den körperlichen und gesundheitlichen Zustand des Handynutzers (Lindemann, 2015, S. 53). Diese Daten können dann in den Endgeräten, Datenbanken oder in sogenannten “Clouds” gespeichert und prozessiert werden (Ladeur, 2015, S. 231).

Durch die Aufzeichnungen von diesen personenbezogenen Daten ist das Herausfinden von Mustern für wirtschaftliche Zwecke, z.B. das Schalten gezielter Werbung, möglich (Schwanebeck, 2017, S. 11). Dies gelingt mithilfe von Auswertungsverfahren, „die uns erlauben bedeutungstragende Strukturen aus riesigen, unübersichtlichen Datenmengen zu gewinnen“ (Niekler, 2015, S. 35).

Diese Transformierung der Daten in nützliche Informationen erfolgt mithilfe von Algorithmen (Scholz, 2017, S. 21) und wird als Data Mining bezeichnet (Han, Kamber, & Pei, 2012). Mithilfe von Data Mining können „unsere persönlichen Vorlieben, unsere Interessen, die Konsumgewohnheiten und das komplette Kommunikationsverhalten […]“ (Schwanebeck, 2017, S. 12) ermittelt werden. Außerdem ist die Wiedergabe von „Einstellungen, Verhaltensweisen und sozialen Interaktionen […]“ (Haustein, 2015, S. 264) eines Individuums möglich.

Zusammenfassend beschreibt der Begriff Big Data also die große, unübersichtliche Menge an Daten, die bei der Internetnutzung durch ein Individuum entsteht (u.a. Neuberger & Nuernbergk, 2015, S. 206).
Mithilfe von Data Mining – dem Vorgang der Veredelung von Daten durch die automatische Erfassung und Verarbeitung dieser Big-Data-Datenmengen (Haustein, 2015, S.262) – kann man zum Beispiel Verhaltensmuster von Individuen generieren und für wirtschaftliche Zwecke nutzen (Ladeur, 2015, S. 231).

Mit dem Siegel von “fair.digital” haben Nutzer die Möglichkeit, der Speicherung von personenbezogenen Daten zu Nutzen der Steigerung des wirtschaftlichen Erfolges eines Unternehmens zu entgehen und ihre digitale Souveränität zu erhalten.

Quellenverzeichnis:

  • Han, J., Kamber, M., & Pei, Jian (2012). Data mining. Concepts and techniques. Morgan Kaufmann. Zitiert in Scholz, T. M. (2017). Big Data in Organizations and the Role of Human Resource Management. A Complex Systems Theory-Based Conceptualization (S. 9—81, genau: S. 20). PL Academic Research.
  • Haustein, B. H. (2015). Datenschutz jenseits der Papierakte. Systematische Herausforderungen des Datenschutzrechts unter den Bedingungen der Digitalisierung. In Süssenguth, F. (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 253—282). transcript Verlag.
  • Ladeur, K. (2015). Die Gesellschaft der Netzwerke und ihre Wissensordnung. Big Data, Datenschutz und die „relationale Persönlichkeit“. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 225—251). transcript Verlag.
  • Lindemann, G. (2015). Die Verschränkung von Leib und Nexistenz. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 41—66). transcript Verlag.
  • Neuberger, C., & Nuernbergk, C. (2015). Verdatete Selbstbeschreibung der Gesellschaft. Über den Umgang des Journalismus mit Big Data und Algorithmen. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 199—224). transcript Verlag.
  • Niekler, A. (2018). Journalismus, Big Data, Algorithmen. Digitale Praktiken im modernen Journalismus. In G. Hooffacker, W. Kenntemich, & U. Kulisch (Hg.), Die neue Öffentlichkeit. Wie Bots, Bürger und Big Data den Journalismus verändern (S. 35—53). Springer VS.
  • Petersson, G. J., Leuuw, F., Breul, J., Leeuw, H.B.M. (2017). Cyber Society, Big Data, and Evaluation: An Introduction. In G. J. Petersson, & J. Breul (Hg.), Cyber Society, Big Data, and Evaluation (S. 1—17). New York: Routledge.
  • Scholz, T. M. (2017). Big Data in Organizations and the Role of Human Resource Management. A Complex Systems Theory-Based Conceptualization. PL Academic Research.
  • Schwanebeck, A. (2017). Gefangen im Netz. Medialer Wandel und kontinuierliche Überwachung in digitalen Welten. In M. Schröder, & A. Schwanebeck (Hg.), Big Data – In den Fängen der Datenkraken. Die (un-)heimliche Macht der Algorithmen (S. 9—37). Nomos Verlagsgesellschaft/Edition Reinhard Fischer.
  • Venturini, T., Latour, B., & Meunier, A. (2015). Eine unerwartete Reise. Einige Lehren über Kontinuität aus den Erfahrungen des Sciences Po médialab. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 17—39). transcript Verlag.

Definition „Algorithmus“: Was sind Algorithmen?

Algorithmen bezeichnen einen abstrakten Begriff, mit dem man immer mal wieder in der digitalen Welt, Mathematik und Informatik zusammentrifft. Doch was genau stellen diese Algorithmen dar? Und inwiefern hängen sie mit unserem individuellen Verhalten und unserer Digitalen Souveränität zusammen?

Der Begriff “Algorithmus” ist abgeleitet von dem aus der Bagdader Schule stammenden arabischen Mathematiker Al-Chwarizmi (lebte um 800 n.Chr.), dessen Name latinisiert zu “Algorismus” wurde. (Barth, 2013, S. 13f).  

Nach heutigem Verständnis versteht man unter einem Algorithmus ein automatisiertes und endliches Verfahren, das gegebene Eingabeinformationen nach genau definierten Schritten und unmissverständlichen Anweisungen umformt, um damit ein bestimmtes Ziel zu erreichen (Barth, 2013, S. 8). Einfach ausgedrückt sind Algorithmen “nichts anderes als Schritt-für-Schritt-Anleitungen, um ein (mathematisches) Problem strukturiert zu lösen” (Martini, 2019, S. 17).

Für die digitale Anwendung muss ein Algorithmus in einer für den Computer verständlichen Programmiersprache (wie zum Beispiel Java oder Phyton) verfasst sein (Barth, 2013, S. 16-18).

Mehr zu dem Einfluss von Algorithmen

Algorithmen werden von Menschen geschrieben und sind dem entsprechend erstmal nur so intelligent, wie ihre Schöpfer selbst (Barth, 2013, S. 16). Im Vergleich zu uns Menschen können Algorithmen jedoch rasend schnell “lernen” (Barth, 2013, S. 16), indem sie große Datenmengen (sogenannte Big Data) auswerten, Zusammenhänge zwischen Informationen herstellen und in einen Kontext setzen, mit dem sie dann ihr Verhalten anpassen (Martini, 2019, S. 4, S. 21). Auf Grundlage ihrer Erfahrungen sind moderne Anwendungen also in der Lage, sich selbsttätig über ihre Anfangskonfiguration hinaus weiterzuentwickeln (Martini, 2019, S. 19).

Algorithmen begegnen uns überall im Alltag: In der Schule wird man oft schon mit dem Gauß-Algorithmus zur Lösung von linearen Gleichungssystemen konfrontiert (Barth, 2013, S. 7). Ansonsten berechnen Algorithmen auch die Aktienkurse, regulieren Flusskraftwerke sowie die Ampelphasen, und sind allgegenwärtig in der Online-Welt. Einer der bekanntesten Algorithmen ist wohl der Page-Rank-Algorithmus von Google, der die Reihenfolge der Suchanzeigen bestimmt.

“Ohne Algorithmen würde die Welt, so wie wir sie heute kennen, zusammenbrechen.”

Armin P. Barth, 2013, S. 7

Nochmals wichtig hervorzuheben ist der Fakt, dass Algorithmen auf Grundlage von Daten arbeiten. Bei den meisten Online-Diensten wie Sozialen Netzwerken oder digitalen Einkaufsportalen bestehen diese Daten aus persönliche Informationen, die es einem Unternehmen wie Facebook zum Beispiel möglich machen, suizidgefährdete Personen zu erkennen (Martini, 2019, S. 5).  

Aufgrund der Analyse von personenbezogenen Daten werden Algorithmen immer spezifischer: Da sie davon ausgehen, dass sich vergangenes Verhalten wiederholt, steuern sie auf Grundlage unserer bisherigen Entscheidungen den Zugriff auf Wissen (Martini, 2019, S. 4). Konkret bedeutet das, dass sie beispielsweise Anzeigen auf Sozialen Medien und beim Online-Shopping selektieren (Martini, 2019, S. 4).

Algorithmen sind die “Schleusenwärter des Wissens” (Bächle, 2015, S. 22) und werden “immer stärker zu einer zentralen Steuerungsressource der digitalisierten Gesellschaft” (Martini, 2019, S. 4). Die Gefahr von Algorithmen besteht auch in der Intransparenz: Meistens wissen wir nicht, welche Daten ein Algorithmus genau verwendet und nach welchen Faktoren sie analysiert werden. Für unsere Digitale Souveränität ist es daher wichtig, dass man reflektiert mit digitalen Angeboten umgeht und sich vermehrt der Nutzung von datensparenden Alternativen zuwendet, die unter anderem von fair.digital ausgezeichnet werden.

Quellen:

  • Barth, A. P. (2013). Algorithmik für Einsteiger. Für Studierende, Lehrer und Schüler in den Fächern Mathematik und Informatik, (2. Auflage). Springer Spektrum. DOI: https://doi.org/10.1007/978-3-658-02282-2
  • Bächle, T. C. (2015). Mythos Algorithmus. Die Fabrikation des computerisierbaren Menschen. Springer VS. DOI: https://doi.org/10.1007/978-3-658-07627-6
  • Martini, M. (2019). Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz. Springer Verlag. DOI: https://doi.org/10.1007/978-3-662-59010-2

Buchvorstellung: “Das Zeitalter des Überwachungskapitalismus” von Shoshana Zuboff

Bildquelle: 9783593509303.3D.jpg (1772×1902) (campus.de)

Obwohl sich das Buch “Das Zeitalter des Überwachungskapitalismus” mit einem eher wissenschaftlich geprägten Thema auseinandersetzt, machen Zuboffs bildliche Beschreibungen mit dem Aufgreifen von historischen Vergleichen, bekannten Unternehmen und früheren Theoretikern wie Karl Marx und Hannah Arendt das Verstehen und die Tragweite von Überwachungskapitalismus einfach.

Generelle Informationen:

  • Erscheinungstermin: 04.10.2018
  • Verlag: Campus
  • Autor/in: Shoshana Zuboff (Professorin an der Harvard Business School)

Aufbau des Buches:

„Das Zeitalter des Überwachungskapitalismus“ gliedert sich in drei Teile mit jeweils drei bis vier Unterkapiteln und einer Schlussbetrachtung als eine Art Epilog, der sich reflektierend an einem Ausblick versucht. Beginnend mit der Entstehung des Überwachungskapitalismus durch Google und der Ausbreitung auf weitere Unternehmen analysiert Zuboff die Weiten des Überwachungskapitalismus als instrumentäre Macht.

Hintergrund zur Entstehung des Buches:

Zuboffs Untersuchungen begannen mit Studien im Rahmen einer Reihe von Interviews mit Unternehmern und Angestellten aus dem Hightech-Sektor in den Vereinigten Staaten und Großbritannien im Jahr 2006. Konkrete Ergebnisse zu ihrem spezifizierten Thema und den fokussierten Unternehmen erlangte sie durch Interviews mit Datenwissenschaftlern.

Inhalt:

„Überwachungskapitalismus, der

1. Neue Marktform, die menschliche Erfahrung als kostenlosen Rohstoff für ihre versteckten kommerziellen Operationen der Extraktion, Vorhersage und des Verkaufs reklamiert […]“

Shoshana Zuboff in ihrem Buch “Das Zeitalter des Überwachungskapitalismus” (2018)

Als eine neue, beispiellose Form des Kapitalismus beansprucht der Überwachungskapitalismus den Menschen als Quelle eines kostenlosen Rohstoffes. Die aus menschlicher Erfahrung gewonnen Verhaltensdaten werden zur Verbesserung von Produkten und Dienstleistungen genutzt. Durch künstliche Intelligenz wird mithilfe dieser Daten eine Vorhersage zu unserem derzeitigen und zukünftigen Verhalten getroffen. Dieses Datenprodukt ist Handelsgut auf einem neuartigen Markt, der in der Herrschaft von Unternehmen wie Google, Facebook, Microsoft und Amazon steht.

Ziel der genannten Unternehmen ist es laut Zuboff, uns selbst zu automatisieren (beispielsweise mit dem Ziel der Wahlmanipulation). Und gerade aufgrund der intelligenten Vernetzung von jeglichen Geräten, Dingen und Räumen aus dem Alltagsleben scheint ein Entkommen vor dieser Art von Einflussnahme und Kontrolle aussichtslos.

Als Nutzer der Produkte von Google und Co. und somit auch als Rohstofflieferanten haben wir kaum Informationen über die Unternehmen und ihre Arbeitsweisen, die sie letztlich zu Reichtum bringen. Im Hinblick auf Zuboffs Bezeichnung des Überwachungskapitalismus als „antidemokratische soziale Kraft“ scheint die Dringlichkeit gegeben, zu handeln und aus der Unterordnung auszubrechen.

Zuboff selbst fasst zusammen: „Dieses Buch möchte aufzeigen, was am Überwachungskapitalismus merkwürdig, originell, ja unvorstellbar ist.“

Kritiken:

“Wir leben im Überwachungskapitalismus. Hier wird dieser Begriff in so vielen Facetten ausgeleuchtet wie in keinem anderen mir bekannten Werk zum Thema.”

Armin Thurnher, Falter, 10.10.2018

“Wenn die Bedeutung eines Buches daran gemessen wird, wie effektiv es die Welt beschreibt, in der wir uns befinden, und wie viel Potenzial es hat, diese Welt zu verändern, dann ist es meiner Meinung nach das wichtigste Buch, das in diesem Jahrhundert veröffentlicht wird.”

Zadie Smith, The Guardian, 21.09.2019

Außerdem biete ihr Buch, „und das ist wirklich maximal enttäuschend, überhaupt keine Perspektive auf eine Politisierung des Phänomens, gar auf gesellschaftlich wirksame Gegenwehr.“

Harald Welzer (deutscher Soziologe und Sozialpsychologe), taz Futurzwei Nr. 7/2018, S. 68.

Literaturquelle: Zuboff, S. (2018). Das Zeitalter des Überwachungskapitalismus. Frankfurt/New York: Campus Verlag.

Die Realität des Gläsernen Bürgers

George Orwell verdeutlichte schon in seinem Werk “1984” welche Gefahr von einem übermächtigen staatlichen Überwachungsapparat ausgeht. Die Entstehung eines daraus resultierenden Gläsernen Bürgers, also einer Person, deren Informationen alle bekannt sind, ist gerade in der heutigen Zeit allgegenwärtig.

Orwells Kritik am Staat als Überwachungsinstanz ist in unserem Zeitalter schon als rückständig zu bezeichnen. Obwohl Regierungen viele Informationen über ihre Bürger besitzen und auch immer mehr Zugriff auf Daten fordern (siehe z.B. Wiesner, 2021, S. 27) – gerade in Zeiten wie der Corona Pandemie – gibt es dominantere Überwachungsapparate, denen man Beachtung schenken muss. Zu diesen gehören die nichtstaatlichen (privatwirtschaftlichen) Akteure, die mithilfe der existenten Unmengen an technischen Möglichkeiten in die privatesten Lebensbereiche eindringen können (Mühlichen, 2018. S. 41).

“Unternehmen und nicht mehr die Staaten sind in den freien Demokratien der Welt die eigentliche Gefahr für den Datenschutz. Sie stellen die größte unmittelbare Herausforderung für den Datenschutz dar.”

Michael Sandel, 2016

Um sich wirtschaftlich behaupten zu können, versuchen Unternehmen immer mehr über ihre Kunden zu erfahren und ihr (Kauf-)Verhalten zu beeinflussen. Insbesondere Konzerne wie Google, Facebook, Apple, Amazon und Microsoft stellen sich im Zuge dieser Überwachung als dominierende Mächte mit einem weiten Wirkungsbereich heraus (Mühlichen, 2018. S. 42). Durch Verfahren wie “Microtargeting” werden durch sie und andere Unternehmen Benutzerprofile genau erforscht und gezielt Einflussnahmen organisiert (Wiesner, 2021, S. 75). Das US-Reiseunternehmen Orbitz bot beispielsweise durch Informationen über das genutzte Endgerät Apple-Nutzern teurere Hotelzimmer an, da diese Untersuchungen nach mehr bereit waren auszugeben als Windows-User (Wiesner, 2021, S. 72).

Mitunter das größte Problem stellt hier das Ungleichgewicht zwischen den Konzernen und Betroffenen dar, da diese “in der Regel keine Ahnung haben, welche Daten über sie gesammelt, geschweige denn, welche Schlüsse daraus gezogen wurden” (Wiesner, 2021, S. 38). Fitnessarmbänder können die Bewegungsdaten zum Beispiel nicht nur an das eigene Handy senden, sondern vielleicht auch unbemerkt an die Krankenkasse, die daraufhin die Vertragskonditionen anpassen kann (Wiesner, 2021, S. 56).

Wo Überwachung früher noch mit gesellschaftlichem Widerstand bekämpft wurde (wie z.B. bei der geplanten Volkszählung 1983 in Westdeutschland, siehe Mühlichen, 2018. S. 30), redet man sich heutzutage aus dem Ergreifen von Maßnahmen heraus. “Ich habe nichts zu verbergen” ist wohl die am meisten verbreitete Ausrede, warum Privatheit unwichtig sei (Wiesner, 2021, S. 45). Dazu gesellen sich Aussagen wie “Ich habe nichts Unrechtes getan, das ich verbergen muss”. Dies impliziert jedoch, dass Privatheit das Verbergen von Unrecht zum Ziel hat (Wiesner, 2021, S. 46).

Dem ist nicht so: Journalisten müssen ihre Quellen schützen können und Anwälte mithilfe einer sicheren Kommunikationsquelle ihre Klienten verteidigen (Wiesner, 2021, S. 77). Durch fehlende Angebote, die solch eine Datensicherheit gewährleisten, ist dies nicht möglich. Die Preisgabe von Informationen kann durch die Einflussnahme der jeweiligen Anbieter neben finanziellen Konsequenzen auch Risiken wie soziale Diskriminierung für uns bergen. Barbara Wiesner macht es als Professorin für Datensicherheitstechnik an einem Fall deutlich: “Ein Beispiel für eine solche Diskriminierung findet man bei Facebook und Instagram. Lange Zeit konnten dort Werbetreibende ihre Anzeigen auf bestimmte Nationalitäten oder kulturelle Hintergründe zuschneiden. Das führte dazu, dass in den USA Afroamerikaner und Hispanics von Anzeigen für Jobs und Wohnungen ausgeschlossen wurden” (Wiesner, 2021, S. 74).

Der Verhaltensforscher Robert Epstein belegt auch, dass Suchalgorithmen von Google mit wachsendem Einfluss die Gewinner von Wahlen bestimmen (Wiesner, 2021, S. 82). Somit hat die Überwachung durch Konzerne auch einen Einfluss auf der politischen Ebene, die in Demokratien allein den Bürgern überlassen sein muss. Da die Überwachung in Form der Datensammlung auf den ersten Blick keine Folgen für uns zu haben scheint, kann man bei dieser Art des Gläsernen Bürgers von einer “mangelnden Spürbarkeit von Überwachung” sprechen (Wiesner, 2021, S. 47).

Wir müssen uns im Klaren sein, dass der Gläserne Bürger schon existiert. Im Grunde gibt jeder Mensch, der das Internet nutzt, seine Daten weiter. Und es geschieht mehr mit unseren Daten, als wir begreifen möchten. Es gilt daher, “ein Bewusstsein für das Vorhandensein dieser Datensammlungen und deren Risiken zu schaffen” (Wiesner, 2021, S. 60). Zudem muss jetzt und zukünftig die Sicherheit von Angeboten fokussiert werden, um nicht die Möglichkeiten eines freien, demokratischen, selbstbestimmten Lebens zu unterminieren.

Quellen:

  • Mühlichen, A. (2018). Privatheit im Zeitalter vernetzter Systeme. Eine empirische Studie. Verlag Barbara Budrich.
  • Wiesner, B. (2021). Private Daten. Unsere Spuren in der digitalen Welt. Transcript Verlag.

“Ich sehe dich” – Biometrische Überwachung im Alltag

Es sind dystopische Szenen, die in manchen actionreichen Filmen eine bedeutende Rolle spielen: Zahlreiche private Aufnahmegeräte in Restaurants, Dutzende an Ampeln befestigte Straßenkameras, und zig 360°-Kameras an Straßenkreuzungen. Im Fokus solcher Filme ist beispielsweise ein Protagonist, der vor korrupten Polizeibeamten fliehen muss. Eine unmögliche Tat bei einer solchen biometrischen Überwachung. – Obwohl solch eine Allzeit-Beobachtung durch Kameras im öffentlichen Raum erst einmal nur eine fiktionale Szenerie darzustellen scheint, hat eine Untersuchung von Amnesty International ihre Realitätsnähe offenbart, die auch von anderen Organisationen Beachtung und Kritik findet.

Machen wir einen Abstecher nach New York City, der Weltstadt an der Ostküste der Vereinigten Staaten: Die Kreuzungen der Stadteile Manhattan, Bronx und Brooklyn machen dort fast die Hälfte der Kreuzungen in der gesamten Stadt aus. Und alleine in diesem Gebiet stehen der New Yorker Polizei (NYPD) mehr als 15.000 Kameras zur Verfügung, die zur Gesichtserkennung genutzt werden können. Aufgespürt wurden diese Kameras durch eine Untersuchung von Amnesty International im Mai 2021. Tausenden Freiwilligen wurden dabei Google Street View-Bilder gestellt, auf denen sie Kameras auf den New Yorker Kreuzungen kartografieren sollten, von denen manche hochaufgelöste Aufnahmen bis zu einer Entfernung von 200 Metern aufzeichnen können.1

Das NYPD behauptet, das Videomaterial nicht standardmäßig zur Erfassung von Personen zu nutzen2. Amnesty berichtet jedoch, dass das NYPD alleine im Jahr 2019 in 11.000 Fällen die Gesichtserkennungstechnologie eingesetzt haben soll1. Mutmaßlich soll beispielsweise auch bei den Protesten zu Black Lives Matter ein Demonstrant über das Kamera-Netzwerk identifiziert worden sein3. Nicht überraschend daher, dass die Non-Profit-Organisation die Nutzung der Gesichtserkennung als Bedrohung für die Menschenrechte ansieht und dabei inhaltlich auch von anderen Organisationen unterstützt wird:

  • In einem offenen Brief fordern unter anderem über 175 namhafte zivilgesellschaftliche Organisationen, Wissenschaftler und Aktivisten ein weltweites Verbot von biometrischer Überwachung im öffentlichen Raum. Zu der biometrischen Überwachung zählen die Verfasser alle Technologien, die anhand des Gesichtes, der Stimme, des persönlichen Auftretens oder anderer biometrischer Kennzeichen Identifikationen und somit eine gezielte Massenüberwachung ermöglichen. Im Brief kommt deutlich hervor, dass diese Technologien ein Risiko für die Menschenrechte darstellen, einschließlich der Rechte auf Privatsphäre und Datenschutz, sowie das Recht auf freie Meinungsäußerung und Versammlungsfreiheit.4
  • Auch in Europa wird die Kritik auf politischer Ebene laut: Der Europäische Datenschutzbeauftragte (EDPS) und der Europäische Datenschutzausschuss (EDPB) fordern in einer gemeinsamen Stellungnahme ein generelles Verbot des Einsatzes von künstlichen Intelligenzen zur automatisierten Erkennung menschlicher Merkmale in öffentlich zugänglichen Räumen.5 Andrea Jelinek, die Voritzende des EDPB, und Wojciech Wiewiórowski vom EDPS heben hervor:

“Der Einsatz von biometrischer Fernidentifikation in öffentlich zugänglichen Räumen bedeutet das Ende der Anonymität an diesen Orten.”

Andrea Jelinek & Wojciech Wiewiórowski (aus dem Englischen übersetzt) 5
  • Grundsätzlich will auch die Europäische Kommission “alle Arten biometrischer Fernidentifizierungssysteme” im öffentlichen Raum bis auf wenige Ausnahmen für die Zwecke der Strafverfolgung verbieten. Die Ausnahmen sieht die Kommission in Anwendungen, die “unbedingt erforderlich” sind, um potenzielle Opfer von Straftaten zu finden oder eine terroristische Bedrohung abzuwenden. Auch die Verfolgung schwerer Straftaten nach einem nötigen Beschluss einer zuständigen Justizbehörde soll möglich sein.6

Es lässt sich also festhalten, dass eine standardmäßige biometrische Überwachung im Alltag einen Angriff auf die Datenschutz- und Freiheitsrechte eines jeden Individuums darstellt. Entscheidend ist in dem Falle daher ein festgeschriebenes Verbot der generellen Überwachung – mit Ausnahme von juristisch festgelegten Suchen im Zuge von Strafverfolgungen. Und das am besten so schnell wie möglich.

Google Analytics als DSGVO-widrig erklärt

 

Mit der Grundlage des Schrems-II-Urteils aus dem Jahr 2020 reichte das Europäische Zentrum für digitale Rechte (noyb) eine Musterbeschwerde bei der österreichischen Datenschutzbehörde (DSB) ein. Die DSB erklärte Ende Dezember 2021 die Nutzung des Statistikprogramms Google Analytics nun für rechtswidrig, da die Daten-Übermittlung an US-Provider gegen die DSGVO verstößt.

Durch das Schrems-II-Urteil des Europäischen Gerichtshofs (EuGH) im Juli 2020 verstößt die Nutzung von US-Anbietern gegen die DSGVO, da das US-Überwachungsgesetz bekannte US-amerikanische Unternehmen wie Google und Facebook nämlich zur Übermittlung persönlicher Daten an US-Behörden verpflichtet. Das Europäische Zentrum für digitale Rechte (noyb) teilt jedoch mit, dass US-Anbieter und EU-Unternehmen die Entscheidung weitgehend ignoriert haben.

Mit der Entscheidung der österreichischen Datenschutzbehörde (DSB) steigt nun jedoch der Druck auf die Anbieter und Unternehmen. Der Kern des Urteils besagt, dass EU-Unternehmen keine US-Cloud-Dienste mehr nutzen dürfen. Für EU-Unternehmen wird also ein Wechsel auf legale Alternativen zu Google Analytics notwendig, die in Europa gehostet werden. Wahlweise müssen US-Gesetze einen besseren Datenschutz bieten oder US-Anbieter ihre Daten außerhalb der Vereinigten Staaten verarbeiten, so das Europäische Zentrum für digitale Rechte (noyb).

Unternehmen, die gegen die DSGVO verstoßen, erwartet normalerweise eine Strafe von bis zu 20 Millionen Euro oder 4 % ihres weltweiten Umsatzes. Da bei dem amtlichen Durchsetzungsverfahren der DSB jedoch keine Anhörung des Beschwerdeführers erfolgte, gibt es keine Informationen darüber, ob eine Strafe verhängt wurde.

In unserem Beitrag “US-Cloud-Dienste: Fehlende Rechtsgrundlage in der EU” erfahren Sie mehr über die historische Entwicklung der Gesetzeslage. Weiterführendes Infos gibt es unter: https://noyb.eu/de/oesterr-dsb-eu-us-datenuebermittlung-google-analytics-illegal

US-Cloud-Dienste: Fehlende Rechtsgrundlage in der EU

Der Beschluss der Europäischen Kommission zur Übermittlung personenbezogener Daten in die USA (Privacy Shield) wurde im Juli 2020 von dem Europäischen Gerichtshof (EuGH) für unwirksam erklärt. Jetzt stehen Unternehmen ohne eine Rechtsgrundlage da, wenn sie US-Cloud-Dienste wie Amazon und Microsoft nutzen. 

Ein Blick in die Historie des Privacy Shield

 

Der österreichische Jurist Maximilian Schrems hat es sich zur Aufgabe gemacht, Datenschutzrechte durchzusetzen. Deswegen beantragte er vor der irischen Datenschutzbehörde, alle Datenübermittlungen von der nationalen Facebook-Tochter an den Mutterkonzern in den USA auszusetzen. Der Erfolg zeigte sich in Form eines Beschlusses des Europäischen Gerichtshofs (EuGH) im Jahr 2020: Der transatlantische “Privacy Shield”, der als Rechtsgrundlage für den Transfer personenbezogener Daten europäischer Bürger in die USA galt, wurde für nichtig erklärt und erhielt den Beinamen “Schrems II-Urteil”. Begründet wurde diese Entscheidung mit den datenschutzrechtlich ungenügenden US-amerikanischen Gesetzen, die beispielweise ihren Sicherheitsbehörden die Überwachung ausländischer Kommunikation gestatten.1

Mit dem Schrems II-Urteil soll der Datentransfer in die USA und andere Drittländer also unterbunden werden. Konkret bedeutet das, dass z.B. Dienstleistungen von Microsoft, Zoom etc. nicht mehr genutzt werden dürfen, wenn diese die Daten auf Servern in den EU-Mitgliedstaaten nicht wirksam vor dem Zugriff der US-Behörden schützen. Zusätzlich wurde vonseiten des Europäischen Gerichthofs festgelegt, dass bei Datenübermittlungen in die USA Standardvertragsklauseln grundsätzlich nicht ausreichen und mit zusätzlich verbindlichen Datenschutzvorschriften gesichert werden müssen. Damit soll für die übermittelten Daten ein gleichwertiges Datenschutzniveau wie in der EU garantieren werden.2

 

 

Die Schlüsselrolle für die Durchsetzung des Beschlusses des Europäischen Gerichtshofs (EuGH) tragen die Aufsichtsbehörden. Der rheinland-pfälzische Datenschutzbeauftragte Dieter Kugelmann kündigte schon Mitte 2021 ein schärferes Vorgehen an, um Verstöße in Unternehmen und öffentliche Stellen vorzubeugen und gegebenenfalls mit Bußgeldern zu rügen. Das “Schrems II-Urteil” betreffe als Grundsatzentscheidung nämlich “fast jedes Unternehmen, jede Behörde, Kommune, Schule, Organisation oder Arztpraxis”3. Diese übermitteln die personenbezogenen Daten oftmals unbewusst in Länder außerhalb der EU und müssen daher verstärkt über das Schrems II-Urteil informiert werden, damit sich etwas ändert. 

Quellen:

Grundrechte für Digitale Selbstbestimmung

Die Initiative JEDER MENSCH der Stiftung Jeder Mensch e.V. hat sich zum Ziel gesetzt, die Charta der Grundrechte der Europäischen Union mit sechs Grundrechten zu erweitern und erneuern.

Die Gründung der Stiftung wurde angetrieben durch das Buch „Jeder Mensch“ von Ferdinand von Schirach, der spätestens nach seinem millionenfach verkauften Roman „Der Fall Collini“ Berühmtheit erlangte. “Die alten Verfassungen Europas kennen auf die enormen Umwälzungen der letzten Jahre keine klaren Antworten.” – Deswegen fokussiert die Initiative Forderungen für eine geschützte Umwelt, Wahrheit in den Äußerungen von Amtsträgern und die Wahrung der universellen Menschenrechte im Kontext der Globalisierung. Dazu kommen neben der Möglichkeit der Erhebung einer Grundrechtsklage bei Verletzung der Charta besonders Themen aus der Digitalen Welt:

In Artikel 2 und 3 wird nach Digitaler Selbstbestimmung und transparenten Algorithmen gefordert, um Entscheidungen selbstständig zu treffen und der Manipulation durch die Ausnutzung von personenbezogenen Daten für personalisierte Werbung zu entgehen.

Die Ergänzung der Grundrechtecharta um diese zeitgemäßen Grundrechte kann nur durch einen Grundrechtekonvent umgesetzt werden, der wiederum von der einfachen Mehrheit der EU-Mitgliedsstaaten einberufen werden kann. Da dies nicht mit der Europäischen Bürgerinitiative möglich ist, hat sich die Initiative das Ziel gesetzt, politischen Druck auf die Mitgliedsstaaten auszuüben – und das mit mindestens einer Million Unterschriften.

Um die Grundsteine unserer Gesellschaft zu modernisieren und Digitale Souveränität zu erlangen, ist jede/r dazu aufgerufen, sich an der Umsetzung dieses Ziels zu beteiligen. Hier können alle Bürgerinnen und Bürger der Europäischen Union die Initiative unterstützen und den Impuls für einen Verfassungskonvent geben.

Quellen:

Die neuen Gewinner im Spotlight: “BigBrotherAwards” für Google & Co.

Die BigBrotherAwards setzen Firmen, Organisationen und Personen in das Scheinwerferlicht der Öffentlichkeit – und das eher wider Willens. Die Preisträger zeichnen sich nämlich dadurch aus, dass sie “in besonderer Weise und nachhaltig die Privatsphäre von Menschen beeinträchtigen sowie persönliche Daten verkaufen oder gegen ursprüngliche Interessen verwenden” und somit Schlagzeilen über sich selbst ungerne sehen.1 

Die deutsche Jury, bestehend aus Vertretern von unabhängigen Organisationen wie der “Deutschen Vereinigung für Datenschutz (DVD)” und dem “Chaos Computer Club (CCC)”, hat Mitte Juni die BigBrotherAwards 2021 verliehen. Hier ein Überblick über einige der Preisträger:

  • In der Kategorie Hochschulen bekam die KI-basierte Prüfungssoftware und das gleichnamige Unternehmen “Proctorio” den Award. Die Software kann unter anderem durch den notwendigen Zugriff auf die Videokamera die Blicke von Prüflingen erkennen, die auf einen Täuschungsversuch hindeuten, und dann automatisch Alarm schlagen. In der Erklärung heißt es unter anderem, dass mit dieser Software nicht nur ein Eingriff in die Integrität der privaten Geräte der Studierenden erfolgt, sondern auch der Stresspegel erhöht wird, da das Verhalten von einer KI bewertet wird.
  • Den BigBrotherAward in der Kategorie Gesundheit bekam die Firma “Doctolib” in Berlin, die sich auf die Vermittlung von Arztterminen über ihre Plattform spezialisiert hat – wofür unter anderem der Zugriff auf den gesamten im Arztinformationssystem gespeicherten Patientenstammdatensatz gewährt werden muss. Diese Daten werden von “Doctolib” laut der Ausführung unter Missachtung der Vertraulichkeitsverpflichtung verarbeitet und auch im Rahmen kommerzieller Marketingzwecke genutzt, was in Anbetracht der sensiblen Gesundheitsdaten besonders bedenklich ist.
  • Das Technologieunternehmen “Google” erhielt den BigBrotherAward in der neuen Kategorie “Was mich wirklich wütend macht”. Kritisiert werden unter anderem die allseits bekannten Cookie-Banner, die Nutzer auf Webseiten über die Art der Speicherung von Daten hinweisen und ihre Zustimmung oder Ablehnung einholen müssen. Durch irreführende Designs geben diese Cookie-Banner die Möglichkeit zur Ablehnung jedoch erst nach einem frustrierenden Klick-Marathon preis und verleiten somit zu einem Klick auf den “Akzeptieren”-Button.  

Das Problem mit den Cookie-Bannern

Durch diese irreführenden Banner verstoßen viele Unternehmen gegen die DSGVO, die eine einfache Auswahl zwischen “Ja” und “Nein” verlangt. Der Verein noyb, der sich der Durchsetzung des Datenschutzes innerhalb der Europäischen Union verschrieben hat, möchte nun aktiv dagegen vorgehen. Gemeinsam mit dem “Sustainable Computig Lab (CSL)” der Wirtschaftsuniversität Wien haben sie das “Advanced Data Protection Control (ADPC)” genannte Konzept entwickelt, das ein einheitliches und simples Pop-Up im Browser für die Datenschutz-Anfragen der einzelnen Webseiten generieren soll.  

Zusätzlich prüft das juristische Team von noyb mithilfe einer Software verschiedene Arten von rechtswidrigen Cookie-Bannern. Das System generiert automatisch eine DSGVO-Beschwerde und leitet das Unternehmen zu einer Änderung des Cookie-Banners an. “Wenn ein Unternehmen seine Einstellungen nicht innerhalb eines Monats ändert, wird noyb die Beschwerde bei der zuständigen Behörde einbringen, die ein Bußgeld von bis zu 20 Millionen Euro verhängen kann”, so berichtet der Verein.

Durch die Schaffung von Öffentlichkeit und einem aktiven Vorgehen kann eine Umänderung von Unternehmenskonzepten angestoßen werden, die die Digitale Souveränität des Einzelnen und der Gesellschaft verletzten. Der Verein “fair.digital” möchte als Orientierungshilfe dabei unterstützen, Risiken und Möglichkeiten aufzuzeigen, um eine selbstbestimmte Lebensweise innerhalb der digitalen Welt zu etablieren.