Arbeitszeiterfassung: Aktueller Stand und datenschutzkonforme Umsetzung

Das Bundesarbeitsgericht (BAG) in Erfurt hat in einem Urteil (1 ABR 22/21) vom 13.09.2022 festgestellt, dass Unternehmen  nach § 3 Abs. 2 Nr. 1 ArbSchG verpflichtet sind, ein System einzuführen, mit dem die Arbeitszeit der Angestellten erfasst werden kann. Diese Entscheidung basiert auf der europarechtskonformen Auslegung des Arbeitsschutzgesetzes (ArbSchG) und bezieht sich auf das Urteil des Europäischen Gerichtshofs (EuGH) zur Arbeitszeiterfassung aus Mai 2019.

Ein kürzlich veröffentlichter Gesetzentwurf des Bundesministeriums für Arbeit und Soziales (BMAS) wirft die Frage auf, welche Informationen Firmen im Hinblick auf die Arbeitszeiten ihrer Mitarbeitenden zukünftig dokumentieren müssen. Zudem gibt es Unsicherheiten hinsichtlich der Anwendung von Vertrauensarbeitszeit.

Geplante Regeln und Ausnahmen

Gemäß § 16 Abs. 2 ArbZG-E sollen Unternehmen dazu verpflichtet werden, den Beginn, das Ende und die Dauer der täglichen Arbeitszeit der Beschäftigten zu dokumentieren. Es wird vorgegeben, die Zeiterfassung elektronisch durchzuführen, jedoch werden keine konkreten Vorgaben gemacht, wie die elektronische Erfassung auszusehen hat. Es ist davon auszugehen, dass elektronische Zeiterfassungsgeräte, -Systeme oder Apps genutzt werden.

Der Gesetzentwurf schlägt weiterhin vor, dass kleine Betriebe mit weniger als 10 Angestellten von der Pflicht zur elektronischen Zeiterfassung ausgenommen werden können. Vertrauensarbeitszeit, bei der die genaue Arbeitszeit von den Mitarbeitern selbst bestimmt wird, soll weiterhin möglich sein, wenn Arbeitszeiten gleichzeitig dokumentiert werden.

Dabei ist wichtig, dass Arbeitgeber weiterhin für die ordnungsgemäße Dokumentation der Zeiterfassung verantwortlich sind, auch wenn sie die Pflicht zur Zeiterfassung den Mitarbeitenden überlassen können. Die Arbeitszeit muss täglich erfasst werden, wobei eine Ausnahme durch Tarifvertrag, Betriebs- oder Dienstvereinbarung möglich ist. In jedem Fall müssen die Zeiten spätestens nach 7 Tagen erfasst worden sein.

Es gibt auch Ausnahmen von der Zeiterfassungspflicht: Diese gelten für ausländische Unternehmen ohne Betriebsstätte in Deutschland, wenn weniger als 10 Angestellte nach Deutschland entsandt werden, sowie für Privathaushalte. Es ist auch möglich Ausnahmen von der elektronischen Dokumentation in Tarifverträgen, Betriebs- oder Dienstvereinbarungen zu vereinbaren.

Fazit

Zusammenfassend lässt sich festhalten, dass die Zeiterfassungspflicht zukünftig wohl für alle Mitarbeitenden gilt, jedoch Ausnahmen für bestimmte Tätigkeiten und Vereinbarungen bestehen. Der Gesetzentwurf zielt darauf ab, eine genaue Dokumentation der Arbeitszeiten zu gewährleisten, um die Einhaltung der Arbeitszeitregelungen und damit des Arbeitsschutzes zu kontrollieren.

Für Unternehmen ohne bestehende Arbeitszeiterfassung besteht durch das kommende Gesetz wie auch die Urteile von EuGH und BAG Handlungsbedarf. Eine wichtige Frage bei der Auswahl von Software zur Zeiterfassung ist zweifellos deren Fairness, Transparenz und Datenschutz. Bei Herstellern wie ZMI finden Unternehmen aller Branchen und Größen flexible und fair.digital-zertifizierten Lösungen für die Digitale Zeiterfassung mit stationären oder mobilen Terminals, am PC-Arbeitsplatz oder via App auf dem Smartphone oder Tablet.

Weitere Informationen zu den Lösungen von ZMI finden Sie unter www.ZMI.de

Praxisbeispiel: FeedBeat Stage Performance Plattform

FeedBeat ist eine Plattform für hybride und digitale Bühnensituationen mit vielen Teilnehmenden, wie es beispielsweise der Fall ist bei Webinaren, Konferenzen, Produktpräsentationen, Podiumsdiskussionen, Konzerten, Theater, Comedy oder Lesungen. FeedBeat erweitert den physischen Zuschauerraum in die digitale Dimension und ermöglicht mehr Publikum und mehr Teilhabe bei gleichzeitiger Reduktion des Carbon-Footprints. Sie verfügt über einzigartige Merkmale der Interaktion, Personalisierung und emotionalen Teilhabe. Dafür wurde sie ausgezeichnet von NRW Kultur.

Hybrid und digital: 

Hybride Veranstaltungen sind Liveveranstaltungen, an denen gleichzeitig Menschen vor Ort als auch über digitale Kanäle teilnehmen. Insbesondere Bühnensituationen stellen dabei besondere  Anforderungen an die Integration und Interaktion gemischter Gruppen. Beispielsweise bei Produktschulungen, Konferenzen oder Kulturveranstaltungen ist es wichtig ein Gefühl auch für das Onlinepublikum zu haben und dieses durch gezielte Ansprache in die Veranstaltung integrieren zu können. Starke Feedbackkanäle fördern Interaktion und Erlebnischarakter zusätzlich. Die Plattform bleibt im Hintergrund und präsentiert die Veranstaltung optimal. Zugänge über alle Endgeräte und ohne Login-Hürden erleichtern die Teilnahme auch wenig technikerfahrener Menschen.

Fairness eingebaut: 

Die Plattform folgt einem konsequenten Privacy by Design Ansatz gemäß dem Grundsatz “Daten, die nicht gespeichert werden, können auch nicht weitergeben werden”. Als Cloud und On-Premise-Lösung selbstverständlich DSGVO-konform. Alle Rechte am Werk bleiben bei den Veranstaltern und Akteuren zur eigenen Verwertung.

Fazit: 

FeedBeat gestaltet Digitalisierung auf zeitgemäße und zukunftsweisende Art. Die Plattform ist ein Beispiel dafür das Lösungen möglich sind, die den Schutz persönlicher Daten mit hohem Nutzen verbinden. Einfach Fair Digital.

Mehr Informationen zu FeedBeat finden Sie hier.

 

Datenschutz – Ein kurzer historischer Überblick

Eine Art des Datenschutzes wurde in einigen Berufsständen schon ohne eine Festlegung im Gesetzesbuch praktiziert. Zu den bekanntesten Beispielen gehören dabei die Schweigepflicht zwischen medizinischem Personal und Patienten, sowie der Austausch von Anwälten und ihren Mandanten. Doch wie und wann hat sich der Datenschutz juristisch verfestigt?

“That the individual shall have full protection in person and in property is a principle as old as the common law […]” (deutsch: “Dass der Einzelne in Person und Eigentum vollen Schutz haben soll, ist ein Grundsatz, der so alt ist wie das Gewohnheitsrecht”)

Samuel D. Warren, Louis D. Brandeis
“The Right to Privacy” (1890). Harvard Law Review, V. IV, No. 5

So steht es schon im Jahr 1890 in der von Samuel D. Warren und Louis D. Brandeis verfassten “Right to Privacy” geschrieben, einem der einflussreichsten Essays der US-amerikanischen Geschichte. Wesentliche Prinzipien des Datenschutzes, die in dem Essay vorkommen, wurden jedoch erst im Jahr 1974 bei der Verabschiedung des “Privacy Act” durchgesetzt.

Betrachten wir jedoch einmal die andere Seite des Ozeans: Europa und Deutschland

  • Im Jahr 1953 wurde mit Artikel 8 der Europäischen Menschenrechtskonvention (EMRK) eine der ersten rechtlichen Schutzmaßnahmen für personenbezogene Daten kodifiziert und somit das Recht auf die Achtung des Privat- und Familienlebens eingeführt.
  • In den 1960er Jahren wurde der Bedriff “Datenschutz” als Übersetzung für das englische “Privacy” eingeführt.
  • Im Jahr 1970 verabschiedete Hessen dann das weltweit erste Datenschutzgesetz, das von Spiros Simitis, dem “Vater des Datenschutzes” verfasst wurde. Aus heutiger Sicht erscheinen damalige Freiheiten wie z.B. die Verarbeitung von personenbezogenen Daten ohne Rechtsgrundlage und ohne Einwilligung der betroffenen Personen inakzeptabel.
  • Sieben Jahre später (1977) folgte dann das deutsche Bundesdatenschutzgesetz (BDSG), durch das unter anderem Datenschutzbeauftragte eingeführt wurden.
  • Im Jahr 1981 waren dann endlich auch Landesdatenschutzgesetze für alle Bundesländer beschlossen.
  • Nach dem Volkszählungsurteil des Bundesverfassungsgerichts im Jahr 1983 wurden die bisherigen Datenschutzgesetze als nicht genügend für die verfassungsrechtlichen Anforderungen angesehen. Es wurde ein “Recht auf informationelle Selbstbestimmung” abgeleitet, welches man allgemeiner als den “Schutz des Persönlichkeitsrechts bei der Verarbeitung personenbezogener Daten” formulieren kann.
  • Durch die explosionsartige Verbreitung von Computern in den 80er/90er Jahren wurden die nicht ausreichenden Regelungen in Europa deutlich. Daher wurde im Jahr 1995 die EU-Datenschutzrichtlinie in Kraft gesetzt, die auch Regeln für das Versenden von Daten außerhalb der EU festlegte. Damals wurden die US-amerikanischen Datenschutzgesetze beispielsweise noch als ausreichend für den Schutz personenbezogener Daten angesehen.
  • Durch die Einführung der Europäischen Datenschutz-Grundverordnung (EU-DSGVO) im Jahr 2018 wurden Aktualisierungen und Abänderungen vorgenommen. Als Änderungen traten zum Beispiel ein, dass Drittländer den DSGVO-Vorgaben unterliegen, Personen ihre Einwilligung zu einzelnen Datenverarbeitungsvorgängen geben müssen und diese auch jederzeit und unbegründet widerrufen können und dass Geldbußen auf Unternehmen zukommen, die gegen die Datenschutzgrundverordnung verstoßen.
  • Im Jahr 2020 wurde die Übermittlung personenbezogener Daten in die USA (Privacy Shield) von dem Europäischen Gerichtshof (EuGH) für unwirksam erklärt.

Es fällt auf, dass in einer kurzen Zeitperiode vergleichsweise viele Modernisierungen des Datenschutzes im juristischen Bereich unternommen worden. Doch wichtig ist, dass die Gesetze auch immer wieder aktualisiert und an neue Technologien angepasst werden, während man gleichzeitig Unternehmen und andere öffentliche Stellen auf deren Einhaltung überprüft, um die persönlichen Daten jedes Menschen sowie die individuelle und gesellschaftliche Digitale Souveränität zu schützen.

Definition “Big Data” und “Data Mining”: Was ist Big Data? Was ist Data Mining?

Der Begriff “Big Data” ist in vielen themenspezifischen Inhalten zu Technologien, Internet und Datenschutz zu finden und hat gerade in unserem digitalen Zeitalter eine große Präsenz. Doch was verbirgt sich hinter dem Begriff “Big Data”? Und welche Rolle spielt “Data Mining” in diesem Zusammenhang?

Soziales Handeln kann mithilfe der digitalen Medien heutzutage unabhängig von Raum und Zeit nachvollzogen werden (Venturini, Latour, & Meunier, 2015, S. 18). Von Bedeutung ist dabei die Speicherung und Prozessierung von Big Data: große, gespeicherte Volumen an Daten, oftmals „menschliche Informationen aller Art […]“ (Schwanebeck, 2017, S. 10). Jeder Mensch, der digitale Geräte (Schwanebeck, 2017, S. 10) bei sich trägt und Programme darauf nutzt, von einer Straßenkamera erfasst wird (Petersson, Leuuw, Breul, & Leuuw, 2017, S.1) oder sein Geld durch E-Banking managet (Venturini et al., 2015, S. 17), trägt zur Generierung solcher Big Data bei.

Ersichtlicher wird dies bei der beispielhaften Betrachtung eines Handys: Der Handykörper hinterlässt Spuren in Form von Verbindungsdaten, Daten über den Aufenthalt einer Person und mithilfe verbundener Geräte (z.B. Smartwatches) sogar Daten über den körperlichen und gesundheitlichen Zustand des Handynutzers (Lindemann, 2015, S. 53). Diese Daten können dann in den Endgeräten, Datenbanken oder in sogenannten “Clouds” gespeichert und prozessiert werden (Ladeur, 2015, S. 231).

Durch die Aufzeichnungen von diesen personenbezogenen Daten ist das Herausfinden von Mustern für wirtschaftliche Zwecke, z.B. das Schalten gezielter Werbung, möglich (Schwanebeck, 2017, S. 11). Dies gelingt mithilfe von Auswertungsverfahren, „die uns erlauben bedeutungstragende Strukturen aus riesigen, unübersichtlichen Datenmengen zu gewinnen“ (Niekler, 2015, S. 35).

Diese Transformierung der Daten in nützliche Informationen erfolgt mithilfe von Algorithmen (Scholz, 2017, S. 21) und wird als Data Mining bezeichnet (Han, Kamber, & Pei, 2012). Mithilfe von Data Mining können „unsere persönlichen Vorlieben, unsere Interessen, die Konsumgewohnheiten und das komplette Kommunikationsverhalten […]“ (Schwanebeck, 2017, S. 12) ermittelt werden. Außerdem ist die Wiedergabe von „Einstellungen, Verhaltensweisen und sozialen Interaktionen […]“ (Haustein, 2015, S. 264) eines Individuums möglich.

Zusammenfassend beschreibt der Begriff Big Data also die große, unübersichtliche Menge an Daten, die bei der Internetnutzung durch ein Individuum entsteht (u.a. Neuberger & Nuernbergk, 2015, S. 206).
Mithilfe von Data Mining – dem Vorgang der Veredelung von Daten durch die automatische Erfassung und Verarbeitung dieser Big-Data-Datenmengen (Haustein, 2015, S.262) – kann man zum Beispiel Verhaltensmuster von Individuen generieren und für wirtschaftliche Zwecke nutzen (Ladeur, 2015, S. 231).

Mit dem Siegel von “fair.digital” haben Nutzer die Möglichkeit, der Speicherung von personenbezogenen Daten zu Nutzen der Steigerung des wirtschaftlichen Erfolges eines Unternehmens zu entgehen und ihre digitale Souveränität zu erhalten.

Quellenverzeichnis:

  • Han, J., Kamber, M., & Pei, Jian (2012). Data mining. Concepts and techniques. Morgan Kaufmann. Zitiert in Scholz, T. M. (2017). Big Data in Organizations and the Role of Human Resource Management. A Complex Systems Theory-Based Conceptualization (S. 9—81, genau: S. 20). PL Academic Research.
  • Haustein, B. H. (2015). Datenschutz jenseits der Papierakte. Systematische Herausforderungen des Datenschutzrechts unter den Bedingungen der Digitalisierung. In Süssenguth, F. (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 253—282). transcript Verlag.
  • Ladeur, K. (2015). Die Gesellschaft der Netzwerke und ihre Wissensordnung. Big Data, Datenschutz und die „relationale Persönlichkeit“. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 225—251). transcript Verlag.
  • Lindemann, G. (2015). Die Verschränkung von Leib und Nexistenz. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 41—66). transcript Verlag.
  • Neuberger, C., & Nuernbergk, C. (2015). Verdatete Selbstbeschreibung der Gesellschaft. Über den Umgang des Journalismus mit Big Data und Algorithmen. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 199—224). transcript Verlag.
  • Niekler, A. (2018). Journalismus, Big Data, Algorithmen. Digitale Praktiken im modernen Journalismus. In G. Hooffacker, W. Kenntemich, & U. Kulisch (Hg.), Die neue Öffentlichkeit. Wie Bots, Bürger und Big Data den Journalismus verändern (S. 35—53). Springer VS.
  • Petersson, G. J., Leuuw, F., Breul, J., Leeuw, H.B.M. (2017). Cyber Society, Big Data, and Evaluation: An Introduction. In G. J. Petersson, & J. Breul (Hg.), Cyber Society, Big Data, and Evaluation (S. 1—17). New York: Routledge.
  • Scholz, T. M. (2017). Big Data in Organizations and the Role of Human Resource Management. A Complex Systems Theory-Based Conceptualization. PL Academic Research.
  • Schwanebeck, A. (2017). Gefangen im Netz. Medialer Wandel und kontinuierliche Überwachung in digitalen Welten. In M. Schröder, & A. Schwanebeck (Hg.), Big Data – In den Fängen der Datenkraken. Die (un-)heimliche Macht der Algorithmen (S. 9—37). Nomos Verlagsgesellschaft/Edition Reinhard Fischer.
  • Venturini, T., Latour, B., & Meunier, A. (2015). Eine unerwartete Reise. Einige Lehren über Kontinuität aus den Erfahrungen des Sciences Po médialab. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 17—39). transcript Verlag.

Warum fair.digital mit Hosting bei US-Anbietern nicht möglich ist

Eine Frage, die wir häufig erhalten, lautet: “Ist eine Zertifizierung mit fair.digital auch möglich, wenn die Lösung bei Hosting-Unternehmen aus den USA betrieben wird?” In diesem Beitrag erklären wir, warum wir dies zum derzeitigen Zeitpunkt verneinen müssen.

Das Siegelkriterium “Die EU-DSGVO wird gemäß geltender Rechtsprechung unterstützt”

Das erste fair.digital-Kriterium erfordert, dass Cloud-Lösung in der EU gehostet werden müssen. Nun könnte man meinen, dass die fair.digital-Kriterien erfüllt sind, wenn man eine Lösung z.B. bei Amazon Web Services (AWS) in einem Rechenzentrum in Europa betreibt. Warum ist dies zu kurz gegriffen?

Das Siegelkriterium “Datenhoheit”

Eine weitere zentrale Anforderung von fair.digital besagt: “Eine Weitergabe von Nutzerdaten erfolgt nur mit expliziter Zustimmung.” Mit diesem Kriterium soll sichergestellt werden, dass die Nutzer die Hoheit über ihre Daten behalten und selbst entscheiden können, ob und wie diese genutzt werden können. Genau dies kann beim Betrieb bei US-Hostern nicht erfüllt werden – selbst wenn sich die Data Center in Europa befinden. Der Grund hierfür ist der sogenannte “Cloud Act”.

Der Cloud Act

Aktuell geltendes US-Recht verpflichtet in den USA ansässigen Unternehmen über den “Cloud Act” dazu, US-Behörden auch Zugriff auf Daten, die bei ausländischen Konzerngesellschaften liegen, zu gewähren. Konkret könnte z.B. das FBI Amazon dazu zwingen, Daten einzusehen, die auf AWS-Rechenzentren in Europa gespeichert sind. Diese Zugriffsmöglichkeit der US-Dienste auf Nutzerdaten steht damit offensichtlich im Widerspruch zu dem Siegelkriterium “Datenhoheit”.

Wiederholte Anfragen an den Datenschutzbeauftragten

In seiner Bewertung richtet sich der Verein fair.digital e.V. stets nach geltendem Recht. Daher ist es uns wichtig, fortlaufend Anfragen an die zuständigen deutschen Behörden zu stellen, welche Einschätzung hinsichtlich des Cloud Act sie derzeit vertreten. Die letzte Anfrage fand 2022 statt. Die Antwort des Bayerisches Landesamt für Datenschutzaufsicht lautete:

“Zur Ehrlichkeit gehört es aber auch zu sagen, dass es Szenarien von Übermittlungen personenbezogener Daten in die USA gibt, bei denen möglicherweise keine rechtskonformen Lösungen gemessen am EU-Datenschutzrecht möglich sind – hier sind vor allem Fälle in den Blick zu nehmen, in denen der Datenempfänger dem US-Gesetz FISA 702 unterliegt und aber gleichzeitig Zugriff (für die Funktionalität der Daten) auf (aus der EU übermittelte) personenbezogene Daten im Klartext benötigt – denn in diesen Fällen sind die Daten den Zugriffsrechten von US-Behörden nach FISA 702 unterworfen, und gemäß Aussage des Europäischen Gerichtshofs im Schrems-II-Urteil sind diese Zugriffsrechte gemessen am EU-Datenhschutzrecht in ihrem Ausmaß und wegen Fehlen von Rechtsschutz für EU-Bürger datenschutzrechtlich nicht akzeptabel.”

Es wird also nicht ausgeschlossen, dass Drittländer Zugang auf Daten erhalten können. Sollte sich an dieser Bewertung zukünftig etwas ändern bzw. der Cloud Act angepasst werden, wird auch fair.digital seine entsprechend aktualisieren.

Migrationsmöglichkeiten

Gemäß Datenschutzbeauftragten wäre ein Lösungsansatz, europäische Dienstleister zwischenzuschalten, sodass sich der US-Anbieter selbst aus seinem Rechenzentrum “aussperrt”. Dann würden Anfragen von US-Behörden ins Leere laufen. Ein solches Modell wurde z.B. von Microsoft und der Telekom umgesetzt und wäre auch fair.digital-verträglich.

Alternativ gibt es natürlich auch die Möglichkeit, eine fair.digital-Zertifizierung zu erhalten, indem man auf US-Hosting verzichtet. In Europa gibt es durchaus Anbieter, die ähnliches Hyperscaling ermöglichen. Einige unserer Vereinsmitglieder können bei der Migration nach Europa helfen. Sprechen Sie uns gerne an!

Definition „Algorithmus“: Was sind Algorithmen?

Algorithmen bezeichnen einen abstrakten Begriff, mit dem man immer mal wieder in der digitalen Welt, Mathematik und Informatik zusammentrifft. Doch was genau stellen diese Algorithmen dar? Und inwiefern hängen sie mit unserem individuellen Verhalten und unserer Digitalen Souveränität zusammen?

Der Begriff “Algorithmus” ist abgeleitet von dem aus der Bagdader Schule stammenden arabischen Mathematiker Al-Chwarizmi (lebte um 800 n.Chr.), dessen Name latinisiert zu “Algorismus” wurde. (Barth, 2013, S. 13f).  

Nach heutigem Verständnis versteht man unter einem Algorithmus ein automatisiertes und endliches Verfahren, das gegebene Eingabeinformationen nach genau definierten Schritten und unmissverständlichen Anweisungen umformt, um damit ein bestimmtes Ziel zu erreichen (Barth, 2013, S. 8). Einfach ausgedrückt sind Algorithmen “nichts anderes als Schritt-für-Schritt-Anleitungen, um ein (mathematisches) Problem strukturiert zu lösen” (Martini, 2019, S. 17).

Für die digitale Anwendung muss ein Algorithmus in einer für den Computer verständlichen Programmiersprache (wie zum Beispiel Java oder Phyton) verfasst sein (Barth, 2013, S. 16-18).

Mehr zu dem Einfluss von Algorithmen

Algorithmen werden von Menschen geschrieben und sind dem entsprechend erstmal nur so intelligent, wie ihre Schöpfer selbst (Barth, 2013, S. 16). Im Vergleich zu uns Menschen können Algorithmen jedoch rasend schnell “lernen” (Barth, 2013, S. 16), indem sie große Datenmengen (sogenannte Big Data) auswerten, Zusammenhänge zwischen Informationen herstellen und in einen Kontext setzen, mit dem sie dann ihr Verhalten anpassen (Martini, 2019, S. 4, S. 21). Auf Grundlage ihrer Erfahrungen sind moderne Anwendungen also in der Lage, sich selbsttätig über ihre Anfangskonfiguration hinaus weiterzuentwickeln (Martini, 2019, S. 19).

Algorithmen begegnen uns überall im Alltag: In der Schule wird man oft schon mit dem Gauß-Algorithmus zur Lösung von linearen Gleichungssystemen konfrontiert (Barth, 2013, S. 7). Ansonsten berechnen Algorithmen auch die Aktienkurse, regulieren Flusskraftwerke sowie die Ampelphasen, und sind allgegenwärtig in der Online-Welt. Einer der bekanntesten Algorithmen ist wohl der Page-Rank-Algorithmus von Google, der die Reihenfolge der Suchanzeigen bestimmt.

“Ohne Algorithmen würde die Welt, so wie wir sie heute kennen, zusammenbrechen.”

Armin P. Barth, 2013, S. 7

Nochmals wichtig hervorzuheben ist der Fakt, dass Algorithmen auf Grundlage von Daten arbeiten. Bei den meisten Online-Diensten wie Sozialen Netzwerken oder digitalen Einkaufsportalen bestehen diese Daten aus persönliche Informationen, die es einem Unternehmen wie Facebook zum Beispiel möglich machen, suizidgefährdete Personen zu erkennen (Martini, 2019, S. 5).  

Aufgrund der Analyse von personenbezogenen Daten werden Algorithmen immer spezifischer: Da sie davon ausgehen, dass sich vergangenes Verhalten wiederholt, steuern sie auf Grundlage unserer bisherigen Entscheidungen den Zugriff auf Wissen (Martini, 2019, S. 4). Konkret bedeutet das, dass sie beispielsweise Anzeigen auf Sozialen Medien und beim Online-Shopping selektieren (Martini, 2019, S. 4).

Algorithmen sind die “Schleusenwärter des Wissens” (Bächle, 2015, S. 22) und werden “immer stärker zu einer zentralen Steuerungsressource der digitalisierten Gesellschaft” (Martini, 2019, S. 4). Die Gefahr von Algorithmen besteht auch in der Intransparenz: Meistens wissen wir nicht, welche Daten ein Algorithmus genau verwendet und nach welchen Faktoren sie analysiert werden. Für unsere Digitale Souveränität ist es daher wichtig, dass man reflektiert mit digitalen Angeboten umgeht und sich vermehrt der Nutzung von datensparenden Alternativen zuwendet, die unter anderem von fair.digital ausgezeichnet werden.

Quellen:

  • Barth, A. P. (2013). Algorithmik für Einsteiger. Für Studierende, Lehrer und Schüler in den Fächern Mathematik und Informatik, (2. Auflage). Springer Spektrum. DOI: https://doi.org/10.1007/978-3-658-02282-2
  • Bächle, T. C. (2015). Mythos Algorithmus. Die Fabrikation des computerisierbaren Menschen. Springer VS. DOI: https://doi.org/10.1007/978-3-658-07627-6
  • Martini, M. (2019). Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz. Springer Verlag. DOI: https://doi.org/10.1007/978-3-662-59010-2

Buchvorstellung: “Das Zeitalter des Überwachungskapitalismus” von Shoshana Zuboff

Bildquelle: 9783593509303.3D.jpg (1772×1902) (campus.de)

Obwohl sich das Buch “Das Zeitalter des Überwachungskapitalismus” mit einem eher wissenschaftlich geprägten Thema auseinandersetzt, machen Zuboffs bildliche Beschreibungen mit dem Aufgreifen von historischen Vergleichen, bekannten Unternehmen und früheren Theoretikern wie Karl Marx und Hannah Arendt das Verstehen und die Tragweite von Überwachungskapitalismus einfach.

Generelle Informationen:

  • Erscheinungstermin: 04.10.2018
  • Verlag: Campus
  • Autor/in: Shoshana Zuboff (Professorin an der Harvard Business School)

Aufbau des Buches:

„Das Zeitalter des Überwachungskapitalismus“ gliedert sich in drei Teile mit jeweils drei bis vier Unterkapiteln und einer Schlussbetrachtung als eine Art Epilog, der sich reflektierend an einem Ausblick versucht. Beginnend mit der Entstehung des Überwachungskapitalismus durch Google und der Ausbreitung auf weitere Unternehmen analysiert Zuboff die Weiten des Überwachungskapitalismus als instrumentäre Macht.

Hintergrund zur Entstehung des Buches:

Zuboffs Untersuchungen begannen mit Studien im Rahmen einer Reihe von Interviews mit Unternehmern und Angestellten aus dem Hightech-Sektor in den Vereinigten Staaten und Großbritannien im Jahr 2006. Konkrete Ergebnisse zu ihrem spezifizierten Thema und den fokussierten Unternehmen erlangte sie durch Interviews mit Datenwissenschaftlern.

Inhalt:

„Überwachungskapitalismus, der

1. Neue Marktform, die menschliche Erfahrung als kostenlosen Rohstoff für ihre versteckten kommerziellen Operationen der Extraktion, Vorhersage und des Verkaufs reklamiert […]“

Shoshana Zuboff in ihrem Buch “Das Zeitalter des Überwachungskapitalismus” (2018)

Als eine neue, beispiellose Form des Kapitalismus beansprucht der Überwachungskapitalismus den Menschen als Quelle eines kostenlosen Rohstoffes. Die aus menschlicher Erfahrung gewonnen Verhaltensdaten werden zur Verbesserung von Produkten und Dienstleistungen genutzt. Durch künstliche Intelligenz wird mithilfe dieser Daten eine Vorhersage zu unserem derzeitigen und zukünftigen Verhalten getroffen. Dieses Datenprodukt ist Handelsgut auf einem neuartigen Markt, der in der Herrschaft von Unternehmen wie Google, Facebook, Microsoft und Amazon steht.

Ziel der genannten Unternehmen ist es laut Zuboff, uns selbst zu automatisieren (beispielsweise mit dem Ziel der Wahlmanipulation). Und gerade aufgrund der intelligenten Vernetzung von jeglichen Geräten, Dingen und Räumen aus dem Alltagsleben scheint ein Entkommen vor dieser Art von Einflussnahme und Kontrolle aussichtslos.

Als Nutzer der Produkte von Google und Co. und somit auch als Rohstofflieferanten haben wir kaum Informationen über die Unternehmen und ihre Arbeitsweisen, die sie letztlich zu Reichtum bringen. Im Hinblick auf Zuboffs Bezeichnung des Überwachungskapitalismus als „antidemokratische soziale Kraft“ scheint die Dringlichkeit gegeben, zu handeln und aus der Unterordnung auszubrechen.

Zuboff selbst fasst zusammen: „Dieses Buch möchte aufzeigen, was am Überwachungskapitalismus merkwürdig, originell, ja unvorstellbar ist.“

Kritiken:

“Wir leben im Überwachungskapitalismus. Hier wird dieser Begriff in so vielen Facetten ausgeleuchtet wie in keinem anderen mir bekannten Werk zum Thema.”

Armin Thurnher, Falter, 10.10.2018

“Wenn die Bedeutung eines Buches daran gemessen wird, wie effektiv es die Welt beschreibt, in der wir uns befinden, und wie viel Potenzial es hat, diese Welt zu verändern, dann ist es meiner Meinung nach das wichtigste Buch, das in diesem Jahrhundert veröffentlicht wird.”

Zadie Smith, The Guardian, 21.09.2019

Außerdem biete ihr Buch, „und das ist wirklich maximal enttäuschend, überhaupt keine Perspektive auf eine Politisierung des Phänomens, gar auf gesellschaftlich wirksame Gegenwehr.“

Harald Welzer (deutscher Soziologe und Sozialpsychologe), taz Futurzwei Nr. 7/2018, S. 68.

Literaturquelle: Zuboff, S. (2018). Das Zeitalter des Überwachungskapitalismus. Frankfurt/New York: Campus Verlag.

Praxisbeispiel: Erfolgreiche Kombination von Colocation und Cloud

Die TelemaxX Telekommunikation GmbH ist fair.digital-zertifizierter Betreiber von fünf Hochsicherheitsrechenzentren in der TechnologieRegion Karlsruhe. Erfolgreich seit 1999 hat sie sich darauf spezialisiert, individuelle Rechenzentrumsflächen, Housing- sowie Managed-Service-Lösungen für die Anforderungen unserer Geschäftskunden zu realisieren – wobei die TelemaxX Cloud sowie die klassischen Telekommunikationsdienste das Gesamtportfolio abrunden.

Die Rechenzentren 

Kennzeichnend für die TelemaxX-Rechenzentren ist die sehr hohe Verfügbarkeit. Die gesamte Infrastruktur, wie zum Beispiel die Stromversorgung, Klimatisierung und Internetanbindung, ist redundant aufgebaut und über ein hochsensibles Monitoring-System permanent überwacht. Diese Faktoren ermöglichen das Angebot von Colocation (auch Serverhousing genannt), bei dem Unternehmen ihre Hardware in die Rechenzentren unterbringen.  Die Colocation Services der TelemaxX untergliedern sich in die folgenden Servicevarianten: Höheneinheit, Rack und Cage.

Praxisbeispiel: Umzug zu Colocation

Aufgrund des Wachstums und der steigenden Unternehmensgröße stieg bei dem Kunden in diesem Beispiel auch die Beschaffung für Hardware sowie der Aufwand für das eigene IT-Personal. Damit mehr Sicherheit gewährleistet werden kann, entschied sich der Kunde, seine Hardware innerhalb eines Rechenzentrums in Form von Colocation unterzubringen. Im Rahmen der Gespräche fiel die Entscheidung auf 2 plus 1 Racks, in denen die eigenen Server untergebracht werden sollten.

Gemeinsam wurde ein Konzept inklusive der technischen Planung für den Kunden erarbeitet. Innerhalb weiterer Gespräche wurden die Anforderungen evaluiert und ein Angebot an den Kunden versendet. Nach Annahme des Angebots und Vertragsabschluss begann die detaillierte Planung. So konnten alle Anforderungen erfasst werden und die Realisierung innerhalb der Rechenzentrums erfolgen.

Das Managed Service Team plante mit dem Kunden den Umzug in das Rechenzentrum. Vorab wurden die Server-Racks bestellt und im Rechenzentrum aufgebaut. Gemeinsam mit dem Auftraggeber wurden die Server im Rack platziert und mit der entsprechenden Verkabelung ausgestattet. Um eine höhere Sicherheit und Verfügbarkeit durch Georedundanz zu gewährleisten, wurde anschließend ein Backup-System in einem weitere TelemaxX-Rechenzentrum aufgebaut.

Im laufenden Betrieb stellt das Datacenter Maintenance Team die optimale Kühlung sicher und misst den individuellen Stromverbrauch des Unternehmens. Zusätzlich kann der Kunde nach Sicherheitsprüfungen und mit eigenem Schlüssel für die Racks, jederzeit innerhalb des Rechenzentrums Bearbeitungen vornehmen.

Kombination mit der Cloud

Nach dem Umzug in die TelemaxX-Rechenzentren strebte das Unternehmen eine effizientere Arbeitsweise an. In diesem Zusammenhang entstand die Planung für den Einsatz der TelemaxX Cloud als Infrastructure as a Service. Das Konzept beinhaltet die Nutzung von Colocation für kritische Daten und den Einsatz von Rechenressourcen sowie die Auslagerung von unkritischen Daten in die Cloud. Innerhalb dieses Konstruktes werden kritische Daten On-Premises gespeichert und verarbeitet. Zudem wird die DSGVO und weitere Regularien eingehalten. Bei der TelemaxX Cloud handelt es sich um Cloud made in Germany und dieses Kriterium war für den Kunden von entscheidender Bedeutung.

Vom bereits bestehenden Server-Rack des Unternehmens wurde eine Verbindung zur Cloud aufgebaut. Schrittweise begann die Migration und der Kunde erhielt einen eigenen Zugang zu unserem Self-Service-Portal. In diesem können jederzeit weitere Rechenressourcen (vCPU, vRAM und vStorage) erhöht oder gesenkt werden.

Fazit

Die beschriebene enge Zusammenarbeit zeigt, wie wichtig die Unterstützung und somit die gemeinsame technische Planung ist. Mithilfe eines georedundanten Konzepts ist die Verfügbarkeit jederzeit sichergestellt. Neben der Sicherheit kann auch die Skalierbarkeit durch den Einsatz DSGVO-konformer Cloud-Services enorm gesteigert, inklusive der fair.digital-Zertifizierung!

Mehr Informationen zu TelemaxX und den Services finden Sie hier.

Die Realität des Gläsernen Bürgers

George Orwell verdeutlichte schon in seinem Werk “1984” welche Gefahr von einem übermächtigen staatlichen Überwachungsapparat ausgeht. Die Entstehung eines daraus resultierenden Gläsernen Bürgers, also einer Person, deren Informationen alle bekannt sind, ist gerade in der heutigen Zeit allgegenwärtig.

Orwells Kritik am Staat als Überwachungsinstanz ist in unserem Zeitalter schon als rückständig zu bezeichnen. Obwohl Regierungen viele Informationen über ihre Bürger besitzen und auch immer mehr Zugriff auf Daten fordern (siehe z.B. Wiesner, 2021, S. 27) – gerade in Zeiten wie der Corona Pandemie – gibt es dominantere Überwachungsapparate, denen man Beachtung schenken muss. Zu diesen gehören die nichtstaatlichen (privatwirtschaftlichen) Akteure, die mithilfe der existenten Unmengen an technischen Möglichkeiten in die privatesten Lebensbereiche eindringen können (Mühlichen, 2018. S. 41).

“Unternehmen und nicht mehr die Staaten sind in den freien Demokratien der Welt die eigentliche Gefahr für den Datenschutz. Sie stellen die größte unmittelbare Herausforderung für den Datenschutz dar.”

Michael Sandel, 2016

Um sich wirtschaftlich behaupten zu können, versuchen Unternehmen immer mehr über ihre Kunden zu erfahren und ihr (Kauf-)Verhalten zu beeinflussen. Insbesondere Konzerne wie Google, Facebook, Apple, Amazon und Microsoft stellen sich im Zuge dieser Überwachung als dominierende Mächte mit einem weiten Wirkungsbereich heraus (Mühlichen, 2018. S. 42). Durch Verfahren wie “Microtargeting” werden durch sie und andere Unternehmen Benutzerprofile genau erforscht und gezielt Einflussnahmen organisiert (Wiesner, 2021, S. 75). Das US-Reiseunternehmen Orbitz bot beispielsweise durch Informationen über das genutzte Endgerät Apple-Nutzern teurere Hotelzimmer an, da diese Untersuchungen nach mehr bereit waren auszugeben als Windows-User (Wiesner, 2021, S. 72).

Mitunter das größte Problem stellt hier das Ungleichgewicht zwischen den Konzernen und Betroffenen dar, da diese “in der Regel keine Ahnung haben, welche Daten über sie gesammelt, geschweige denn, welche Schlüsse daraus gezogen wurden” (Wiesner, 2021, S. 38). Fitnessarmbänder können die Bewegungsdaten zum Beispiel nicht nur an das eigene Handy senden, sondern vielleicht auch unbemerkt an die Krankenkasse, die daraufhin die Vertragskonditionen anpassen kann (Wiesner, 2021, S. 56).

Wo Überwachung früher noch mit gesellschaftlichem Widerstand bekämpft wurde (wie z.B. bei der geplanten Volkszählung 1983 in Westdeutschland, siehe Mühlichen, 2018. S. 30), redet man sich heutzutage aus dem Ergreifen von Maßnahmen heraus. “Ich habe nichts zu verbergen” ist wohl die am meisten verbreitete Ausrede, warum Privatheit unwichtig sei (Wiesner, 2021, S. 45). Dazu gesellen sich Aussagen wie “Ich habe nichts Unrechtes getan, das ich verbergen muss”. Dies impliziert jedoch, dass Privatheit das Verbergen von Unrecht zum Ziel hat (Wiesner, 2021, S. 46).

Dem ist nicht so: Journalisten müssen ihre Quellen schützen können und Anwälte mithilfe einer sicheren Kommunikationsquelle ihre Klienten verteidigen (Wiesner, 2021, S. 77). Durch fehlende Angebote, die solch eine Datensicherheit gewährleisten, ist dies nicht möglich. Die Preisgabe von Informationen kann durch die Einflussnahme der jeweiligen Anbieter neben finanziellen Konsequenzen auch Risiken wie soziale Diskriminierung für uns bergen. Barbara Wiesner macht es als Professorin für Datensicherheitstechnik an einem Fall deutlich: “Ein Beispiel für eine solche Diskriminierung findet man bei Facebook und Instagram. Lange Zeit konnten dort Werbetreibende ihre Anzeigen auf bestimmte Nationalitäten oder kulturelle Hintergründe zuschneiden. Das führte dazu, dass in den USA Afroamerikaner und Hispanics von Anzeigen für Jobs und Wohnungen ausgeschlossen wurden” (Wiesner, 2021, S. 74).

Der Verhaltensforscher Robert Epstein belegt auch, dass Suchalgorithmen von Google mit wachsendem Einfluss die Gewinner von Wahlen bestimmen (Wiesner, 2021, S. 82). Somit hat die Überwachung durch Konzerne auch einen Einfluss auf der politischen Ebene, die in Demokratien allein den Bürgern überlassen sein muss. Da die Überwachung in Form der Datensammlung auf den ersten Blick keine Folgen für uns zu haben scheint, kann man bei dieser Art des Gläsernen Bürgers von einer “mangelnden Spürbarkeit von Überwachung” sprechen (Wiesner, 2021, S. 47).

Wir müssen uns im Klaren sein, dass der Gläserne Bürger schon existiert. Im Grunde gibt jeder Mensch, der das Internet nutzt, seine Daten weiter. Und es geschieht mehr mit unseren Daten, als wir begreifen möchten. Es gilt daher, “ein Bewusstsein für das Vorhandensein dieser Datensammlungen und deren Risiken zu schaffen” (Wiesner, 2021, S. 60). Zudem muss jetzt und zukünftig die Sicherheit von Angeboten fokussiert werden, um nicht die Möglichkeiten eines freien, demokratischen, selbstbestimmten Lebens zu unterminieren.

Quellen:

  • Mühlichen, A. (2018). Privatheit im Zeitalter vernetzter Systeme. Eine empirische Studie. Verlag Barbara Budrich.
  • Wiesner, B. (2021). Private Daten. Unsere Spuren in der digitalen Welt. Transcript Verlag.

Praxisbeispiel: TOLERANT Match

Datenqualität mit Datenschutz 

Die Qualitätssicherung von Kundendaten ist das Kerngeschäft von TOLERANT Software aus Stuttgart. Dazu gehören Tools für schnelle unscharfe Suchen, weltweite Adressprüfungen, die Dubletten-Erkennung, Namensvalidierungen, Umzugsprüfungen und Compliance-Lösungen für die europäische Datenschutzgrundverordnung (DSGVO) und internationale Datenschutzanforderungen.

Anwendungsfall WGV

Die Datenqualitätssoftware TOLERANT Match kommt zum Einsatz, wenn Adressdaten bereinigt und Dubletten selbst in großen Datenbeständen identifiziert werden sollen, so z.B. bei der Württembergischen Gemeinde-Versicherung (WGV).

Die WGV nutzt TOLERANT Match seit 2012 und setzt es beispielsweise beim Zusammenführen großer Datenbestände ein. Noch während die Daten zusammengeführt werden durchsucht TOLERANT Match den Datenbestand sekundenschnell und treffsicher nach Dubletten. Der fehlertolerante Suchalgorithmus berücksichtigt dabei Schreib- und Tippfehler bei Namen und Adressen und identifiziert Duplikate auch bei unterschiedlichen Schreibweisen. „Mit unserer fehlertoleranten Suchtechnologie werden zusammengehörende Datensätze auch dann sicher erkannt werden, wenn ein Name mit „t“ statt mit „th“ ins System eingegeben wird“, erläutert TOLERANT Software-Geschäftsführer Stefan Sedlacek.

Olaf Bechthold leitet das Key-Account-Management der WGV-Informatik und Media GmbH, einem Tochterunternehmen der WGV. Bei der Auswahl eines geeigneten Softwaretools zur Verbesserung der Datenqualität achtete Bechthold auf die Kompatibilität zum bestehenden IT-System des Versicherungsunternehmens. TOLERANT Software passte die Architektur des Datenqualitätstools daher bereits im Vorfeld an das ICIS, das Standardbestandsführungssystem für Versicherungen, an, so dass einer erfolgreichen Integration nichts im Wege stand. Neben der Kompatibilität und der reibungslosen Implementierung schätzt der Key-Account-Manager von WGV auch die räumliche Nähe seines Datenqualitätslieferanten. Hinzu kommt: fair.digital wird unterstützt! TOLERANT Match hilft dabei, die Vorgaben der Europäischen Datenschutz-Grundverordnung (DSGVO) umzusetzen. So können z.B. Datenschutzanfragen mit dem Tool lückenlos, korrekt und fristgerecht beantwortet werden.