fair.digital-Gipfeltreffen auf dem IT-Unternehmertag 2024

Am 14.-15. Oktober 2024 fand in Frankfurt am Main der 20. IT-Unternehmertag statt. fair.digital e.V. und der Bundesverband IT-Mittelstand e.V. hatten im Rahmen der Veranstaltung gemeinsam zum “Gipfeltreffen Software Made in Germany und fair.digital” eingeladen. Ein großer Erfolg: Mehr als 270 Teilnehmer und 180 Unternehmen versammelten sich in Frankfurt, um sich zu vernetzen und neueste Trends zu diskutieren.

Keynotes des Gipfeltreffens

Auf dem Gipfeltreffen stellte Vereinsvorstand Martin Hubschneider zunächst die Initiative und das Siegel fair.digital vor und warb für ein gemeinsames Einstehen für Datenschutz und Transparenz bei europäischen Digital-Unternehmen. Im zweiten Vortrag „Souveräne Cloud – der Weg der Schwarz Gruppe zur Digitalen Souveränität“ präsentierte Gabriel Becker (Director Sales DACH bei STACKIT), wie man dies mit europäischem Hosting verwirklichen kann, ohne dass man auf US-amerikanische Hyperscaler angewiesen ist.

In der dritten Keynote „Der AI Act auf den Punkt gebracht – Neuer Rechtsrahmen für KI-System-Anbieter“  beleuchtete  Dr. habil. Christian Förster (Partner bei BARTSCH Rechtsanwälte, Schwerpunkt IT-Recht) auf humorvolle Weise die kommenden rechtlichen Herausforderungen, die AI-Lösungen mit sich bringen werden. Abschließend versammelten sich die Siegelträger von “fair.digital” und “Software Made in Germany” auf der Bühne, um die Zertifikatsverleihungen feierlich zu vollziehen.

Didi Hamann auf der Stage

Nachdem dem gemeinsamen Ausklang des ersten Tags mit einem großen Buffett standen am zweiten Veranstaltungstag weitere Highlights an. Hervorzuheben ist sicher der Vortrag zum Thema Teamspirit, Motivation und Leidenschaft von Ex-Profi-Fußballer Didi Hamann. Zudem stand der Champions-League-Sieger und FC-Liverpool-Legende nach seinem Vortrag für Gespräche mit den Gästen zur Verfügung. Eine Keynote der OMR-Speakerin Britta Behrens und eine Talkrunde zum Thema „Verkaufen sich mittelständische Software- und IT-Unternehmen zu billig?“ rundeten das Event ab.

Bilder und Videos zu der Veranstaltung finden Sie hier: https://de.linkedin.com/company/itunternehmertag

Vielen Dank an die Veranstalter

Ausdrücklich danken möchten wir den Gründern und Veranstaltern des Events, Andreas Barthel und Maximilian Pöhnl. Auch dieses Jahr ist es wieder gelungen, ein hochkarätiges Programm und eine erstklassige Location zu organisieren. Seit dem Wegfall der Cebit ist es umso wichtiger, den Austausch in der IT-Branche zu unterstützen – wir denken, dass der IT-Unternehmertag hier eine führende Rolle einnimmt. Auf weitere gemeinsame Veranstaltungen in der Zukunft!

Definition: Was sind Cookies?

Wenn man sich online über „Cookies“ informieren möchte, stößt man zuallererst auf Rezepte für Kekse. Die „Cookies“, die im Fokus stehen, sind jedoch kein Gebäck zum Verspeisen.

„Cookies“ sind kleine Textdateien mit Informationen. Bei Webseiten öffnet sich oftmals direkt zu Beginn ein Banner, mit dem der Einsatz von „Cookies“ abgelehnt bzw. akzeptiert werden kann oder sogar muss. „Cookies“ können das Browsen angenehmer gestalten, da Websites bevorzugte Einstellungen speichern können und zum Beispiel eine neue Anmeldung nicht jedes Mal bei einem Besuch einer bestimmte Website notwendig sein muss.

Man muss zwischen zwei Arten von „Cookies“ unterscheiden: Session- und Tracking-Cookies:

 

  • „Session-Cookies“ speichern kurzfristig Informationen und werden beispielsweise beim Online-Shopping und Online-Banking eingesetzt. Die Verbindung wird während der gesamten Sitzung bis zum Schließen einer Internetseite in einem „Cookie“ gespeichert.
  • „Tracking-Cookies“ speichern dauerhaft (persistent) Informationen über das Nutzer-Verhalten und stammen oftmals von Drittanbietern. Diese Art von „Cookies“ werden von wenigen „Adservern“ angeboten und auf zahlreichen Webseiten eingebunden. Wenn Webseiten, die ein Nutzer besucht, „Tracking-Cookies“ vom gleichen „Adserver“ einsetzen, können viele Rückschlüsse auf die Nutzerinteressen gezogen und miteinander kombiniert werden. Genutzt werden diese Informationen über das Anwender-Verhaltens unter anderem für die Schaltung von personalisierter Werbung.

 

Tipp für Nutzer: Man kann den Browser über die Einstellungen über den Umgang mit “Cookies” so einrichten, dass zum Beispiel „Cookies“ generell ausgeschlossen, nur für bestimmte Fälle angenommen werden Annahme sowie automatisch beim Schließen eines Browsers gelöscht werden. Bei der Deaktivierung von „Cookies“ kann die Funktionalität einer Website eingeschränkt sein. Man kann auch manuell über die Browser-Einstellungen die bisher gespeicherten „Cookies“ löschen.

 

Arbeitszeiterfassung: Aktueller Stand und datenschutzkonforme Umsetzung

Das Bundesarbeitsgericht (BAG) in Erfurt hat in einem Urteil (1 ABR 22/21) vom 13.09.2022 festgestellt, dass Unternehmen  nach § 3 Abs. 2 Nr. 1 ArbSchG verpflichtet sind, ein System einzuführen, mit dem die Arbeitszeit der Angestellten erfasst werden kann. Diese Entscheidung basiert auf der europarechtskonformen Auslegung des Arbeitsschutzgesetzes (ArbSchG) und bezieht sich auf das Urteil des Europäischen Gerichtshofs (EuGH) zur Arbeitszeiterfassung aus Mai 2019.

Ein kürzlich veröffentlichter Gesetzentwurf des Bundesministeriums für Arbeit und Soziales (BMAS) wirft die Frage auf, welche Informationen Firmen im Hinblick auf die Arbeitszeiten ihrer Mitarbeitenden zukünftig dokumentieren müssen. Zudem gibt es Unsicherheiten hinsichtlich der Anwendung von Vertrauensarbeitszeit.

Geplante Regeln und Ausnahmen

Gemäß § 16 Abs. 2 ArbZG-E sollen Unternehmen dazu verpflichtet werden, den Beginn, das Ende und die Dauer der täglichen Arbeitszeit der Beschäftigten zu dokumentieren. Es wird vorgegeben, die Zeiterfassung elektronisch durchzuführen, jedoch werden keine konkreten Vorgaben gemacht, wie die elektronische Erfassung auszusehen hat. Es ist davon auszugehen, dass elektronische Zeiterfassungsgeräte, -Systeme oder Apps genutzt werden.

Der Gesetzentwurf schlägt weiterhin vor, dass kleine Betriebe mit weniger als 10 Angestellten von der Pflicht zur elektronischen Zeiterfassung ausgenommen werden können. Vertrauensarbeitszeit, bei der die genaue Arbeitszeit von den Mitarbeitern selbst bestimmt wird, soll weiterhin möglich sein, wenn Arbeitszeiten gleichzeitig dokumentiert werden.

Dabei ist wichtig, dass Arbeitgeber weiterhin für die ordnungsgemäße Dokumentation der Zeiterfassung verantwortlich sind, auch wenn sie die Pflicht zur Zeiterfassung den Mitarbeitenden überlassen können. Die Arbeitszeit muss täglich erfasst werden, wobei eine Ausnahme durch Tarifvertrag, Betriebs- oder Dienstvereinbarung möglich ist. In jedem Fall müssen die Zeiten spätestens nach 7 Tagen erfasst worden sein.

Es gibt auch Ausnahmen von der Zeiterfassungspflicht: Diese gelten für ausländische Unternehmen ohne Betriebsstätte in Deutschland, wenn weniger als 10 Angestellte nach Deutschland entsandt werden, sowie für Privathaushalte. Es ist auch möglich Ausnahmen von der elektronischen Dokumentation in Tarifverträgen, Betriebs- oder Dienstvereinbarungen zu vereinbaren.

Fazit

Zusammenfassend lässt sich festhalten, dass die Zeiterfassungspflicht zukünftig wohl für alle Mitarbeitenden gilt, jedoch Ausnahmen für bestimmte Tätigkeiten und Vereinbarungen bestehen. Der Gesetzentwurf zielt darauf ab, eine genaue Dokumentation der Arbeitszeiten zu gewährleisten, um die Einhaltung der Arbeitszeitregelungen und damit des Arbeitsschutzes zu kontrollieren.

Für Unternehmen ohne bestehende Arbeitszeiterfassung besteht durch das kommende Gesetz wie auch die Urteile von EuGH und BAG Handlungsbedarf. Eine wichtige Frage bei der Auswahl von Software zur Zeiterfassung ist zweifellos deren Fairness, Transparenz und Datenschutz. Bei Herstellern wie ZMI finden Unternehmen aller Branchen und Größen flexible und fair.digital-zertifizierten Lösungen für die Digitale Zeiterfassung mit stationären oder mobilen Terminals, am PC-Arbeitsplatz oder via App auf dem Smartphone oder Tablet.

Weitere Informationen zu den Lösungen von ZMI finden Sie unter www.ZMI.de

Praxisbeispiel: FeedBeat Stage Performance Plattform

FeedBeat ist eine Plattform für hybride und digitale Bühnensituationen mit vielen Teilnehmenden, wie es beispielsweise der Fall ist bei Webinaren, Konferenzen, Produktpräsentationen, Podiumsdiskussionen, Konzerten, Theater, Comedy oder Lesungen. FeedBeat erweitert den physischen Zuschauerraum in die digitale Dimension und ermöglicht mehr Publikum und mehr Teilhabe bei gleichzeitiger Reduktion des Carbon-Footprints. Sie verfügt über einzigartige Merkmale der Interaktion, Personalisierung und emotionalen Teilhabe. Dafür wurde sie ausgezeichnet von NRW Kultur.

Hybrid und digital: 

Hybride Veranstaltungen sind Liveveranstaltungen, an denen gleichzeitig Menschen vor Ort als auch über digitale Kanäle teilnehmen. Insbesondere Bühnensituationen stellen dabei besondere  Anforderungen an die Integration und Interaktion gemischter Gruppen. Beispielsweise bei Produktschulungen, Konferenzen oder Kulturveranstaltungen ist es wichtig ein Gefühl auch für das Onlinepublikum zu haben und dieses durch gezielte Ansprache in die Veranstaltung integrieren zu können. Starke Feedbackkanäle fördern Interaktion und Erlebnischarakter zusätzlich. Die Plattform bleibt im Hintergrund und präsentiert die Veranstaltung optimal. Zugänge über alle Endgeräte und ohne Login-Hürden erleichtern die Teilnahme auch wenig technikerfahrener Menschen.

Fairness eingebaut: 

Die Plattform folgt einem konsequenten Privacy by Design Ansatz gemäß dem Grundsatz “Daten, die nicht gespeichert werden, können auch nicht weitergeben werden”. Als Cloud und On-Premise-Lösung selbstverständlich DSGVO-konform. Alle Rechte am Werk bleiben bei den Veranstaltern und Akteuren zur eigenen Verwertung.

Fazit: 

FeedBeat gestaltet Digitalisierung auf zeitgemäße und zukunftsweisende Art. Die Plattform ist ein Beispiel dafür das Lösungen möglich sind, die den Schutz persönlicher Daten mit hohem Nutzen verbinden. Einfach Fair Digital.

Mehr Informationen zu FeedBeat finden Sie hier.

 

Datenschutz – Ein kurzer historischer Überblick

Eine Art des Datenschutzes wurde in einigen Berufsständen schon ohne eine Festlegung im Gesetzesbuch praktiziert. Zu den bekanntesten Beispielen gehören dabei die Schweigepflicht zwischen medizinischem Personal und Patienten, sowie der Austausch von Anwälten und ihren Mandanten. Doch wie und wann hat sich der Datenschutz juristisch verfestigt?

“That the individual shall have full protection in person and in property is a principle as old as the common law […]” (deutsch: “Dass der Einzelne in Person und Eigentum vollen Schutz haben soll, ist ein Grundsatz, der so alt ist wie das Gewohnheitsrecht”)

Samuel D. Warren, Louis D. Brandeis
“The Right to Privacy” (1890). Harvard Law Review, V. IV, No. 5

So steht es schon im Jahr 1890 in der von Samuel D. Warren und Louis D. Brandeis verfassten “Right to Privacy” geschrieben, einem der einflussreichsten Essays der US-amerikanischen Geschichte. Wesentliche Prinzipien des Datenschutzes, die in dem Essay vorkommen, wurden jedoch erst im Jahr 1974 bei der Verabschiedung des “Privacy Act” durchgesetzt.

Betrachten wir jedoch einmal die andere Seite des Ozeans: Europa und Deutschland

  • Im Jahr 1953 wurde mit Artikel 8 der Europäischen Menschenrechtskonvention (EMRK) eine der ersten rechtlichen Schutzmaßnahmen für personenbezogene Daten kodifiziert und somit das Recht auf die Achtung des Privat- und Familienlebens eingeführt.
  • In den 1960er Jahren wurde der Bedriff “Datenschutz” als Übersetzung für das englische “Privacy” eingeführt.
  • Im Jahr 1970 verabschiedete Hessen dann das weltweit erste Datenschutzgesetz, das von Spiros Simitis, dem “Vater des Datenschutzes” verfasst wurde. Aus heutiger Sicht erscheinen damalige Freiheiten wie z.B. die Verarbeitung von personenbezogenen Daten ohne Rechtsgrundlage und ohne Einwilligung der betroffenen Personen inakzeptabel.
  • Sieben Jahre später (1977) folgte dann das deutsche Bundesdatenschutzgesetz (BDSG), durch das unter anderem Datenschutzbeauftragte eingeführt wurden.
  • Im Jahr 1981 waren dann endlich auch Landesdatenschutzgesetze für alle Bundesländer beschlossen.
  • Nach dem Volkszählungsurteil des Bundesverfassungsgerichts im Jahr 1983 wurden die bisherigen Datenschutzgesetze als nicht genügend für die verfassungsrechtlichen Anforderungen angesehen. Es wurde ein “Recht auf informationelle Selbstbestimmung” abgeleitet, welches man allgemeiner als den “Schutz des Persönlichkeitsrechts bei der Verarbeitung personenbezogener Daten” formulieren kann.
  • Durch die explosionsartige Verbreitung von Computern in den 80er/90er Jahren wurden die nicht ausreichenden Regelungen in Europa deutlich. Daher wurde im Jahr 1995 die EU-Datenschutzrichtlinie in Kraft gesetzt, die auch Regeln für das Versenden von Daten außerhalb der EU festlegte. Damals wurden die US-amerikanischen Datenschutzgesetze beispielsweise noch als ausreichend für den Schutz personenbezogener Daten angesehen.
  • Durch die Einführung der Europäischen Datenschutz-Grundverordnung (EU-DSGVO) im Jahr 2018 wurden Aktualisierungen und Abänderungen vorgenommen. Als Änderungen traten zum Beispiel ein, dass Drittländer den DSGVO-Vorgaben unterliegen, Personen ihre Einwilligung zu einzelnen Datenverarbeitungsvorgängen geben müssen und diese auch jederzeit und unbegründet widerrufen können und dass Geldbußen auf Unternehmen zukommen, die gegen die Datenschutzgrundverordnung verstoßen.
  • Im Jahr 2020 wurde die Übermittlung personenbezogener Daten in die USA (Privacy Shield) von dem Europäischen Gerichtshof (EuGH) für unwirksam erklärt.

Es fällt auf, dass in einer kurzen Zeitperiode vergleichsweise viele Modernisierungen des Datenschutzes im juristischen Bereich unternommen worden. Doch wichtig ist, dass die Gesetze auch immer wieder aktualisiert und an neue Technologien angepasst werden, während man gleichzeitig Unternehmen und andere öffentliche Stellen auf deren Einhaltung überprüft, um die persönlichen Daten jedes Menschen sowie die individuelle und gesellschaftliche Digitale Souveränität zu schützen.

Definition “Big Data” und “Data Mining”: Was ist Big Data? Was ist Data Mining?

Der Begriff “Big Data” ist in vielen themenspezifischen Inhalten zu Technologien, Internet und Datenschutz zu finden und hat gerade in unserem digitalen Zeitalter eine große Präsenz. Doch was verbirgt sich hinter dem Begriff “Big Data”? Und welche Rolle spielt “Data Mining” in diesem Zusammenhang?

Soziales Handeln kann mithilfe der digitalen Medien heutzutage unabhängig von Raum und Zeit nachvollzogen werden (Venturini, Latour, & Meunier, 2015, S. 18). Von Bedeutung ist dabei die Speicherung und Prozessierung von Big Data: große, gespeicherte Volumen an Daten, oftmals „menschliche Informationen aller Art […]“ (Schwanebeck, 2017, S. 10). Jeder Mensch, der digitale Geräte (Schwanebeck, 2017, S. 10) bei sich trägt und Programme darauf nutzt, von einer Straßenkamera erfasst wird (Petersson, Leuuw, Breul, & Leuuw, 2017, S.1) oder sein Geld durch E-Banking managet (Venturini et al., 2015, S. 17), trägt zur Generierung solcher Big Data bei.

Ersichtlicher wird dies bei der beispielhaften Betrachtung eines Handys: Der Handykörper hinterlässt Spuren in Form von Verbindungsdaten, Daten über den Aufenthalt einer Person und mithilfe verbundener Geräte (z.B. Smartwatches) sogar Daten über den körperlichen und gesundheitlichen Zustand des Handynutzers (Lindemann, 2015, S. 53). Diese Daten können dann in den Endgeräten, Datenbanken oder in sogenannten “Clouds” gespeichert und prozessiert werden (Ladeur, 2015, S. 231).

Durch die Aufzeichnungen von diesen personenbezogenen Daten ist das Herausfinden von Mustern für wirtschaftliche Zwecke, z.B. das Schalten gezielter Werbung, möglich (Schwanebeck, 2017, S. 11). Dies gelingt mithilfe von Auswertungsverfahren, „die uns erlauben bedeutungstragende Strukturen aus riesigen, unübersichtlichen Datenmengen zu gewinnen“ (Niekler, 2015, S. 35).

Diese Transformierung der Daten in nützliche Informationen erfolgt mithilfe von Algorithmen (Scholz, 2017, S. 21) und wird als Data Mining bezeichnet (Han, Kamber, & Pei, 2012). Mithilfe von Data Mining können „unsere persönlichen Vorlieben, unsere Interessen, die Konsumgewohnheiten und das komplette Kommunikationsverhalten […]“ (Schwanebeck, 2017, S. 12) ermittelt werden. Außerdem ist die Wiedergabe von „Einstellungen, Verhaltensweisen und sozialen Interaktionen […]“ (Haustein, 2015, S. 264) eines Individuums möglich.

Zusammenfassend beschreibt der Begriff Big Data also die große, unübersichtliche Menge an Daten, die bei der Internetnutzung durch ein Individuum entsteht (u.a. Neuberger & Nuernbergk, 2015, S. 206).
Mithilfe von Data Mining – dem Vorgang der Veredelung von Daten durch die automatische Erfassung und Verarbeitung dieser Big-Data-Datenmengen (Haustein, 2015, S.262) – kann man zum Beispiel Verhaltensmuster von Individuen generieren und für wirtschaftliche Zwecke nutzen (Ladeur, 2015, S. 231).

Mit dem Siegel von “fair.digital” haben Nutzer die Möglichkeit, der Speicherung von personenbezogenen Daten zu Nutzen der Steigerung des wirtschaftlichen Erfolges eines Unternehmens zu entgehen und ihre digitale Souveränität zu erhalten.

Quellenverzeichnis:

  • Han, J., Kamber, M., & Pei, Jian (2012). Data mining. Concepts and techniques. Morgan Kaufmann. Zitiert in Scholz, T. M. (2017). Big Data in Organizations and the Role of Human Resource Management. A Complex Systems Theory-Based Conceptualization (S. 9—81, genau: S. 20). PL Academic Research.
  • Haustein, B. H. (2015). Datenschutz jenseits der Papierakte. Systematische Herausforderungen des Datenschutzrechts unter den Bedingungen der Digitalisierung. In Süssenguth, F. (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 253—282). transcript Verlag.
  • Ladeur, K. (2015). Die Gesellschaft der Netzwerke und ihre Wissensordnung. Big Data, Datenschutz und die „relationale Persönlichkeit“. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 225—251). transcript Verlag.
  • Lindemann, G. (2015). Die Verschränkung von Leib und Nexistenz. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 41—66). transcript Verlag.
  • Neuberger, C., & Nuernbergk, C. (2015). Verdatete Selbstbeschreibung der Gesellschaft. Über den Umgang des Journalismus mit Big Data und Algorithmen. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 199—224). transcript Verlag.
  • Niekler, A. (2018). Journalismus, Big Data, Algorithmen. Digitale Praktiken im modernen Journalismus. In G. Hooffacker, W. Kenntemich, & U. Kulisch (Hg.), Die neue Öffentlichkeit. Wie Bots, Bürger und Big Data den Journalismus verändern (S. 35—53). Springer VS.
  • Petersson, G. J., Leuuw, F., Breul, J., Leeuw, H.B.M. (2017). Cyber Society, Big Data, and Evaluation: An Introduction. In G. J. Petersson, & J. Breul (Hg.), Cyber Society, Big Data, and Evaluation (S. 1—17). New York: Routledge.
  • Scholz, T. M. (2017). Big Data in Organizations and the Role of Human Resource Management. A Complex Systems Theory-Based Conceptualization. PL Academic Research.
  • Schwanebeck, A. (2017). Gefangen im Netz. Medialer Wandel und kontinuierliche Überwachung in digitalen Welten. In M. Schröder, & A. Schwanebeck (Hg.), Big Data – In den Fängen der Datenkraken. Die (un-)heimliche Macht der Algorithmen (S. 9—37). Nomos Verlagsgesellschaft/Edition Reinhard Fischer.
  • Venturini, T., Latour, B., & Meunier, A. (2015). Eine unerwartete Reise. Einige Lehren über Kontinuität aus den Erfahrungen des Sciences Po médialab. In F. Süssenguth (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 17—39). transcript Verlag.

Warum fair.digital mit Hosting bei US-Anbietern nicht möglich ist

Eine Frage, die wir häufig erhalten, lautet: “Ist eine Zertifizierung mit fair.digital auch möglich, wenn die Lösung bei Hosting-Unternehmen aus den USA betrieben wird?” In diesem Beitrag erklären wir, warum wir dies zum derzeitigen Zeitpunkt verneinen müssen.

Das Siegelkriterium “Die EU-DSGVO wird gemäß geltender Rechtsprechung unterstützt”

Das erste fair.digital-Kriterium erfordert, dass Cloud-Lösung in der EU gehostet werden müssen. Nun könnte man meinen, dass die fair.digital-Kriterien erfüllt sind, wenn man eine Lösung z.B. bei Amazon Web Services (AWS) in einem Rechenzentrum in Europa betreibt. Warum ist dies zu kurz gegriffen?

Das Siegelkriterium “Datenhoheit”

Eine weitere zentrale Anforderung von fair.digital besagt: “Eine Weitergabe von Nutzerdaten erfolgt nur mit expliziter Zustimmung.” Mit diesem Kriterium soll sichergestellt werden, dass die Nutzer die Hoheit über ihre Daten behalten und selbst entscheiden können, ob und wie diese genutzt werden können. Genau dies kann beim Betrieb bei US-Hostern nicht erfüllt werden – selbst wenn sich die Data Center in Europa befinden. Der Grund hierfür ist der sogenannte “Cloud Act”.

Der Cloud Act

Aktuell geltendes US-Recht verpflichtet in den USA ansässigen Unternehmen über den “Cloud Act” dazu, US-Behörden auch Zugriff auf Daten, die bei ausländischen Konzerngesellschaften liegen, zu gewähren. Konkret könnte z.B. das FBI Amazon dazu zwingen, Daten einzusehen, die auf AWS-Rechenzentren in Europa gespeichert sind. Diese Zugriffsmöglichkeit der US-Dienste auf Nutzerdaten steht damit offensichtlich im Widerspruch zu dem Siegelkriterium “Datenhoheit”.

Wiederholte Anfragen an den Datenschutzbeauftragten

In seiner Bewertung richtet sich der Verein fair.digital e.V. stets nach geltendem Recht. Daher ist es uns wichtig, fortlaufend Anfragen an die zuständigen deutschen Behörden zu stellen, welche Einschätzung hinsichtlich des Cloud Act sie derzeit vertreten. Die letzte Anfrage fand 2022 statt. Die Antwort des Bayerisches Landesamt für Datenschutzaufsicht lautete:

“Zur Ehrlichkeit gehört es aber auch zu sagen, dass es Szenarien von Übermittlungen personenbezogener Daten in die USA gibt, bei denen möglicherweise keine rechtskonformen Lösungen gemessen am EU-Datenschutzrecht möglich sind – hier sind vor allem Fälle in den Blick zu nehmen, in denen der Datenempfänger dem US-Gesetz FISA 702 unterliegt und aber gleichzeitig Zugriff (für die Funktionalität der Daten) auf (aus der EU übermittelte) personenbezogene Daten im Klartext benötigt – denn in diesen Fällen sind die Daten den Zugriffsrechten von US-Behörden nach FISA 702 unterworfen, und gemäß Aussage des Europäischen Gerichtshofs im Schrems-II-Urteil sind diese Zugriffsrechte gemessen am EU-Datenhschutzrecht in ihrem Ausmaß und wegen Fehlen von Rechtsschutz für EU-Bürger datenschutzrechtlich nicht akzeptabel.”

Es wird also nicht ausgeschlossen, dass Drittländer Zugang auf Daten erhalten können. Sollte sich an dieser Bewertung zukünftig etwas ändern bzw. der Cloud Act angepasst werden, wird auch fair.digital seine entsprechend aktualisieren.

Migrationsmöglichkeiten

Gemäß Datenschutzbeauftragten wäre ein Lösungsansatz, europäische Dienstleister zwischenzuschalten, sodass sich der US-Anbieter selbst aus seinem Rechenzentrum “aussperrt”. Dann würden Anfragen von US-Behörden ins Leere laufen. Ein solches Modell wurde z.B. von Microsoft und der Telekom umgesetzt und wäre auch fair.digital-verträglich.

Alternativ gibt es natürlich auch die Möglichkeit, eine fair.digital-Zertifizierung zu erhalten, indem man auf US-Hosting verzichtet. In Europa gibt es durchaus Anbieter, die ähnliches Hyperscaling ermöglichen. Einige unserer Vereinsmitglieder können bei der Migration nach Europa helfen. Sprechen Sie uns gerne an!

Definition „Algorithmus“: Was sind Algorithmen?

Algorithmen bezeichnen einen abstrakten Begriff, mit dem man immer mal wieder in der digitalen Welt, Mathematik und Informatik zusammentrifft. Doch was genau stellen diese Algorithmen dar? Und inwiefern hängen sie mit unserem individuellen Verhalten und unserer Digitalen Souveränität zusammen?

Der Begriff “Algorithmus” ist abgeleitet von dem aus der Bagdader Schule stammenden arabischen Mathematiker Al-Chwarizmi (lebte um 800 n.Chr.), dessen Name latinisiert zu “Algorismus” wurde. (Barth, 2013, S. 13f).  

Nach heutigem Verständnis versteht man unter einem Algorithmus ein automatisiertes und endliches Verfahren, das gegebene Eingabeinformationen nach genau definierten Schritten und unmissverständlichen Anweisungen umformt, um damit ein bestimmtes Ziel zu erreichen (Barth, 2013, S. 8). Einfach ausgedrückt sind Algorithmen “nichts anderes als Schritt-für-Schritt-Anleitungen, um ein (mathematisches) Problem strukturiert zu lösen” (Martini, 2019, S. 17).

Für die digitale Anwendung muss ein Algorithmus in einer für den Computer verständlichen Programmiersprache (wie zum Beispiel Java oder Phyton) verfasst sein (Barth, 2013, S. 16-18).

Mehr zu dem Einfluss von Algorithmen

Algorithmen werden von Menschen geschrieben und sind dem entsprechend erstmal nur so intelligent, wie ihre Schöpfer selbst (Barth, 2013, S. 16). Im Vergleich zu uns Menschen können Algorithmen jedoch rasend schnell “lernen” (Barth, 2013, S. 16), indem sie große Datenmengen (sogenannte Big Data) auswerten, Zusammenhänge zwischen Informationen herstellen und in einen Kontext setzen, mit dem sie dann ihr Verhalten anpassen (Martini, 2019, S. 4, S. 21). Auf Grundlage ihrer Erfahrungen sind moderne Anwendungen also in der Lage, sich selbsttätig über ihre Anfangskonfiguration hinaus weiterzuentwickeln (Martini, 2019, S. 19).

Algorithmen begegnen uns überall im Alltag: In der Schule wird man oft schon mit dem Gauß-Algorithmus zur Lösung von linearen Gleichungssystemen konfrontiert (Barth, 2013, S. 7). Ansonsten berechnen Algorithmen auch die Aktienkurse, regulieren Flusskraftwerke sowie die Ampelphasen, und sind allgegenwärtig in der Online-Welt. Einer der bekanntesten Algorithmen ist wohl der Page-Rank-Algorithmus von Google, der die Reihenfolge der Suchanzeigen bestimmt.

“Ohne Algorithmen würde die Welt, so wie wir sie heute kennen, zusammenbrechen.”

Armin P. Barth, 2013, S. 7

Nochmals wichtig hervorzuheben ist der Fakt, dass Algorithmen auf Grundlage von Daten arbeiten. Bei den meisten Online-Diensten wie Sozialen Netzwerken oder digitalen Einkaufsportalen bestehen diese Daten aus persönliche Informationen, die es einem Unternehmen wie Facebook zum Beispiel möglich machen, suizidgefährdete Personen zu erkennen (Martini, 2019, S. 5).  

Aufgrund der Analyse von personenbezogenen Daten werden Algorithmen immer spezifischer: Da sie davon ausgehen, dass sich vergangenes Verhalten wiederholt, steuern sie auf Grundlage unserer bisherigen Entscheidungen den Zugriff auf Wissen (Martini, 2019, S. 4). Konkret bedeutet das, dass sie beispielsweise Anzeigen auf Sozialen Medien und beim Online-Shopping selektieren (Martini, 2019, S. 4).

Algorithmen sind die “Schleusenwärter des Wissens” (Bächle, 2015, S. 22) und werden “immer stärker zu einer zentralen Steuerungsressource der digitalisierten Gesellschaft” (Martini, 2019, S. 4). Die Gefahr von Algorithmen besteht auch in der Intransparenz: Meistens wissen wir nicht, welche Daten ein Algorithmus genau verwendet und nach welchen Faktoren sie analysiert werden. Für unsere Digitale Souveränität ist es daher wichtig, dass man reflektiert mit digitalen Angeboten umgeht und sich vermehrt der Nutzung von datensparenden Alternativen zuwendet, die unter anderem von fair.digital ausgezeichnet werden.

Quellen:

  • Barth, A. P. (2013). Algorithmik für Einsteiger. Für Studierende, Lehrer und Schüler in den Fächern Mathematik und Informatik, (2. Auflage). Springer Spektrum. DOI: https://doi.org/10.1007/978-3-658-02282-2
  • Bächle, T. C. (2015). Mythos Algorithmus. Die Fabrikation des computerisierbaren Menschen. Springer VS. DOI: https://doi.org/10.1007/978-3-658-07627-6
  • Martini, M. (2019). Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz. Springer Verlag. DOI: https://doi.org/10.1007/978-3-662-59010-2

Buchvorstellung: “Das Zeitalter des Überwachungskapitalismus” von Shoshana Zuboff

Bildquelle: 9783593509303.3D.jpg (1772×1902) (campus.de)

Obwohl sich das Buch “Das Zeitalter des Überwachungskapitalismus” mit einem eher wissenschaftlich geprägten Thema auseinandersetzt, machen Zuboffs bildliche Beschreibungen mit dem Aufgreifen von historischen Vergleichen, bekannten Unternehmen und früheren Theoretikern wie Karl Marx und Hannah Arendt das Verstehen und die Tragweite von Überwachungskapitalismus einfach.

Generelle Informationen:

  • Erscheinungstermin: 04.10.2018
  • Verlag: Campus
  • Autor/in: Shoshana Zuboff (Professorin an der Harvard Business School)

Aufbau des Buches:

„Das Zeitalter des Überwachungskapitalismus“ gliedert sich in drei Teile mit jeweils drei bis vier Unterkapiteln und einer Schlussbetrachtung als eine Art Epilog, der sich reflektierend an einem Ausblick versucht. Beginnend mit der Entstehung des Überwachungskapitalismus durch Google und der Ausbreitung auf weitere Unternehmen analysiert Zuboff die Weiten des Überwachungskapitalismus als instrumentäre Macht.

Hintergrund zur Entstehung des Buches:

Zuboffs Untersuchungen begannen mit Studien im Rahmen einer Reihe von Interviews mit Unternehmern und Angestellten aus dem Hightech-Sektor in den Vereinigten Staaten und Großbritannien im Jahr 2006. Konkrete Ergebnisse zu ihrem spezifizierten Thema und den fokussierten Unternehmen erlangte sie durch Interviews mit Datenwissenschaftlern.

Inhalt:

„Überwachungskapitalismus, der

1. Neue Marktform, die menschliche Erfahrung als kostenlosen Rohstoff für ihre versteckten kommerziellen Operationen der Extraktion, Vorhersage und des Verkaufs reklamiert […]“

Shoshana Zuboff in ihrem Buch “Das Zeitalter des Überwachungskapitalismus” (2018)

Als eine neue, beispiellose Form des Kapitalismus beansprucht der Überwachungskapitalismus den Menschen als Quelle eines kostenlosen Rohstoffes. Die aus menschlicher Erfahrung gewonnen Verhaltensdaten werden zur Verbesserung von Produkten und Dienstleistungen genutzt. Durch künstliche Intelligenz wird mithilfe dieser Daten eine Vorhersage zu unserem derzeitigen und zukünftigen Verhalten getroffen. Dieses Datenprodukt ist Handelsgut auf einem neuartigen Markt, der in der Herrschaft von Unternehmen wie Google, Facebook, Microsoft und Amazon steht.

Ziel der genannten Unternehmen ist es laut Zuboff, uns selbst zu automatisieren (beispielsweise mit dem Ziel der Wahlmanipulation). Und gerade aufgrund der intelligenten Vernetzung von jeglichen Geräten, Dingen und Räumen aus dem Alltagsleben scheint ein Entkommen vor dieser Art von Einflussnahme und Kontrolle aussichtslos.

Als Nutzer der Produkte von Google und Co. und somit auch als Rohstofflieferanten haben wir kaum Informationen über die Unternehmen und ihre Arbeitsweisen, die sie letztlich zu Reichtum bringen. Im Hinblick auf Zuboffs Bezeichnung des Überwachungskapitalismus als „antidemokratische soziale Kraft“ scheint die Dringlichkeit gegeben, zu handeln und aus der Unterordnung auszubrechen.

Zuboff selbst fasst zusammen: „Dieses Buch möchte aufzeigen, was am Überwachungskapitalismus merkwürdig, originell, ja unvorstellbar ist.“

Kritiken:

“Wir leben im Überwachungskapitalismus. Hier wird dieser Begriff in so vielen Facetten ausgeleuchtet wie in keinem anderen mir bekannten Werk zum Thema.”

Armin Thurnher, Falter, 10.10.2018

“Wenn die Bedeutung eines Buches daran gemessen wird, wie effektiv es die Welt beschreibt, in der wir uns befinden, und wie viel Potenzial es hat, diese Welt zu verändern, dann ist es meiner Meinung nach das wichtigste Buch, das in diesem Jahrhundert veröffentlicht wird.”

Zadie Smith, The Guardian, 21.09.2019

Außerdem biete ihr Buch, „und das ist wirklich maximal enttäuschend, überhaupt keine Perspektive auf eine Politisierung des Phänomens, gar auf gesellschaftlich wirksame Gegenwehr.“

Harald Welzer (deutscher Soziologe und Sozialpsychologe), taz Futurzwei Nr. 7/2018, S. 68.

Literaturquelle: Zuboff, S. (2018). Das Zeitalter des Überwachungskapitalismus. Frankfurt/New York: Campus Verlag.

Praxisbeispiel: Erfolgreiche Kombination von Colocation und Cloud

Die TelemaxX Telekommunikation GmbH ist fair.digital-zertifizierter Betreiber von fünf Hochsicherheitsrechenzentren in der TechnologieRegion Karlsruhe. Erfolgreich seit 1999 hat sie sich darauf spezialisiert, individuelle Rechenzentrumsflächen, Housing- sowie Managed-Service-Lösungen für die Anforderungen unserer Geschäftskunden zu realisieren – wobei die TelemaxX Cloud sowie die klassischen Telekommunikationsdienste das Gesamtportfolio abrunden.

Die Rechenzentren 

Kennzeichnend für die TelemaxX-Rechenzentren ist die sehr hohe Verfügbarkeit. Die gesamte Infrastruktur, wie zum Beispiel die Stromversorgung, Klimatisierung und Internetanbindung, ist redundant aufgebaut und über ein hochsensibles Monitoring-System permanent überwacht. Diese Faktoren ermöglichen das Angebot von Colocation (auch Serverhousing genannt), bei dem Unternehmen ihre Hardware in die Rechenzentren unterbringen.  Die Colocation Services der TelemaxX untergliedern sich in die folgenden Servicevarianten: Höheneinheit, Rack und Cage.

Praxisbeispiel: Umzug zu Colocation

Aufgrund des Wachstums und der steigenden Unternehmensgröße stieg bei dem Kunden in diesem Beispiel auch die Beschaffung für Hardware sowie der Aufwand für das eigene IT-Personal. Damit mehr Sicherheit gewährleistet werden kann, entschied sich der Kunde, seine Hardware innerhalb eines Rechenzentrums in Form von Colocation unterzubringen. Im Rahmen der Gespräche fiel die Entscheidung auf 2 plus 1 Racks, in denen die eigenen Server untergebracht werden sollten.

Gemeinsam wurde ein Konzept inklusive der technischen Planung für den Kunden erarbeitet. Innerhalb weiterer Gespräche wurden die Anforderungen evaluiert und ein Angebot an den Kunden versendet. Nach Annahme des Angebots und Vertragsabschluss begann die detaillierte Planung. So konnten alle Anforderungen erfasst werden und die Realisierung innerhalb der Rechenzentrums erfolgen.

Das Managed Service Team plante mit dem Kunden den Umzug in das Rechenzentrum. Vorab wurden die Server-Racks bestellt und im Rechenzentrum aufgebaut. Gemeinsam mit dem Auftraggeber wurden die Server im Rack platziert und mit der entsprechenden Verkabelung ausgestattet. Um eine höhere Sicherheit und Verfügbarkeit durch Georedundanz zu gewährleisten, wurde anschließend ein Backup-System in einem weitere TelemaxX-Rechenzentrum aufgebaut.

Im laufenden Betrieb stellt das Datacenter Maintenance Team die optimale Kühlung sicher und misst den individuellen Stromverbrauch des Unternehmens. Zusätzlich kann der Kunde nach Sicherheitsprüfungen und mit eigenem Schlüssel für die Racks, jederzeit innerhalb des Rechenzentrums Bearbeitungen vornehmen.

Kombination mit der Cloud

Nach dem Umzug in die TelemaxX-Rechenzentren strebte das Unternehmen eine effizientere Arbeitsweise an. In diesem Zusammenhang entstand die Planung für den Einsatz der TelemaxX Cloud als Infrastructure as a Service. Das Konzept beinhaltet die Nutzung von Colocation für kritische Daten und den Einsatz von Rechenressourcen sowie die Auslagerung von unkritischen Daten in die Cloud. Innerhalb dieses Konstruktes werden kritische Daten On-Premises gespeichert und verarbeitet. Zudem wird die DSGVO und weitere Regularien eingehalten. Bei der TelemaxX Cloud handelt es sich um Cloud made in Germany und dieses Kriterium war für den Kunden von entscheidender Bedeutung.

Vom bereits bestehenden Server-Rack des Unternehmens wurde eine Verbindung zur Cloud aufgebaut. Schrittweise begann die Migration und der Kunde erhielt einen eigenen Zugang zu unserem Self-Service-Portal. In diesem können jederzeit weitere Rechenressourcen (vCPU, vRAM und vStorage) erhöht oder gesenkt werden.

Fazit

Die beschriebene enge Zusammenarbeit zeigt, wie wichtig die Unterstützung und somit die gemeinsame technische Planung ist. Mithilfe eines georedundanten Konzepts ist die Verfügbarkeit jederzeit sichergestellt. Neben der Sicherheit kann auch die Skalierbarkeit durch den Einsatz DSGVO-konformer Cloud-Services enorm gesteigert, inklusive der fair.digital-Zertifizierung!

Mehr Informationen zu TelemaxX und den Services finden Sie hier.