Datenkrake “Clubhouse”?

Eigener Screenshot von der App “Clubhouse” im App Store auf einem Apple Smartphone

Die Audioplattform “Clubhouse” hat Anfang 2021 innerhalb kürzester Zeit den ersten Rang bei den Social Networking Charts im App Store von Apple erklommen. Gleichzeitig berichtet der Vorstand der Verbraucherzentrale Bundesverband, Klaus Müller, über Twitter über die Abmahnung der Anbieter von “Clubhouse” aufgrund von gravierenden rechtlichen Mängeln. Was hat es mit der App und den Mängeln – gerade hinsichtlich des Datenschutzes – auf sich?

Die Social-Networking-Site Clubhouse gehört zum Unternehmen Alpha Exploration Co. aus der Nähe von San Francisco. Gründer der amerikanischen App sind Paul Davison (vormals bei Pinterest) und Rohan Seth (vormals bei Google).

Aufbau und Angebot der App

Als reine Audioplattform bietet “Clubhouse” das Erstellen von virtuellen Räumen an, um sich mit anderen Nutzern zum Austausch zu treffen. Zur Veranschaulichung kann man sich die App als eine Life-Podcasts-Plattform vorstellen, durch die den Nutzern die theoretische Teilnahme an hunderten Gesprächsräumen ermöglicht ist. Teilnehmen kann man als Sprecher oder Zuhörer, wobei die jeweiligen Gastgeber der Konversation Zuhörenden auch das Sprechen gestatten können. Die Nutzer können sich auch in sogenannten Clubs organisieren, in denen das Vorausplanen von Gesprächsräumen möglich ist.

Auffällig ist die künstliche Verknappung der App: Mitmachen kann man derzeitig nur durch eine Einladung eines bereits beigetretenen Nutzers. Dabei darf jeder Nutzer nur zwei Einladungen versenden. Außerdem ist die App zurzeit nur für Apple-Geräte mit iOS erhältlich, wodurch alle Nutzer von Android-Smartphones ausgeschlossen sind.

Insbesondere dieser exklusive Zugang dürfte zu der Entstehung des aktuellen Hypes beigetragen haben. Ein Effekt namens “Fear of Missing out”, also die Angst vor dem Verpassen, regt Menschen zur Teilnahme an.

Clubhouse” und der Datenschutz

Da man die App zurzeit nur mit einer Einladung gebrauchen kann, muss man “Clubhouse” bei der Registrierung als Nutzer den Zugriff auf alle gespeicherten Kontakte auf dem Smartphone gewähren, um selbst Freunde einzuladen. Die Daten aus dem Adressbuch werden auf die Server der Alpha Exploration Co. in den Vereinigten Staaten übertragen. Diese Übertragung ist problematisch, da die USA datenschutzrechtlich als unsicher gilt. Außerdem müssen laut Artikel 14 der Datenschutz-Grundverordnung (DSGVO) alle betroffenen Kontakte der Clubhouse Nutzer vor der Gewährung des Zugriffs über die Nutzung ihrer persönlichen Daten informiert werden – sonst liegt ein Verstoß vor.

Kritisch zu betrachten ist auch die Anlage von sogenannten “Schattenprofilen” von den Kontakten, die die App nicht nutzen. Dabei werden die Namen und (Kontakt-)Daten der Personen abgespeichert.

In Deutschland wird Clubhouse derzeitig auch noch ohne das erforderliche Impressum betrieben. Außerdem liegen die Allgemeinen Geschäftsbedingungen und Datenschutz-Hinweise nicht wie vorgeschrieben auf Deutsch, sondern nur auf Englisch vor. In ebendiesen Nutzungsbedingungen gibt Clubhouse auch folgendes an: „By using the Service, you consent to having your audio temporarily recorded when you speak in a room“, zu Deutsch: Wenn Sie diesen Service nutzen, willigen Sie der temporären Aufnahme von Audiomitschnitten zu. Laut “Clubhouse” selbst erfolgen diese Aufzeichnungen zur Meldung und Ahndung von Regelverstößen während der Live-Gespräche.

Die App sammelt auch Informationen über den Nutzer selbst, um ein Kommunikationsprofil zu erstellen. Unter diesen Informationen sind Daten über Accounts und Gruppen, mit denen sich der Nutzer austauscht, und auch Informationen darüber, wie oft und wie lange der Nutzer zu welcher Tageszeit aktiv ist.

Neben dem Datenschutz bietet die App auch inhaltliche Risiken: „In den USA kamen schon bald nach dem Start erste Berichte auf über Antisemitismus, Rassismus und Sexismus in der App. So werden eben nicht nur spannende Ideen und Wissen diskutiert, sondern auch Menschen angefeindet oder Falschinformationen verbreitet“, so Thomas Moßburger vom BR24. Das ist aber ein anderes Thema, mit dem sich jeder einzelne kritisch auseinandersetzen muss.

Für die Zukunft stellt sich die Frage, wie das Unternehmen Geld verdienen will. Mit dem Schalten von Audiowerbung? Oder stellen unsere persönlichen Daten das Kapital des Unternehmens dar?

 

Einblicke in den Datenschutzbericht zum Corona-Jahr 2020

Der „Tätigkeitsbericht 2021 des Unabhängigen Landeszentrums für Datenschutz Schleswig-Holstein“ gibt einen Überblick über die wichtigsten und interessantesten Datenschutz-Themen im Jahr 2020. Besonderen Fokus legt Marit Hansen als Landesbeauftragte für Datenschutz Schleswig-Holstein im Bericht auf die Umsetzung von Datenschutzgrundsätzen in der Pandemiesituation. Aufgegriffen werden außerdem auch immer aktuelle Themen rund um den Beschäftigungsdatenschutz, Videoüberwachung und den Schutz von Patientendaten.

Wie wichtig das Thema Datenschutz ist, verdeutlichen die um knapp 16 Prozent gestiegenen gemeldeten Verletzungen des Schutzes personenbezogener Daten und die vom Vorjahr von 1.194 auf fast 1.500 vermehrten schriftlichen Beschwerden (1Tätigkeitsbericht 2021, S. 10f).

In diesem Zusammenhang kann man zwar generell festhalten, dass die meisten untersuchten Fälle keine absichtlichen Verstöße darstellen, sondern aufgrund des fehlenden oder vergessenen Wissens um die Pflichten der Verantwortlichen zu begründen waren. Jedoch stehen im Gegensatz dazu auch Vorfälle, bei denen vorsätzlich gegen die Datenschutzgesetze verstoßen wurde. Beispielhaft nennt das Unabhängige Landeszentrum für Datenschutz (ULD) das heimliche Erstellen von Videoaufnahmen in Umkleiden und medizinischen Untersuchungen.2

Datenschutz im Homeoffice

Das Jahresthema „Corona“ fokussiert den stark angestiegenen örtlichen Wechsel der Beschäftigen in das eigene Zuhause. Mit dem Homeoffice gestörte Arbeitsabläufe wurden oftmals mit Möglichkeiten gelöst, die nicht immer im Einklang mit der Datenschutz-Grundverordnung standen und zu Verletzungen des Schutzes personenbezogener Daten führten (1Tätigkeitsbericht 2021, S. 71). Um in einer improvisierten und konzeptionellen Phase eine Überbrückung zu schaffen (1Tätigkeitsbericht 2021, S. 87), bietet der ULD Handreichungen als Hilfestellung zu dem Umgang mit personenbezogenen Daten, die man online z.B. hier einsehen kann.

Steigende Bedeutung von Digitaler Souveränität

Marit Hansen betont, dass gerade in der heutigen Zeit, in der eine steigende Abhängigkeit von technischen Produkten festzustellen ist, Verantwortliche ihrer Verantwortung nachkommen müssen. Unbedingt muss in diesem Zusammenhang auch die Digitale Souveränität gestärkt werden, die laut dem ULD die Selbstständigkeit, Selbstbestimmtheit und Sicherheit von Individuen in der digitalen Welt widerspiegelt. Dafür soll beispielsweise die datenschutzrechtliche Beurteilung von digitalen Produkten und Dienstleistungen verbessert werden (1Tätigkeitsbericht 2021, S. 17). Das Siegel von “fair.digital” trägt einen Beitrag zu der Schaffung von Digitaler Souveränität bei, indem es digitale Produkte und Dienstleistungen ausgezeichnet, die die Prinzipien Fairness, Datenschutz und Transparenz vertreten.

Quellen:

 

Wie eine künstliche Intelligenz für Fairness sorgt (Interview)

Hunderte Seiten der Allgemeinen Geschäftsbedingungen (AGBs) vor jeder Online-Bestellung lesen? Oder lieber von einer künstlichen Intelligenz (KI) prüfen lassen, ob ein Vertrag fair aufgesetzt ist? Klingt nach Science-Fiction? – Ist es wahrlich nicht. In Karlsruhe entstand ein Projekt beim Preisträger “KI-Champion Baden-Württemberg 2020”, das genau das möglich macht. Timo Haberl von der thingsTHINKING GmbH im Interview:

Ihre KI namens “semantha” wird bei dem Projekt “IstDasFair” verwendet. Doch was kann Ihre KI?

Timo Haberl: Seit unserer Gründung im Jahr 2017 aus dem KIT heraus arbeiten wir an der stetigen Weiterentwicklung von “semantha”. Wo man bei normalen Suchfunktionen genau das gesuchte Wort eingeben muss, kann unsere KI auf semantischer Ebene arbeiten und Texte auf Bedeutungsebene zusammenbringen. Dadurch kann man mit unserer KI zum Beispiel eine große Anzahl von Dokumenten auf Überschneidungen oder bestimmte Hot Spots hin überprüfen.

Wie ist das Projekt “IstDasFair” entstanden?

Timo Haberl: Folgender Fall bei uns im Unternehmen hat das Projekt eingeleitet: Ein Produkt wurde online bestellt, das Geld abgebucht, und drei Monate später wurde der Vertrag vonseiten des Händlers storniert. In diesen drei Monaten konnte der Händler jedoch mit dem Geld haushalten. Rechtlich ist das wasserdicht, allerdings fanden wir das überhaupt nicht fair dem Kunden gegenüber. Und das ist nur ein Beispiel unter vielen: Tagtäglich werden Verträge geschlossen, die man aufgrund von Zeitmangel nicht liest oder aufgrund des Fachvokabulars nicht vollständig versteht und dann Nachteile hat.

Was ermöglichen Sie mit “IstDasFair”?

Timo Haberl: Mit “IstDasFair” wollen wir das Thema KI sinnvoll nutzen, um Fairness in Form von – ich nenne es mal – “Waffengleichheit” sicherzustellen, dass also jeder das Recht hat, einen fairen Vertrag abzuschließen. Wer ein Dokument bei “IstDasFair” hochlädt, bekommt in Sekundenschnelle ein kommentiertes PDF- oder Word-Dokument zurück, wo genau ersichtlich ist, welche Stellen man sich nochmal anschauen sollte, da diese zum Nachteil des Verbrauchers sein könnten. Im Nachgang kann jeder für sich selbst entscheiden, ob ein Rechtsbeistand hinzugezogen werden soll oder nicht, da wir auf keinen Fall einen Rechtsanwalt ersetzen können. Wir können lediglich Hinweise geben.

Wie funktioniert “IstDasFair”?

Timo Haberl: Das Angebot bedient sich an einer Datenbank, die mit fairen und unfairen Passagen aus Vertragsdokumenten wie Arbeitsverträgen, aber auch AGBs etc. gefüllt ist. Die Inhalte der Datenbank stammen von Juristen und Fachexperten, die uns auch bei der stetigen Erweiterung dieser unterstützen. Mithilfe unserer KI “semantha” können wir dann auf Basis dieser Datenbank hochgeladene Dokumente auf Bedeutungsebene hin untersuchen.

Wie stellen Sie Datenschutz bei Ihrer KI sicher?

Timo Haberl: Bei Unternehmen, die mit sensiblen Daten umgehen müssen, läuft unsere Software “semantha” nicht in der Cloud, sondern tatsächlich beim Kunden selbst. Außerdem können wir “semantha” in jeder Branche Out-of-the-Box einsetzen, ohne die KI mit Dokumenten vom Kunden zu trainieren. Mehr zum Thema Datensicherheit kann man auch auf unserer Webseite einsehen, wo wir die ganzen Verschlüsselungsverfahren aufzeigen.

Wie wird es mit Ihrer KI und Ihrem Projekt “IstDasFair” weitergehen?

Timo Haberl: Wir möchten “semanthas” Funktionsumfang erweitern und sie als unterstützendes Werkzeug in anderen Branchen und Unternehmen implementieren. Bei “IstDasFair” herrscht ein ähnlicher Ansatz: Wir möchten die Datenbank schnellstmöglich erweitern, um noch mehr Themengebiete abdecken zu können. Außerdem soll das Thema noch mehr Aufmerksamkeit bekommen, um die nach wie vor vorherrschende Skepsis gegenüber KI zu ändern. Wir möchten nämlich aufzeigen, dass künstliche Intelligenzen für durchaus nützliche Vorgänge eingesetzt werden können.

Weitere Informationen zu dem Unternehmen und seiner KI finden Sie hier.

Das Angebot “IstDasFair” zur Dokumentprüfung können Sie hier aufrufen.

Datenhunger – Von rückhaltlosen Apps und öffentlichen Testergebnissen

Wie viel Apps wirklich preisgeben

Die Nutzungsbedingungen der meisten Apps machen deutlich, dass es nach einer Zustimmung zu der Speicherung von persönlichen Daten kommen kann – und dabei handelt es sich unter anderem um Standortinformationen, Kontakt- und Bankdaten. Eine Analyse des auf Datenschutz bedachten Cloud-Dienstes pCloud macht nun deutlich, wie viele dieser Daten an Dritte weitergegeben werden.

Sogenannte “Dritte” Unternehmen sind entweder mit dem eigentlichen Unternehmen verbunden oder zahlen nur einen Beitrag für den Zugriff auf Nutzerdaten. Für die Nutzer kann die unternehmensinterne Verwendung und Analyse von Vorteil sein, wenn es dadurch zu einer Verbesserung der Erfahrungen und der Funktionsweise innerhalb der App kommt. Kritisch betrachtet werden hingegen die Nutzung der Daten für Werbung durch die Ansprache mit Anzeigen auf anderen Plattformen und die besagte Weitergabe an Dritte. Sucht man auf der Videoplattform YouTube beispielsweise nach einem Video, werden schon alleine 42% der persönlichen Daten weiterverkauft. Die größten Preisgeber sind jedoch die Sozialen Medien Facebook und Instagram: Diese teilen 57% (Facebook) und 79% (Instagram) der Daten mit Dritten.

Quelle:

Wenn Fremde persönliche Corona-Testergebnisse einsehen können

Es ist Normalität geworden, dass man sich für die Durchführung eines Antigen- oder PCR-Tests auf die Angebote von Testzentren einlässt. Keinesfalls “normal” sollte in Anbetracht der dabei gesammelten hochsensitiven Daten jedoch ein nicht-ausreichender Datenschutz sein. Die Befunde der Gruppe “Zerforschung” des “Chaos Computer Clubs” haben jedoch gezeigt, dass Unbefugte durch eine Sicherheitslücke in der für Testzentren entwickelten Software “safeplay” vom Anbieter Medicus AI Zugriff auf persönlichen Daten hatten. Betroffen waren davon Einrichtungen vom Unternehmen 21Dx in München, Berlin, Mannheim und vielen anderen Orten.

Hatte man einen Account auf der Plattform angelegt, konnte man ungehindert auf sämtliche Testergebnisse und personenbezogene Daten der anderen Nutzer zugreifen. Außerdem war es möglich, Statistiken einzusehen, die eigentlich nur für Mitarbeiter gedacht waren. Nachdem das Team von “Zerforschung” das Bundesamt für Sicherheit in der Informationstechnik (BSI) alarmiert hatte, wurde der Betreiber Medicus AI informiert und gab wiederum den softwarenutzenden Firmen Bescheid. Laut Medicus AI wurde die Schwachstelle inzwischen behoben.  

Quellen:

Definition „digitale Souveränität“: Was ist digitale Souveränität?

Für “fair.digital” ist digitale Souveränität die Selbstbestimmung der persönlichen Daten und die Kompetenz, die Digitalisierung zielgerichtet zu nutzen. Somit lehnt “fair.digital” eine Überwachung, Ausbeutung, Manipulation, Intransparenz sowie einen Aufbau von Abhängigkeiten ab.

Spätestens seit 2013, als die globale Datenüberwachung digitaler Informationseinflüsse durch die US-amerikanische NSA und weitere Geheimdienste öffentlich wurde, ist digitale Souveränität von großer Wichtigkeit (Misterek, 2017, S. 1). Mit dem Begriff der digitalen Souveränität ist eine Zielvorstellung verbunden, die als Kompass dienen kann und deren Maßnahmen kontextgebunden variieren können (Bitkom, 2019, S. 9). Ein Teilaspekt der Digitalen Souveränität ist das Konzept der Datensouveränität (Bitkom, 2019, S. 9), das hier fokussiert werden soll.

Digitale Souveränität ist das Bestimmungsrecht über alle persönlichen digital erfassten Daten (Werden, 2016, S. 35). Dieses Recht wird jedoch durch zwei Gründe eingeschränkt (Wittpahl, 2017, S. 5): Zum einen führt die beschleunigte Entwicklung infolge der Digitalisierung zu Unverständnis der Funktionsweisen von digitalen Technologien. Zum anderen werden die eingeschränkten Nutzungsbedingungen der Anbieter digitaler Systeme meist unverständlich formuliert und einfach von den Nutzern hingenommen.

Wichtig für die Schaffung von digitaler Souveränität ist folglich eine digitale Aufklärung, die die Nutzer aus der digitalen Unmündigkeit und aus dem sorglosen Umgang mit den eigenen Daten befreien kann (Wittpahl, 2017, S. 6). Diese Möglichkeit der unabhängigen Selbstbestimmung (Bitkom, 2019, S. 4) zeichnet einen selbstbestimmten Bürger aus. Nach Dr. Jäger (2016), Bereichsleiter Infrastruktur im Bundesrechenzentrum Wien, sind „[s]elbstbestimmte Bürger [. . .] Herren Ihrer eigenen Daten und können damit auch die Souveränität über Ihre digitale Identität und Ihre digitale Privatsphäre faktisch ausüben“ (S. 24).

Der bürgerliche Traum von „technischer Vertraulichkeit, Integrität, Authentizität, Anonymität, Freiheit, Gleichheit, Netzneutralität, Privatheit, Verfügbarkeit etc. …“ (Pohl, 2016, S. 10) könnte also durch digitale Souveränität verwirklicht werden.

Dafür ist jedoch eine Vermeidung von Abhängigkeit auf internationaler Ebene vonnöten (Bitkom, 2019, S. 4). In Bezug auf die digitale Souveränität Europas geht es mit der Abhängigkeitsvermeidung um die Schaffung und Nutzung eigener Produkte, Ideen und Standards (Oettinger, 2016, S. V). Laut Pohl (2016) würde außerdem auch nur eine internationale Vereinbarung zur Bestrafung von digitaler Überwachung dabei helfen, digitale Souveränität zu etablieren (S. 22).

Durch digitale Souveränität soll ein unabhängiges, selbstbestimmtes und selbstständiges Handeln von Individuen und Unternehmen in der digitalen Welt erreicht werden.

Literatur-/Quellenverzeichnis:

  • Bitkom e.V (2019). Digitale Souveränität: Anforderungen an Technologie- und Kompetenzfelder mit Schlüsselfunktion. Stellungnahme. Bitkom e.V.
  • Jäger, W. (2016). Neue Rolle öffentlicher Rechenzentren für Bürger-Datenschutz und Bürger Befähigung. In M. Friedrichsen, & P.-J. Bisa (Hg.), Digitale Souveränität. Vertrauen in der Netzwerkgesellschaft (S. 23–34). Springer VS. DOI 10.1007/978-3-658-07349-7_5
  • Misterek, F. (2017). Working Paper. Digitale Souveränität: Technikutopien und Gestaltungsansprüche demokratischer Politik. MPIfG Discussion Paper, 17(11), Max Planck Institute for the Study of Societies. http://hdl.handle.net/11858/00-001M-0000-002D-6FCF-0
  • Oettinger, G. (2016). Europa und die Souveränität im Netz. In M. Friedrichsen, & P.-J. Bisa (Hg.), Digitale Souveränität. Vertrauen in der Netzwerkgesellschaft (S. V–VI). Springer VS. DOI 10.1007/978-3-658-07349-7_5
  • Pohl, H. (2016). Der bürgerliche Traum von digitaler Souveränität. In M. Friedrichsen, & P.-J. Bisa (Hg.), Digitale Souveränität. Vertrauen in der Netzwerkgesellschaft (S. 9–22). Springer VS. DOI 10.1007/978-3-658-07349-7_5
  • Wittpahl, V. (2017). Vorwort. In Volker Wittpahl (Hg.), iit-Themenband. Digitale Souveränität. Bürger. Unternehmen. Staat (S. 5– 8). Springer Vieweg.
  • Werden, S. (2016). Digitale Souveränität, ein Orientierungsversuch. In M. Friedrichsen, & P.-J. Bisa (Hg.), Digitale Souveränität. Vertrauen in der Netzwerkgesellschaft (S. 35–51). Springer VS. DOI 10.1007/978-3-658-07349-7_5

Mitstreiter für Datenschutz, Fairness und Transparenz

Neben “fair.digital” verfolgen erfreulicherweise auch weitere Initiativen Ziele, die die digitale Souveränität des Einzelnen und der Gesellschaft in Bezug auf Datenschutz, Fairness und Transparenz stärken wollen. Hier ein Überblick zu fünf Initiativen und Vereine:

Berufsverband der Datenschutzbeauftragten Deutschlands (BvD) e.V.

Der Berufsverband der Datenschutzbeauftragten Deutschlands (BvD) e.V. arbeitet seit seiner Gründung im Jahr 1989 an der Weiterentwicklung des Datenschutzes. Teilnehmer sind neben den 1.810 Mitgliedern (Stand: Februar 2021) in Form von betrieblichen und behördlichen Datenschutzbeauftragten auch die Politik, Wirtschaft und Aufsichtsbehörden.

Der BvD setzt sich durch den Austausch in neun Arbeitskreisen und zwölf Regionalgruppen für einen modernen und machbaren Datenschutz ein. Verbandsinterne Fort- und Weiterbildungen werden dafür unterstützend vom Verein angeboten.

Ziel ist die stärkere Verankerung der Arbeit von Datenschutzbeauftragten im Bewusstsein der Öffentlichkeit und die Förderung der Interessen der betrieblichen und behördlichen Datenschutzbeauftragten. Dafür wurde in Zusammenarbeit mit Aufsichtsbehörden und Datenschutzexperten auch ein Berufsbild des Datenschutzbeauftragten entwickelt, auf das eine Verpflichtung erfolgen kann. Bisher verpflichteten sich schon 332 Personen auf das „berufliche Leitbild“, mit denen bestimmte Qualitäts- und Sicherheitsstandards in der Tätigkeitsausübung garantiert werden.

BITMi e.V. und Software Made in Germany

Der Bundesverband IT-Mittelstand e.V. (BITMi) ist ein Zusammenschluss von mehr als 2.000 mittelständischen IT-Unternehmen in Kooperation mit dem Bundeswirtschaftsministerium.  

Als IT-Fachverband setzt sich der BITMi für die politische Vertretung der mittelständischen Interessen von etablierten IT-Unternehmen und Start-Ups ein. Mithilfe von gemeinsamen Veranstaltungen und Werbekampagnen wird ein Netzwerk gebildet, das zu profitablen Synergieeffekten führen und das Unternehmenswachstum beschleunigen soll. Die Gütesiegel „Software Made in Germany” und „Software Hosted in Germany sollen den Standort Deutschland stärken und die Datenschutzfreundlichkeit, hervorragende Qualität und den großartigen Service der zertifizierten Unternehmen verdeutlichen.

Der BITMi bietet gleichzeitig eine Kontaktstelle für Endkunden an, die über den Stand der Informationstechnologie und Lösungen für Probleme informieren wollen. Durch Projekt-Publikationen von Fachgruppen erfolgt außerdem ein Wissenstransfer zu Universitäten und Forschungseinrichtungen.

Corporate Digital Responsibility (CDR) – Initiative

Das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) hat im Mai 2018 gemeinsam mit anderen Institutionen die „Corporate Digital Responsibility (CDR) – Initiative“ ins Leben gerufen. Als Lernpartnerschaft setzt sich die Initiative für die Prägung und Definition des Begriffes der Corporate Digital Responsibility (CDR) und dem Tragen von digitaler Verantwortung ein.

Durch die Erarbeitung von Prinzipien und Leitlinien sollen Unternehmen aller Branchen zur Umsetzung einer menschen- und werteorientierten Gestaltung von Digitalisierung angeregt werden. Neben dem Marktvorteil der Unternehmen sollen Verbraucher dadurch auch einen besseren Überblick über diese „ehrbaren Kaufleute“ bekommen. Für dieses Ziel engagieren sich neben dem BMJV auch Institutionen wie die Deutsche Telekom, Miele und SAP (und weitere).

Initiative D21

Im Jahr 1999 gründete sich die Initiative D21 als gemeinnütziger und parteiübergreifender Verein durch Bundeskanzler a.D. Gerhardt Schröder und Erwin Staudt.2 Mit dem Ziel der Verhinderung der digitalen Spaltung der Gesellschaft3 sollte das Interesse und die Bereitschaft für den Wandel zur Informationsgesellschaft gefördert werden2. Für dieses Ziel erfolgte ein Zusammenschluss führender Unternehmen und Wirtschaftsführer der Informationsgesellschaft zur Unterstützung der Herausgabe von Gütezeichen, um Vertrauen in den E-Commerce aufzubauen und zu gewährleisten.

Die Initiative D21 setzt sich außerdem für die Durchleuchtung von gesellschaftlichen Herausforderungen im digitalen Wandel (in Form von jährlichen Lagebildern) ein. Damit sollen Debatten angestoßen werden, um die Zukunft der Digitalen Gesellschaft sinnvoll zu gestalten. Außerdem ist die Initiative D21 Mit-Initiatorin des bundesweiten Aktionstags Girls’Day, mit dem jungen Frauen die Vielfalt von MINT-Berufsbildern näher gebracht werden sollen.

Virtuelles Datenschutzbüro

Das „Virtuelle Datenschutzbüro“ ist eine zentrale Informations- und Anlaufstelle für Datenschutzfragen, die von zahlreichen offiziellen Datenschutzinstitutionen mitgetragen wird. Verantwortlicher im Sinne des Telemediengesetzes und des Rundfunkstaatsvertrages ist Marit Hansen, Landesbeauftragte für Datenschutz des Landes Schleswig-Holstein. Die beteiligten Datenschutzinstitutionen sind institutionalisierte Datenschutzkontrollinstanzen und stellen als Projektpartner die Träger der „Virtuellen Datenschutzbüros“ dar.

Diese Projektpartner aus Deutschland, der Schweiz und Liechtenstein verlinken aktuelle Meldungen. Diese bilden zusammen mit den einleitenden Texten zu Datenschutzthemen auf der Webseite des „Virtuellen Datenschutzbüros“ das Fundament zur Informationsgewinnung. Außerdem hat man dort Zugriff auf (thematisch geordnete) Musterschreiben und Formulierungshilfen zu Unterthemen wie der „Löschung von Daten“ oder „Widerspruch gegen Verarbeitung von Daten von Betroffenen“. Ziel dieses Informationsangebots ist die Förderung des Datenschutzes durch die Nutzung von aktuellen technischen Möglichkeiten, die Verbesserung der Zusammenarbeit der beteiligten Stellen und die gemeinsame Öffentlichkeitsarbeit.

 

Martin Hubschneider und Prof. Alexander Mädche im KIT-Interview zu “fair.digital”

Im Rahmen der Partnerschaft der CAS Software AG und dem KIT-Studiengang Wirtschaftsinformatik ist ein Interview mit Martin Hubschneider und Prof. Alexander Mädche, Vorstände des Vereins fair.digital e.V., entstanden.

Große Datenmonopole in den Vereinigten Staaten und China gewinnen durch das Sammeln und Verknüpfen personenbezogener Daten enorm an Macht. „Diese Plattformökonomien und das bedingungslose Streben nach Gewinnmaximierung bedroht sowohl unsere Marktwirtschaft als auch unsere Gesellschaft insgesamt“, so Hubschneider.

Der Verein fair.digital e.V. wirkt dieser Art des Überwachungskapitalismus entgegen. Durch die Auszeichnung von IT-Produkten und -Leistungen von fair handelnden Anbietern wird außerdem das Bewusstsein für Themen rund um die digitale Souveränität gestärkt. Die Zertifizierung erfolgt mit der Erfüllung von sieben Kriterien, die sich an den Prinzipien Datenschutz, Transparenz und Fairness orientieren. Jedem Einzelnen und der Gemeinschaft werden damit eine gute Orientierung und bessere Alternativen geboten.

Weitere Informationen zur angestrebten Zukunft von fair.digital, Tipps zum Umgang mit den personenbezogenen Daten und mehr sind hier beim vollständigen Interview zu finden.

Datenhunger – Von Phishing-Attacken und dem „Safer Internet Day“

“Safer Internet Day”

Am Dienstag, den 9. Februar 2021, findet der von der Europäischen Kommission ins Leben gerufene „Safer Internet Day“ in circa 170 Ländern statt, der mit (Online-)Veranstaltungen das Bewusstsein für aktuelle und aufkommende Online-Probleme schärfen will. Die Veranstaltungsliste der deutschen Anlaufstelle German Safer Internet Centre ist hier auf der Webseite des Projekts “klicksafe” zu finden.

Während sich Projekte wie der „Safer Internet Day“, der Verein Mimikama, der über Internetmissbrauch aufklärt, und natürlich auch „fair.digital“ für mehr Bewusstsein für Datenschutz einsetzen, ist Datenklau durch Phishing-Attacken noch immer erfolgreich.

Was ist Phishing?

Beim Phishing werden Daten von Internetnutzern über Methoden wie das Versenden von gefälschten E-Mails oder Nachahmen einer vertrauenswürdigen Webseite abgefangen und missbraucht.

Der Verein Mimikama verdeutlicht Phishing-Methoden am Beispiel der Social-Networking-Site Facebook:

Im Januar 2021 soll es laut einem Facebook-Post zu einer Zugentgleisung in Hannover, und im Februar 2021 zu einem Zugunglück in der Kölner Innenstadt gekommen sein. Bei beiden Meldungen und Posts handelt es sich um Falsch-Meldungen – das Bildmaterial für die angeblichen Zugunglücke stammt bespielweise vom Zugunfall in Eschede 1998.

Phishing-Fallen bei Facebook sind im Grunde gleich aufgebaut: In wenigen, emotionalen Worten wird mithilfe eines dramatischen Bildes auf die schockierende Falschnachricht aufmerksam gemacht. Für mehr Informationen muss man einem Link folgen, der entweder zu einer unbekannten Nachrichtenplattform oder einer gefälschten Facebook-Seite führt. Bei beiden Varianten werden die Nutzer durch ein gefälschtes Log-In-Fenster zur Angabe Ihrer Facebook-Nutzerdaten aufgefordert.  

Auffällig ist, dass die URL (also Internetadresse) des Eingabefensters für die Facebook-Daten nicht mit der Originalen von Facebook übereinstimmt. Gibt ein Nutzer seine Login-Daten in diesem Fenster ein, werden diese an die Phishing-Täter übermittelt.

Wie schütze ich mich vor Phishing-Attacken?

Um sich vor solchen Phishing-Attacken zu schützen, sollte bei dramatischen Posts auf Facebook und Co. immer ein Vergleich mit den Berichten von bekannten Nachrichtenmedien erfolgen, um die Nachricht zu verifizieren.

Außerdem hilft ein Blick auf die URL der jeweiligen Seite des Log-In-Fensters oftmals schon, um die Echtheit zu überprüfen. Der Verein Mimikama empfiehlt zusätzlich den Test mit dem Einloggen mit Fantasiedaten, die in einem Mail-Format gestaltet sind. Wenn man nach der Eingabe der falschen Log-In-Daten weitergeleitet wird, handelt es sich voraussichtlich um ein gefälschtes Log-In-Fenster.

Generell wird angeraten: Überprüfen Sie die Plausibilität einer Nachricht und vermeiden Sie das Anklicken eines Links von einem unbekannten Absender.

Datenschutz im Home-Office

Michael Will, Präsident des bayerischen Landesamtes für Datenschutzaufsicht, berichtet von einer abnehmenden Sensibilisierung in Bezug auf den Datenschutz. Aufgrund der räumlichen Verteilung und persönlichen Infrastruktur und Ausstattung sind Arbeitnehmer und -geber mit Herausforderungen konfrontiert – gerade in Bezug auf den Datenschutz.

Im Zuge der Corona-Pandemie wurde vielerorts der geschäftliche mit dem heimatlichen Arbeitsplatz getauscht. Das Bayerische Landesamt für Datenschutzaufsicht hat in Zuge dessen eine Checkliste mit Prüfkriterien nach der DSGVO (Stand: 22. Juli 2022) erstellt, die man online einsehen kann. Diese soll bei der Einhaltung der Datenschutzverordnungen für Sensibilisierung und Orientierung sorgen1.

Genannt werden in der Checkliste unter anderem, dass das Arbeitsumfeld von Familienmitgliedern und Dritten abgeschirmt sein, Papierdokumente geschützt gelagert und fachgerecht entsorgt werden sollten. Die technischen Arbeitsgeräte sollten vom Arbeitgeber gestellt werden und eine geschützte VPN-Verbindung aufweisen. Außerdem sollte darauf geachtet werden, dass ein abgeschlossener Vertrag zur Auftragsverarbeitung nach Art. 28 DSGVO bei Videokonferenzsystemen und Cloud-Diensten vorliegt. Dies sind nur einige Beispiele.

Gerade die US-amerikanischen Produkte der Kommunikationsdienstleister stellen laut Michael Will ein Problem dar, da deren Datenschutzniveau vergleichsweise gering ist. Eine Weitere Sorge ist die erhöhte Wahrscheinlichkeit von unerkannten (Hacker-)Angriffen1.

Ein aktueller Fall von einem Hackerangriff liegt bei der Funke Mediengruppe vor, die am 22. Dezember Oper eines solchen externen Angriffes wurde2. Zahlreiche Computersysteme und zentrale IT-Systeme waren von dem Ausfall betroffen. Die Süddeutschen-Zeitung berichtet, dass die Täter Daten der Mediengruppe verschlüsselt und Lösegeld für die Freigabe verlangt haben. Laut einem Update der Funke Mediengruppe vom 4. Januar sind schon 1200 der insgesamt 6600 Geräte „…digital gereinigt worden und wieder vollumfänglich und sicher im Einsatz“. Die vollständige Restaurierung werde wohl noch Wochen in Anspruch nehmen3.

Definition “Fairness”: Was ist Fairness?

Fasst man die Definitionen von „fair“ und „Fairness“ verschiedener Online-Wörterbücher* zusammen, kann man daraus folgende Definition erstellen:

“Fairness bezeichnet ein ehrliches, vernünftiges und anständiges Verhalten, das von Gleichbehandlung und Unparteilichkeit gegenüber anderen und dem Befolgen von gerechten Regeln gekennzeichnet ist.”

Nach Dimitriou & Schweiger (2015) ist Fairness ein philosophisches Konzept, mit dem man das „… Zusammenleben nach ethischen Maßstäben einrichten… “ soll (S. 15). Das Ziel von Fairness ist die Errichtung einer humanen Welt, in der möglichst viele eine angemessene Lebensqualität haben (Amesberger, 2015, S. 7). Deswegen nehmen Fairnessprinzipien als ungeschriebene gesellschaftliche Regeln auch „… moralische Dimension[en] menschlichen Handelns“ ein und spielen in vielen Lebensbereichen eine große Rolle (Amesberger, 2015, S. 7–8).

Laut Dimitriou & Schweiger (2015) kann Fairness beispielsweise folgende Bedeutungen annehmen:

  • „Fairness kann bedeuten, dass jede Person das erhält, was sie verdient (S. 15–16).“
  • „Fairness kann bedeuten, dass jede Person gleich viel erhält (S. 16).“
  • „Fairness kann (…) bedeuten, dass Menschen so viel bekommen, wie sie benötigen (S. 16).“
  • „Eine andere Variante von Fairness ist, diese eng an die ausgehandelten Regeln zu binden und solches Verhalten als fair zu beurteilen, das sich an diese Regeln hält und sie nicht übertritt (S. 16).“

Oftmals werden die Begriffe Gerechtigkeit und Fairness synonym verwendet (Jonas, 2015, S. 24). Angelehnt an John Rawls (1975) ist „…ein gesellschaftlicher Zustand dann gerecht, wenn er fair ist…“  (Dimitriou & Schweiger, 2015, S. 15).

*Online-Wörterbücher:

Literaturquellen:

  • Amesberger, G. (2015). Vorwort I. In M. Dimitriou, & G. Schweiger (Hg.), Fairness und Fairplay. Interdisziplinäre Perspektiven (S. 7–9). Wiesbaden: Springer Fachmedien.
  • Dimitriou, M., & Schweiger, G. (2015). Fairness und Fairplay. Eine interdisziplinäre Annährung. In M. Dimitriou, & G. Schweiger (Hg.), Fairness und Fairplay. Interdisziplinäre Perspektiven (S. 15–22). Wiesbaden: Springer Fachmedien.
  • Jonas, E. (2015). Fairness lohnt sich! Psychologische Facetten von Gerechtigkeit und ihr Beitrag zu Kooperation und Widerstand in sozialen Interaktionen. In M. Dimitriou, & G. Schweiger (Hg.), Fairness und Fairplay. Interdisziplinäre Perspektiven (S. 23–50). Wiesbaden: Springer Fachmedien.
  • Rawls, John. 1975. Eine Theorie der Gerechtigkeit. 1. Aufl. Frankfurt am Main: Suhrkamp.