EINWILLIGUNG ERFORDERLICH * EINWILLIGUNG ERFORDERLICH * EINWILLIGUNG ERFORDERLICH * EINWILLIGUNG ERFORDERLICH * EINWILLIGUNG ERFORDERLICH * EINWILLIGUNG ERFORDERLICH * EINWILLIGUNG ERFORDERLICH * EINWILLIGUNG ERFORDERLICH * EINWILLIGUNG ERFORDERLICH * EINWILLIGUNG ERFORDERLICH * 
Du wirst zum Opfer prädiktiver Analytik geworden sein. * Du wirst zum Opfer prädiktiver Analytik geworden sein. * Du wirst zum Opfer prädiktiver Analytik geworden sein. * Du wirst zum Opfer prädiktiver Analytik geworden sein. * Du wirst zum Opfer prädiktiver Analytik geworden sein. * Du wirst zum Opfer prädiktiver Analytik geworden sein. * 
Standorte von Rechenzentren in Europa. * Standorte von Rechenzentren in Europa. * Standorte von Rechenzentren in Europa. * Standorte von Rechenzentren in Europa. * Standorte von Rechenzentren in Europa. * Standorte von Rechenzentren in Europa. * Standorte von Rechenzentren in Europa. * Standorte von Rechenzentren in Europa. * Standorte von Rechenzentren in Europa. * 

Diese Website nutzt Dienste Dritter, um Ihnen eine bestmögliche Nutzungserfahrung bieten zu können. Die Dienstanbieter sammeln weltweit Daten und können diese für beliebige Zwecke und Partnerschaften nutzen. Ein Widerruf ihrer Einwilligung ist jederzeit durch einfaches Neuladen dieser Website möglich.

Weitere Details entnehmen Sie der Da­ten­schutz­er­klä­rung.

EINWILLIGEN
 DATENSCHUTZERKLÄRUNG


ZEIT BIS EINWILLIGUNG:  error
IP-ADRESSE:  error
STANDORT:  error
ANBIETER:  error
USER-AGENT:  error
BROWSERFENSTER:  error
MAUSPOSITION:  error


TEXT VORLESEN [0:00/0:00] 

Prädiktive Analytik nutzt vorhandene Daten, um zukünftige Ereignisse vorherzusagen. Diese in Meteorologie, Finanzwesen und Polizeiarbeit längst etablierte statistische Methode, birgt durch ›Big Data‹ und den technologischen Fortschritt in ›Machine Learning‹ akute und bisher unkontrollierte Macht- und Missbrauchs­potenziale.
Prädiktive Modelle ermächtigen dazu anhand leicht zugänglicher Daten schwer zugängliche oder besonders sensible Informationen über Einzelindividuen zu prognostizieren – etwa über Kaufkraft, sexuelle Orientierung, Ethnie, religiöse und politische Ansichten oder psychische und körperliche Erkrankungen.¹ Die prognostizierten Informationen werden dann verwendet, um Entscheidungen zu stützen.
Zur Erstellung eines prädiktiven Modells bedarf es einer großen Menge Trainingsdaten, die der Algorithmus während einer überwachten Lernphase automatisch auswertet, um Muster und Korrelationen zu erkennen. Die regelmäßig im Kontext sozialer Alltagsmedien anfallenden Trainingsdaten enthalten neben den leicht zugänglichen Input-/ Hilfsdaten (bspw. Trackingdaten oder Social Media Likes und Postings) auch die schwer zugänglichen Zieldaten (bspw. Kaufkraft oder sexuelle Orientierung).²


Informationen über sich preiszugeben, ist keine private Entscheidung!


N53.4244432° E06.6803225°

Google Data Center Eems­haven, NL
X

Wenn nur wenige Prozent der über zwei Milliarden Face­book-Nut­zer*in­nen bspw. ihre sexuelle Orientierung angeben, genügt das, um ein prädiktives Modell zu trainieren, welches die sexuelle Orientierung aller anderen Face­book-Nut­zer*in­nen abschätzen kann – auch von denen, die der Verarbeitung ihrer Daten nicht zugestimmt haben. Die Datenfreigiebigkeit einer Minderheit von oft privilegierten Nut­zer*in­nen, die meint, ›nichts zu verbergen zu haben‹, setzt also den Privatheits-Standard für alle.²
Neben wirtschaftlichen Anwendungen, wie zur Marktforschung oder ›targeted Marketing‹ wird prädiktive Analytik auch zunehmend von staatlichen Institutionen, im Bildungs- und Gesundheitswesen, im Sicherheitsapparat und in der Politik verwendet. Seit 2016 wird ›predictive policing‹ in der deutschen Polizeiarbeit praktiziert, um die Wahrscheinlichkeit zukünftiger Straftaten abzuschätzen – zum Einsatz kommen sowohl orts- als auch personenbezogene Systeme.³ Auch im Gesundheitswesen werden KI-Modelle bereits zur Prävention und Diagnose von Erkrankungen sowie zur Pa­ti­ent*in­nenüber­wa­chung eingesetzt.
Prädiktive Analytik ist riskant, denn neben gesellschaftlich nutzbringenden Anwendungen besitzt die unkontrollierte Vorhersagemacht großer IT-Konzerne ein enormes Missbrauchspotenzial. Nach geltendem Datenschutzrecht (EU DSGVO) stellt das Abschätzen unbekannter Informationen anhand des Abgleichs kollektiver Datenbestände keine Verletzung von Privatheit dar, weil durch prädiktive Analytik weder Informationen eines Datensubjektes ›entwendet‹ werden noch ein Bruch von Anonymisierung zustande kommt.² Die Gefährdung durch prädiktive Analytik liegt also weniger darin, dass Einzelpersonen überwacht oder ausspioniert werden, sondern darin, dass bei der automatisierten Verarbeitung großer Datensätze Strukturen der Diskriminierung produziert und stabilisiert werden, bekannt als ›Data Bias‹:
Nach einem Bericht von ›Reuters‹ entwickelte ›Amazon‹ im Jahr 2014 ein prädiktives Modell, welches automatisch die Lebensläufe von Be­wer­ber*in­nen bewertete. ›They literally wanted it to be an engine where I’m going to give you 100 resumes, it will spit out the top five, and we’ll hire those.‹ (Aussage eines anonymen Amazon-Mitarbeiters) Während der Entwicklungszeit habe man allerdings bemerkt, dass der Algorithmus Frauen diskriminierte – Begriffe mit ›women’s‹, wie ›women’s chess club‹ wurden systematisch herabgestuft. Das Problem lag in den Trainingsdaten, welche der Algorithmus nach Wortmustern durchsuchte, die auf erfolgreiche Mit­ar­bei­ter*in­nen schließen sollten. Verwendet wurden nämlich Lebensläufe der letzten zehn Jahre, in denen sich die männliche Mehrheit an Beschäftigten in der Technologiebranche widerspiegelte. Auch durch Anpassung des Algorithmus konnte eine geschlechterneutrale Bewertung nicht sichergestellt werden, weshalb ›Amazon‹ die Verwendung des ›AI recruting tools‹ 2017 vorerst einstellte.
Durch prädiktive Modelle abgeschätzte Informationen, egal ob diese zutreffend sind oder nicht, werden verwendet, um Entscheidungen zu stützen. Der sich bereits abzeichnende gesellschafliche Schaden besteht in der stillen Etablierung einer neuen sozialen Klassifizierung – eine automatisierte und daher großflächige Ungleichbehandlung von Individuen und Gruppen beim Zugriff auf ökonomische und gesellschaftliche Ressourcen wie Arbeit, Bildung, Wissen, Gesundheitsversorgung und Rechts­durch­setzung.‹²


›Topics I am more likely to see ads about on Instagram‹

error
error
error
error
error
error

Nach Art. 15 der Datenschutz-Grundverordnung (EU DSGVO), haben betroffene Personen das Recht, von der/dem verantwortliche*n (bspw. der Betreiber*in einer Website) eine Bestätigung darüber zu verlangen, ob sie betreffende personenbezogene Daten verarbeitet werden; ist dies der Fall, so hat sie ein Recht auf Auskunft über diese personenbezogenen Daten.

In der Desktop-Version von ›Instagram‹ können die personenbezogenen Daten folgendermaßen angefordert werden:

Profil → Einstellungen und Privatsphäre → Deine Daten und Medien → Download anfordern


Im Ordner ›information_about_you‹ befinden sich die vermeintlichen Werbeinteressen / Ads Interets, welche ›Instagram‹ für zielgruppenspezifische Werbung nutzt, bekannt als ›targeted marketing‹.



N53.4588353° E06.6887752°

Vogel­be­ob­ach­tungs­wand nahe Google Data Center Eems­haven, NL
X
{*}
Google & Meta Dublin, IE
{*}
IBM London, GB
{*}
IBM Paris, FR
{*}
Google Saint-Ghislain, BE
{*}
IBM Frankfurt, DE
{*}
IBM Mailand, IT
{*}
Meta Luleå, SE
{*}
Meta Odense, DK
{*}
Google Hamina, FI
{*}
Google Midden­meer, NL
{*}
Google Eems­haven, NL


N53.4599729° E06.6879596°

Vogel­skelett nahe Google Data Center Eems­haven, NL
X

Einzelnachweise

1
Kosinski, Michal et al. (2013). Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences of USA, 110(15), 5802–5805.

2
Mühlhoff, Rainer (2021). Predictive Privacy: Towards an Applied Ethics of Data Analytics. Ethics and Information Technology.

3
Stoffel, Florian et al. (2018). Predictive Policing in Germany. Konstanzer Online-Publikations-System (KOPS).

4
Orwat, Carsten (2019). Diskiminierungsrisiken durch Verwendung von Algorithmen. Antidiskriminierungsstelle des Bundes.

5
Dastin, Jeffrey (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters.