Zurück in die Zukunft? Eine relationale Perspektive auf das Recht gegen datenbasierte Diskriminierung
Gegenstand meines Dissertationsvorhabens ist datenbasierte Diskriminierung unter Privaten. Die Beispiele für eingetretene oder wahrscheinlich eintretende datenbasierte Diskriminierung sind so zahlreich und vielfältig wie die Daten, die heutzutage über Personen generiert und mithilfe maschinen-lernender Algorithmen ausgewertet werden, um Personen zu klassifizieren. In einem sehr bekannten Fall berichtete Reuters bspw., dass Amazon einen Bewerbungsalgorithmus entwickelt hatte, der systematisch Bewerbungen von Männern gegenüber Bewerbungen von Frauen bevorzugte (vgl. Dastin 2018).
Meine Forschungsfrage ist, ob das bisherige „EU-Recht gegen datenbasierte Diskriminierung“ effektiv vor datenbasierter Diskriminierung schützt. Meine These ist, dass die relevanten Rechtsakte das nicht tun, weil sie gesellschaftliche Datenbiases als eine Quelle datenbasierter Diskriminierung nicht angemessen adressieren. Gesellschaftliche Datenbiases entstehen, wenn datenbasierte, algorithmische Systeme gesellschaftliche, strukturelle Ungleichheitsverhältnisse wiedergeben. Ich schlage deswegen eine relationale Perspektive auf das „EU-Recht gegen datenbasierte Diskriminierung“ vor, die gesellschaftliche Datenbiases rechtlich verarbeitbar machen soll.
**English**
Back to the Future? A Relational Perspective on the Laws against Data-based Discrimination
My doctoral thesis deals with data-based discrimination. I ask whether the current EU legal framework efficiently protects the persons affected against data-based discrimination. I argue that it does not. The relevant EU laws neglect social data biases as an important source for data-based discrimination. Social data biases arise when data-based algorithms perpetuate structural, social inequalities. Therefore, I propose a relational perspective on “EU laws against data-based discrimination” that is more adequate to deal with social data biases.