Algorithmen, Recht und Gesellschaft - Entscheider*innen zwischen algorithmischer Steuerung und persönlicher Verantwortung

Untersuchung zum diskriminierungsfreien und arbeitnehmer*innenfreundlichen Einsatz von algorithmenunterstützter Entscheidungsfindung im Arbeitsleben

Hintergrund 

Die Arbeitswelt ist durch die Digitalisierung in großer Veränderung begriffen. 
Immer mehr Entscheidungen mit großem Einfluss auf das Leben von Menschen werden mit algorithmischer Unterstützung getroffen: Von Einstellung, Beförderung und Kündigung über Kreditwürdigkeit bis hin zu polizeilichen Maßnahmen und der Gewährung von Qualifizierungsmaßnahmen bei der Arbeitssuche oder Sozialhilfe. Diese algorithmenunterstützte Entscheidungsfindung (algorithmic decision support (ADS) oder automated decision-making (ADM)) wird häufig als besonders „objektiv“ und „neutral“ empfunden, tatsächlich wirft sie aber im gesamten Ablauf vielerlei potenziell und real diskriminierende Ungleichbehandlungen auf. Das geht von der zugrundeliegenden Datenbasis über die impliziten oder expliziten Annahmen für Modellierung, Prognose etc. bis hin zur Schnittstelle mit den Benutzer*innen und der Darstellung der „Empfehlungen“.

Projektziel

Im Projekt AlgoJus liegt das Hauptaugenmerk auf den Problemen, die in der Interaktion von Algorithmen mit Menschen entstehen. Im Unterschied zu Entscheidungen von Menschen, in denen auch Ermessensentscheidungen möglich sind, gibt es einen solchen Spielraum bei Algorithmen nicht. Dazu kommt, dass oft gerade durch die scheinbare Objektivität und Neutralität diskriminierende Resultate geleugnet oder wegerklärt werden. Bestehende Diskriminierungen werden somit verhärtet und sind durch die in vielen Fällen fehlende oder mangelhafte Transparenz solcher algorithmischen Systeme noch schwerer zu bekämpfen. All dies stellt Bestrebungen nach Gleichstellung, Inklusion und Diskriminierungsfreiheit vor Probleme. 
Im Rahmen dieses Projekts wird die Frage behandelt, wie algorithmengestützte Entscheidungssysteme bestmöglich eingeführt und eingesetzt werden können, sodass Probleme möglichst entschärft werden. Die Fragestellungen werden aus rechtlicher, ethischer und technischer Hinsicht wissenschaftlich untersucht.

Insbesondere liegt der Fokus auf folgenden Fragen:

  • Welche Arten von Regelungen und Maßnahmen braucht es, um die Verantwortung von Entscheider*innen, die algorithmenunterstützt arbeiten, klar von der Verantwortung der Entwickler*innen abzugrenzen? 
  • Wie kann sichergestellt werden, dass die volle Verantwortung für alle Entscheidungen übernommen werden kann, wenn Algorithmen zur Entscheidungsfindung eingesetzt werden – ohne diese Verantwortung Arbeitnehmer*innen aufzubürden, die sie aufgrund ihres eingeschränkten Handlungsspielraums nicht tragen können? Wie lässt sich abbilden, darstellen, nachverfolgen, wohin sich die Verantwortung dabei verlagert bzw. verlagern muss?

Ein besonderer Fall sind Fragestellungen im Bereich algorithmischer Entscheidungen in Polizei und Justiz. Hier werden zusätzlich noch die Auswirkungen solcher Systeme auf die Gesamtgesellschaft gesonderter Betrachtung unterzogen. 

Ergebnis 

Ergebnis sind, neben den wissenschaftlichen Resultaten, Leitfäden für Arbeitgeber*innen sowie für Betriebsrät*innen, die einen möglichst diskriminierungsfreien und arbeitnehmer*innenfreundlichen Einsatz solcher Algorithmen im Arbeitsleben gewährleisten sollen. 

 

Das Projekt wird durch den Digitalisierungsfonds Arbeit 4.0 der AK Wien gefördert und in Kooperation mit VICESSE durchgeführt.

Sie wollen mehr wissen? Fragen sie nach!

Researcher Institut für IT Sicherheitsforschung
Department Informatik und Security
Arbeitsplatz: B - Campus-Platz 1
PartnerInnen
  • VICESSE
Finanzierung
AK Wien Digitalisierungsfonds 4.0 – Call Wissenschaft
Laufzeit
01.02.2020 – 31.01.2021
Projektstatus
abgeschlossen
Beteiligte Institute, Gruppen und Zentren
Forschungsgruppe Data Intelligence
Institut für IT Sicherheitsforschung