Ingrid Brodnig: Negativfaktor Frau

Ingrid Brodnig

Ingrid Brodnig

Das AMS will alle Arbeitslosen von Software bewerten lassen – für Unbehagen sorgt speziell, dass Frauen automatisch eine schlechtere Bewertung bekommen.

Die Digitalisierung beeinflusst immer mehr Bereiche unseres Lebens – mit wem wir auf ein Date gehen, welche Produkte wir kaufen, und bald auch: wer eine teure Weiterbildung beim Arbeitsmarktservice (AMS) bekommt und wer nicht.

Zunehmend lassen öffentliche Einrichtungen ihre Daten auswerten und Prognosen über Bürger erstellen. Aktuell macht das Arbeitsmarktservice Schlagzeilen. „AMS bewertet Arbeitslose künftig per Algorithmus“, schrieb der „Standard“. Das AMS ließ Forscher die eigenen Daten auswerten und ein statistisches Modell erstellen, mit dem es die Arbeitsmarktchancen für jeden Einzelnen berechnen kann. Mithilfe der Kalkulation werden dann Ressourcen verteilt.

Wer im Jahr 2019 arbeitslos wird, für den ermittelt das AMS automatisch eine Zahl, wie gut oder schlecht die Chancen am Arbeitsmarkt sind. Jeder Arbeitslose wird in eine von drei Gruppen eingeteilt, ab 2020 soll diese Einteilung Konsequenzen haben: Kommt die Software zum Schluss, dass man der stärksten Gruppe angehört, wird man eher wenig Förderung bekommen – da man vermutlich auch ohne Hilfe einen Job findet. Wer in der Gruppe mit mittleren Chancen am Arbeitsmarkt fällt, kriegt leichter teure Fachausbildungen – hier wird viel Geld investiert. Und wessen Chancen nur in der untersten Gruppe liegen, kriegt tendenziell günstige Kurse. Wobei AMS-Berater einzelne Einstufungen ändern dürfen.

Ziel der Kalkulation ist, vor allem jenen Jobsuchenden teure Kurse zu zahlen, die ansatzweise Chancen am Arbeitsmarkt haben. Kein Wunder, dass genau auf die Ressourcen geblickt wird. Das AMS steht unter Effizienzdruck, und die aktuelle Regierung kürzt das jährliche Budget sogar. Trotzdem wirft diese Prognose schwerwiegende Fragen auf – allem voran: Werden Frauen im neuen System benachteiligt?

Das AMS hat die Synthesis Forschung GmbH beauftragt, den neuen Algorithmus zu entwerfen. Auf 16 Seiten wurde nun die Methode erklärt – doch diese Erklärung wirft mehr Fragen als Antworten auf. Positiv fließt in die Bewertung von Arbeitslosen ein, wenn man EU-Bürger ist oder über höhere Ausbildung verfügt. Negativ wird beispielsweise bewertet, wenn man über 50 ist oder nicht aus der EU stammt – auch ist es ein Negativfaktor, eine Frau zu sein.

Im Dokument steht: „– 0,14 x GESCHLECHT_WEIBLICH“. Jede Frau bekommt automatisch den negativen Faktor von minus 0,14 angerechnet. Sind ein männlicher und eine weibliche Arbeitsuchende in allen Aspekten gleich (gleiches Alter, gleiche Ausbildung, gleiche Berufserfahrung), kriegt die Frau trotzdem eine schlechtere Prognose.


Wird der AMS-Algorithmus in der Praxis Frauen diskriminieren?

Zu Recht betont das AMS gegenüber profil: Es ist nicht schuld an dieser gesellschaftlichen Benachteiligung. Die Zahlen des AMS spiegeln anscheinend wider, dass es Frauen am Arbeitsmarkt eine Spur schwerer haben. „Wir kämpfen seit unserer Gründung gegen Diskriminierung“, sagt AMS-Chef Johannes Kopf – und weist darauf hin, dass man die dezidierte Vorgabe hat, 50 Prozent aller Mittel für die Förderung von Frauen einzusetzen (obwohl Frauen nur 43 Prozent der Arbeitslosen ausmachen).

In den Vorgaben des AMS ist die Förderung von Frauen zwar großgeschrieben, trotzdem ist es rechnerisch möglich, dass der Algorithmus diesen Zielen widerspricht – und Frauen es schlimmstenfalls eine Spur schwieriger haben, teure Weiterbildung zu erhalten. Solche ethischen Bedenken tauchen permanent auf, wenn der Staat Algorithmen für wichtige Entscheidungen nutzt. Die USA sind ein Extrembeispiel: Dort setzt die Justiz sogar Software ein, die Richtern bei der Entscheidung helfen soll, welche Häftlinge auf Bewährung freikommen. Die Software sagt vorher, wer in Zukunft eine schwere Straftat begehen wird. Doch solche Algorithmen sind umstritten – auch weil sich zeigt, dass Afroamerikaner deutlich strenger bewertet werden.

Algorithmen bergen die Gefahr, gesellschaftliche Ungleichheit einzuzementieren. Laut den Daten haben beispielsweise Frauen schlechtere Chancen am Arbeitsmarkt – doch wie gerecht ist es, ihnen ein schlechteres Ranking zu geben und auch die Ressourcen danach zu verteilen?

Derzeit stellt sich die Frage, ob der AMS-Algorithmus in der Praxis einzelne Bevölkerungsgruppen wie Frauen diskriminieren wird – wir wissen es genau genommen nicht. Hierzu fehlt bisher eine genaue wissenschaftliche Evaluation. Der Statistiker Erich Neuwirth meint: Es wäre sinnvoll, noch nähere Tests mit den Daten des AMS zu machen. „Die bisher veröffentlichten Unterlagen sind zu wenig für eine Bewertung“, sagt Neuwirth, pensionierter Professor der Universität Wien. Wenn das AMS Sorgen ausräumen will, kann es zwei Schritte setzen: Unabhängige Wissenschafter (die nicht an dem Projekt beteiligt waren) zu einer Evaluierung einladen – um den Algorithmus auf unbeabsichtigte Diskriminierung zu untersuchen. Zweitens sollte auch die Anwendung im Alltag evaluiert werden: Wie sehr beeinflussen solche Zahlen das Verhalten von AMS-Mitarbeitern?

Das Arbeitsmarktservice ist nur der Anfang: Wir können bereits beobachten, dass öffentliche Einrichtungen zunehmend – auch aus Kostengründen – ihre Daten durchleuchten und Bürger statistisch bewerten lassen. Da ist es nur fair, wenn auch diese Einrichtungen stärker durchleuchtet werden.

ingrid.brodnig@profil.at