SvD-Försäkringskassan

Der Algorithmus benachteiligte insbesondere Mütter systematisch: Illustration der Zeitung Svenska Dagbladet © Svenska Dagbladet

Schweden: Frauen, Arme und Migranten unter KI-Generalverdacht

Daniela Gschweng /  Schwedens Sozialversicherungsamt setzt auf einen diskriminierenden Algorithmus, um Betrüger im Sozialsystem ausfindig zu machen.

Frauen eher als Männer, Migranten eher als Einheimische, Arme eher als Reiche und weniger Gebildete sowieso – seit 2018 bewertet ein Algorithmus, wer im schwedischen Sozialsystem wahrscheinlich betrügen wird. Ist das gerecht? Nachvollziehbar? Begründet?

Es gibt Kritik, denn in der Realität wird selten betrogen. Die Künstliche Intelligenz scannt dennoch Hunderttausende Personen, die Sozialgelder beantragen. Tausende werden als verdächtig markiert und einem ausführlichen Profiling unterzogen. Ohne davon zu erfahren und ohne jemals etwas falsch gemacht zu haben.

Schwedische Behörden mauerten jahrelang

Die Sozialversicherungsbehörde Försäkringskassan will sich zu ihrem Vorgehen nicht in die Karten schauen lassen. Interne Quellen bezeichnen die Algorithmen als das bestgehütete Geheimnis.

Die schwedische Tageszeitung «Svenska Dagbladet» und das Investigativmedium «Lighthouse Reports» blieben jahrelang hartnäckig, um herauszufinden, wie die KI urteilt. Während drei Jahren versandte Lighthouse Reports hunderte E-Mails und stellte mehrere Anfragen auf Dateneinsicht nach dem Öffentlichkeitsgesetz. Die Behörde lehnte sie sämtlich ab. Sie weigerte sich sogar, Daten herauszugeben, die sie bereits veröffentlicht hatte.

Zwei Gerichtsverfahren und einen geleakten Datensatz später fanden die beiden Medien, dass der Predictive-Algorithmus mehrere Personengruppen diskriminiert. Die Datenanalyse offenbarte schwerwiegende Probleme wie ungleiche Behandlung von Antragstellenden und fragwürdige Betrugsvorwürfe. Dazu kommt mangelnde Transparenz und das Fehlen effektiver Beschwerdemechanismen.

Der geleakte Datensatz enthielt Daten von mehr als 6000 Menschen, die Unterstützung beantragt hatten, weil sie sich um kranke Kinder kümmern mussten und die der Algorithmus als verdächtig ausgewählt hatte. Frauen, Menschen mit migrantischem Hintergrund, Geringverdienende und Personen ohne universitären Abschluss wurden dabei übermässig häufig verdächtigt, zu betrügen. Frauen 1,7-mal häufiger, Migranten 2,3-mal häufiger, weniger Gebildete und Geringverdienende dreimal häufiger als eine demografisch angepasste Zufallsauswahl.

Screenshot 2024-12-22 184221
Gegenüber einer Zufallsauswahl wurden Frauen, Menschen, die unter dem Medianeinkommen verdienten und solche mit Migrationshintergrund und geringerer Bildung deutlich häufiger als verdächtig ausgewählt.

Die Betroffenen bleiben oft ohne Unterstützung und wurden in teils invasive Untersuchungen verwickelt. Auszahlungen wurden verzögert. Amnesty International, das die beiden Medien beratend unterstützt hatte, veröffentlichte im November 2024 ebenfalls eine Stellungnahme.

Das System gleicht einer Hexenjagd

David Nolan, Amnesty International

Die Anti-Betrugs-KI sei ein typisches Beispiel dafür, dass das Recht der Menschen auf soziale Sicherheit, Gleichheit und Nichtdiskriminierung sowie auf Privatsphäre durch ein System verletzt würden, das eindeutig voreingenommen sei, sagte David Nolan, Senior Investigative Researcher bei Amnesty Tech.

Die Behörde weist Vorwürfe zurück und argumentiert, dass ein menschlicher Prüfer die endgültigen Entscheidungen treffe. Dieser habe weitreichende Kompetenzen, beschreibt die Menschenrechtsorganisation.

Er könne die Social-Media-Konten einer Person durchforsten, Daten von Institutionen wie Schulen und Banken einholen und sogar die Nachbarn einer Person befragen. Die Person, die dabei durchleuchtet wird, hat keinerlei Ahnung, dass sie von einem Algorithmus als verdächtig markiert wurde. Das System, so Nolan, gleiche einer Hexenjagd.

Bedenken wurden jahrelang ignoriert

Warnungen gab es bereits 2018, als die Kontrollbehörde ISF (Inspectorate for Social Security) darauf hinwies, dass der Algorithmus «in seiner derzeitigen Ausgestaltung nicht der Gleichbehandlung entspricht». Ein ehemaliger Datenschutzbeauftragter der schwedischen Sozialversicherungsanstalt warnte 2020, der gesamte Vorgang verstosse gegen die europäische Datenschutzverordnung. Die Behörde habe keine Rechtsgrundlage für die Erstellung von Profilen von Einzelpersonen.

Nach der kürzlich verabschiedeten europäischen Verordnung über künstliche Intelligenz (KI-Gesetz) müssten KI-Systeme zudem strenge Kriterien erfüllen, um sicherzustellen, dass sie nicht gegen Menschenrechte verstiessen. Schweden laufe Gefahr, einen Skandal loszutreten wie schon die Niederlande vor einigen Jahren. 2019 wurde dort aufgedeckt, dass tausenden Erwachsenen zu Unrecht das Kindergeld entzogen oder tausende Euro von ihnen zurückgefordert worden waren, vor allem von Ausländer:innen.

Amnesty International fordert sofortigen Stopp

Es sei schwierig festzustellen, ob das schwedische KI-System unter das KI-Gesetz falle. Zu dieser Unsicherheit trage die Verweigerungshaltung der schwedischen Behörden bei. Es gebe jedoch Hinweise darauf, dass das System das Recht auf Gleichbehandlung verletze und Menschen diskriminiere. Deshalb müsste es sofort abgestellt werden.

Bedenken äussert Amnesty auch gegenüber Künstlicher Intelligenz, die im dänischen und französischen Sozialsystem verwendet wird.

Weiterführende Informationen


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

Bildschirmfoto20180909um13_36_58

Reich, arm, ungleich

Grösser werdende soziale Kluften gefährden demokratische Rechtsstaaten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

Eine Meinung zu

  • am 9.01.2025 um 08:18 Uhr
    Permalink

    GEO EPOCHE Nr. 37: Die Deutsche Romantik; «Ein Medizinstudent verfasst im Frühjahr 1834 das wohl schärfste Pamphlet des Vormärz: In seiner Flugschrift „Der Hessische Landbote“ prangert Georg Büchner die Verschwendungssucht der Reichen und Mächtigen an – und ruft die arme Landbevölkerung zum Umsturz auf – Friede den Hütten! Krieg den Palästen!»

    Höchst bemerkenswerte Aussage im Artikel: «Frauen, Menschen mit migrantischem Hintergrund, Geringverdienende und Personen ohne universitären Abschluss wurden dabei übermässig häufig verdächtigt, zu betrügen.» Könnte wohl auch heissen, dass eine elitäre Oberschicht die Anti-Betrugs-KI benutzt, um die besitzlose und bildungsschwache Unterschicht und die feministische Schicht besser unter Kontrolle zu haben, um so soziale Unruhen rechtzeitig im Keime zu ersticken, man hat wohl die Sorge, die Paläste könnten eines Tages brennen, wenn es keine KI-Vorsorge gibt.
    Gunther Kropp, Basel

Ihre Meinung

Lade Eingabefeld...