DigiLab -  Doris Kaufmann`s Newsletter
DigiLab - Doris Kaufmann`s Newsletter Podcast
Wenn Algorithmen die Armut verschärfen
0:00
Current time: 0:00 / Total time: -10:02
-10:02

Wenn Algorithmen die Armut verschärfen

Eine kritische Analyse moderner Technologie-Systeme

Dieser Blogpost und KI-generierter Podcast (notebooklm google / Audio Overview) fasst die wichtigsten Punkte des humanrights.ch-Artikels vom 17.10.2024 "Diskriminierung 2.0: Wie Algorithmen das Leben von Menschen in Armut erschweren"zusammen. Der Artikel beleuchtet, wie Algorithmen und KI-Systeme, anstatt Ungleichheiten zu verringern, diese oft verstärken und neue Formen der Diskriminierung für Menschen in Armut schaffen.

ideogram.ai prompted by Doris Kaufmann

Die dunkle Seite der künstlichen Intelligenz

In einer Zeit, in der künstliche Intelligenz und algorithmische Systeme zunehmend unseren Alltag bestimmen, zeigt sich eine besorgniserregende Entwicklung: Statt als Werkzeug zur Verringerung sozialer Ungleichheit zu dienen, verschärfen diese Technologien häufig bestehende Probleme. Besonders Menschen in prekären Lebenslagen sind von dieser digitalen Diskriminierung betroffen.

Staatliche Überwachung der Bedürftigen

Ein besonders kritischer Bereich ist die automatisierte Kontrolle von Sozialleistungsempfängern. In Frankreich beispielsweise nutzen Behörden einen Algorithmus, der das vermeintliche Betrugsrisiko beim Familienbeihilfefonds bewertet. Dabei werden Faktoren wie niedriges Einkommen, Arbeitslosigkeit und der Wohnort in benachteiligten Vierteln herangezogen – Kriterien, die bereits von sich aus auf eine schwierige soziale Lage hinweisen.

Der Fall SyRI: Ein warnendes Beispiel

Die Niederlande mussten 2020 ihr automatisiertes Betrugserkennungssystem SyRI nach einer gerichtlichen Intervention stoppen. Das System hatte systematisch Menschen aufgrund ihrer ethnischen Herkunft und ihres Einkommens diskriminiert. Dies verdeutlicht die Gefahr, wenn Algorithmen vorhandene gesellschaftliche Vorurteile reproduzieren und verstärken.

Bildungsungerechtigkeit durch Algorithmen

Die Problematik algorithmischer Diskriminierung macht auch vor dem Bildungssektor nicht halt. Während der Corona-Pandemie führte in Grossbritannien ein automatisiertes System zur Notenberechnung zu erheblichen Benachteiligungen von Schülern aus einkommensschwachen Familien. Das System basierte auf historischen Schulergebnissen und zementierte damit bestehende soziale Ungleichheiten.

Digitale Verfolgung von Obdachlosen

Besonders besorgniserregend ist der Einsatz von KI-Systemen zur Überwachung von Obdachlosen. In San José, USA, wurde eine KI entwickelt, die gezielt Zelte und Fahrzeuge von Obdachlosen erkennt. Was als Hilfsmittel zur Situationserfassung gedacht sein mag, birgt die Gefahr, zu einem Instrument der Vertreibung und Bestrafung zu werden.

Von Menschen zu Maschinen: Ein problematischer Wandel

Ein grundlegendes Problem zeigt sich im Übergang von persönlicher zu automatisierter Betreuung. Wo früher Sachbearbeiter individuelle Umstände berücksichtigen konnten, treffen heute Algorithmen standardisierte Entscheidungen. Diese können der Komplexität menschlicher Lebenssituationen oft nicht gerecht werden.

Handlungsbedarf auch in der Schweiz

Die Entwicklungen verdeutlichen den dringenden Bedarf nach einem verbesserten Diskriminierungsschutz, besonders in der Schweiz. Dieser muss die spezifischen Herausforderungen durch algorithmische Systeme berücksichtigen und wirksame Schutzmechanismen etablieren.

Fazit: Technologie im Dienste aller

Die zunehmende Digitalisierung der Verwaltung und sozialer Dienste birgt sowohl Chancen als auch erhebliche Risiken. Um zu verhindern, dass technologische Innovationen zu neuen Formen der Diskriminierung führen, braucht es einen bewussteren und gerechteren Einsatz dieser Systeme. Nur so kann sichergestellt werden, dass die Digitalisierung tatsächlich zum Wohl aller Gesellschaftsmitglieder beiträgt und nicht zu einer weiteren Verschärfung sozialer Ungleichheiten führt.

Quelle

https://www.humanrights.ch/de/news/diskriminierung-20-algorithmen-leben-menschen-armut-erschweren

Tool

notebooklm / Audio Overview

Bild

idegram.ai prompted by Doris Kaufmann

A photo of a person in worn-out clothes standing in front of a monumental, faceless screen. The screen displays rejection notices, red X symbols, and declining scoring graphs. There is a binary code raining down like digital rain over the scene. The background is a sterile, white room.

Discussion about this podcast

DigiLab -  Doris Kaufmann`s Newsletter
DigiLab - Doris Kaufmann`s Newsletter Podcast
DigiLab | Kreativ mit Medien