Problematische GenAI-Outputs: Bias, Diskriminierung und Stereotype

Viele GenAI-Modelle, die mit automatisch gesammelten Web-Scraping-Daten trainiert werden, weisen verschiedene Vorurteile auf, z.B. in Bezug auf Geschlecht, Behinderung und Religion. 

Der KI-Chatbot von Facebook hat Hassreden gegen Minderheiten geäußert [1]. Ebenfalls begann der Twitter-Chatbot Tay 16 Stunden nach seiner Veröffentlichung, provokante und neonazistische Kommentare abzugeben. Die KI-gestützte Software COMPAS neigt dazu, das Rückfallrisiko bei weißen Angeklagten zu unterschätzen und bei schwarzen Angeklagten zu überschätzen, was die systemische Voreingenommenheit historischer Justizdaten widerspiegelt [2].  

Algorithmen verstärken auch die soziale Diskriminierung am Arbeitsplatz. Das KI-Recruiting-Tool von Amazon diskriminiert weibliche Kandidatinnen, was auf die bestehenden Vorurteile im Einstellungs- und Beförderungssystem von Amazon zurückzuführen ist [3]. Durch die Entwicklung der GenAI-Tools werden ihre Vorurteile auch schwerer erkennbar, z. B. durch versteckten Rassismus in Bezug auf Dialekte. ChatGPT und Gemini diskriminieren Englischsprecher mit afroamerikanischem Dialekt, indem sie diese signifikant häufiger als „dumm“ und „faul“ bezeichnen und ihnen schlechter bezahlte Jobs zuweisen [4]

Müll rein, Müll raus

Der Lernprozess der GenAI führt dazu, dass sie alle rassistischen, sexistischen und andere schädliche Inhalte wiedergeben wird, denen sie im Internet begegnet. Ästhetische, kulturelle und andere gesellschaftliche Vorurteile, die in die Trainingsdaten eingebettet sind, können erfasst, reflektiert und sogar verstärkt werden, wodurch die Vielfalt verringert wird [5]. Dies kann erhebliche negative Folgen haben, z. B. die Aufrechterhaltung von Diskriminierung und Ungleichheiten.

Datenqualität und -fairness gewährleisten 

Um Vorurteile in AIGC zu vermeiden, sind die Qualität und Fairness der Trainingsdaten entscheidend. Der Einsatz synthetischer Daten kann die Vielfalt der Datensätze erhöhen und dabei helfen, Stereotypen zu beheben. Zudem sollten GenAI-Tools von vielfältigen Nutzern und Fachexperten zur Optimierung getestet werden. Darüber hinaus trägt eine höhere Transparenz der GenAI-Modelle dazu bei, Vorurteile zu erkennen und geeignete Korrekturmaßnahmen zu ergreifen. Da viele GenAI-Tools auf der ganzen Welt tätig sind, ist die kulturelle Sensibilität für verschiedene Regionen unerlässlich, um Missverständnisse zu vermeiden.

Maßnahmen gegen problematische AIGC 

OpenAI stellt InstructGPT vor, das menschliches Feedback verwendet, um durch Fine-tuning relevante und faire Antworten zu gewährleisten. LaMDA von Google spezialisiert sich auf einen sicheren und sachlichen Dialog, indem es eine Reihe von Metriken nutzt, die auf den Werten der KI-Prinzipien von Google basieren. Microsoft hat auch mit OpenAI kooperiert, um Schutzmaßnahmen gegen schädliche Inhalte in den GenAI-Ausgaben zu implementieren [6].  

Die Equal Employment Opportunity Commission (EEOC) in den USA hat neue KI-Richtlinien für Arbeitgeber veröffentlicht, um Arbeitnehmer vor KI-basierter Diskriminierung zu schützen. Der erste Fall, der eine Diskriminierung von Senior-Kandidaten betraf, wurde bereits 2023 verhandelt. Es ist absehbar, dass in Zukunft mehrere solcher KI-bezogene Fälle in Zukunft auftreten werden, was die Notwendigkeit weiterer Regelungsmaßnahmen verdeutlicht. 

Bild: Adobe Stock/ Sikov

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen