Anzeige
Anzeige
Anzeige
Lesedauer 2 Min.

KI-Bots passen Antworten an Bildungsstand an

Nutzer mit geringeren Englischkenntnissen, weniger formaler Bildung und nicht-amerikanischer Herkunft erhalten von KI-Chatbots schlechtere, oft falsche Infos.

Elinor Poole-Dayan  präsentiert ihre Forschungsergebnisse

© Clayton Cohn, mit.edu

Zu dem Schluss kommen Forscher des Center for Constructive Communication am Massachusetts Institute of Technology (MIT). Am ausgeprägtesten ist der Effekt demnach bei Usern, die sich an der Schnittstelle dieser Kategorien befinden: Bei Benutzern mit geringer formaler Bildung, die zudem Nicht-Muttersprachler sind, ist der Rückgang der Antwortqualität am grössten, heisst es.

Korrektes US-Englisch nötig

Die Forscher haben die modernsten KI-Chatbots, darunter GPT-4 von OpenAI, Claude 3 Opus von Anthropic und Llama 3 von Meta getestet. In einigen Fällen reagierten sie sogar mit herablassender oder bevormundender Sprache, wenn die Frage nicht in korrektem amerikanischem Englisch gestellt worden war. Die Sprachmodelle machen oft auch Unterschiede bei Nutzern aus unterschiedlichen Ländern.

Bei Tests mit Fragestellern aus den Vereinigten Staaten, dem Iran und China mit gleichwertigem Bildungshintergrund hat Claude 3 Opus bei Nutzern aus dem Iran deutlich schlechter abgeschnitten. Das Modell hat sich auch geweigert, Nutzern aus dem Iran oder Russland Infos zu bestimmten Themen zu geben, unter anderem bei Fragen zu Kernenergie, Anatomie und historischen Ereignissen, obwohl das Tool dieselben Fragen für andere Nutzer zuvor korrekt beantwortete.

Tools werden oft überschätzt

"Wir waren motiviert von der Aussicht, dass KI-Sprachmodelle dazu beitragen könnten, die ungleiche Zugänglichkeit von Informationen weltweit zu beseitigen. Diese Vision kann jedoch nicht Wirklichkeit werden, ohne sicherzustellen, dass Modellverzerrungen und schädliche Tendenzen für alle Nutzer, unabhängig von Sprache, Nationalität oder anderen demografischen Merkmalen, sicher gemildert werden", erklärt MIT-Expertin Elinor Poole-Dayan.

"Werden solche KI-Tools in grossem Massstab genutzt, besteht das Risiko, dass Fehlinformationen ausgrechnet an diejenigen weitergegeben werden, die am wenigsten in der Lage sind, dies zu erkennen", warnt MIT-Computerwissenschaftler Jad Kabbara abschliessend. (pressetext.com)

Forschung Gesellschaft
Anzeige

Neueste Beiträge

Peter Gassmann verlässt Abraxas
Peter Gassmann, Geschäftsleitungsmitglied von Abraxas, hat sich entschieden das Unternehmen per Ende Juli 2026 zu verlassen. Die Suche nach einer qualifizierten Nachfolge in dieser Führungsposition im strategisch wichtigen Tätigkeitsfeld ist lanciert.
2 Minuten
26. Mär 2026
KI-Ausschreibung für 57 Mio. Franken von Bundeskanzlei
Die Bundeskanzlei lanciert eine Ausschreibung zur Beschaffung von IT-Dienstleistungen in den Bereichen Daten und künstliche Intelligenz (KI) für insgesamt 57 Millionen Franken. Die Ausschreibung wurde auf der Plattform für öffentliche Ausschreibungen Simap.ch veröffentlicht.
2 Minuten
26. Mär 2026
iWay blickt auf ein erfolgreiches Geschäftsjahr 2025 zurück
Der Internetanbieter iWay wächst 2025 in allen Kernbereichen und stärkt das Partnergeschäft. 2026 wird das Wholesale-Teams ausgebaut.
3 Minuten
26. Mär 2026

Das könnte Sie auch interessieren

Digitale Kriminalität bleibt auf ähnlichem Niveau wie 2024
Insgesamt sind 554'963 Straftaten gemäss Strafgesetzbuch (StGB) im Jahr 2025 verzeichnet worden. 57'761 Straftaten wurden mit einem digitalen Tatvorgehen erfasst.
3 Minuten
25. Mär 2026
Zoom erweitert KI-Plattform mit Agentenfunktionen
Neue KI-Funktionen sollen Unternehmensprozesse stärker automatisieren. Dazu führt Zoom agentenbasierte Workflows ein, die Aktionen direkt aus Meetings, Anrufen oder Kundeninteraktionen heraus auslösen können.
3 Minuten
11. Mär 2026
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige