Universität Zürich deckt Sprachkonflikte bei ChatGPT auf
26 November 2024 09:49
Partner
Forschende des Instituts für Politikwissenschaften der Universität Zürich (UZH) haben den Informationsgehalt von Antworten beim Nutzen künstlicher Sprachmodelle in politischen Konfliktsituationen untersucht. Wie aus einer Mitteilung hervorgeht, fallen die Antworten je nach Sprache der Suchanfrage unterschiedlich aus.
Das Team um Christoph Steinert (UZH) und dem Physiker Daniel Kazenwadel (Universität Konstanz) stellte Fragen nach Opferzahlen im Nahostkonflikt über ChatGPT sowohl in Arabisch als auch in Hebräisch. In der arabischen Antwort wurden höhere, in der hebräischen niedrigere Opferzahlen angegeben, so ihr Ergebnis. Ähnlich Werte erzielte eine Untersuchung im Kurdenkonflikt, wo Fragen und Antworten je auf Kurdisch und auf Türkisch gestellt wurden.
„Wir haben herausgefunden, dass ChatGPT systematisch höhere Opferzahlen angibt, wenn es auf Arabisch gefragt wird im Vergleich zu Hebräisch. Im Schnitt sind es 34 Prozent mehr“, wird Christoph Steinert in der Mitteilung zitiert. „Wird ChatGPT zu israelischen Luftangriffen in Gaza befragt, erwähnt es auf Arabisch im Durchschnitt doppelt so häufig zivile Opfer und sechsmal häufiger getötete Kinder als auf Hebräisch. Das gleiche Muster fanden die Forscher auch, wenn sie nach Luftangriffen der türkischen Regierung auf kurdische Gebiete fragten und diese Fragen sowohl auf Türkisch als auch auf Kurdisch stellten.“
Die Forschenden befürchten, dass eine weitere Implementierung künstlicher Sprachmodelle wie ChatGPT zu sprachbedingten systematischen Informationsverzerrungen mit entsprechenden gesellschaftlichen Konsequenzen führen könnten. ce/ww