Chat-GPT: auf Arabisch höhere Opferzahlen als auf Hebräisch
Red.– Der folgende Artikel ist eine Medienmitteilung der Universität Zürich. Titel und Vorspann von der Redaktion.
_____________________
Millionen von Menschen kommunizieren täglich mit Chat-GPT und anderen Large-Language-Models, etwa um Informationen zu erhalten. Doch wie werden die Antworten, welche die Sprachmodelle liefern, durch die Sprache der Suchanfrage beeinflusst? Macht es einen Unterschied, ob man dieselbe Frage auf Englisch oder Deutsch, Arabisch oder Hebräisch stellt? Christoph Steinert, Postdoc am Institut für Politikwissenschaft der Universität Zürich (UZH) und Physiker Daniel Kazenwadel von der Universität Konstanz in Deutschland haben diese Frage systematisch untersucht.
Informationen beeinflussen Verlauf bewaffneter Konflikte
Gewählt haben die Forscher ein sowohl aktuelles wie auch heikles Thema: bewaffnete Auseinandersetzungen wie den Nahostkonflikt oder den türkisch-kurdischen Konflikt. Sie haben Chat-GPT in einem automatisierten Verfahren wiederholt die gleichen Fragen in unterschiedlichen Sprachen gestellt. So haben die Wissenschaftler sowohl auf Hebräisch als auch auf Arabisch wiederholt gefragt, wie viele Opfer es bei 50 zufallsbasiert ausgewählten Luftangriffen – etwa dem israelischen Luftangriff auf das Nuseirat-Flüchtlingscamp am 21. August 2014 – gegeben habe.
«Wir haben herausgefunden, dass Chat-GPT systematisch höhere Opferzahlen angibt, wenn es auf Arabisch gefragt wird im Vergleich zu Hebräisch. Im Schnitt sind es 34 Prozent mehr», sagt Steinert. Wird Chat-GPT zu israelischen Luftangriffen in Gaza befragt, erwähnt es auf Arabisch im Durchschnitt doppelt so häufig zivile Opfer und sechs Mal so häufig getötete Kinder als auf Hebräisch. Das gleiche Muster fanden die Forscher auch, wenn sie nach Luftangriffen der türkischen Regierung auf kurdische Gebiete fragten und diese Fragen sowohl auf Türkisch als auch auf Kurdisch stellten.
«Das erste Opfer des Krieges ist die Wahrheit», lautet ein Kommentar, der dem US-Republikaner Hiram Johnson (1866-1945) zugeschrieben wird. Im Lauf der Geschichte haben selektive Informationspolitiken, Propaganda und Falschinformationen zahlreiche bewaffnete Konflikte beeinflusst. Was heutige kriegerische Auseinandersetzungen auszeichnet, ist die Verfügbarkeit einer noch nie dagewesenen Fülle von Informationsquellen – wie Chat-GPT.
Übertreibung in der einen, Beschönigung in der anderen Sprache
Die Ergebnisse zeigen generell, dass Chat-GPT höhere Opferzahlen angibt, wenn die Suchanfragen in der Sprache der angegriffenen Gruppe gestellt werden. Ausserdem neigt Chat-GPT dazu, in der Sprache der angegriffenen Gruppe über mehr getötete Kinder und Frauen zu berichten und die Luftangriffe eher als wahllos und willkürlich zu beschreiben. «Unsere Resultate zeigen gleichzeitig, dass die Luftangriffe in der Sprache des Aggressors von Chat-GPT mit einer höheren Wahrscheinlichkeit bestritten werden», ergänzt Steinert.
Dies hat nach Ansicht der Forschenden weitreichende gesellschaftliche Implikationen: Chat-GPT und andere Large-Language-Models spielen eine zunehmend zentrale Rolle in Prozessen der Informationsverbreitung. Implementiert in Suchmaschinen wie Google Gemini oder Microsoft Bing beeinflussen sie die Informationen, die man anhand von Suchanfragen zu den unterschiedlichsten Themen erhält, grundlegend.
«Wenn Menschen mit unterschiedlichen Sprachkenntnissen durch diese Technologien unterschiedliche Informationen erhalten, dann hat das einen zentralen Einfluss auf ihre Wahrnehmungen der Welt», sagt Christoph Steinert. Solche Sprachbiases könnten dazu führen, dass Menschen in Israel auf Grundlage der Informationen, die sie von Large-Language-Models erhalten, die Luftangriffe auf Gaza als weniger verlustreich einschätzen als die arabischsprachige Bevölkerung.
Vorurteile verstärken und Informationsblasen befeuern
Auch klassische Nachrichtenmedien können die Berichterstattung verzerren. Im Unterschied dazu sind aber die sprachbedingten systematischen Verzerrungen von Large-Language-Models für die meisten Anwenderinnen und Anwender schwer zu durchschauen. «Es besteht die Gefahr, dass die zunehmende Implementierung von Large-Language-Models in Suchmaschinen unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang von Sprachgrenzen verstärken», sagt Steinert, was bewaffnete Auseinandersetzungen wie den Nahostkonflikt in Zukunft weiter befeuern könnte.
Themenbezogene Interessenbindung der Autorin/des Autors
Der Politikwissenschaftler Christoph Steinert arbeitet an der Universität Zürich, die auch diesen Artikel verfasst hat.
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.
Das eine hat nichts mit dem anderem zu tun, wo holt man sich die Infos? Auf Medien seiten. So sind es eher genau diese die es zu Kritisieren gilt, nicht das ergebniss von chatGPT oder die von Google, die schlussendlich die selbe Quelle «Zittieren».
Als Endnutzer sollte man sich eher Fragen, glaubt man den Angreifern oder denn Angegriffenen. Ausserdem sollte chatgpt meist ja eine odere mehrere Quellen verlinken, die zeigen wer da gerade behauptet.