Wie Regierungen mit künstlicher Intelligenz manipulieren
KI-basierte Tools, die Text, Audio und Bilder generieren sowie bestehende Inhalte analysieren können, sind in kurzer Zeit immer ausgefeilter, zugänglicher und benutzerfreundlicher geworden. Dies hat weltweit zu einer besorgniserregenden Eskalation von Desinformationstaktiken geführt. Regierungen und politische Akteure auf der ganzen Welt, sowohl in Demokratien als auch in Autokratien, nutzen KI, um Texte, Bilder und Videos zu generieren, welche die öffentliche Meinung zu ihren Gunsten manipulieren, oder sie nutzen KI, um kritische Online-Inhalte automatisch zu zensieren. Das zeigt eine neue, detaillierte Studie von «Freedom House», einer Menschenrechtsorganisation in den USA.
In der Studie dokumentieren die Forscher insbesondere den Einsatz generativer KI in 16 Ländern, «um Zweifel zu säen, Gegner zu verleumden oder die öffentliche Debatte zu beeinflussen». Es sei «ein ganzer Markt von Auftragsdienstleistungen entstanden, welche die staatlich unterstützte Manipulation von Inhalten unterstützen», heisst es in dem Bericht. Mit diesem Outsourcing werde es schwerer, Regierungen eine Einflussnahme nachzuweisen.
Staatsbeamte geben Aufträge
«Staatsbeamte haben Netzwerke von privaten Akteuren aufgebaut, die bereit sind, falsche und irreführende Inhalte zu verbreiten. Anstatt das politische Risiko einzugehen oder die Ressourcen zu entwickeln, um sich selbst an solchen Aktivitäten zu beteiligen, kann eine Wahlkampagne, ein Politiker oder ein Ministerium einfach einen Social-Media-Influencer oder eine PR-Firma beauftragen, die lukrative Verträge und politische Verbindungen über ethische oder rechtliche Integrität stellen.»
Neben Russland führt der Bericht als ein Beispiel Israel an. Dort sei «ein wachsender Markt von Unternehmen entstanden, die Desinformationen in Auftrag geben». Eine Untersuchung mehrere Medien, darunter der «Guardian», habe 2023 die Arbeit einer in Israel ansässigen Firma namens Team Jorge aufgedeckt. Sie nutze demnach eine Online-Plattform, die automatisch Texte auf der Grundlage von Schlüsselwörtern erstellen kann und diese dann über ein Netzwerk von gefälschten Konten in den sozialen Medien verbreite. So habe die Firma etwa Geschichten gestreut, die Anschuldigungen in Zweifel ziehen sollten gegen den ehemaligen Direktor der mexikanischen Kriminalpolizei, er sei in Folter, Entführung und Fälschung von Beweisen verwickelt.
In Angola unterstützte das in Israel ansässige Unternehmen Mind Force laut dem «Freedom House»-Bericht über ein Netzwerk von Meta-Konten mit Posts die regierende Volksbewegung für die Befreiung Angolas und machte Stimmung gegen die wichtigste Oppositionspartei des Landes. «Ein Mitarbeiter von Mind Force gab öffentlich bekannt, dass die angolanische Regierung ein Kunde war.»
Die Internetfreiheit geht seit mehr als einem Jahrzehnt zurück
Der jährliche Bericht «Freedom on the Net» bewertet Länder nach ihrem relativen Grad an Internetfreiheit, gemessen an einer Vielzahl von Faktoren wie Internetabschaltungen, Gesetzen, die die Online-Meinungsäusserung einschränken, und Vergeltungsmassnahmen für Online-Meinungsäusserungen. Die Ausgabe 2023, die am 4. Oktober veröffentlicht wurde, ergab, dass die globale Internetfreiheit im 13. Jahr in Folge zurückging, wesentlich zurückzuführen auf die Verbreitung künstlicher Intelligenz.
Zusätzlich zu generativen KI-Tools hätten Regierungen auch in herkömmliche Taktiken intensiviert, wie zum Beispiel der Verwendung einer Kombination aus menschlichen und Bot-Kampagnen, um Online-Diskussionen zu manipulieren. Mindestens 47 Regierungen hätten im Jahr 2023 Kommentatoren eingesetzt, um Propaganda zu verbreiten – doppelt so viele wie noch vor zehn Jahren, analysiert der Bericht.
«Freedom House» kann allerdings nicht als komplett unabhängig bezeichnet werden. Die Organisation hat ihren Sitz in Washington und wird zum Teil mit Geldern der US-Regierung finanziert. Die «Twitter Files» etwa werden in der Studie nicht erwähnt.* In ihrer Selbstdarstellung bezeichnet sich «Freedom House» als «Organisation, die sich der Unterstützung und Verteidigung der Demokratie auf der ganzen Welt verschrieben hat.»
KI verschärft die Krise der Internetfreiheit
«Die Freiheit des Internets ist auf einem historischen Tiefstand, und die Fortschritte in der KI verschlimmern diese Krise sogar noch», so Allie Funk, eine Forscherin und Mitautorin des Forschungsberichts. Funk sagt, dass eine ihrer wichtigsten Erkenntnisse in diesem Jahr mit Veränderungen in der Methode zu tun habe, wie Regierungen KI einsetzten. Man fange erst an zu lernen, wie die Technologie die digitale Unterdrückung fördert. Funk identifiziert zwei Hauptfaktoren für diese Veränderungen:
- Die Erschwinglichkeit und Zugänglichkeit generativer KI senke die Eintrittsbarriere für Desinformationskampagnen.
- Innovationen im Bereich der KI hätten es den Regierungen ermöglicht, Zensur präziser und subtiler einzusetzen. Sie sei schwieriger nachweisbar und behindere so eine öffentliche Gegenreaktion. Dies senke die politischen Risiken für die Machthaber.
Deepfakes sind die neuste Sphäre der Desinformation
Während Wahlperioden und in Phasen politischer Krisen würden besonders viele KI-generierte, falsche Inhalte produziert, stellt der Bericht fest. So hätten venezolanische Staatsmedien beispielsweise regierungsfreundliche Botschaften durch KI-generierte Videos von Nachrichtensprechern eines nicht existierenden internationalen englischsprachigen Kanals verbreitet. Diese seien von «Synthesia» produziert worden, einem Unternehmen, das kundenspezifische Deepfakes anbietet.
Ein weiteres, im Bericht von «Freedom House» genanntes Beispiel war Pakistan: Dort teilte der ehemalige Premierminister Imran Khan im Mai 2023, inmitten eines eskalierenden politischen Konflikts zwischen ihm und dem vom Militär unterstützten Establishment, ein KI-generiertes Video. Es zeigte eine Frau, die sich furchtlos der Polizei entgegenstellte. Khan habe so den Eindruck erwecken wollen, dass die Frauen Pakistans zu ihm stünden und nicht zum Militär.
«Vor den nigerianischen Wahlen im Februar 2023 wurden Influencer bezahlt – einer erhielt Berichten zufolge bis zu 45’000 US-Dollar – um falsche Geschichten zu verbreiten, die politische Kandidaten mit militanten oder separatistischen Gruppen in Verbindung brachten», heisst es in dem Bericht. Während der Wahlen in Kenia im August 2022 hätten Influencer mit den Trending-Funktionen von Social Media-Plattformen gespielt, um irreführende politische Hashtags zu verbreiten. «So wurde beispielsweise mit dem Hashtag #ChebukatiCannotBeTrusted versucht, die unabhängige Wahlbehörde des Landes zu untergraben, indem suggeriert wurde, dass ihr Leiter einen Präsidentschaftskandidaten gegenüber den anderen unterstützt.» Ähnliche Netzwerke von Influencern hätten Desinformationskampagnen gegen kenianische Journalisten, Richter und Mitglieder der Zivilgesellschaft koordiniert. Und in den Vereinigten Staaten machten KI-manipulierte Videos und Bilder von politischen Führern in den sozialen Medien die Runde. Als Beispiele führt der Bericht ein Video an, in dem Präsident Biden transphobe Kommentare abgibt, und ein Bild von Donald Trump, der Anthony Fauci umarmt.
KI-Zensur nährt Zweifel und Vertrauensverlust
Obwohl diese neusten Entwicklungen nicht unbedingt überraschend seien, sagt Funk, bestehe eine der interessantesten Erkenntnisse darin, dass die weit verbreitete Zugänglichkeit generativer KI das Vertrauen in überprüfbare Fakten untergraben könne. Selbst wenn Deepfakes offensichtlich fabriziert oder schnell als solche entlarvt würden, schwächten sie dennoch die Informationssphäre, indem sie eine zuverlässige und unabhängige Berichterstattung übertöne, Aktivisten und Journalisten zur Selbstzensur anrege und das Vertrauen der Öffentlichkeit in demokratische Prozesse untergrabe. KI-generierte Bilder könnten die Empörung über kontroverse Themen hochschaukeln und so die Polarisierung und andere bestehende Spannungen innerhalb der Gesellschaft verfestigen. Im Extremfall könne es zu Gewalt gegen Einzelpersonen oder ganze Gemeinschaften kommen. Die Auswirkungen von KI-generierter Desinformation würden sich noch verstärken, fürchtet Funk. Denn ihre Häufung und zunehmende Raffinesse werde es Beobachtern, Moderatoren und Regulierungsbehörden zunehmend erschweren, sie als Desinformation zu erkennen, zu entlarven oder zu entfernen.
Manipulatoren machen sich «Lügendividende» zunutze
Wenn KI-generierte Inhalte im Internet zur Normalität werden, warnt die Studie, «wird es politischen Akteuren ermöglicht, verlässliche Informationen in Zweifel zu ziehen». Es ist ein Phänomen, das als «Lügendividende» bekannt ist, bei dem die Vorsicht vor Fälschungen die Menschen skeptischer auch gegenüber wahren Informationen macht, insbesondere in Krisenzeiten oder politischen Konflikten, wenn falsche Informationen weit verbreitet sein können. So lösten im April 2023 durchgesickerte Tonaufnahmen von Palanivel Thiagarajan, einem prominenten indischen Beamten, eine Kontroverse aus, nachdem sie zeigten, wie der Politiker Parteifreunde verunglimpfte. Prompt bezeichnete Thiagarajan die Audioclips als maschinell generiert. Unabhängige Forscher stellten später fest, dass mindestens eine der Aufnahmen authentisch war.
Social Media Kanäle als Gehilfen der Staatszensur
In vielen Ländern verbieten die Gesetze Formen der politischen, sozialen und religiösen Meinungsäusserung, die nach internationalen Menschenrechtsstandards frei und geschützt sein sollten. In mindestens 22 solcher Länder seien Social-Media-Unternehmen verpflichtet worden, automatisierte Systeme zur Moderation und gegebenenfalls Unterdrückung von Inhalten einzusetzen. Dies sei explizit sie auch indirekt geschehen, durch die Auferlegung knapper Fristen für die Entfernung von verbotenem Material. Dieser Einsatz von KI sei nicht nur sehr effizient, er verschleiere zudem die Rolle des Staates bei der Zensur, mahnt die Studie.
KI-Technologie ist nicht vor Missbrauch zu schützen
Unternehmen wie OpenAI und Google haben Leitplanken eingeführt, um einige offenkundig schädliche Anwendungen ihrer Chatbots zu reduzieren. Forscher hätten jedoch Techniken identifiziert, um die Sicherheitsvorkehrungen beliebter Chatbots zu durchbrechen, so dass sie schädliche, falsche, diskriminierende oder missbräuchliche Texte erzeugten, einschliesslich Fehlinformationen über die COVID-19-Pandemie und die russische Invasion in der Ukraine. Generative KI-Anwendungen hätten auch falsche und schädliche Aussagen über prominente Mitglieder der Zivilgesellschaft hervorgebracht. Die Gefahren von KI-gestützten Desinformationskampagnen würden in die Höhe schnellen, da böswillige Akteure zusätzliche Möglichkeiten entwickelten, Sicherheitsvorkehrungen zu umgehen und Open-Source-Modelle auszunutzen.
Immer öfter werden Internetdienste ganz gesperrt
Wenig überraschend stellt die Studie fest, dass vor allem autoritäre Regime KI nutzen, um Zensur auszuweiten und effektiver zu machen. Diese sind es auch, die nach wie vor zum ultimativen Mittel der Sperrung und Blockierung greifen. Insgesamt hätten im vergangenen Jahr 41 Regierungen Websites für politische, soziale und religiöse Äusserungen gesperrt, was «die Verschärfung der Zensur auf der ganzen Welt» belege, sagt Funk. In der Rangliste von Freedom House verzeichnen Myanmar und China die restriktivste Internetzensur – ein Titel, den China seit neun Jahren in Folge innehat. Den stärksten jährlichen Rückgang der Internetfreiheit weist aktuell der Iran aus. Nach den historischen Protesten hatten die Behörden im Herbst 2022 Internetdienste abgeschaltet, WhatsApp und Instagram blockiert und die Überwachung massiv verstärkt.
_____________________
*Infosperber fragte am 19.10.2023 bei «Freedom House» nach, weshalb die Twitter Files und der Druck, den die US-Regierung auf Twitter ausübte, damit bestimmte Tweets oder Twitter-Konten nur wenig Reichweite erzielten, im Bericht nicht genannt wurden. Falls noch eine Antwort eintrifft, werden wir sie hier vermerken.
Themenbezogene Interessenbindung der Autorin/des Autors
Keine. Übersetzung mit Hilfe von deepl.com
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.
Darin, so vermute ich, liegt auch die Hauptursache, warum sich die Covid19-«Pandemie», im Gegensatz zur «Schweinegrippe» zehn Jahre zuvor, zu einer weltweiten Massenhysterie ausweiten konnte, obwohl die übrigen Startbedingungen praktisch die gleichen waren. Darin, und in den unsäglichen «Tests».
Der Fokus sollte hier auf den Algorithmen liegen, welche soziale Netzwerke und Suchmaschinen verwenden, um ihren Nutzern Posts zu empfehlen und zu zeigen, oder eben nicht zu zeigen. Das sind meist opake Softwareanweisungen, die auf bestimmten Kriterien basieren, die ihnen vorgegeben wurden. In diesen Kriterien liegt immer auch mehrere subjektive Wertungen der Bewertenden, die des Öfteren zweifelhaft sind, aber immer deren Weltanschauung widerspiegeln.
Kurz, verbietet man sozialen Medien die Verwendung solcher «Empfehlungsalgorithmen», wird es automatisch besser. Den Begriff «AI» oder «KI» sollte man hier sowieso nicht verwenden, das ist ein Begriff des Marketings der IT-Branche.