AI KI USA vs EU kaohoon

AI = Artificial Intelligence / KI = Künstliche Intelligenz © kaohoon

Im KI-Wettlauf geraten die USA und die EU auf Kollisionskurs

Hanna Muralt Müller /  Geopolitische Verwerfungen haben den dritten internationalen AI-Summit überschattet. Für die Schweiz eröffnen sich neue Chancen.

Red. Als Vizekanzlerin im Bundeshaus von 1991 bis 2005 leitete die Autorin verschiedene Digitalisierungsprojekte. Nach der Pensionierung engagierte sie sich ehrenamtlich für die Digitalisierung im Bildungsbereich. Heute analysiert Hanna Muralt Müller Chancen und Risiken der künstlichen Intelligenz in ihren Newslettern.


Zu einem Eklat zwischen den USA und der EU kam es am dritten AI-Summit in Paris Anfang Februar. Es ging um die Definition der Meinungsäusserungsfreiheit und entsprechende Vorschriften für die Plattformen. Die USA kritisierten scharf die diesbezüglichen EU-Vorgaben, blendeten aber aus, dass sie selbst zurzeit Zensur ausüben. Die Schweiz könnte in beiden Problemkreisen – sowohl in der Sicherheitsforschung wie in der Regulierung von Plattformen – Pionierarbeit leisten.

Im Unterschied zu den beiden ersten AI-Summits in Bletchley und in Seoul standen in Paris nicht mehr Fragen der KI-Sicherheit im Zentrum. Vielmehr ging es um Investitionen im geopolitischen Wettlauf der USA mit China und um die Positionierung von KI in Europa.

USA im KI-Wettlauf herausgefordert

Seit dem kleinen chinesischen Start-up DeepSeek, das im Januar ein Beben an der US-Börse auslöste, steht ein den proprietären US-Sprachmodellen ebenbürtiges Tool zur kostenlosen Nutzung und Weiterentwicklung zur Verfügung. Da dieses mit weit geringeren Investitionen entwickelt wurde und sich auch im Betrieb als sehr viel kostengünstiger erwies, war die Führungsrolle der USA in der KI-Entwicklung in Frage gestellt. Für Europa eröffneten sich neue Chancen (siehe Infosperber vom 28.1.2025).

Sicherheitsfragen – nur noch am Rand der Diskussionen

Sowohl am ersten internationalen AI-Summit in Bletchley bei London vom Dezember 2023 wie auch am zweiten in Seoul im Mai 2024 standen Sicherheitsfragen, insbesondere potenzielle, schwerwiegende KI-Risiken, im Zentrum. Diese sollten künftig in enger Zusammenarbeit angegangen werden. Die Befürchtung, dass eine KI ausser Kontrolle geraten könnte, wurde in der Bletchley-Erklärung – Ergebnis des ersten Summits – und noch deutlicher in der Pressemitteilung der britischen Regierung nach dem zweiten KI-Gipfel in Seoul thematisiert (the potential frontier AI capability «to evade human oversight», siehe Infosperber vom 30.11.2024).

Die bisherigen AI-Summits haben bereits einiges bewirkt. Gemäss einer in Seoul gefassten Absichtserklärung trafen sich am 20./21. November 2024 in San Francisco mehrere nationale Sicherheitsinstitute und gründeten das International Network of AI Safety Institutes. Dieses Netzwerk will in internationaler Zusammenarbeit Verfahren zur KI-Risikoeinschätzung und -minderung erarbeiten.

Am dritten Summit in Paris wurden KI-Investitionen angekündigt, und die Diskussionen fokussierten sich auf konkrete Probleme, so unter anderem auf die Auswirkungen der KI auf Energie und Umwelt, auf den Arbeitsmarkt und auf Fragen zur weltweit wachsenden digitalen Kluft.

Eklat am AI Summit in Paris – die USA scheren aus dem Wertekonsens aus

Wie die britische Tageszeitung The Guardian am 11. Februar 2025 berichtete, kritisierte Vizepräsident Vance nicht nur die Debatten zu Sicherheitsfragen am AI-Summit in Bletchley; er wandte sich generell gegen Vorschriften. Er attackierte die EU-Vorgaben, die in seiner Sicht die Meinungsäusserungsfreiheit einschränkten. Es gehe nicht, Menschen den Zugang zu Meinungen zu verwehren, die Regierungen als Fehlinformationen hielten. Er lehnte es am Schluss des Summits ab, die gemeinsame Erklärung zu unterzeichnen.

Diese gemeinsame Erklärung, das Statement on Inclusive and Sustainable Artificial Intelligence for People and the Planet, hielt die Ergebnisse des dritten AI-Summits fest. Mit ihrer Unterschrift erklären rund 60 Staaten, darunter die Schweiz, dass sie die Entwicklung einer KI – mit dem Fokus auf offenen KI-Modellen – unter Berücksichtigung von Ethik, Nachhaltigkeit, Inklusion und sozialer Gerechtigkeit vorantreiben wollen.

Das Vereinigte Königreich unterzeichnete auch nicht – aus anderen Gründen

Gemäss The Guardian vom 11. Februar 2025 gab der Sprecher der britischen Regierung als Grund für die Weigerung zur Unterschrift an, die gemeinsame Erklärung befasse sich zu wenig mit der nötigen globalen Governance und mit den Auswirkungen auf die nationale Sicherheit («the statement had not gone far enough in addressing global governance of AI and the technology’s impact on national security»).

Was mit dieser Aussage gemeint sein könnte, lässt sich der Pressemitteilung entnehmen, mit der die britische Regierung kurz vor dem Summit in Paris den ersten International AI Safety Report veröffentlichte. Dieser war am Bletchley-Kongress in Auftrag gegeben worden und enthielt in einem 300 Seiten umfassenden Bericht Beiträge von rund 100 weltweit führenden KI-Koryphäen aus 30 Ländern, auch aus der Schweiz. Die Leitung oblag Yoshua Bengio, dem bekannten Warner vor einer KI, die ausser Kontrolle geraten könnte. Joshua Bengio wirkte seit August 2024 als Scientific Director im Programm Safeguarded AI der britischen Organisation Advanced Research and Invention Agency, ARIA, mit, um eine KI zu entwickeln, die Sicherheitsrisiken bei einer anderen KI erkennen und reduzieren kann (siehe Infosperber vom 19.1.2025).

Obwohl dieser Bericht als wichtiger Input für den AI Summit in Paris gedacht war, stand er nicht im Zentrum der Diskussionen – was die Briten etwas verstimmt haben könnte. Die britische Regierung hielt in ihrer Pressemitteilung fest, dass sie die Arbeiten unter der Leitung von Joshua Bengio auch 2025 weiterführen werde. 

Europa packt die Chance, bei KI aufzuholen

Mit DeepSeek verfügt Europa über ein potentes Open-Source-Tool auf dem aktuellen Wissensstand, das sich weiterentwickeln lässt. Mit KI-Investitionen in Milliardenhöhe will Europa nun aufholen. Wie die britische Nachrichtenagentur Reuters am 9. Februar 2025 berichtete, gab Frankreichs Präsident Macron bekannt, dass private Investoren – beispielsweise die kanadische Investmentfirma Brookfield und Geldgeber aus den Vereinigten Arabischen Emiraten – 109 Milliarden Euro in die KI in Frankreich investieren würden.

Die EU-Kommissionspräsidentin Ursula von der Leyen lancierte am Summit die Initiative InvestAI. Mit dieser sollen 200 Milliarden Euro für KI-Investitionen mobilisiert werden – 150 Milliarden werden von privaten Investoren, insbesondere aus der Industrie, geäufnet. Das Projekt soll, einem CERN für KI ähnlich, in öffentlich-privater Partnerschaft die Entwicklung vertrauenswürdiger KI in offener Zusammenarbeit fördern.

Zusätzlich zu den sieben KI-Gigafabriken, welche die EU auf ihrer Homepage bereits im Dezember 2024 ankündigte, sollen über den InvestAI-Fonds vier weiter finanziert werden. KI-Gigafabriken oder AI-Factories sind hochspezialisierte Rechenzentren, die allen Unternehmen den Zugang zur nötigen Rechenleistung für industrielle KI-Anwendungen öffnen. Als Zentren eines europäischen KI-Netzwerks mit je unterschiedlichen Schwerpunkten in den verschiedenen Ländern nutzen diese AI Factories die Hochleistungsrechenkapazitäten des EuroHPC, des The European High Performance Computing Joint Undertaking, und sollen Europa zum KI-Kontinent entwickeln.

Diese beiden Ankündigungen sind die Antwort am AI-Summit in Paris auf die von Trump im Januar angekündigten 500 Milliarden Dollar für das Projekt Stargate.

Die USA sind generell gegen Vorschriften und Gesetze

Die USA wollen sich im Wettrennen mit China keinesfalls von potenziellen Sicherheitsrisiken bremsen lassen. Wie Reuters am 21. Januar 2025 berichtete, widerrief Trump, wie im Wahlkampf angekündigt (siehe Infosperber vom 30.11.2024), unmittelbar nach seinem Amtsantritt die im Vergleich zum AI Act der EU bescheidene KI-Regulierung, die sein Vorgänger Biden am 30. Oktober 2023 mit seiner Executive Order erlassen hatte.

Die USA wenden sich neuerdings auch gegen jegliche Vorschriften für Plattformen. Noch schärfer als am AI-Summit attackierte Vizepräsident Vance die EU an der Münchner Sicherheitskonferenz vom 14.-16. Februar 2025 (Rede im Original: Video, 20’). Die Bedrohung, die ihm am meisten Sorge bereite, sei nicht Russland, nicht China, sondern eine Gefahr aus dem Innern der europäischen Länder – weil sie die Meinungsäusserungsfreiheit unterdrückten (so Reuters am 14. Februar 2025).

Vizepräsident Vance stellte damit die europäischen Demokratien auf die Ebene autoritärer Regimes mit ihrer Zensur. Er zielte damit insbesondere auf den Digital Services Act der EU, der Plattformbetreiber unter Strafandrohung verpflichtet, gegen illegale Inhalte und Desinformation vorzugehen. Nicht angesprochen war der AI Act der EU, das weltweit erste staatenübergreifende Gesetzeswerk zum Einsatz von künstlicher Intelligenz. Dieses ist zwar bereits in Kraft, wird aber erst ab 2025 gemäss Zeitplan der EU umgesetzt.

Es sind die von der EU verhängten Geldstrafen gegen Big Tech, über die sich Präsident Trump bereits in seiner zugeschalteten Rede am Weltwirtschaftsforum 2025 in Davos masslos ärgerte. Wie die US- (Online-)Zeitung The Hill berichtete, entschied das oberste Gericht der EU im September 2024, dass Apple Irland Steuernachzahlungen von 13 Milliarden Euro und Google 2,4 Milliarden wegen kartellrechtlicher Verstösse zu bezahlen habe.

Zurzeit läuft ein Verfahren der EU gegen Musks Plattform X wegen Verstössen gegen den EU Digital Services Act. Wie The Guardian am 17. Januar 2025 berichtete, verlangte die EU-Kommission Einblick in die Algorithmen. Sie will überprüfen, ob diese gezielt rechtsextreme Inhalte fördern und ob Wahlbeeinflussung betrieben wird. Es bleibt abzuwarten, ob und wie die EU dem Druck der USA gegen diese Ermittlungen standhält.

Faktenchecks – Algorithmen als schwerwiegendes Problem

Faktenchecks sind in den USA nicht gefragt. Marc Zuckerberg schaffte diese in den USA unmittelbar nach Trumps Amtsantritt für Facebook und Instagram ab (siehe Infosperber vom 11.1.2025). Die exzessive US-Interpretation der Meinungsäusserungsfreiheit öffnet manipulativen Inhalten Tür und Tor. Noch schwerer wiegt jedoch die Problematik der nicht offengelegten Algorithmen. Über diese wird gesteuert, was Nutzende zu sehen und zu lesen erhalten. Im Fall von X und TikTok bevorzugen diese nachweisbar vor allem rechtsextreme Inhalte (siehe Infosperber vom 28.2.2025).

Meinungsäusserungsfreiheit – jedoch Knebelung von Forschung und Medien

In den USA schützt der erste Zusatzartikel der Verfassung die freie Meinungsäusserung. Diese ist nicht nur ein Menschenrecht, sie ist auch Grundpfeiler von Forschungs- und Medienfreiheit.

Trotzdem kommen die Hochschulen und Universitäten unter Druck. Das berichtete Anfang März 2025 The Conversation, die Website eines internationalen akademischen Netzwerkes. Es geht darum, auch weiterhin in Bereichen zu forschen und Ergebnisse zu publizieren, die der Trump-Administration nicht passen (zum Beispiel in der Klimaforschung). Noch ist offen, ob und wie die Hochschulen ihre bisherige Wissenschaftsfreiheit verteidigen können.

Einfacher ist es, die Medien zu knebeln. Als die grosse US- Nachrichtenagentur Associated Press sich weigerte, die neue Bezeichnung Golf von Amerika für den Golf von Mexiko zu übernehmen, sperrte sie Trump aus dem Pressepool des Weissen Hauses aus. Der Pressepool, eine unabhängige Vereinigung der Medienvertretungen, kommentierte gemäss The Guardian, die Unabhängigkeit der freien US-Presse sei in Gefahr («…tears at the independence of a free press in the United States»).

Trump macht mit seiner Drohung ernst, Medien zu bestrafen, die nicht in seinem Sinne berichten. Er will offensichtlich ein Informationssystem aufbauen, das von jenen dominiert und kontrolliert wird, die seine Ansichten vertreten. Die Federal Communications Commission (FCC) hat unter der neuen, von Trump eingesetzten Leitung von Brendan Carr Ermittlungen gegen mehrere Medienunternehmen angeordnet, wie The Guardian am 24. Februar 2025 berichtete.

Wegen eines angeblich irreführenden Interviews mit Kamala Harris im Wahlkampf verklagte Trump CBS (Columbia Broadcasting System, eines der grössten US-Fernseh-Netzwerke) auf mittlerweile 20 Milliarden Dollar, so The Guardian am 7. März 2025.

Es bleibt abzuwarten, ob die Gerichte die verfassungsmässig garantierte Medienfreiheit schützen werden. Für Medienunternehmen sind bereits eingereichte Klagen ein Problem, da sie Zeit und Ressourcen binden. Die Einschüchterung könnte funktionieren, kein Medienunternehmen will ins Kreuzfeuer der Trump-Administration geraten. Wie The Guardian am 5. März 2025 berichtete, hat der Eigentümer der Los Angeles Times, Patrick Soon-Shlong, verordnet, dass künftig eine KI, nicht mehr die Redaktion, entscheiden soll, was auf der Meinungsseite publiziert wird.

Beispiel der Washington Post

Der Milliardär Jeff Bezos, Eigentümer der Washington Post, intervenierte in voreiligem Gehorsam bereits im Wahlkampf vom letzten Jahr bei der Redaktion und hinderte diese die bisher übliche Wahlempfehlung für die Kandidatur der Demokraten – für Kamala Harris – zu publizieren. Wie The Guardian am 26. Februar 2025 berichtete, verlor die Washington Post anschliessend 250’000 Abonnemente, und Starautorinnen und -autoren kündigten.

Die Pulitzer-Preisträgerin Ann Telnaes verliess im Januar die Redaktion, weil sie ihre Karikatur – milliardenschwere Medienunternehmen, darunter die Washington Post, liegen zu Füssen von Trump (siehe Infosperber vom 5.1.2025) – nicht publizieren konnte. Als Bezos im Februar die Direktive ausgab, dass künftig auf der Meinungsseite nur noch Beiträge veröffentlicht werden dürfen, die «persönliche Freiheiten und freie Märkte» unterstützen, kündigte der zuständige Redaktor, David Shipley. Leitende Verantwortliche anderer Ressorts legten klar, dass sie bei Eingriffen in ihrer Berichterstattung ebenfalls gehen werden.

Das Problem der Sicherheit bleibt weiterhin ungelöst

Die Meinungsäusserungsfreiheit wurde in den USA immer schon offener als in Europa gehandhabt. Die exzessive Auslegung unter der Trump-Administration führte nun zum Eklat und liess die Sicherheitsfrage in den Hintergrund rücken. Nach den ersten beiden AI-Summits bestand ein Konsens, dass die KI-Entwicklung mit Sicherheitsforschung begleitet werden muss, um frühzeitig potenzielle Risiken einer KI, die ausser Kontrolle geraten könnte, abzuklären und Gegenmassnahmen zu ergreifen. Unbestritten war auch, dass es einer gewissen Steuerung von Plattformen bedarf, insbesondere auch gegen die gezielte Verbreitung von Falschmeldungen.

Auch wenn das Risiko einer KI, die ausser Kontrolle geraten könnte, nicht mehr im Zentrum der Debatten steht, bleibt das Problem weiterhin ungelöst. Dass eine KI sich Kontroll- und Überwachungsmechanismen entziehen kann, belegt ein Bericht vom Dezember 2024 der Apollo Research, einer Organisation, die KI-Modelle auf Risiken und Schwachstellen testet (siehe Infosperber vom 19.1.2025). Gemäss einer Kurzmitteilung auf der Plattform arXiv der Cornell University stellten auch chinesische Forscher der Fudan University fest, dass die von ihnen untersuchten KI-Sprachmodelle – darunter Metas Llama31-70B-Instruct – sich unkontrolliert selbst kopierten, dies für den Fall, dass sie abgeschaltet werden sollten.

Es gilt, mit intensivierter Sicherheitsforschung diese Risiken in den Griff zu bekommen. Dies umso mehr, als derzeit sogenannte KI-Agenten entwickelt werden. Im Unterschied zu Sprachmodellen werden diese für spezifische Aufgaben so trainiert, dass sie alles Nötige zur Erledigung eines Auftrags selbstständig organisieren. Yoshua Bengio und Max Tegmark warnten kürzlich in einem Beitrag von CNBC (Consumer News and Business Channel, eine internationale Nachrichtenagentur), insbesondere diese «Agenten» könnten ausser Kontrolle geraten.

Chancen der Schweiz als Pionierin in künftiger KI-Entwicklung

Die Schweiz könnte Pionierarbeit leisten, sowohl in der KI-Sicherheitsforschung wie auch bei der Erarbeitung von Regulierungen für Plattformen, in die immer häufiger KI-Anwendungen integriert werden.

Bezüglich KI entschied sich der Bundesrat mit Beschluss vom 12.2.2025 für ein abwartendes, pragmatisches Vorgehen. Auf der Grundlage einer ausführlichen Auslegeordnung beschloss er, vorerst die KI-Konvention des Europarats zu ratifizieren, bei dessen Erarbeitung die Schweiz massgeblich mitgewirkt hatte. Im Unterschied zum AI-Act der EU beschränkt sich diese Konvention auf Grundsätze – Einhaltung der Rechtsnormen im Bereich Menschenrechte, der Demokratie und der Rechtsstaatlichkeit. Die Vernehmlassungsvorlage soll erst Ende 2026 vorgelegt werden und primär auf sektorielle Gesetzesanpassungen fokussieren. Bis dann dürfte klar sein, wie sich der vielfach als zu restriktiv kritisierte AI-Act der EU auswirkt.

In Arbeit ist zurzeit eine Vernehmlassungsvorlage zur Regulierung von grossen Kommunikationsplattformen. Im Januar 2025 veröffentlichte die Eidgenössische Medienkommission einen bemerkenswerten Bericht mit dem Titel Markt- und Meinungsmacht von Plattformen, in dem sie eine ganzheitliche Strategie für die Regelung und Steuerung von Plattformen empfiehlt. In Ergänzung zu den Eckwerten, vorgegeben im Bundesratsbeschluss vom 5.4.2023, soll die Marktmacht der Big Tech in Verbindung mit ihrer Meinungsmacht ins Visier genommen werden. Zur Sicherstellung der öffentlichen Meinungsbildung in einer demokratischen Gesellschaft seien sowohl eine Regulierung der Marktmacht über das Wettbewerbsrecht wie auch eine verstärkte gesellschaftliche Aufsicht über die Plattformen mit ihren Algorithmen und KI-Elementen nötig.

Vorschriften und Gesetze sind in dynamischen Prozessen sehr schwierig. Es wäre sinnvoll, wenn die Gesetzgebung im Gleichschritt mit der technologischen Entwicklung erarbeitet würde. Interdisziplinäre Teams aus Wissenschaft und Regulierungsbehörden könnten sich in diesem Prozess ständig austauschen. Heute hinkt der Gesetzgebungsprozess den im Markt lancierten Produkten  hintennach. Wie aus einer News der ETHZ vom 10. März 2025 hervorgeht, soll dieses Modell im Bereich Gesundheit getestet werden.

Die Schweiz hat mir ihren Universitäten, insbesondere den beiden Eidgenössischen Technischen Hochschulen, ETHZ und EPFL, enormes Potenzial, um sowohl in der Sicherheitsforschung (siehe Infosperber vom 20.12.2024) als auch in Regulierungsfragen Pionierarbeit zu leisten.


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.

Mit Twint oder Bank-App auch gleich hier:



_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.