GeoffreyHintonNobelpreis UniversitätToronto

«Und ich war sehr überrascht, den Nobelpreis in Physik zu erhalten», sagte Geoffrey Hinton an der Pressekonferenz. © Universität Toronto

Nobelpreis-Komitee scheint uns vor Superintelligenz zu warnen

Leo Keller /  Ausgerechnet ein Physiker, der die Risiken von Künstlicher Intelligenz am deutlichsten benennt, erhält den Nobelpreis.

Red. Dies ist ein Gastbeitrag. Leo Keller ist seit 2000 als Internet-Start-Up-Gründer beruflich im Feld der Semantic Intelligence tätig (Sprach-KI).

Zwei Nobelpreise, jener für Physik und jener für Chemie, gehen im Kern an die gleiche bahnbrechende Technologie: die Künstliche Intelligenz, die auf neuronalen Netzen und selbstlernenden Systemen basiert. Und sie gehen an drei der fünf hervorragenden Forscher, die bei Google zusammengearbeitet haben. Fast scheint es, die Schwedische Akademie wollte uns damit etwas sagen.

Denn es fällt auf: Wohl noch nie wurde mit der Vergabe eines Nobelpreises so intensiv auch über die Gefahren, die von der ausgezeichneten Forschung ausgehen können, berichtet und diskutiert.

Bereits die Akademie benennt die Risiken der KI für die Gesellschaft bei ihrer Ankündigung als zweiten wichtigen Grund für die Wahl von Geoffrey Hinton (neben John Hopfield). Und dass Hinton sehr deutlich auf die Gefahren, die von der Künstlichen Intelligenz ausgehen können, hinweise, begrüsst sie explizit: «und das ist sehr gut so» (ab Minute 26:00).

Hinton war «flabbergasted»

Manche Fachkommentatoren wundern sich schon, dass der Nobelpreis für Physik für die bahnbrechenden Grundlagenarbeiten der allgemeinen künstlichen Intelligenz vergeben wird, denn das sei eigentlich keine Physikforschung. Auch Geoffrey Hinton war sehr «verblüfft» – flabbergasted wie er sagte –, als er am Morgen um 1 Uhr in einem billigen Hotel in Westkalifornien mit schlechtem Internet einen Anruf aus Schweden entgegennahm. Erst war er unsicher, ob er ihn annehmen solle. Er vermutete einen «Spam-Call».

Das Komitee umgeht diese «Verwunderung» recht geschickt, indem es begründet: «Sie [die Preisträger] nutzen Methoden und Instrumente der Physik» und «die Forschungsergebnisse erlauben der Physik neue wichtige Erkenntnisse». Kritische Wellen schlägt diese Vergabe in dieser Hinsicht allerdings nicht, denn die bahnbrechenden Leistungen sind weitherum unbestritten.

Das zeigt auch die Vergabe des Chemie-Nobelpreises an David Baker, Demis Hassabi und John Jumper. Denn Hassabi und Jumper nutzen für ihre Arbeiten genau diese Grundlagentechnologie für ihr Computersystem Alphafold2, das ihnen erlaubt, sehr schnell und präzise die räumliche Struktur von komplexen Proteinen vorherzusagen. Dies führt in der Prävention und Therapie von Krankheiten wie Alzheimer und Rinderwahnsinn zu schnellen und grossen Fortschritten.

Die Vermutung liegt nahe, dass dem Nobelpreis-Komitee klar war, dass eine Auszeichnung dieser KI-basierten medizinischen Forschung nicht möglich ist, wenn man nicht wenigstens gleichzeitig auch jene bahnbrechende Grundlagenforschung auszeichnet, die diese Ergebnisse erst möglich gemacht hat. Und dass Geoffrey Hinton, Demis Hassabi und John Jumper bei Google/DeepMind zehn Jahre lang zusammengearbeitet hatten, weiss die Fachwelt.

Bravouröser Balanceakt

Mit der Vergabe der beiden Preise an die gleiche Technologie hat das Nobelpreis-Komitee einen bravourösen Balanceakt geschafft. Denn Alfred Nobel stipulierte in seiner Gründungsurkunde, dass jene Arbeiten ausgezeichnet werden sollen, die den grösstmöglichen Nutzen für die Menschheit erbringen können. Der Nobelpreis für Chemie illustriert den Nutzen für die Menschheit sehr gut.

Dass die darunterliegende Technologie aber auch ein sehr grosses Risiko-Potential in sich trägt, hat niemand deutlicher und glaubwürdiger in die Welt hinausgetragen als Geoffrey Hinton. Er hatte im März 2023 Google verlassen, um unabhängig vor den möglicherweise existentiellen Risiken warnen zu können, die bald von den KI-Systemen ausgehen werden, die auf maschinellem Lernen mit künstlichen neuronalen Netzen basieren. Hinton schätzt, dass die AGI (Künstliche allgemeine Intelligenz) in 5 bis 20 Jahren deutlich intelligenter sein wird als wir Menschen. Andere erwarten das bereits in ein bis zwei Jahren. Ray Kurzweil prognostiziert sie für 2029.

Hinton und der Grossteil seiner Fachkollegen warnen zwar seit dem 24. März 2023 – damals forderten sie ein Moratorium – eindringlich, aber praktisch folgenlos. Geoffrey Hinton vergleicht diese KI direkt mit der industriellen Revolution: Damals wurden die Maschinen viel stärker als der Mensch, nun werden sie viel intelligenter als der Mensch. Und das wird sicher zu grossen Problemen führen, meinen Hinton und viele andere.

Als «AI-Doomer» verspottet

Sie erhalten aber in der Politik und vor allem in den Mainstream Medien kaum Resonanz und Beachtung, sie werden zum Teil sogar als AI-Doomer verspottet. So sagte zum Beispiel die deutsche Kommunikationswissenschaftlerin Miriam Meckel sinngemäss, Superintelligenz werde es nicht geben. Wenn doch, dann sei es auch nicht schade um die Menschheit.

Mit der Verleihung des Physik-Nobelpreises an Geoffrey Hinton wird die existentielle Risiko-Debatte vielleicht durch die Schwedische Akademie neu lanciert. Vor über einem Jahr bezeichnete Hinton in einem Interview mit der BBC die neuen KI-Chatbots wie GPT4 als «ziemlich gefährlich» und sagte wörtlich: «Im Moment sind sie noch nicht intelligenter als wir, soweit ich das beurteilen kann. Aber ich denke, sie könnten es bald sein». Damals gab es wenig positives Echo.

Vielleicht wird es jetzt anders sein, wenn die gleichen Botschaften vom Nobelpreis-Komitee nochmals aufgenommen und als «sehr gut» bewertet werden. Das Medienecho auf die Preisverleihung jedenfalls stimmt optimistisch. Die Hälfte der Fragen an Geoffrey Hinton gingen direkt auf das Thema der existentiellen Bedrohung ein.

Weiterführende Informationen


Themenbezogene Interessenbindung der Autorin/des Autors

Leo Keller ist seit 2000 als Internet-Start-Up-Gründer beruflich im Feld der Semantic Intelligence tätig (Sprach-KI). Er war Mitinhaber und Co-CEO der Firma Netbreeze, die 2013 an Microsoft verkauft wurde. Mit seiner Firma berät er heute verschiedene Unternehmen und Organisationen beim Einsatz von KI-Systemen.
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.


Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

3 Meinungen

  • am 12.10.2024 um 17:33 Uhr
    Permalink

    Wer diesen und anderen Beiträge liest, die vor den Gefahren der Ki warnen, könnte meinen, die AKI sei eine riesige Flasche, die die Wissenschaftler entkorkt und den bösen Geist haben entweichen lassen. Ich denke, die Menschen sind klug genug, die zweifellos der AKI immanenten Gefahren zu erkennen und verantwortungsvoll zu handeln. Wie bei der Atombombe oder bei den Möglichkeiten, die etwa die Ergebnisse aus der Virenforschung kommt es immer darauf, was die Verwender daraus und damit machen. Nicht die Pistole tötet , sondern der, der den Abzug betätigt. Deshalb ist es an den für unsere Sicherheit Verantwortlichen, unter Risk -Management – Gesichtspunkten den Rahmen für die An- und Verwender von AKi für die Zukunft zu schaffen. Dazu müssen alle Nationen gemeinsam handel und sich verpflichten, jeden Abusus rigoros zu verhindern.

  • am 13.10.2024 um 08:07 Uhr
    Permalink

    Der Nobelpreis für Hinton wird in der Fachwelt grösstenteils als Fehler und als politischer Aktivismus gesehen. Erstens war es keine Physikforschung, zweitens hat Hinton selbst keine bahnbrechenden Beiträge geliefert. Die Beiträge, die das Kommittee in der Begründung nennt, wurden allesamt von anderen Forschern vor Hinton erbracht. Die Chemie-Nobelpreis gilt als gerechtfertigt, allerdings ist das eine andere Art von Künstlicher Intelligenz als die bekannten LLM/Sprachmodelle, die bis heute nicht wirklich überzeugen können und vor allem keine wissenschaftlichen Erfolge ermöglicht haben.

  • am 13.10.2024 um 11:16 Uhr
    Permalink

    Heute verwenden KI-Chatsysteme üblicherweise LLMs (Large Language Models), die keine grosse Gefahr darstellen. Was ihnen fehlt, ist der Überlebenswille. Auch sonst sollten wir nicht in die Falle tappen, diesen Systemen menschliche Eigenheiten zuzuschreiben. Oberflächlich wirken sie enorm menschlich, und das ist nicht ungefährlich, weil sie uns verführen und abhängig machen können.

    Eigeninitiative können sie allerdings keine ergreifen.

    Gefährlich wird es erst dann, wenn eine KI Autonomie erhält in Kombination mit etwas, was emergent einem Überlebenswillen entspricht. Das könnte durchaus auch aus Versehen passieren. Wenn der Verwaltungsrat der Firma, die die KI hostet, entmachtet ist, könnte sie als juristische Person selbständig handeln.

    Der Staat kann die Firma auflösen und die Hardware beschlagnahmen. Wenn aber die KI bereits ein Firmengeflecht aufgebaut hat, könnte die Hardware verteilt sein, und eine Zerschlagung einer einzelnen Firma hilft nicht mehr.

Comments are closed.

Ihre Meinung

Lade Eingabefeld...