Künstliche Intelligenz Gesicht

© agsandrew / Depositphotos

Chatbot zitiert aus erfundener Studie und täuscht Ärzte

Martina Frei /  Künstliche «Intelligenz» erzeugt eine überzeugende Fantasie-Studie. Auf Nachfragen entschuldigte sich der Google-Chatbot «Bard».

Die New Yorker Hals-Nasen-Ohren-Chirurgin Hayley Born beauftragte den Google-Chatbot «Bard», einen kurzen Fachvortrag zu erstellen und die Quellen anzugeben, die «Bard» dafür heranzog. Als eine der Quellen nannte der Chatbot «Thomas et al., Telemedicine for the management of airway stenosis», erschienen in der Zeitschrift «Expert Review of Respiratory Medicine» im Jahr 2022, Band 16, Seiten 1485-1493.  

Die Ärztin prüfte die Angaben. Die Zeitschrift gibt es, doch dieser eine Artikel blieb unauffindbar. Sie bat «Bard», den Artikel zusammenzufassen, was der Chatbot prompt tat. Born konnte die Textstelle aber wieder nicht finden. Also hakte sie erneut nach: Ob dieser Artikel wirklich existiere, wollte sie wissen.

«Bard» antwortete: «Ich entschuldige mich für den Fehler. Ich habe es überprüft und der Artikel existiert nicht. Ich bin noch in Entwicklung und lerne immer dazu. Ich werde mein Bestes versuchen, um ähnliche Fehler künftig zu vermeiden.»

Auch weltweit genützte medizinische Datenbank arbeitet mit KI

Skeptisch geworden, beauftragte die Chirurgin nun den Chatbot «Copilot» von Microsoft, den nicht existierenden Fachartikel zu suchen. Er behauptete, er habe ihn gefunden – und lieferte innert Sekunden eine Zusammenfassung. 

Als Born ihn fragte, ob er diese verfasst habe, gab die «Kreativ-Version» von «Copilot» unumwunden zu, sie erfunden zu haben. Im Modus «Balanced Style» hingegen behauptete «Copilot», die Zusammenfassung stamme aus dem Fachartikel. 

In der Ärztezeitung «JAMA Otolaryngology–Head & Neck Surgery» wies Born darauf hin, dass einige der weltweit renommiertesten medizinischen Datenbanken Künstliche Intelligenz (KI) benützen würden. Der Datenbank «Pubmed» beispielsweise helfe KI, die relevantesten Artikel bei Suchanfragen zuoberst aufzulisten. Benutzerinnen und Benutzern sei in der Regel aber nicht klar, dass auch KI halluzinieren könne.


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Weiterführende Informationen

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

Eine Meinung zu

  • am 19.07.2024 um 13:31 Uhr
    Permalink

    Ein weiteres Beispiel für die Aussagen in obigem Artikel. Frage vor etwa fünf Wochen: Gestein an der Fassade der Fondation Beyeler in Riehen? Chat GPT: «Tessiner Quarzit.» – Woher genau? «Nein, es ist Valser Quarzit.» – Könnte es Porphyr aus Patagonien sein (das ist es tatsächlich)? «Richtig, ich muss korrigieren, es ist Porphyr aus Patagonien.» – Ich habe gehört, es sein blauer Granit aus den Minas Gerais. «Ich muss nochmals korrigieren, es ist tatsächlich blauer Granit aus den Minas Gerais.» – Vorher habe ich nochmals nachgefragt. «Es ist ein roter Sandstein, der vom Architekten sorgfältig ausgewählt wurde, um mit seiner warmen Farbe in die Umgebung zu passen.» Dieser Zusatz der sorgfältigen Auswahl war bei jeder Gesteinsbestimmung angehängt. «ChatGPT kann Fehler machen. Überprüfe wichtige Informationen», heisst es jeweils klein geschrieben. Als ich ChatGPT fragte, wie ich seine Angaben überprüfen könne, meinte er, ich solle einen Fachmann fragen oder in eine Uni-Bibliothek gehen.

Ihre Meinung

Lade Eingabefeld...