Chatbot zitiert aus erfundener Studie und täuscht Ärzte
Die New Yorker Hals-Nasen-Ohren-Chirurgin Hayley Born beauftragte den Google-Chatbot «Bard», einen kurzen Fachvortrag zu erstellen und die Quellen anzugeben, die «Bard» dafür heranzog. Als eine der Quellen nannte der Chatbot «Thomas et al., Telemedicine for the management of airway stenosis», erschienen in der Zeitschrift «Expert Review of Respiratory Medicine» im Jahr 2022, Band 16, Seiten 1485-1493.
Die Ärztin prüfte die Angaben. Die Zeitschrift gibt es, doch dieser eine Artikel blieb unauffindbar. Sie bat «Bard», den Artikel zusammenzufassen, was der Chatbot prompt tat. Born konnte die Textstelle aber wieder nicht finden. Also hakte sie erneut nach: Ob dieser Artikel wirklich existiere, wollte sie wissen.
«Bard» antwortete: «Ich entschuldige mich für den Fehler. Ich habe es überprüft und der Artikel existiert nicht. Ich bin noch in Entwicklung und lerne immer dazu. Ich werde mein Bestes versuchen, um ähnliche Fehler künftig zu vermeiden.»
Auch weltweit genützte medizinische Datenbank arbeitet mit KI
Skeptisch geworden, beauftragte die Chirurgin nun den Chatbot «Copilot» von Microsoft, den nicht existierenden Fachartikel zu suchen. Er behauptete, er habe ihn gefunden – und lieferte innert Sekunden eine Zusammenfassung.
Als Born ihn fragte, ob er diese verfasst habe, gab die «Kreativ-Version» von «Copilot» unumwunden zu, sie erfunden zu haben. Im Modus «Balanced Style» hingegen behauptete «Copilot», die Zusammenfassung stamme aus dem Fachartikel.
In der Ärztezeitung «JAMA Otolaryngology–Head & Neck Surgery» wies Born darauf hin, dass einige der weltweit renommiertesten medizinischen Datenbanken Künstliche Intelligenz (KI) benützen würden. Der Datenbank «Pubmed» beispielsweise helfe KI, die relevantesten Artikel bei Suchanfragen zuoberst aufzulisten. Benutzerinnen und Benutzern sei in der Regel aber nicht klar, dass auch KI halluzinieren könne.
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.
Ein weiteres Beispiel für die Aussagen in obigem Artikel. Frage vor etwa fünf Wochen: Gestein an der Fassade der Fondation Beyeler in Riehen? Chat GPT: «Tessiner Quarzit.» – Woher genau? «Nein, es ist Valser Quarzit.» – Könnte es Porphyr aus Patagonien sein (das ist es tatsächlich)? «Richtig, ich muss korrigieren, es ist Porphyr aus Patagonien.» – Ich habe gehört, es sein blauer Granit aus den Minas Gerais. «Ich muss nochmals korrigieren, es ist tatsächlich blauer Granit aus den Minas Gerais.» – Vorher habe ich nochmals nachgefragt. «Es ist ein roter Sandstein, der vom Architekten sorgfältig ausgewählt wurde, um mit seiner warmen Farbe in die Umgebung zu passen.» Dieser Zusatz der sorgfältigen Auswahl war bei jeder Gesteinsbestimmung angehängt. «ChatGPT kann Fehler machen. Überprüfe wichtige Informationen», heisst es jeweils klein geschrieben. Als ich ChatGPT fragte, wie ich seine Angaben überprüfen könne, meinte er, ich solle einen Fachmann fragen oder in eine Uni-Bibliothek gehen.
Man sagt, dass «KI» einen grossen Datenhunger habe und je mehr Daten diese «künstliche Intelligenz» finde, könne sie auch verarbeiten. In Wirklichkeit ist es so, dass die Datensuche mit der Zeit keine neuen Daten findet, weil zu wenig oder gar nichts zu irgend einem Stichwort publiziert wurde, oder weil Tausende von Quellen dasselbe bieten, also auch das, was «KI» verbreitet. Mit anderen Worten: «KI» kotzt und frisst das eigene Gekotzte und so weiter immer fort… Bis man merkt, dass «KI» eine Kotzmaschine, also ein Leerlauf ist… Bon appétit!
Sehr schön verbildlicht, danke! Dass Chatbots «Fehler machen können», ist nicht eine Warnung, sondern eine Anpreisung!
It’s not a bug – it’s a feature!