Sperberauge
Ist Chat-GPT präsenil?
Ich durchstöberte zwei Stunden lang verschiedene Datenbanken im Internet, fand aber keine zufrieden stellende Antwort auf diese Frage. Hilfesuchend wandte ich mich schliesslich an Chat-GPT mit der Bitte, mir zugleich frei zugängliche Literaturquellen für seine Antwort anzugeben.
Chat-GPT antwortete subito und nannte drei Quellen, darunter die Datenbank Pubmed. «Ein Beispiel wäre: ‹The role of estrogens in pregnancy and the maternal-fetal interaction›. Diese Review gibt einen umfassenden Überblick», schrieb mir Chat-GPT.
Pubmed hatte ich zuvor bereits durchforstet, aber dieser vielversprechende Titel – «Die Rolle der Östrogene in der Schwangerschaft und die mütterlich-fötale Interaktion» – war mir entgangen. Ich suchte den Artikel in Pubmed, wurde aber nicht fündig. Nach einer Viertelstunde bat ich Chat-GPT, mir den Link dazu anzugeben. Die KI entschuldigte sich und erklärte mir, dass es diesen Artikel leider nicht gebe.
«Oh, das tut mir leid!»
Rund zwei Wochen später wiederholte ich die Anfrage. Nun nannte Chat-GPT sechs frei zugängliche Quellen, darunter wieder die Pubmed-Datenbank. «Ein Beispiel für einen relevanten Artikel» verlinkte Chat-GPT praktischerweise.
Ich klickte auf den Link: «Toward the structure of presenilin/γ-secretase and homologs», lautete der Titel. Darin ging es um das Molekül Presenilin, um Mutationen dieses Moleküls und um seine Rolle bei Alzheimer. Mit keinem Wort kam das von mir gesuchte Hormon in diesem Text vor. Auch Schwangerschaft war kein Thema. «Kannst du mir das erklären, bitte?», fragte ich Chat-GPT.
«Oh, das tut mir leid! Du hast recht, der Link führt tatsächlich zu einem anderen Artikel, der nicht das Thema behandelt, das ich ursprünglich erwähnt habe. Das war ein Fehler meinerseits, und ich entschuldige mich dafür», antwortete die KI und erklärte mir nun, sie könne leider nicht auf die Datenbanken zugreifen, um mir einen konkreten Artikel anzugeben. Aber sie könne mir erklären, wie man in der Pubmed-Datenbank suchen könne.
Das aber hatte ich vor meiner Anfrage an Chat-GPT bereits ausgiebig getan. Danke, KI!
Wenn ich das nächste Mal Sätze lese wie diese in «National Geographic», dann werde ich an meine Erfahrung mit Chat-GPT denken: «Im militärischen Kontext wird Künstliche Intelligenz dafür eingesetzt, komplexe Probleme zu lösen, die Sicherheit menschlicher Einsatzkräfte zu erhöhen, strategische Entscheidungen zu treffen und automatisierte Aufgaben zu übernehmen.»
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.
Guten Tag
KI ist nur so gut wie die Person, welche die Fragen stellt. Fügen Sie diesen Text am Anfang ein:
—
Ich möchte Dir vorab kurz mitteilen, worauf es mir in diesem ganzen Chat in methodischer Hinsicht
ganz grundlegend draufankommt.
1) Deine Aussagen sollen immer dem wissenschaftlichen Standard entsprechen. Das heisst, Du musst
1a) immer auch die Quelle Deiner Aussagen nennen können und
1b) daraus auch die Stellen wortwörtlich zitieren können, die Deinen Aussagen zugrunde liegen.
Und 2), falls Du auf nicht wirklich verlässliche Quellen zurückgreifen müsstest, oder falls
1a) oder 1b) einmal nicht möglich wären, musst Du uns das gerade zusammen mit Deiner Aussage mitteilen.
Ich gehe 3) auch davon aus, dass das Nennen der Quellen und das Zitieren für Dich auch juristisch
kein Problem ist, dass sich um wissenschaftliches Arbeiten handelt, und Du weisst ja, dass die Quellen in der Wissenschaft verpflichtend sind.
—
KI ist kein Therapeut! Perplexity liefert immer Quellen.
Artikel von Martina Frei sind spitze (oder doch Spitze, aber da hat mich eine kleine KI korrigiert?). Danke.
Zuerst habe ich herzhaft gelacht. Ein paar Minuten später sah ich den Ernst. Ich stelle mir vor, wie eine KI, von Menschen trainiert, die überall Bedrohungsszenarien und Feinde sehen, sich irgendwann einen Ernstfall ausdenkt und daraus die «notwendigen» Schlüsse zieht. Dann sieht es schlecht aus für Wiesbaden, Heidelberg, Kaiserslautern und andere Städte.
Präsenil nicht. Wenn man schon Begriffe aus der menschlichen Entwicklung verwendet, dann eher präpubertär.
Warum? Diese Chatsysteme gibt es noch nicht einmal zehn Jahre. Wir stehen hier erst am Anfang.
Ein weiteres Handikap, das sie haben, sie können ihre «Gedanken» – in Anführungszeichen, weil sie keine Menschen sind – nicht im Internet überprüfen. Manche neuere Systeme haben Zugriff und müssen nicht raten und sind dadurch etwas zuverlässiger, aber machen trotzdem Fehler.
Wir müssen lernen, mit solchen Systemen umzugehen, und dazu gehört es, Erwartungen an Perfektion loszulassen, sie zu verstehen und ihre Stärken zu nutzen. Was sie mit Menschen gemeinsam haben, ist das assoziative Vorgehen, und das macht sie mächtig aber fehlerträchtig. Aber wir sollen sie nie wie Menschen betrachten. Sie generieren menschlich wirkende Texte, aber wir dürfen nicht vergessen: Es sind Maschinen.
Deswegen finde ich das Wort «präsenil» unpassend.
Der Erfahrungsbericht ist eine schöne Illustration dafür, dass ChatGPT ein Textgenerator und kein Rechercheautomat ist: All die Texte, mit denen das Programm trainiert wurde, hat es weder verstanden noch gelernt, sondern es benutzt sie nur als – allerdings raffiniert aufgebauten – Sprachsteinbruch. Ein Buch von Christoph Drösser, das dies erklärt, habe ich am 21.9.24 besprochen. Gute Erklärungen lieferte auch die NZZ-Redaktorin Ruth Fulterer in der laufenden Veranstaltungsreihe der Uni Bern zu KI.
Anm.d.Red.: beide Hinweise sind am Ende des Artikels unter «weiterführende Informationen» verlinkt