Sperberauge

Ist Chat-GPT präsenil?

Martina Frei © zvg

Martina Frei /  Eine Recherche mit Hilfe der KI. Welche Funktionen hat ein bestimmtes Hormon während der Schwangerschaft?

Ich durchstöberte zwei Stunden lang verschiedene Datenbanken im Internet, fand aber keine zufrieden stellende Antwort auf diese Frage. Hilfesuchend wandte ich mich schliesslich an Chat-GPT mit der Bitte, mir zugleich frei zugängliche Literaturquellen für seine Antwort anzugeben. 

Chat-GPT antwortete subito und nannte drei Quellen, darunter die Datenbank Pubmed. «Ein Beispiel wäre: ‹The role of estrogens in pregnancy and the maternal-fetal interaction›. Diese Review gibt einen umfassenden Überblick», schrieb mir Chat-GPT. 

Pubmed hatte ich zuvor bereits durchforstet, aber dieser vielversprechende Titel – «Die Rolle der Östrogene in der Schwangerschaft und die mütterlich-fötale Interaktion» – war mir entgangen. Ich suchte den Artikel in Pubmed, wurde aber nicht fündig. Nach einer Viertelstunde bat ich Chat-GPT, mir den Link dazu anzugeben. Die KI entschuldigte sich und erklärte mir, dass es diesen Artikel leider nicht gebe. 

«Oh, das tut mir leid!»

Rund zwei Wochen später wiederholte ich die Anfrage. Nun nannte Chat-GPT sechs frei zugängliche Quellen, darunter wieder die Pubmed-Datenbank. «Ein Beispiel für einen relevanten Artikel» verlinkte Chat-GPT praktischerweise. 

Ich klickte auf den Link: «Toward the structure of presenilin/γ-secretase and homologs», lautete der Titel. Darin ging es um das Molekül Presenilin, um Mutationen dieses Moleküls und um seine Rolle bei Alzheimer. Mit keinem Wort kam das von mir gesuchte Hormon in diesem Text vor. Auch Schwangerschaft war kein Thema. «Kannst du mir das erklären, bitte?», fragte ich Chat-GPT.  

«Oh, das tut mir leid! Du hast recht, der Link führt tatsächlich zu einem anderen Artikel, der nicht das Thema behandelt, das ich ursprünglich erwähnt habe. Das war ein Fehler meinerseits, und ich entschuldige mich dafür», antwortete die KI und erklärte mir nun, sie könne leider nicht auf die Datenbanken zugreifen, um mir einen konkreten Artikel anzugeben. Aber sie könne mir erklären, wie man in der Pubmed-Datenbank suchen könne. 

Das aber hatte ich vor meiner Anfrage an Chat-GPT bereits ausgiebig getan. Danke, KI!

Wenn ich das nächste Mal Sätze lese wie diese in «National Geographic», dann werde ich an meine Erfahrung mit Chat-GPT denken: «Im militärischen Kontext wird Künstliche Intelligenz dafür eingesetzt, komplexe Probleme zu lösen, die Sicherheit menschlicher Einsatzkräfte zu erhöhen, strategische Entscheidungen zu treffen und automatisierte Aufgaben zu übernehmen.»

Weiterführende Informationen


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

5 Meinungen

  • am 9.12.2024 um 14:25 Uhr
    Permalink

    Guten Tag
    KI ist nur so gut wie die Person, welche die Fragen stellt. Fügen Sie diesen Text am Anfang ein:

    Ich möchte Dir vorab kurz mitteilen, worauf es mir in diesem ganzen Chat in methodischer Hinsicht
    ganz grundlegend draufankommt.
    1) Deine Aussagen sollen immer dem wissenschaftlichen Standard entsprechen. Das heisst, Du musst
    1a) immer auch die Quelle Deiner Aussagen nennen können und
    1b) daraus auch die Stellen wortwörtlich zitieren können, die Deinen Aussagen zugrunde liegen.
    Und 2), falls Du auf nicht wirklich verlässliche Quellen zurückgreifen müsstest, oder falls
    1a) oder 1b) einmal nicht möglich wären, musst Du uns das gerade zusammen mit Deiner Aussage mitteilen.
    Ich gehe 3) auch davon aus, dass das Nennen der Quellen und das Zitieren für Dich auch juristisch
    kein Problem ist, dass sich um wissenschaftliches Arbeiten handelt, und Du weisst ja, dass die Quellen in der Wissenschaft verpflichtend sind.

    KI ist kein Therapeut! Perplexity liefert immer Quellen.

  • am 9.12.2024 um 14:28 Uhr
    Permalink

    Artikel von Martina Frei sind spitze (oder doch Spitze, aber da hat mich eine kleine KI korrigiert?). Danke.

  • am 9.12.2024 um 20:30 Uhr
    Permalink

    Zuerst habe ich herzhaft gelacht. Ein paar Minuten später sah ich den Ernst. Ich stelle mir vor, wie eine KI, von Menschen trainiert, die überall Bedrohungsszenarien und Feinde sehen, sich irgendwann einen Ernstfall ausdenkt und daraus die «notwendigen» Schlüsse zieht. Dann sieht es schlecht aus für Wiesbaden, Heidelberg, Kaiserslautern und andere Städte.

  • am 9.12.2024 um 21:23 Uhr
    Permalink

    Präsenil nicht. Wenn man schon Begriffe aus der menschlichen Entwicklung verwendet, dann eher präpubertär.

    Warum? Diese Chatsysteme gibt es noch nicht einmal zehn Jahre. Wir stehen hier erst am Anfang.

    Ein weiteres Handikap, das sie haben, sie können ihre «Gedanken» – in Anführungszeichen, weil sie keine Menschen sind – nicht im Internet überprüfen. Manche neuere Systeme haben Zugriff und müssen nicht raten und sind dadurch etwas zuverlässiger, aber machen trotzdem Fehler.

    Wir müssen lernen, mit solchen Systemen umzugehen, und dazu gehört es, Erwartungen an Perfektion loszulassen, sie zu verstehen und ihre Stärken zu nutzen. Was sie mit Menschen gemeinsam haben, ist das assoziative Vorgehen, und das macht sie mächtig aber fehlerträchtig. Aber wir sollen sie nie wie Menschen betrachten. Sie generieren menschlich wirkende Texte, aber wir dürfen nicht vergessen: Es sind Maschinen.

    Deswegen finde ich das Wort «präsenil» unpassend.

  • Portrait_Daniel_Goldstein_2016
    am 10.12.2024 um 20:29 Uhr
    Permalink

    Der Erfahrungsbericht ist eine schöne Illustration dafür, dass ChatGPT ein Textgenerator und kein Rechercheautomat ist: All die Texte, mit denen das Programm trainiert wurde, hat es weder verstanden noch gelernt, sondern es benutzt sie nur als – allerdings raffiniert aufgebauten – Sprachsteinbruch. Ein Buch von Christoph Drösser, das dies erklärt, habe ich am 21.9.24 besprochen. Gute Erklärungen lieferte auch die NZZ-Redaktorin Ruth Fulterer in der laufenden Veranstaltungsreihe der Uni Bern zu KI.

    Anm.d.Red.: beide Hinweise sind am Ende des Artikels unter «weiterführende Informationen» verlinkt

Ihre Meinung

Lade Eingabefeld...