Kommentar
Lauterbach und sein «Arzt-Patient-Erlebnis»
Red. Der Autor dieses Gastbeitrags ist Chirurg und Publizist in Frankfurt.
Ende vergangenen Jahres wurde ich zum ersten Mal richtig stutzig. Nein, das ist eigentlich untertrieben. Ich dachte, mich treffe der Schlag. Der deutsche Gesundheitsminister Karl Lauterbach liess sich vom Spiegel interviewen und sang das Hohelied der Digitalisierung und der Künstlichen Intelligenz für die Zukunft des Gesundheitswesens und der Medizin.
Das ist zwar eine sehr weit verbreitete Position, die ich im übrigen überhaupt nicht teile, aber das ist gar nicht das Problem. Das Problem liegt woanders.
Aber lesen Sie selbst: «Wenn ich als Arzt mit einem Patienten spreche, habe ich bereits alle Befunde im Computersystem. Ich frage: Wie fühlen Sie sich? Was tut Ihnen weh? Die ganze Zeit hört eine Spracherkennungssoftware zu und überträgt die Stichpunkte, die wichtig sind, in die elektronische Patientenakte. Dann schreibt, während wir noch reden, die künstliche Intelligenz die notwendige Überweisung. Sollte ich diese vergessen, dann erinnert mich die KI: Herr Lauterbach. Sie sollten vielleicht eine Überweisung machen.»
Bei dieser Beschreibung eines Aufeinandertreffens von Arzt und Patient musste ich zuerst laut lachen. So kann nur jemand vor sich hin fabulieren, der von Medizin keine Ahnung hat. Alles ist falsch. Alles hat mit der alltäglichen Realität in Arztpraxen und Krankenhäusern nichts zu tun. Allüberall wird beklagt, dass Ärztinnen und Ärzte keine Zeit hätten, um zu sprechen. Sie seien kaum greifbar.
Und auf welchen Wegen sind Befunde ins Computersystem gelangt? Wie kann eine Spracherkennungssoftware wissen, was wichtig ist und was nicht? Wie entscheidet eine KI, dass eine Überweisung angebracht ist, was ja die Hypothese einer Diagnose voraussetzt?
Kein einmaliger Ausrutscher
Das Lachen ist mir vergangen, als mir klar wurde, dass dieser Unfug kein einmaliger Ausrutscher war. Denn seit diesem Interview schiebt Lauterbach mindestens einmal im Monat einen weiteren Knüller hinterher. Im März 2024 erklärte er dem WDR: «Wir werden eine bessere Medizin bekommen.» Er beschrieb, dass KI bessere Diagnosen stellen wird als ein Arzt. «Der durchschnittliche Arzt hat jetzt schon Mühe, mit KI mitzuhalten.»
Im April 2024 sprach Lauterbach auf der Digital-Health-Messe DMEA in Berlin: «Künstliche Intelligenz wird die Medizin komplett verändern.» Dazu erklärte er dem Publikum, dass die menschliche Intelligenz nicht immer verstehen könne, wie KI funktioniere, nur, dass sie funktioniere.
Bei einer Tagung in Berlin ergänzte Lauterbach im Juni 2024: «Künstliche Intelligenz wird sein wie ein geduldiger Arzt.» Ich werde langsam unruhig. Handelt es sich hier vielleicht um eine Undercover-Operation zur Abschaffung des Arztberufes?
Wer erlebt da was?
Ganz unheimlich wurde mir schliesslich zumute, als ich – ebenfalls im Juni 2024 – die Überschrift für seine Aufklärungskampagne zur elektronischen Patientenakte lesen musste: «Wir verändern das Arzt-Patient-Erlebnis grundlegend.»
So etwas habe ich in über 40 Jahren ärztlicher Tätigkeit noch nie gehört. Die Arzt-Patient-Beziehung steht für mich schon immer im Mittelpunkt der Medizin, aber was ist ein Arzt-Patient-Erlebnis? Wer erlebt da was, Arzt oder Patient oder gar beide?
Je mehr ich von diesem Gesundheitsminister zu lesen bekomme, desto unheimlicher wird er mir, denn ich bin ja nur «ein durchschnittlicher Arzt». Seine Pläne sind von der irren Idee bestimmt, dass die Medizin respektive die gesundheitliche Situation der Bevölkerung immer besser werde, je mehr Daten zur Verfügung stehen.
Kein Wort von Lärm, kein Wort von Luftverschmutzung, kein Wort von Arbeitsstress, kein Wort von Pflanzengift, und vor allem: kein Wort von Armut, kein Wort von Einsamkeit. Man braucht nicht viel natürliche Intelligenz, um das zu verstehen. Künstliche Intelligenz scheint hingegen den Blick auf das Leben zu vernebeln. Was für ein grandioser Irrtum von unserer Gesundheitspolitik Besitz ergriffen hat!
Dieser Artikel erschien am 22. August 2024 in der deutschen Ärzte-Zeitung.
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.
Der Mann hat keine Ahnung, auf der ganzen Linie. Dass einer wie Lauterbach Gesundheitsminister werden konnte, ist ein Armutszeugnis für die deutsche Regierung.
In der Tat. Immerhin dürfte es in seinem Fall stimmen, dass die Patienten sich besser von künstlicher «Intelligenz» behandeln lassen als vom Arzt Lauterbach.
Die Situation in der Schweiz ist wohl ähnlich, doch Hauptproblem besteht darin, dass bisher niemand die zentrale Figur im System berücksichtigte, nämlich die Patienten. Aus diesem Grund haben wir vor zwei Jahren eine patientenzentrierte Expedition gestartet. Dabei sammeln wir unsere eigenen Daten aus verschiedensten Quellen und zeigen auf, was heute digital tatsächlich machbar ist; Link: gesundheitsdatenraum.ch
Schon vor geraumer Zeit habe ich mir erlaubt, festzuhalten:
Künstliche Intelligenz KI ist die irrationale Hoffnung auf den Ersatz der realen Dummheit.
Nachdem was nur schon in der Zwischenzeit fast täglich über diese Entmündigungs- und Enthemmungstechnologie und deren Anwendungen in Medizin (wie von B. Hontschik beschrieben) oder Krieg (siehe dazu auch Infosperber vom 29.8.24 über den Gaza-Krieg) bekannt wird, muss ich leider davon ausgehen, dass diese Ansicht nicht grundlegend falsch ist.
Dabei gibt es in Europa keine vergleichbare Forschung wie in den USA und in der VR China. Strafverfolgungsbehörden und Gerichte sind schon jetzt heillos überfordert, wenn es um KI geht. Selbst Profis können KI-Fälschungen mittlerweile kaum noch erkennen. Die KI erzeugt immer mehr Phänomene, die hochspezialisierte Forscher nicht erklären können. Und trotzdem wird für KI getrommelt, als wäre sie das perpetuum mobile des Fortschritts. Vom Rest auch nicht; hier herrscht Vogel-Strauß-Verhalten und Unkenntnis.