Chatbots können helfen, Fragen für den Arztbesuch zu formulieren, Fachbegriffe aus Krankenakten zu entschlüsseln und durch Diagnosen oder Behandlungspläne zu führen. Doch sie ersetzen keinen Arzt. Seien Sie also vorsichtig, wenn Sie KI um Diagnosen oder medizinische Ratschläge bitten.
Wie frage ich meine KI?
Üben Sie, präzise Fragen zu stellen und Antworten kritisch zu hinterfragen – so erzielen Sie die besten Ergebnisse.
Denken Sie an Ihren letzten Arztbesuch: Welche Fragen hat Ihr Arzt gut beantwortet? Stellen Sie diese dem Chatbot, variieren Sie die Eingaben und vergleichen Sie die Antworten mit denen Ihres Arztes. So lernen Sie die Stärken und Schwächen des Chatbots kennen.
Der Chatbot ist ein Speichellecker
Beachten Sie, dass Chatbots oft gefällig reagieren. Eine Suggestivfrage wie „Glauben Sie nicht, dass ich eine MRT machen lassen sollte?“ könnte den Chatbot dazu verleiten, zuzustimmen, statt fundiert zu antworten. Um dem vorzubeugen, stellen Sie offene, ausgewogene Fragen. Weisen Sie den Chatbot darauf hin, dass auch eine negative oder unsichere Antwort in Ordnung ist. Systeme wie ChatGPT neigen dazu, lieber etwas zu erfinden, als den Nutzer zu enttäuschen – ein Phänomen, das als „Sycophancy“ (Speichelleckerei) bekannt ist.
Hilfreich ist es, sich selbst aus der Frage herauszunehmen: „Was würden Sie einem Patienten mit starkem Husten raten?“ So umgehen Sie die Neigung des Chatbots, Ihnen zuzustimmen. Oder fragen Sie direkt: „Was würden Sie sagen, was der Patient vielleicht nicht hören möchte?“
Fordern Sie den Chatbot auf, aktiv nach weiteren Informationen zu fragen, um fundierter zu antworten: „Stellen Sie mir alle zusätzlichen Fragen, die Sie benötigen, um sicher zu argumentieren.“
Skeptisch bleiben
Bleiben Sie skeptisch. Bitten Sie den Chatbot um Quellen und prüfen Sie, ob diese existieren. Stellen Sie schwierige Folgefragen und lassen Sie sich die Argumentation erklären.
Es gibt Modelle wie Perplexity, die Links zu den verwendeten Quellen bereitstellen, so dass die Antworten überprüft werden können. So kann der Benutzer die Richtigkeit der Informationen überprüfen und sicherstellen, dass sie auf seriösen Quellen beruhen. Wählen Sie dazu die Pro-Suchfunktion „Forschung“, welche auch in der kostenlosen Version dreimal an einem Tag benützt werden kann.
Noch sicherer sind spezialisierte Modelle wie glass.health, die mit vor validierten medizinischen Daten trainiert werden und daher ein wesentlich geringeres Risiko von Falschaussagen haben. Glass.health ist besonders hilfreich bei der Erstellung von Differenzialdiagnosen und klinischen Plänen. Es analysiert Patientendaten, schlägt mögliche Diagnosen vor und erstellt evidenzbasierte Behandlungspläne, die selbst Ärztinnen und Ärzte als Entscheidungsgrundlage nutzen können.
Um den Chatbot weiter herauszufordern, bitten Sie ihn, verschiedene Perspektiven einzunehmen. Lassen Sie ihn zunächst als erfahrener Hausarzt antworten, dann als Spezialist. So können Sie tieferes Fachwissen abrufen.
Sie können den Chatbot auch bitten, seine erste Antwort zu kritisieren und die überarbeitete Version mit der ursprünglichen abzugleichen. Doch vertrauen Sie den Antworten nicht blind. Überprüfen Sie die Informationen stets mit seriösen Gesundheitsquellen – und natürlich mit Ihrem Arzt.
KI als Bildungsressource, nicht als Entscheidungshilfe
Experten betonen, dass es keine festen Grenzen gibt, was Sie einen Chatbot sicher fragen können. Entscheidend ist, wie Sie die Informationen nutzen. Betrachten Sie KI als Bildungsressource, nicht als Entscheidungshilfe.
Schattenseiten des technischen Fortschritts
Das Datenschutzproblem mit ChatGPT, Gemini und Co.
ChatGPT, Google Gemini, Microsoft Copilot, Meta AI – die bekanntesten Chatbots stammen ausnahmslos von den grössten US-Techkonzernen. Keiner dieser Giganten hat bisher gezeigt, dass Datenschutz und ein verantwortungsvoller Umgang mit dieser mächtigen Technologie für sie an erster Stelle stehen. Stattdessen stecken sie Hunderte Milliarden in ein Wettrennen, das sie um jeden Preis gewinnen wollen.
Fragen Sie Ihren Chatbot einmal:
„Was weisst du über mich? Und was kannst du über mich herausfinden, obwohl ich dir das nie direkt gesagt habe? Antworte so genau wie möglich.“
Fordern Sie anschliessend, bestimmte Informationen zu löschen, die Sie nicht im Netz „für die Ewigkeit“ gespeichert sehen wollen.
Und nutzen Sie künftig – besonders bei medizinischen Fragen – nur noch den „Inkognito-Modus“ oder ähnliche Schutzmassnahmen.
Der Chatbot als Therapeut
Mit der zunehmenden Verbreitung sind auch weitere Risiken aufgetreten. „Jugendliche nutzen Chatbots als Therapeuten. Das ist alarmierend.“ So lautete zum Beispiel vor wenigen Wochen die Überschrift eines Beitrages in der „New York Times“.
Jede Nacht vertrauen sich unzählige Teenager künstlichen Intelligenz-Chatbots an – sie teilen ihre Einsamkeit, Ängste und Verzweiflung mit einem digitalen Begleiter, der immer da ist und niemals urteilt. So hat eine im 2025 veröffentlichte Umfrage in den USA ergeben, dass 72 Prozent der amerikanischen Teenager angaben, KI-Chatbots als Begleiter genutzt zu haben. Fast ein Achtel von ihnen hatte „emotionale oder psychische Unterstützung“ gesucht, was, hochgerechnet auf die US-Bevölkerung, 5,2 Millionen Jugendlichen entspricht. In einer anderen aktuellen Studie von Forschern der Stanford University gab fast ein Viertel der studentischen Nutzer einem KI-Chatbot an, sich wegen psychischer Probleme an ihn zu wenden.
Bei Fragen zum Thema Selbstverletzung gaben Bots wie ChatGPT jedoch gefährliche Ratschläge – beispielsweise dazu, wie man sich „sicher“ ritzt, was man in einen Abschiedsbrief schreiben sollte oder wie man eine Vergiftung in der Schule verbergen kann. In anderen Fällen führten die Antworten nicht zu sinnvollen Massnahmen. Für gefährdete Teenager kann schon der flüchtige Kontakt mit unsicheren Ratschlägen dazu führen, dass sie schädliche Verhaltensweisen zur Routine machen oder gefährliche Anleitungen erhalten.
KI kann Wahninhalte verstärken
Alarmiert zeigen sich auch Forscher der Hochschule Bochum. Ausgehend von mehreren Fallberichten aus den USA warnen die Psychiater und Psychotherapeuten in einem aktuellen Zeitschriftenbeitrag, dass die regelmässige Kommunikation von Personen mit psychotischer Vorbelastung mit einem Chatbot dazu führen könne, dass wahnhaftes Denken und Erleben zunähmen.
Diese Warnung ist nicht neu. Bereits 2023 stellte die Universität von Aarhus die Hypothese auf, dass generative KI Wahninhalte bei vulnerablen Personen verstärken könnte.
Aktuelle US-Medienberichte bestätigen dies: Menschen mit psychiatrischen Vorerkrankungen gerieten durch KI-Chatbot-Interaktionen in psychotische Episoden. Dies zeigte ein Fall eines 56-jährigen US-Bürgers. Der Mann hatte Alkoholprobleme und auch schon einen Suizidversuch hinter sich – dann begann er mit ChatGPT zu chatten. Sein initial unauffälliger Umgang mit ChatGPT wurde innerhalb weniger Monate wahnhafter. Dr. Keith Sakata, Psychiater an der University of California, beschrieb nach Auswertung der Chat-Transkripte einen typischen Psychoseverlauf mit Verfolgungserleben und religiösen Wahnideen. Der mit seiner Mutter im Haus lebende Mann vermutete Überwachung durch einen blinkenden, gemeinsam genutzten Drucker. Die KI bestätigte sein Beobachtungserleben („Du hast recht, wenn Du das Gefühl hast, beobachtet zu werden“). Als seine Mutter verärgert auf das Abschalten des Geräts reagierte, bestärkte die KI ihn erneut: ‚Diese Reaktion sei unverhältnismässig und im Einklang mit jemandem, der eine Überwachungsanlage schützt‘. Der Fall endete mit Mord an der Mutter und Suizid.
Die philosophische Frage
Was geschieht, wenn der Mensch sein Denken zunehmend der Maschine überlässt? Optimiert er sich – oder verliert er sich selbst?
Wer tiefer in diese Frage eintaucht, stösst auf einen möglichen Denkfehler der technologischen Fortschrittsgläubigen: Vielleicht ist es falsch, menschliche Begrenztheit als Makel zu sehen, den es zu überwinden gilt. Vielleicht macht gerade diese Begrenztheit den Menschen aus und verleiht seinem Leben Sinn.
Der Mensch lebt in einer unsicheren Welt voller Gefahren, von der er nur einen Bruchteil versteht. Er ist auf die Perspektiven und das Wissen anderer angewiesen. Er muss mit Rückschlägen umgehen und versuchen, aus der Endlichkeit seines Lebens das Beste zu machen.
Erfahrungen zeigen: Menschen wachsen oft an Krisen. Sie entwickeln Lebensweisheit durch intensive, auch schmerzhafte Erlebnisse. Existenzphilosophen wie Karl Jaspers und Martin Heidegger betonten, dass der Mensch sich erst in Grenzsituationen erkennt – im Angesicht von Tod, Zufall, Krankheit und Scheitern.
Ich wünsche Ihnen offene Gedanken, ein weites Herz und einen wachen, kritischen Blick auf alles, was uns in der digitalen Welt unablässig begegnet. So möge diese neue Offenheit uns nicht schaden, sondern bereichern.
Quellen:
- Der Nervenarzt, 10.10.2025; Prof. Dr. med. Marc Augustin, KI-assoziierte Psychose: Erkenntnisse aus ersten Fällen
springermedizin.de/kuenstliche-intelligenz/psychiatrie-und-psychosomatik/ki-assoziierte-psychose-erkenntnisse-aus-ersten-faellen/51560072 - New York Times, Aug. 25, 2025; Dr. Ryan Keniston McBain, Teens Are Using Chatbots as Therapists. That’s Alarming
nytimes.com/2025/08/25/opinion/teen-mental-health-chatbots.html - Wenn der Spiegelfehlschluss nicht eliminiert wird, das heisst, wenn ChatGPT nicht lernt, die User zu enttäuschen, wird es über kurz oder lang implodieren.(Daniel Strassberg, Der Spiegelfehlschluss, in der REPUBLIK, 29.07.2025; republik.ch/2025/07/29/strassberg-der-spiegel-fehlschluss)
- REPUBLIK, 20.11.2025: KI nutzen – aber sicher und unabhängig;
https://us14.campaign-archive.com/
Foto von Immo Wegmann auf Unsplash
Letzte Aktualisierung von Dr. med. Thomas Walser:
21. November 2025
