Künstliche Empathie und Telemedizin – Wie nah darf KI gehen?
Künstliche Empathie gilt als Schlüsseltechnologie für die digitale Interaktion der Zukunft – insbesondere in der Telemedizin. In diesem Beitrag geht es um Künstliche Empathie und Telemedizin .
Wenn Patient:innen in der Videosprechstunde mit einer Kamera statt direktem Blickkontakt kommunizieren, verändert sich die emotionale Dynamik. Der Tonfall, Pausen und Wortwahl gewinnen an Bedeutung – doch auch Blickverhalten und Mimik bleiben analysierbar. Genau hier setzt künstliche Empathie an: Systeme erkennen zögerliches Sprechen, Verunsicherung oder Abweichungen vom üblichen Antwortverhalten. Doch die entscheidende Frage lautet nicht, ob Maschinen Gefühle wahrnehmen – sondern wie sie damit umgehen.
Manche Systeme beziehen heute bereits mehrere Ebenen ein – Sprache, Gesichtsausdruck, Bewegungsmuster. Künstliche Empathie wird damit zur Technik der Vielschichtigkeitsanalyse – mit neuen Chancen, aber auch Risiken der Überinterpretation.
Technologien wie Natural Language Processing, Sentiment-Analysen oder emotionsadaptive Interfaces sind längst im Einsatz. Doch Empathie ist mehr als Erkennung: Sie lässt Beziehung entstehen. Patient:innen reagieren nicht nur auf Inhalte, sondern auf das, was zwischen den Zeilen mitschwingt – ob menschlich oder maschinell vermittelt.
Was also geschieht, wenn eine KI beruhigend spricht, weil sie so programmiert wurde? Wird das als echtes Mitgefühl wahrgenommen – oder als Inszenierung? In der Telemedizin zeigt sich: Nicht nur die technische Fähigkeit entscheidet, sondern auch Sprache, Design und Kontext.

Was heute schon möglich ist
In der Telemedizin kommen empathiefähige Systeme zum Beispiel in folgenden Anwendungsfällen zum Einsatz:
- Bei chronisch erkrankten Patient:innen analysiert eine KI etwa Stimmveränderungen im Telefon- oder Video-Call, um akute Verschlechterungen frühzeitig zu erkennen
- Chatbots in Patientenportalen erkennen emotionale Spannungen und können gezielt Empfehlungen aussprechen – zum Beispiel eine Gesprächsweiterleitung an medizinisches Fachpersonal.
- In der psychologischen Versorgung begleiten virtuelle Assistenten Betroffene rund um die Uhr – niedrigschwellig, telefonisch oder online.
Diese Technologien können Gespräche strukturieren, entlasten, beruhigen – doch sie stellen auch neue Anforderungen an Anbieter: Wie empathisch wirkt ein System? Und wie verantwortungsvoll gehen Anbieter mit emotionalen Daten um?
Zwei Praxisbeispiele
EMOTIONSLOTSE: In einem Forschungsprojekt des Universitätsklinikums Leipzig wird ein KI-basierter Chatbot getestet, der auf psychotherapeutische Kommunikation spezialisiert ist. Er vermittelt wissenschaftlich fundierte Strategien zur Emotionsregulation und nutzt Vitaldaten von Wearables, um auf den emotionalen Zustand der Nutzenden adaptiv zu reagieren.
Wysa ist ein KI-gestützter Mental-Health-Chatbot, der weltweit in der psychologischen Versorgung eingesetzt wird. Es ensteht ein hybrider Versorgungsansatz: Patient:innen erhalten rund um die Uhr Zugang zu empathisch programmierten Tools für Selbstreflexion, kognitive Verhaltenstherapie (CBT) und Emotionsregulation. Gleichzeitig können Therapeut:innen Fortschritte verfolgen, Nachrichten austauschen und gezielte Interventionen planen. Die KI erkennt Hinweise auf Krisen und empfiehlt bei Bedarf Soforthilfe – ein wichtiger Beitrag zur Früherkennung und Stabilisierung im Behandlungsalltag. Wysa wird unter anderem im britischen NHS eingesetzt, um Behandlungsverläufe zu unterstützen und Rückfälle zu verhindern.
Beide Beispiele zeigen eindrücklich das Potenzial empathiefähiger Systeme in der Versorgung – doch wie erleben Patient:innen eigentlich den Umgang mit solchen KI-Anwendungen?
Was bevorzugen Patient:innen?
Aktuelle Studien untersuchen, welche Form der KE in der Gesundheitsversorgung von Patient:innen präferiert wird:
Eine Studie aus Deutschland (Seitz, 2024) untersuchte z. B. die Reaktion auf drei verschiedene Formen künstlicher Empathie in Gesundheits-Chatbots:
- Empathisch („Ich kann Ihre Sorge gut verstehen.“)
- Sympathisch („Das tut mir leid.“)
- Verhaltensorientiert („Ich werde mein Bestes tun, um Ihnen zu helfen.“)
Das Ergebnis: Alle drei Varianten wurden als „wärmer“ empfunden als Angebote ohne Empathie, und alle drei führten zu mehr Vertrauen. Aber – und das ist entscheidend – rein empathische und sympathische Bots galten zugleich als weniger glaubwürdig und authentisch. Der Grund: Nutzer:innen trauten ihnen die Fähigkeit zu echten Gefühlen schlichtweg nicht zu.
Besonders wirksam war die verhaltensorientierte Empathie: Sie bietet Hilfe an, ohne Gefühle zu simulieren – und wurde deshalb als authentischer empfunden.
🔹 Studie aus den USA (Morrow et al., 2023) Auch im klinischen Alltag zeigte sich: Patient:innen reagierten besser auf KI-Systeme, die erkennbare emotionale Signale wie besorgte Stimmlage oder eine depressive Wortwahl identifizierten und dann gezielte Vorschläge machten – z. B. zur Rücksprache mit medizinischem Personal oder zum Anpassen eines Therapieplans. Entscheidend war hier weniger das „Fühlen“, sondern das gezielte Unterstützen.
Was heißt das für die Telemedizin?
💡 KI muss nicht „fühlen“ – sie muss helfen. Wenn emotionale Intelligenz simuliert wird, scheint es zielführender zu sein, wenn diese in handlungsfähige Systeme mündet: Hinweise geben, Menschen verbinden, eskalieren, stabilisieren. Doch es bleibt eine Gratwanderung. Empathie darf keine Dienstleistung ohne Verantwortung werden. Wer das Vertrauen von Patient:innen gewinnen will, braucht transparente Prozesse und klare Schnittstellen zwischen Maschine und Mensch.
Fazit
Künstliche Empathie in der Telemedizin ist kein Ersatz für Beziehung – aber ein neuer Baustein im Versorgungssystem.
Die Frage ist nicht, ob wir künstliche Empathie integrieren – sondern wie:
- Wie gelingt empathische Kommunikation, ohne zur Täuschung zu werden?
- Wo erleichtert sie den Zugang – und wo ersetzt sie echte Zuwendung?
- Welche Standards braucht es, damit emotionale Daten nicht zur Ware werden?
Pingback: Telemedizin im Krankenhaus-Report