Experten: Roboter-Therapeuten brauchen Regeln

Künstliche Intelligenz (KI) wird bei psychischen Erkrankungen eingesetzt –  doch für die Roboter fehlen bisher umfassende ethische Regeln. Darauf weist eine am Mittwoch veröffentlichte Studie der Technischen Universität München hin. Untersucht worden sei darin erstmals, wie „verkörperte KI“ die Behandlung psychischer Erkrankungen unterstütze. Wichtige ethische Fragen zu dieser Technologie seien jedoch unbeantwortet. Es bestehe dringender Handlungsbedarf für Regierungen, Fachverbände und Forschung, so das Fazit.

Der Universität zufolge werden etwa Roboter-Puppen eingesetzt, mit denen autistische Kinder lernen, Menschen besser zu verstehen. Computergenerierte Avatare wiederum helfen, mit Halluzinationen umzugehen. Dazu kommen virtuelle Chats, die Unterstützung bei Depressionen bieten. Die Menschen interagierten mit einem künstlichen Gegenüber, wodurch neue Dynamiken entstünden. Diese Anwendungen hätten „enormes Potenzial“, heißt es. Sie könnten mehr Menschen Zugang zu einer Behandlung bieten, weil sie nicht an bestimmte Zeiten und Orte gebunden seien.

Künstliche Intelligenz darf nicht zu einer günstigen Alternative werden

Einigen Betroffenen fällt es zudem leichter, mit der KI zu kommunizieren als mit einem menschlichen Gegenüber, wie die Studie ergab. Doch Amelia Fiske, die daran mitwirkte, warnte, verkörperte KI dürfe kein billiger Ersatz für eine Behandlung durch reale Ärztinnen und Ärzte sein. Ihrer Ansicht nach ist es dringend nötig, die Vorteile dieser Technologien zu nutzen, zugleich aber die Nachteile zu vermeiden. Der Professor für Psychosomatische Medizin, Peter Henningsen, forderte, das Thema auch im Medizinstudium zu behandeln.

Derzeit werden laut der Professorin für Ethik der Medizin und Mitglied des Deutschen Ethikrates Alena Buyx bereits vermehrt Leitlinien für KI erstellt. Aus ihrer Sicht braucht es aber fachspezifische Regeln für therapeutische KI-Anwendungen: „Wenn die Programme beispielsweise erkennen können, ob Patienten Suizidgedanken haben, dann müssen sie, genau wie Therapeutinnen und Therapeuten, im Ernstfall klare Warn-Protokolle befolgen.“

Bisher gebe es auch kaum Erkenntnisse, wie sich der Kontakt mit KI auf Menschen auswirke, so Buyx. Womöglich lerne etwa ein Kind mit einer Störung aus dem Autismus-Spektrum durch den Kontakt mit einem Roboter nur, wie man besser mit diesem umgehe, nicht aber mit Menschen.