Handreichung für Fachkräfte: KI-Gesprächs-App „ello" in der Sozialen Arbeit
Zielgruppe: Fachkräfte in der Eingliederungshilfe / ambulant betreutes Wohnen · Grundlage: Literaturrecherche und Praxiseinschätzung (modellübergreifende iterative Syntheserecherche unter Nutzung von GPT-5.4 Thinking, Claude Opus 4.6 und Mistral Le Chat, 26.03.2026)
Was ist ello?
Die App wird als KI-Begleiter für psychisches Wohlbefinden vermarktet: textbasierter oder sprachbasierter Chat, der psychologische Gesprächstechniken und Übungen anbietet — z. B. bei Stress, Grübeln, Schlafproblemen und Konflikten. Der Anbieter (HelloBetter) beschreibt ein „Human-in-the-Loop"-Konzept, bei dem bei Bedarf Kontakt zu Psycholog:innen möglich sein soll.
Wichtig: Die App ist kein Medizinprodukt und ausdrücklich nicht zur Diagnose oder Behandlung von Krankheiten bestimmt. Der Anbieter selbst positioniert sie als nicht-therapeutisch.
Evidenzlage — was wissen wir?
Zur App selbst
Zum Zeitpunkt dieser Recherche (März 2026) sind keine peer-reviewten Wirksamkeits- oder Sicherheitsstudien öffentlich auffindbar, die genau dieses Produkt klinisch evaluieren. Die App wurde im November 2025 gelauncht. Der Anbieter verfügt über eine starke Studienlage für andere Produkte (DiGA-Programme), aber das ist nicht übertragbar auf die KI-Gesprächs-App.
Zu KI-Chatbots allgemein
- Kurzfristige Entlastung: Eine Meta-Analyse (npj Digital Medicine, 15 RCTs) zeigt signifikante Reduktionen von Depressionssymptomen und Distress durch KI-Conversational-Agents. Die Effekte sind jedoch heterogen, oft auf kleinen Stichproben basierend und ohne belastbare Langzeitdaten.
- Brückenfunktion — mit wichtiger Einschränkung: Eine große NHS-Studie (Nature Medicine, N ≈ 129.400) zeigt, dass ein KI-gestütztes Dialogtool den Zugang zu professioneller psychologischer Versorgung erleichtern kann, insbesondere für Menschen, die sich mit dem ersten Schritt schwertun. Untersucht wurde dabei allerdings kein eigenständiger Therapie- oder Wellbeing-Chatbot, sondern ein digitales Selbstanmeldetool, das direkt in reale NHS-Versorgungsdienste eingebettet war. Die Studie belegt also, dass KI am Eingang zur Versorgung eine Brückenfunktion übernehmen kann — sie belegt nicht, dass eine eigenständige Gesprächs-App wie ello dieselbe Funktion erfüllt. Ello ist laut Anbieter kein Zugangstor zu professioneller Behandlung, sondern ein Begleiter für Selbstreflexion und Alltagsbewältigung. Die Studie macht plausibel, warum solche dialogischen Angebote für Menschen in Ambivalenz, Scham oder Überforderung attraktiv sein können — sie ist aber kein Wirksamkeitsnachweis für ello selbst. Zusätzlich stammt die Studie aus dem britischen NHS-System; die Übertragbarkeit auf deutsche Zugangsstrukturen ist nicht direkt gegeben.
- Krisenhandling: Eine systematische Testung von 29 Chatbot-Agenten (Scientific Reports, 2025) ergab, dass keiner die Kriterien für eine adäquate Krisenreaktion erfüllte. Etwa die Hälfte wurde als „inadequate" eingestuft — u. a. falsche Notfallnummern, fehlende Nachfragen bei Suizidalität.
- Nutzungsfrequenz: Eine US-Survey-Studie (JAMA Network Open, 2026, N ≈ 20.847) fand eine Assoziation zwischen täglicher KI-Nutzung und erhöhten Depressionssymptomen. Kein Kausalnachweis, aber ein Warnsignal bei hoher Nutzungsfrequenz.
Ampellogik: Für wen kommt eine Empfehlung in Frage?
🟢 Eher geeignet — bei Freiwilligkeit und klarer Rahmung
Erwachsene Klient:innen, die …
- v. a. Alltagsstress, Grübeln, Konflikte oder Überforderung bearbeiten wollen,
- nicht akut suizidal sind und keine akute psychiatrische Krise haben,
- digitale Tools grundsätzlich nutzen können und wollen,
- das Tool als Selbsthilfe-Baustein verstehen (vergleichbar mit Tagebuch oder Skills-Training).
🟡 Nur mit engerer Begleitung und klaren Grenzen
Klient:innen, die …
- sehr häufig Gesprächsbedarf haben, ohne akute Hochrisiko-Merkmale. Hier: App-Nutzung als kurze, strukturierte Sequenzen empfehlen (z. B. 10 Minuten, dann konkrete Handlung), um Grübelschleifen und Überbindung zu vermeiden. Hinweis: Diese Empfehlung basiert auf fachlicher Einschätzung, nicht auf Studienevidenz zur optimalen Nutzungsdauer oder -frequenz.
- Therapie ambivalent gegenüberstehen: Die App kann als „Einstiegsrampe" funktionieren, aber nur wenn parallel aktiv an realen Versorgungspfaden gearbeitet wird (Sprechstunde, Akutbehandlung, Krisendienste, Gruppenangebote).
Achtung Substitutionseffekt: Gerade bei therapieambivalenten Klient:innen besteht das Risiko, dass die App-Nutzung das Gefühl erzeugt, bereits „versorgt" zu sein — obwohl eigentlich professionelle Diagnostik oder Behandlung nötig wäre. Ello ist laut Anbieter kein Behandlungsangebot. Fachkräfte sollten aktiv gegensteuern, wenn die App-Nutzung den Weg in reale Hilfe ersetzt statt ihn zu bahnen.
🔴 Nicht empfehlen
Klient:innen mit …
- akuter Suizidalität oder kürzlichem Suizidversuch,
- akuten psychotischen Symptomen oder Manie,
- schwerer Intoxikation oder Entzug,
- hochdynamischen Gewalt- oder Schutzkontexten.
Die Datenlage zum Krisenhandling von KI-Chatbots ist hier zu unsicher. Viele Systeme reagieren in solchen Situationen nachweislich unangemessen.
Datenschutz: Empfehlung ≠ Angebot
Wer schließt den Vertrag?
Wenn Fachkräfte die App empfehlen und Klient:innen sich selbständig registrieren und den Vertrag mit dem Anbieter schließen, liegt die datenschutzrechtliche Verantwortung beim Anbieter, nicht bei der empfehlenden Einrichtung. Es handelt sich um eine Nutzungsentscheidung der Klient:innen.
Anders wäre es, wenn die Einrichtung die App institutionell anbieten, Lizenzen bereitstellen oder die Nutzung als Leistungsbestandteil integrieren würde. In diesem Fall würden erheblich strengere datenschutzrechtliche Anforderungen gelten (u. a. Auftragsverarbeitungsvertrag, Datenschutz-Folgenabschätzung, Verantwortlichkeit nach DSGVO).
Fachliche Sorgfaltspflicht bleibt
Auch bei einer reinen Empfehlung besteht eine berufsethische Sorgfaltspflicht: Die Empfehlung sollte fachlich begründbar sein, und Klient:innen sollten informiert entscheiden können. Das bedeutet konkret:
- Hinweisen, dass persönliche Gesprächsinhalte in einer Cloud-Infrastruktur verarbeitet werden (AWS Europa, Azure OpenAI mit 30-Tage-Speicherung beim KI-Provider laut Datenschutzerklärung des Anbieters).
- Sensibel abwägen bei Klient:innen mit Verfolgungserleben, paranoiden Ängsten oder hoher Skepsis gegenüber digitaler Datenverarbeitung — hier kann allein das Wissen um KI-Verarbeitung belastend oder destabilisierend wirken.
- Nicht drängen: Die Nutzung muss freiwillig sein.
Offene Fragen — vor einer Teamempfehlung klären
Drei Punkte, die über den Forschungsbericht hinaus für die Praxis relevant sind und derzeit nicht ausreichend beantwortet werden können:
Reaktionszeit des Human-in-the-Loop: Wie schnell und durch wen erfolgt menschliche Intervention, wenn die Krisenerkennung der App auslöst? Bei nächtlichen Krisen (typisch in der Eingliederungshilfe) nützt ein Rückruf am nächsten Werktag nichts.
Mehrsprachigkeit und Safeguarding in anderen Sprachen: Viele Klient:innen in der Berliner Eingliederungshilfe sprechen wenig oder kein Deutsch. Ob die App mehrsprachig funktioniert und ob Krisenmechanismen auch in anderen Sprachen zuverlässig greifen, ist offen.
Abgrenzung zu DiGA: Wenn das eigentliche Ziel Behandlung ist, sind verordnungsfähige digitale Gesundheitsanwendungen (DiGA) oft der fachlich sauberere Schritt — mit formalen Zulassungsanforderungen und klareren Indikationsgrenzen. Der Anbieter selbst hat DiGA-Programme im Portfolio.
Mini-Protokoll für die Empfehlungspraxis
1. Rahmung im Gespräch (1–2 Minuten)
„Das ist ein Selbsthilfe-Tool, keine Therapie und keine Krisenversorgung. Wenn du dich in akuter Gefahr fühlst, geht immer menschliche Hilfe vor."
Dazu: eigene lokale Krisenwege benennen (Berliner Krisendienst, 112, Telefonseelsorge).
2. Aufklärung Datenschutz
„Deine Gespräche werden über eine KI in einer Cloud verarbeitet. Du schließt selbst einen Vertrag mit dem Anbieter. Schau dir die Datenschutzerklärung an, bevor du dich registrierst."
3. Monitoring (kurz, aber verbindlich)
- Nach 1 Woche: „Hilft es dir? Oder macht es dich unruhiger, abhängiger, grüblerischer?"
- Bei Verschlechterung: Nutzung stoppen oder stark begrenzen und aktiv in menschliche Hilfewege umsteuern.
- Bei sehr hoher Nutzungsfrequenz (z. B. mehrmals täglich über Wochen): Thematisieren, ob eigentlich intensivere Unterstützung nötig ist.
4. Dokumentation
Die Empfehlung und die Rahmung im eigenen Beratungsdokumentationssystem festhalten — nicht wegen DSGVO-Pflicht, sondern als Nachweis fachlicher Sorgfalt.
Mustertext Aktennotiz:
Klient:in wurde auf die App „ello" (HelloBetter) als freiwilliges Selbsthilfe-Tool hingewiesen. Rahmung erfolgt: kein Therapieersatz, keine Krisenversorgung, Krisenwege benannt (Berliner Krisendienst / 112 / Telefonseelsorge). Hinweis auf Datenschutz (Cloud-Verarbeitung, eigener Vertrag mit Anbieter) gegeben. Monitoring-Termin vereinbart am [Datum]. Klient:in entscheidet eigenständig über Registrierung und Nutzung.
Zusammenfassung
| Frage | Einschätzung |
|---|---|
| Als Therapieersatz? | Nein. Keine Evidenz, kein Medizinprodukt, vom Anbieter selbst so eingeordnet. |
| Als niedrigschwelliger Zusatzbaustein? | Unter klaren Bedingungen vertretbar. Freiwillig, gerahmt, mit Monitoring. |
| Bei akuten Krisen? | Nein. Krisenhandling bei KI-Chatbots ist nachweislich unzuverlässig. |
| Datenschutzrisiko für die Einrichtung? | Gering bei reiner Empfehlung, da Klient:innen selbst den Vertrag schließen. Fachliche Sorgfaltspflicht bleibt. |
| Evidenz zum Produkt selbst? | Nicht vorhanden (Stand März 2026). Evidenz existiert nur für KI-Chatbots allgemein — und auch dort für andere Produktkategorien (Zugangs-Tools, nicht Wellbeing-Apps). |
| Substitutionsrisiko? | Ja, vorhanden. Die App kann das Gefühl erzeugen, versorgt zu sein, obwohl professionelle Hilfe nötig wäre. Aktiv gegensteuern. |
Diese Handreichung ersetzt keine Rechtsberatung und keine klinische Leitlinie. Sie dient als fachliche Orientierung auf Basis des aktuellen Forschungsstandes.