Die psychische Gesundheitsversorgung in Deutschland steht vor enormen Herausforderungen. Lange Wartelisten und hohe Hürden machen den Zugang zu Therapieplätzen für viele Menschen schwierig. Besonders betroffen sind marginalisierte Gruppen wie trans*, inter* und nicht-binäre (TIN*) Personen. In diese Lücke stoßen digitale Gesundheitsangebote und KI-Anwendungen, die schnelle und unkomplizierte Hilfe versprechen. Doch können sie dieses Versprechen halten? Eine genauere Analyse zeigt, dass die aktuellen digitalen Lösungen die Bedürfnisse von TIN* Menschen nicht nur vernachlässigen, sondern durch systemische Vorurteile sogar schaden können.
Der digitale Therapiemarkt: Was steckt hinter den Angeboten?
Der Markt für digitale psychische Gesundheit ist vielfältig. In Deutschland haben sich hauptsächlich zwei Modelle etabliert, die den Zugang und die Finanzierung regeln.
Das Modell „App auf Rezept“ (DiGA)
Eine wichtige Neuerung im deutschen Gesundheitssystem sind die Digitalen Gesundheitsanwendungen, kurz DiGA. Dabei handelt es sich um Apps, die von Ärztinnen und Psychotherapeuten verschrieben werden können. Die Kosten übernehmen die gesetzlichen Krankenkassen vollständig.
Bekannte Anbieter sind HelloBetter und Selfapy. Diese Plattformen bieten strukturierte Online-Kurse an, die meist auf der kognitiven Verhaltenstherapie (KVT) basieren. Nutzerinnen bearbeiten die Kurseinheiten selbstständig und erhalten schriftliches Feedback von qualifizierten Psychologinnen. Dieses asynchrone Modell ist gut skalierbar, bedeutet aber auch weniger direkte Interaktion als in einer klassischen Therapiesitzung. Der Fokus liegt auf weit verbreiteten Diagnosen wie Depressionen, Angst- oder Essstörungen.
Das Direktversicherungsmodell
Andere Plattformen wie MindDoc bieten direkte Psychotherapie per Videositzung an. Hier finden wöchentliche Gespräche mit approbierten Psychotherapeutinnen statt. Die Kostenübernahme hängt davon ab, ob die eigene Krankenkasse einen Vertrag mit dem Anbieter hat. Ansonsten müssen die Kosten selbst getragen werden, was sich auf etwa 100 Euro pro Sitzung belaufen kann.
Internationale Online-Plattformen: Ein warnender Blick
Neben den deutschen Anbietern drängen auch große, internationale Online-Plattformen auf den Markt. Diese arbeiten oft auf Abonnement-Basis und locken mit einem riesigen Netzwerk an Beratenden. Doch hier ist Vorsicht geboten. Solche Anbieter standen wiederholt wegen massiver Datenschutzbedenken und fragwürdiger Arbeitsbedingungen für ihre Beratenden in der Kritik.
Entscheidend für den deutschen Kontext ist zudem ein fundamentaler Qualitätsunterschied: Oft wird hier keine Psychotherapie durch approbierte Psychotherapeutinnen angeboten, sondern eine allgemeinere psychologische Beratung, die von Personen mit oft unklaren Qualifikationen durchgeführt wird. Speziell für TIN Personen kommt hinzu, dass es diesen generalistischen, auf Masse ausgelegten Diensten systematisch an der notwendigen Fachkompetenz für eine affirmative und sachkundige Beratung mangelt.
Das systemische Problem: Unsichtbarkeit in der digitalen Welt
Obwohl diese Plattformen mit universellem Zugang werben – „jederzeit, überall und für jede:n“ – zeigt eine genauere Untersuchung ein klares Defizit. Weder bei MindDoc noch bei Selfapy oder HelloBetter finden sich spezielle Angebote, Suchfilter oder Informationen für TIN* Personen. Die Behandlung orientiert sich an Standarddiagnosen, während Themen wie Geschlechtsdysphorie oder die Begleitung bei einer Transition komplett fehlen.
Dieses Fehlen ist keine neutrale Unterlassung, sondern ein systemischer Ausschluss. Das regulatorische Modell der DiGAs fördert diese Entwicklung sogar. Um als „App auf Rezept“ zugelassen zu werden, sind teure klinische Studien für anerkannte Diagnosen nötig. Ein spezialisiertes Angebot für eine kleinere Zielgruppe wie TIN* Personen wird für Entwickler wirtschaftlich unattraktiv. So wird das System, das den Zugang eigentlich erleichtern soll, zu einer Barriere für eine inklusive Versorgung. TIN* Personen, die auf diesen Plattformen Hilfe suchen, müssen ein Glücksspiel eingehen und riskieren, an Behandelnde zu geraten, denen das nötige Wissen für eine affirmative Begleitung fehlt.
KI-Chatbots als Therapeuten-Ersatz: Eine gefährliche Illusion
Neben den etablierten Plattformen drängen generative KI-Chatbots wie ChatGPT auf den Markt und werden als Alternative zur psychologischen Beratung positioniert. Ihre Anziehungskraft ist verständlich: Sie sind rund um die Uhr verfügbar, wirken anonym und können die Hemmschwelle senken. Manche Studien deuten sogar darauf hin, dass die Antworten einer KI von Laien als empathischer wahrgenommen werden als die von menschlichen Therapeuten.
Doch dieser Eindruck täuscht und birgt erhebliche Risiken.
- Fehlender Wirkungsnachweis: Es gibt keine soliden klinischen Beweise dafür, dass die Interaktion mit einem Sprachmodell zu einer dauerhaften psychischen Verbesserung führt. Wahrgenommene Empathie ist nicht mit klinischer Wirksamkeit gleichzusetzen. Das Ziel von Psychotherapie ist nicht, überzeugende Texte zu produzieren, sondern einen echten Veränderungsprozess zu ermöglichen.
- Gefährliche Falschinformationen: KI-Systeme können in Krisensituationen, etwa bei Suizidgedanken, gefährlich falsche Ratschläge geben. Ihre Ratschläge basieren auf undurchsichtigen Algorithmen („Black-Box-Problem“) und die Anbieter übernehmen keine Haftung für fehlerhafte oder sogar beleidigende Inhalte.
- Künstliche Abhängigkeit: Besonders für verletzliche Personen kann die Bindung an einen Chatbot riskant sein. Sie kann zu sozialem Rückzug und einer verzerrten Realitätswahrnehmung führen.
- Datenschutz: Hochsensible persönliche Daten werden mit kommerziellen Unternehmen geteilt, deren Umgang mit diesen Informationen unklar ist.
Algorithmischer Bias: Wie KI Vorurteile reproduziert
KI-Modelle sind nicht neutral. Sie lernen aus riesigen Datenmengen aus dem Internet, die unsere gesellschaftlichen Vorurteile widerspiegeln. Da diese Daten überwiegend in einem cis-normativen und binären Geschlechterrahmen erstellt wurden, reproduziert die KI diese Normen.
Für TIN* Personen wird dies konkret spürbar. Ein KI-Modell, das auf einer binären Weltsicht trainiert wurde, wird diese Voreingenommenheit auf die Nutzenden zurückwerfen. Ein deutliches Beispiel ist der Umgang mit Neopronomen im Deutschen wie „xier“ oder „dey“. Studien zeigen, dass ChatGPT hier oft grammatikalisch falsche oder unsinnige Sätze bildet. Das ist mehr als nur ein technischer Fehler. Es ist das Unvermögen, einen zentralen Aspekt nicht-binärer Identität zu respektieren und anzuerkennen. Während die Therapie-Plattformen also durch Unterlassung versagen, versagen KI-Chatbots durch aktives Handeln, indem sie Stereotype verstärken und nicht-binäre Realitäten unsichtbar machen.
Der sichere Umgang
Die digitale Gesundheitsversorgung birgt das Risiko, bestehende Ungleichheiten zu verstärken. Echte Hilfe erfordert bewusste, auf Gleichberechtigung ausgerichtete Gestaltung. Was können TIN* Personen also tun?
- Auf Peer-Beratung und Community-Wissen setzen: Anlaufstellen, die aus der Community für die Community arbeiten, sind oft die beste Wahl. Die Peer-Beratung der dgti e.V. bietet einen sicheren Raum für Austausch und Unterstützung von erfahrenen trans* und inter* Personen. Solche von Peers geleiteten Dienste sind für direkte Unterstützung klar zu bevorzugen.
- Gezielt nach Kompetenz suchen: Statt auf den großen Mainstream-Plattformen sollten spezialisierte Verzeichnisse genutzt werden, die Behandelnde auf ihre TIN*-Kompetenz prüfen. Gute Anlaufstellen sind beispielsweise Queermed Deutschland oder die Netzwerke des Verbands für lesbische, schwule, bisexuelle, trans*, intersexuelle und queere Menschen in der Psychologie (VLSP*).
- KI-Chatbots kritisch nutzen: Eine KI ist kein Therapeut. Sie kann allenfalls als Suchmaschine für allgemeine Informationen dienen, deren Ergebnisse aber immer kritisch hinterfragt werden müssen.
- Interessen politisch vertreten: Es ist wichtig, darauf hinzuwirken, dass affirmative Versorgungsstandards in die offiziellen Kriterien für digitale Gesundheitsanwendungen aufgenommen werden, um die Versorgungslücke langfristig zu schließen.
Die Zukunft der psychischen Gesundheitsversorgung wird digitaler. Damit sie jedoch für alle Menschen eine Verbesserung darstellt, muss sie menschenzentriert, klinisch fundiert und in den Prinzipien sozialer Gerechtigkeit verankert sein.
Was du tun kannst: Hilfe finden und das System verändern
Du hast Fragen oder suchst den Austausch mit jemandem, der ähnliche Erfahrungen gemacht hat? Die ehrenamtlichen Berater*innen der dgti verstehen deine Situation. Finde hier Unterstützung und eine kompetente zweite Meinung in unserer Peer-Beratung.
Unsere Arbeit für eine bessere Versorgung ist nur durch die Gemeinschaft möglich. Die dgti setzt sich ehrenamtlich und unabhängig für die Belange von TIN* Personen ein – in der Politik und mit Informationsangeboten wie diesem Artikel. Wenn du die systemischen Hürden abbauen möchtest, die wir hier beschrieben haben, kannst du uns auf zwei Wegen unterstützen:
- Spende für eine bessere Versorgung: Jeder Beitrag fließt direkt in unsere politische Arbeit für kürzere Wartezeiten und einen fairen Zugang zum Gesundheitssystem. Hier kannst du sicher über betterplace spenden.
- Werde Teil der Gemeinschaft: Mit einer Fördermitgliedschaft stärkst du unsere Stimme langfristig und nachhaltig. Gemeinsam sind wir lauter. Jetzt Fördermitglied werden.