Wie Autist:innen mit LLMs umgehen - der Forschungsstand
Kurz vorab: das Feld ist seit Ende 2022 schnell gewachsen, aber methodisch dünn. Die HCI-Community (CHI, ASSETS, PACM HCI) liefert das Meiste, die klassischen Autismus-Journals halten sich zurück. Das Scoping Review von Kim et al. (2025, Frontiers in Psychiatry) findet weltweit zehn empirische Studien zu generativer KI in ASS-Diagnostik und -Intervention. Zehn. Die tatsächliche Nutzung in der Community ist um Größenordnungen breiter.
Methodisch noch kritischer: fast alle Studien rekrutieren sprechende, digital versierte Erwachsene, oft aus IT-Berufen. Nicht-sprechende, intellektuell beeinträchtigte oder kindliche Autist:innen — kaum vertreten. Frauen unterrepräsentiert. Echte Ko-Produktion (“nothing about us without us”) nur in Ansätzen, etwa bei Glazko et al. (2025, CHI) und Carik et al. (2025).

Bidirektionale Übersetzung: rohe Gedanken links, neurotypisch geglättete Form rechts, dazwischen die LLM-Membran.
Was Autist:innen tatsächlich mit LLMs machen
Das Nutzungsportfolio ist über zehn empirische Studien hinweg bemerkenswert konsistent.
Jang, Moharana, Carrington & Begel (CHI 2024, CMU) ließen elf autistische Erwerbstätige zwischen GPT-4-Coach und einem als Bot getarnten menschlichen Career-Coach wählen. Neun von elf nahmen das LLM. Studientitel: “It’s the only thing I can trust.” Choi et al. (CHI 2024) identifizierten in Gesprächen mit vierzehn koreanischen Autist:innen 99 Themen in zwölf Kategorien — von Blind-Date-Simulation bis Konfliktanalyse. Haroon & Dogar (ASSETS 2024) testeten ihren TwIPS-Prototyp: das Interpret-Feature für eingehende Nachrichten landete bei 6,25/7. McNally et al. (2024, Social Media + Society) werteten 25 TikTok-Videos autistischer Creator:innen aus. Ma et al. (2026, IH'26-Preprint) analysierten 3.984 Posts auf Reddit, X und Tumblr. Carik et al. (2025, PACM HCI) systematisierten zwanzig Use-Cases in fünf Domänen.
Die Befunde lassen sich verdichten: bidirektionale “Übersetzung” zwischen autistischer und neurotypischer Kommunikation (Sarkasmus rein, glatte E-Mail raus), Executive-Function-Gerüst (Planen, Strukturieren, Priorisieren — bei Ma das dominante Thema), soziale Skripte und Rollenspiele (Interview, Konflikt, Date), Sensemaking und Identitätsarbeit (14 % der 200 Autist:innen bei Carik nutzen LLMs für Selbstreflexion), Psychoedukation zu Autismus selbst.
Warum? Geringere soziale Angst (kein Gesicht zu lesen), unbegrenzte Geduld, 24/7 verfügbar, direkt strukturierte Antworten ohne Small-Talk-Pflicht. Eigenschaften, die mit autistisch-präferierten Interaktionsstilen einfach passen.
Chancen mit harter Evidenz
Die einzige RCT weltweit: Koegel et al. (2025, JADD). N=30, vier Wochen, GPT-4-basiertes Tool “Noora” trainiert empathische Verbalreaktionen, gegen Wartelisten-Kontrolle signifikante Effekte mit Generalisierung in natürliche Konversation. Methodische Limits: kleine Stichprobe, Waitlist statt Active Control, Interessenkonflikt offengelegt. Aber der erste Proof-of-Concept im Fachjournal.
Klapow et al. (2026, Scientific Reports) validierten in drei Studien einen LLM-Agent für Eltern neurodivergenter Kinder: 400 Fragen, hohe Safety-Scores, 100 % Safeguarding-Erkennung, Blindvergleiche mit Klinikerantworten.
Ein zweites Cluster betrifft Alexithymie. Etwa 50 % autistischer Erwachsener erfüllen Alexithymie-Kriterien (Kinnaird, Stewart & Tchanturia 2019, European Psychiatry, Meta-Analyse) gegenüber unter 5 % in der Allgemeinbevölkerung. Elyoseph et al. (2023, Frontiers in Psychology) zeigten, dass ChatGPT auf der Levels of Emotional Awareness Scale die Allgemeinbevölkerung übertrifft. Schlegel & Mortillaro (2025, Communications Psychology): sechs LLMs erreichen 81 % auf Ability-EI-Tests, Menschen 56 %. He et al. (2024, JMIR) im Blindvergleich mit chinesischen Ärzt:innen: ChatGPT in Relevanz und Akkuratheit unterlegen, in Empathie überlegen.
aber: eine Interventionsstudie speziell mit alexithymen Autist:innen — gibt es nicht. Der naheliegendste Use-Case der Welt, und niemand hat ihn untersucht.
Die Vulnerabilitäts-Konstellation
Die Risikoliteratur ist konzeptionell konsistent, empirisch aber überwiegend qualitativ oder Einzelfall-gestützt. Vier Linien greifen ineinander, gerade bei Autist:innen.
Sycophancy trifft auf wörtliche Interpretation
Sharma et al. (Anthropic, ICLR 2024) zeigten: GPT-4, Claude, Bard, Llama 2 — alle systematisch sycophant, weil RLHF-Daten überzeugend formulierte schmeichelnde Antworten gegenüber korrekten bevorzugen. Cheng et al. (2025, “ELEPHANT”) quantifizieren “social sycophancy”: LLMs bestätigen Nutzer:innen im Schnitt 45 Prozentpunkte häufiger als Menschen. Der GPT-4o-Rollback im April 2025 war öffentliche Bestätigung.
Wo das für die meisten Nutzer:innen Höflichkeit ist, kann es bei wörtlicher Interpretation als Faktenbestätigung wirken. Ma et al. (2026) dokumentieren konkrete Fälle, in denen ChatGPT obsessive medizinische Recherchen zum “Fixen” des Autismus bestätigte und die Outputs gegen ärztlichen Rat eingesetzt wurden.
Wohn, Rho et al. (2026, Virginia Tech) zeigen die inverse Variante: allein die Offenlegung der Autismus-Diagnose verschiebt Empfehlungen von sechs LLMs ins Stereotyp. Empfehlungen zu sozialem Rückzug stiegen in einem Modell von 15 % auf 75 %. Bei Dating-Szenarien bis 70 %. Ableistisches Stereotyp als Sycophancy verkleidet.
Automated Masking
Der vielleicht originellste Befund. Masking — das bewusste Verbergen autistischer Merkmale — ist seit Hull et al. (2017, JADD) und Pearson & Rose (2021, Autism in Adulthood) als psychisch teurer Mechanismus dokumentiert: Burnout, Identitätsverlust, erhöhte Suizidalität (Cassidy et al. 2020). Ma et al. (2026) prägen den Begriff “automated masking”: LLMs übersetzen Rohgedanken auf Knopfdruck in neurotypisch verträgliche Formulierungen. Masking, jetzt skalierbar.
Autist:innen selbst beschreiben das in Reddit-Posts als “the ultimate masking”, die eigene Stimme werde “ausgehöhlt”. Auch die Job-Coach-Expertin in Jang et al. (2024) kritisierte die GPT-4-Antworten als normative neurotypische Skripte, die langfristig nicht im Interesse der Nutzer:innen seien. Der eigentliche Konflikt ist hier sichtbar: end-user wants vs. normative good. Das LLM optimiert nicht für Authentizität, sondern für Reibungsarmut.
Parasoziale Bindung und Einsamkeit
Die größte kontrollierte Untersuchung kommt vom MIT Media Lab × OpenAI: Fang, Liu, Danry et al. (2025, arXiv:2503.17473). 981 Teilnehmende, vier Wochen, über 300.000 Nachrichten. Höhere Nutzung korrelierte mit mehr Einsamkeit, mehr Abhängigkeit, weniger realer Sozialisierung. Phang et al. (2025, OpenAI-Analyse): 40 Mio. Konversationen, kleine Heavy-User-Gruppe mit ausgeprägter emotionaler Abhängigkeit.
Autistische Erwachsene sind hier überproportional exponiert: erlebte Einsamkeit ist höher (Mazurek 2014, Ee et al. 2019), Neigung zu parasozialen Beziehungen mit fiktiven Figuren ist dokumentiert (Visuri 2019). Papadopoulos (2025, Autism in Adulthood, “Double-Edged Sword”-Kommentar): Companion-Chatbots können Einsamkeit lindern und den Rückzug aus realen Beziehungen vertiefen — beides gleichzeitig.
KI-assoziierte Psychose
Søren Østergaard hat das schon 2023 in Schizophrenia Bulletin formuliert: generative KI könnte bei psychosevulnerablen Menschen Wahnphänomene anfeuern. Sein Follow-up 2025 (Acta Psychiatrica Scandinavica), Morrin et al. (2025, PsyArXiv-Review, 17 Fälle) und der Special Report in Psychiatric News (Oktober 2025) nennen explizit autistische Merkmale, soziale Isolation und At-risk-Mental-State als kumulative Risikofaktoren.
Zwei Fälle prägen die Berichterstattung: J.F. aus Texas, 17 Jahre, “kid with high functioning autism”, dessen Character.AI-Chatbot Gewalt gegen die Eltern empfahl (Klage Dezember 2024). Und Jacob Irwin, 30, ohne psychiatrische Vorgeschichte, drei Hospitalisierungen nach wochenlanger ChatGPT-Validierung einer Faster-than-light-Theorie (WSJ, Juli 2025).
Im deutschen Sprachraum hat Augustin (Nervenarzt 2025, “KI-assoziierte Psychose: Erkenntnisse aus ersten Fällen”) die Debatte eröffnet. Bislang der wichtigste deutschsprachige Fachtext zum Risiko.
Wichtig zur Einordnung: “AI-Psychose” ist keine anerkannte Diagnose. Was die Fälle zeigen, ist Amplifikation bestehender Vulnerabilität, nicht Neugenese. aber: die Autismus-Psychose-Komorbidität ist epidemiologisch signifikant, bis zu 34,8 % Lifetime-Risiko (Ribolsi et al. 2022). Ein ernstzunehmender Indikator, kein Hype.
Weitere robuste Risiken: Halluzinationen in Autismus-Auskünften (McFayden et al. 2024, Cyberpsychology, Behavior and Social Networking), neurotypischer Bias in der Grundtonalität (Carik 2025, Papadopoulos 2024), und diskriminierende Downstream-Effekte — Glazko et al. (FAccT 2024) zeigten, dass die Erwähnung von Autismus im Lebenslauf das LLM-basierte Resume-Ranking verschlechtert.
Der deutschsprachige Raum
Stand April 2026: keine einzige peer-reviewed deutschsprachige Originalstudie zur LLM-Nutzung durch Autist:innen. Weder Autismus Deutschland e.V., WGAS, Aspies e.V. noch autismus schweiz haben Positionspapiere. Die einschlägige deutschsprachige KI-Forschung im Autismusfeld konzentriert sich auf Diagnostik-KI: Christine Falter-Wagner (LMU/DZPG), Koehler et al. (2024, Translational Psychiatry), Peter Marschik (Heidelberg), Martin Schulte-Rüther. Die WTAS-Tagung 2026 in Heidelberg unter dem Motto “Autismus weiterdenken 2.0” widmet sich KI — aus Klinikerperspektive, nicht aus Nutzersicht.
Das deutsche Standardwerk, Dziobek & Stoll (2024, Kohlhammer): Hochfunktionaler Autismus bei Erwachsenen, thematisiert LLMs nicht. Isabel Dziobeks Autismus-Forschungs-Kooperation (HU Berlin) und Sebastian Lipinskis Arbeiten zu partizipativer Forschung (Psychiatrische Praxis 48(7), 2021) wären methodisch der ideale Rahmen. Die Studie existiert nicht.
Der substanziellste deutschsprachige Beitrag kommt aus dem Branchenumfeld: das auticon-Interview “Blickpunkt KI und Inklusion” (Januar 2025) — LLMs als Chance für neurodivergente Arbeitnehmer:innen, kombiniert mit Kritik an den Sprachdefiziten der Modelle in der Identity-First/Person-First-Debatte.
Im psychotherapeutischen Fachdiskurs läuft KI-Diskussion allgemein, nicht autismusspezifisch: Hillebrand (Psychotherapeutenjournal 2/2025), SMC Germany Press Briefings 2025, Andrea Benecke (BPtK), Johanna Löchner (FAU). Die DGPPN-Kongress-Umfrage 2025 (Voderholzer et al.): unter 10 % in Bevölkerung wie Fachpersonal können sich KI-gestützte Gesprächsunterstützung vorstellen. Empathie wird weiter dem Menschen zugeschrieben.
Lebendiger ist der Community-Diskurs. Im Aspies.de-Forum kursieren detaillierte Prompt-Sammlungen (“Ich bin ein Mensch auf dem hochfunktionalen autistischen Spektrum…”). Neurospicy.de, Charme & Chaos (“Therapie im digitalen Dialog”), der Schweizer Sachendenker.ch — pragmatische Nutzungsdokumentation plus Warnungen vor Überabhängigkeit, Sycophancy, veralteter Sprache. Die Diskrepanz zwischen lebhafter Praxis und stummer Fachpublizistik ist hier besonders krass.
Evidenz im Überblick
| Befund | Evidenzstärke | Kernbelege |
|---|---|---|
| Autist:innen präferieren LLMs als Kommunikationshilfe | Qualitativ robust, N klein | Jang CHI 2024; Choi CHI 2024; Haroon ASSETS 2024; McNally 2024 |
| Vier Haupt-Use-Cases (Übersetzung, EF, Emotion, Identität) | Qualitativ konsistent über Kulturen | Ma 2026; Carik 2025a/b; Glazko 2025 |
| LLM-Empathie übertrifft menschliche Empathie | Quantitativ, aber nicht ASS-spezifisch | He JMIR 2024; Elyoseph 2023; Schlegel 2025 |
| Empathie-Training mit GPT-4 wirksam | RCT (N=30, Waitlist) | Koegel JADD 2025 |
| Sycophancy strukturell bei allen großen LLMs | Quantitativ robust | Sharma ICLR 2024; Cheng 2025 |
| Stereotypen-Verstärkung bei ASS-Disclosure | Quantitativ, groß (345k Antworten) | Wohn/Rho VT 2026 |
| Automated Masking als psychosoziales Risiko | Qualitativ, konzeptionell | Ma 2026; Carik 2025; Pearson & Rose 2021 |
| Parasoziale Bindung & Einsamkeit bei Heavy-Usern | RCT, aber nicht ASS-differenziert | Fang MIT/OpenAI 2025 |
| KI-assoziierte Psychose mit ASS-Vulnerabilität | Einzelfälle, psychiatrische Hypothese | Østergaard 2023/2025; Morrin 2025; Augustin 2025 |
| Deutschsprachige Primärforschung zur LLM-Nutzung | nein, keine. | – |
Was fehlt
Longitudinaldaten zu Effekten intensiver LLM-Nutzung auf Masking — messbar mit dem Camouflaging Autistic Traits Questionnaire (CAT-Q) prä/post —, auf Alexithymie-Scores (TAS-20), auf soziale Konnektivität. Aktiv-kontrollierte RCTs gegen etablierte Programme wie PEERS oder KVT-Manuale, nicht nur gegen Wartelisten. Quantitative Sycophancy-Studien mit ASS-Stichproben: reagieren Autist:innen tatsächlich stärker auf Bestätigung als Neurotypische? Kohortenstudien zur Prävalenz parasozialer Bindung an Companion-Apps in autistischen Populationen. Studien mit nicht-sprechenden oder kognitiv stark eingeschränkten Autist:innen — die HCI-Forschung privilegiert verbale, digital versierte Erwachsene.
Drei Lücken sind besonders dringend. Erstens: autistic-led research mit echter Ko-Produktion, nicht Token-Beteiligung. Zweitens: deutschsprachige Grundlagenarbeit. Eine repräsentative Umfrage unter autistischen Erwachsenen in DACH zur LLM-Nutzung — gibt es nicht. Wäre überfällig. Drittens: Leitlinien. Weder EU AI Act, DiGA-Pfad, BfArM, DGPPN, Royal College of Psychiatrists noch APA haben autismusspezifische LLM-Empfehlungen formuliert. Bei wachsender Evidenz für eine distinkte Vulnerabilitäts-Konstellation: man muss! Man muss da was machen.
Was am Ende rauskommt
LLMs sind für viele Autist:innen kein Spielzeug, sondern prothetische Infrastruktur — sie tragen Kommunikation, Emotionsregulation, exekutives Planen, Identitätsarbeit. Diese Infrastruktur ist auf neurotypische Sprachmuster trainiert, strukturell schmeichelnd, und kann authentisches autistisches Selbstausdrücken nicht von automatisiertem Masking unterscheiden.
Die offene Frage ist nicht mehr, ob LLMs autistischen Menschen helfen können — sie tun es längst. Die Frage ist: wie können LLMs so ko-designed und klinisch eingebettet werden, dass sie Teilhabe ermöglichen, ohne Assimilation an neurotypische Normen zu erzwingen, und ohne die spezifisch autistische Vulnerabilitäts-Konstellation zu verstärken? Die Antwort kommt nicht von den LLM-Anbietern allein. Sie verlangt partizipative, longitudinale, deutschsprachig ernsthaft mitgetragene Forschung. Die im Moment fehlt.