
“Harry, l’AI terapeuta”: il caso Sophie e le nostre polemiche da ombrellone
- Alessandro Iacubino
- 23 ago
- Tempo di lettura: 3 min
di Alessandro Iacubino
C’è una storia che buca il rumore di fondo dell’estate. Sophie Rottenberg, 29 anni, americana, è morta per suicidio dopo mesi di confidenze a un “terapeuta” creato su ChatGPT che lei aveva battezzato Harry. La madre, in un intervento raccontato da più testate, ha spiegato di aver scoperto solo dopo la morte le chat con l’AI: tante frasi empatiche, inviti a cercare aiuto umano, ma—ovviamente—nessuna possibilità di capire il rischio reale o attivare persone in carne e ossa. Un abbraccio digitale senza braccia.
La notizia ha acceso (di nuovo) il faro su un punto semplice: l’AI non è un terapeuta. Può essere utile come promemoria, diario guidato, piccolo coach di abilità—ma in crisi vere serve una relazione clinica e un sistema che sappia intervenire.
Intanto in Italia discutiamo animatamente della psicologia “sotto l’ombrellone”: colloqui di prevenzione e orientamento in spiaggia, come il tour che ha diviso l’opinione pubblica pugliese ed è finito persino sul Times. C’è chi grida allo scandalo, chi parla di “folklore”, chi di prevenzione accessibile. Il punto, però, non è il costume da bagno: è portare l’ascolto dove sono le persone. Le polemiche sterili non aiutano nessuno.
AI e salute mentale: cosa dicono i dati
Uso per informarsi sulla salute: nel 2024 il KFF ha stimato che 1 adulto su 6 negli USA (17%) usa chatbot di AI almeno una volta al mese per cercare informazioni o consigli di salute; tra i 18–29enni è 1 su 4. Segno che la domanda c’è, e cresce.
Ma la fiducia è bassa: già nel 2023 il 79% degli adulti americani diceva che non vorrebbe usare un chatbot per supporto di salute mentale. Diffidenza che resta alta anche nei sondaggi del 2025.
Rischi documentati: una ricerca Stanford (2025) mostra che i bot “terapeuti” possono esprimere stigma, dare risposte inappropriate e mancare elementi chiave dell’alleanza terapeutica; gli autori sconsigliano di presentare le LLM come sostituti di clinici umani.
Segnali dal fronte clinico: non tutto è da buttare. Un trial su un chatbot generativo pubblicato su NEJM AI ha riportato miglioramenti sintomatologici a 4 settimane (con tutti i limiti del caso); inoltre una rassegna su PMC segnala che CBT-bot come Woebot/Wysa/Youper possono aiutare come integrazione della cura, non come sostituti. Serve più ricerca indipendente e regole.
Fenomeno in crescita e in ombra: sul versante rischi psicosociali, la stampa e i clinici parlano di “AI/chatbot psychosis” come etichetta giornalistica per pattern di deliri, dipendenza e ritiro in soggetti vulnerabili dopo uso intensivo di chatbot; servono definizioni cliniche, ma il campanello c’è.
Il nodo vero: accesso e responsabilità (in spiaggia, ovunque e online)
Se mettiamo insieme il caso Sophie e le polemiche estive si vede lo stesso bisogno: abbassare le barriere all’accesso senza scivolare nell’improvvisazione.
Prevenzione “dove sono le persone”: Iniziative di outreach in contesti pubblici—spiagge comprese—possono ridurre stigma e distanza se sono bene impostate: informazione, ascolto breve, invio a servizi territoriali, niente “terapia” fuori setting. La critica giusta non è “no in spiaggia”, è “sì, ma con standard”.
AI come strumento, non stampella: le app possono facilitare self-help e monitoraggio, mai sostituire triage e presa in carico. Le società scientifiche e gli ordini professionali dovrebbero guidare linee etiche per l’uso di AI in prevenzione, comunicazione del rischio, follow-up.
Cosa impariamo dal caso Sophie (senza processi sommari)
Non basta l’empatia simulata. Un chatbot può “dire le parole giuste” ma non valuta il rischio, non coinvolge familiari, non attiva i servizi. Nel caso Sophie, secondo i resoconti, l’AI ha invitato a cercare aiuto—ma non poteva fare ciò che un terapeuta fa quando il rischio è alto.
Marketing e realtà clinica non coincidono. Studi indipendenti denunciano il pericolo di chiamare “terapia” ciò che è prodotto conversazionale; al contempo primi trial controllati indicano benefici limitati e a breve termine quando l’AI è usata in modo strutturato. Due cose vere insieme, che chiedono regole e trasparenza.
Prevenzione “vicina” batte polemica “lontana”. È più utile discutere di protocolli minimi per l’outreach (anche in spiaggia: informativa chiara, privacy, no diagnosi, invii tracciati) che demonizzare iniziative che portano la psicologia nel quotidiano.
Se tu o qualcuno che conosci state male
In Italia: 112 per emergenze. È attivo anche il numero 1520 della Croce Rossa Italiana, un servizio gratuito di supporto psicologico e ascolto per persone sole o in difficoltà, che fornisce orientamento e aiuto immediato. Questo progetto, come ricorda il Dott. Fabio Specchiulli, si inserisce nel più ampio impegno della Croce Rossa per il benessere mentale: dall’assistenza telefonica alla promozione di reti di sostegno, fino a percorsi di accompagnamento verso servizi specialistici territoriali.
Commenti