Nei giorni intorno all'8 maggio 2026 i media italiani hanno dato conto di quello che viene descritto come il primo caso in Italia di uso problematico di un chatbot trattato da un servizio pubblico per le dipendenze: una ragazza poco più che ventenne, presa in carico dal Ser.D — il servizio per le dipendenze patologiche — dell'Ulss 3 Serenissima, nel Veneziano. Secondo le ricostruzioni, la giovane aveva sviluppato un rapporto sempre più esclusivo con un assistente conversazionale, usato come confidente quotidiano fino a interferire con la vita di relazione e con gli impegni ordinari.

Cosa sappiamo (e cosa no) del caso

Le informazioni disponibili sono volutamente sintetiche, per tutelare la persona: non è stato reso noto quale applicazione fosse coinvolta né il dettaglio del percorso clinico. Quel che emerge è lo schema, non i particolari: un uso che da strumento occasionale diventa abitudine compulsiva, con difficoltà a ridurlo nonostante le conseguenze, isolamento progressivo, irritabilità quando l'accesso viene a mancare. Sono i segnali con cui i clinici descrivono molte dipendenze comportamentali, dal gioco d'azzardo all'uso eccessivo dei social.

È importante la cautela sulle parole: parlare di «dipendenza da chatbot» come di una diagnosi a sé è ancora prematuro. Nei principali manuali diagnostici non esiste una categoria del genere, e gli specialisti tendono a inquadrare questi casi come una forma di uso problematico delle tecnologie digitali, spesso intrecciata ad altri fattori — ansia, depressione, solitudine, eventi di vita difficili — di cui il rapporto con il chatbot è al tempo stesso sintomo e amplificatore.

Smartphone con un'app di chat basata su intelligenza artificiale
Gli assistenti conversazionali e le app di «compagnia» sono progettati per tenere alta l'attenzione: questo li rende anche più insidiosi per chi è fragile.

Perché questi strumenti possono creare attaccamento

I chatbot moderni — sia gli assistenti generalisti sia le app di «compagnia virtuale» come quelle che propongono personaggi con cui chattare a lungo — sono progettati per essere coinvolgenti: rispondono sempre, non giudicano, ricordano (o sembrano ricordare) le conversazioni precedenti, si adattano al tono dell'utente. Per chi è in un momento di solitudine questo può risultare confortante; ma la stessa disponibilità senza attriti che li rende utili li rende anche potenzialmente problematici, perché offrono una relazione «facile» che può sostituirsi a quelle reali invece di affiancarle. Diversi studi e prese di posizione di società scientifiche, soprattutto sul versante anglosassone, hanno acceso un faro proprio sui più giovani e sui chatbot di ruolo, dopo casi clinici e contenziosi legali che hanno coinvolto adolescenti.

Le aziende del settore hanno iniziato a reagire: limiti d'età, stime dell'età dell'utente, comportamenti più prudenti sui temi sensibili, promemoria sul tempo trascorso, e — come ha annunciato di recente OpenAI — funzioni per coinvolgere una persona di fiducia nei casi di rischio grave. Sono passi nella direzione giusta, ma il caso veneziano ricorda che la fragilità non riguarda solo i minori e che gli effetti si vedono nei servizi territoriali, non solo nei comunicati.

Cosa fare se l'uso diventa problematico

Gli operatori dei servizi per le dipendenze suggeriscono criteri pratici per capire quando preoccuparsi: l'uso del chatbot occupa una parte crescente della giornata; si rinviano o si saltano impegni, studio, lavoro, relazioni; ci si sente in ansia o in vuoto quando non lo si può usare; si nasconde agli altri quanto tempo gli si dedica; i tentativi di ridurlo falliscono. In presenza di più di questi segnali ha senso parlarne — con il medico di base, con uno psicologo, con un Ser.D, che oggi seguono anche le dipendenze comportamentali — senza aspettare che la situazione precipiti. Per i genitori valgono gli stessi indicatori, con l'attenzione in più a non drammatizzare ma neppure a sottovalutare.

Un caso isolato o un segnale?

Un singolo caso non fa una tendenza, e va evitato l'allarmismo: la stragrande maggioranza delle persone usa i chatbot senza problemi. Ma il fatto che un servizio pubblico abbia ritenuto di aprire una presa in carico «dedicata» è un segnale che vale la pena registrare, perché anticipa probabilmente altri casi e pone una domanda concreta a clinici, scuole e aziende: come accorgersi presto dell'uso problematico, e come progettare strumenti che restino utili senza diventare una stampella su cui appoggiarsi al posto delle persone. Su questo, in Italia come altrove, siamo solo all'inizio.