OpenAI sta distribuendo in ChatGPT una nuova funzione di sicurezza chiamata Trusted Contact, il «contatto fidato»: uno strumento opzionale, disponibile sugli account personali in un numero crescente di Paesi, che permette all'utente di indicare in anticipo una persona di fiducia da avvisare se durante le conversazioni emerge un serio rischio legato al suicidio. La funzione non è attiva sui piani Business, Enterprise ed Edu ed è pensata per gli account individuali.

Come funziona il contatto fidato

L'utente sceglie nelle impostazioni una persona — un familiare, un amico, qualcuno di cui si fida — e ne registra un recapito. Se nel corso di una conversazione il sistema rileva segnali di un rischio grave e immediato per la persona, ChatGPT può suggerire di coinvolgere quel contatto e, nei casi più seri, inviargli una notifica. Resta centrale il rimando alle linee di emergenza e ai numeri di aiuto specifici per ciascun Paese, che ChatGPT continua a proporre quando emergono temi di autolesionismo o crisi.

La logica è quella della «rete di sicurezza» predisposta a freddo: decidere in anticipo chi avvisare, in un momento di lucidità, perché quando arriva la crisi sia già tutto pronto. È un approccio simile a quello adottato da alcune piattaforme social per le segnalazioni di rischio, calato però in uno strumento conversazionale usato in modo molto più intimo e prolungato.

Persona che usa lo smartphone all'aperto, immagine sul tema benessere digitale
Trusted Contact si aggiunge alle altre misure di OpenAI su benessere, età e uso dei chatbot da parte dei più giovani.

Perché OpenAI introduce questa funzione adesso

Negli ultimi mesi i chatbot conversazionali sono finiti sotto esame per il modo in cui rispondono a chi attraversa momenti di fragilità, dopo cause legali, indagini e inchieste giornalistiche — negli Stati Uniti e altrove — su casi in cui utenti, in alcuni episodi minorenni, avevano sviluppato un rapporto problematico con questi strumenti. OpenAI ha risposto con una serie di misure: un consiglio di esperti sul benessere, sistemi per stimare l'età dell'utente e applicare tutele specifiche ai più giovani, comportamenti più cauti dei modelli sui temi sensibili (anche il nuovo modello predefinito GPT-5.5 Instant viene presentato come più affidabile su ambiti delicati) e ora il contatto fidato. Il filo conduttore è spostare parte della gestione del rischio dal solo modello a strumenti che coinvolgono il mondo reale intorno alla persona.

I nodi aperti: privacy, falsi positivi e consenso

Una funzione del genere solleva domande inevitabili. La prima è sulla privacy: avvisare un terzo di una conversazione privata è un'azione delicata, che richiede regole chiare su quando scatta, cosa viene condiviso e come l'utente mantiene il controllo. La seconda è sui falsi positivi: un sistema troppo «nervoso» rischia di allarmare i contatti senza motivo, uno troppo prudente di non intervenire quando servirebbe. La terza è sul consenso del contatto stesso, che si trova investito di una responsabilità che non ha chiesto. OpenAI presenta lo strumento come opzionale e configurabile proprio per questo, ma l'equilibrio fine si vedrà all'uso.

C'è poi una questione di fondo: nessuna funzione tecnica sostituisce il supporto umano e professionale. Trusted Contact può aiutare a non lasciare sola una persona in difficoltà, ma resta uno strumento di emergenza dentro un'app, non un servizio di salute mentale. Per chi sta male, il riferimento restano le linee di ascolto e i servizi dedicati — in Italia, ad esempio, il Telefono Amico e i servizi del Servizio sanitario nazionale — e il consiglio di non affidare a un chatbot ciò che andrebbe portato a una persona.

Disponibilità e prossimi passi

OpenAI sta rilasciando la funzione in modo graduale, prima in alcune regioni e per gli utenti idonei, con l'idea di estenderla. È probabile che seguano aggiustamenti sulla base dei primi riscontri, e che altri operatori di chatbot adottino soluzioni simili: dopo le polemiche degli ultimi mesi, la «sicurezza percepita» di questi strumenti è diventata un terreno di competizione, oltre che di pressione regolatoria.