Meta sta costruendo un assistente di intelligenza artificiale «agentico» — capace cioè di eseguire compiti in autonomia, non solo di rispondere a domande — con il nome in codice Hatch, e non lo distribuirà come app a sé stante: girerà dentro Instagram, dove ogni giorno passano oltre due miliardi di persone. La notizia è emersa nei giorni scorsi da fonti vicine all'azienda ed è coerente con l'annuncio, già ufficiale, del modello che lo alimenta: Muse Spark, presentato dai Meta Superintelligence Labs ad aprile 2026 come il modello più potente mai realizzato dall'azienda.
Che cos'è Muse Spark
Muse Spark è un modello multimodale «nativo»: secondo Meta è stato addestrato fin dall'inizio a ragionare contemporaneamente su testo, immagini e video, anziché aggiungere la vista a un modello pensato per il solo linguaggio. È questa caratteristica che, sostiene l'azienda, permette ad Hatch di «capire il mondo fisico» in modo che gli assistenti precedenti — compreso Meta AI basato su Llama — non potevano. In pratica: riconoscere ciò che inquadra una fotocamera, leggere un cartello, seguire un video tutorial passo passo.
Perché Meta non fa un'app dedicata
È la scelta più interessante. OpenAI ha ChatGPT, Google ha l'app Gemini, Anthropic ha Claude: Meta invece punta a infilare Hatch dentro un prodotto che la gente già apre decine di volte al giorno. La logica è di distribuzione: nessun assistente nuovo deve convincere l'utente a scaricarlo e ad aprirlo: Hatch «c'è già», nella casella dei messaggi diretti di Instagram. Insieme arriverebbe anche un assistente dedicato allo shopping, sempre su Instagram, in grado di cercare prodotti, confrontarli e — in prospettiva — completare l'acquisto, sulla scia di quanto sta facendo Alibaba con Qwen dentro Taobao.

Il legame con gli occhiali Ray-Ban Meta
Hatch sarebbe anche il software di punta dei nuovi Ray-Ban Meta Display, gli occhiali con un piccolo schermo integrato: usando la fotocamera incorporata, l'assistente potrebbe «vedere» ciò che vede chi li indossa, mostrando indicazioni stradali a piedi nel campo visivo o traducendo in tempo reale un testo in lingua straniera. È il terreno su cui Meta scommette da anni: portare l'IA fuori dallo schermo del telefono, su un dispositivo che si indossa.
Tempi e incognite
Secondo le indiscrezioni, Hatch dovrebbe entrare in test interno entro la fine di giugno 2026; il rilascio al pubblico dipenderà dalla maturità di Muse Spark e dalla tabella di marcia di Instagram, quindi non c'è ancora una data ufficiale. Restano sul tavolo le domande di sempre quando un'azienda mette un agente autonomo dentro la vita quotidiana di miliardi di persone: quali dati guarda per «personalizzare» le risposte, quanto controllo ha l'utente, cosa succede quando l'assistente sbaglia un acquisto o un'indicazione. Meta non è nuova a critiche sulla privacy, e infilare un agente proattivo in Instagram — un'app già al centro di indagini su minori e salute mentale — sarà osservato da vicino dai regolatori europei, a maggior ragione ora che l'AI Act entra progressivamente in vigore. La mossa, comunque, chiarisce la strategia: dopo aver speso miliardi in modelli aperti con Llama, Meta torna a un grande modello proprietario e lo lega indissolubilmente ai suoi prodotti di massa.




