Mistral ha rifatto la pelle al suo assistente Le Chat: l'azienda francese ha attivato il Work Mode multi-step e portato gli agenti di coding Vibe nel cloud, tutti spinti dal nuovo Mistral Medium 3.5, un modello denso da 128 miliardi di parametri con 256k token di contesto e un punteggio del 77,6% su SWE-Bench Verified. L'aggiornamento, annunciato a inizio maggio e in rollout questa settimana, sposta Le Chat da chatbot generalista a piattaforma di esecuzione: l'assistente legge e scrive, usa piu' strumenti per turno e tira avanti la lavorazione finche' il compito non e' chiuso.

Mistral Medium 3.5: numeri e prezzi

Il nuovo flagship della linea Medium e' un modello denso da 128 miliardi di parametri (non un Mixture of Experts) con finestra di contesto da 256.000 token, encoder visivo addestrato per immagini di dimensioni e proporzioni variabili e capacita' di ragionamento integrate. Mistral lo posiziona come modello unico per chat, ragionamento e coding agentico. I numeri dichiarati: 77,6% su SWE-Bench Verified (il benchmark di riferimento per gli agenti di programmazione) e 91,4 su tau3-Telecom, prova agentica orientata al customer support tecnico.

Sul fronte prezzi via API, Mistral chiede 1,5 dollari per milione di token in input e 7,5 dollari per milione di token in output: posizione competitiva contro Claude Sonnet 4.6 e GPT-5.5, soprattutto su carichi a lungo contesto. Il modello e' anche disponibile in self-hosting: i pesi sono pubblicati su Hugging Face sotto una licenza MIT modificata e Mistral dichiara che gira su appena quattro GPU. C'e' inoltre il supporto agli endpoint NVIDIA (build.nvidia.com) e al servizio NIM per chi preferisce containerizzare l'inferenza.

Gli agenti di Vibe ora partono da Le Chat e continuano a lavorare nel cloud anche dopo la chiusura del terminale.

Work Mode: che cosa fa davvero

Il Work Mode e' la novita' che cambia il valore d'uso di Le Chat. Quando attivato, l'assistente smette di rispondere riga per riga e diventa un orchestratore: pianifica i passaggi, chiama gli strumenti necessari, aspetta i risultati e riprende. Mistral pubblicizza tre famiglie d'uso: flussi cross-tool (email, calendario, messaggistica, Jira), ricerca sintetica (incrocio tra fonti web e documenti interni della stessa azienda) e triage della posta, con bozze di risposta e apertura automatica di issue.

Il meccanismo prevede un'approvazione esplicita prima di azioni sensibili (inviare la mail, chiudere il ticket, modificare l'evento), per evitare l'effetto "agente impazzito" che ha gia' messo in difficolta' altri assistenti. I connettori nativi includono Gmail e Outlook, Google Calendar, GitHub, Jira e Confluence; per le aziende c'e' la possibilita' di collegare basi di conoscenza interne tramite il connettore Drive integrato.

Vibe Remote Agents: lo sviluppo passa dalla CLI al cloud

L'altra meta' dell'annuncio riguarda i programmatori. Vibe, la CLI di coding di Mistral, ora puo' lanciare remote agents che girano in sandbox isolate, in parallelo e in modo asincrono. La sessione locale puo' essere teleportata nel cloud preservando la cronologia: si avvia un task dal terminale e si chiude il portatile, gli agenti continuano. Quando il lavoro e' pronto, aprono direttamente una pull request su GitHub.

Il flusso e' pensato per i compiti ad alto volume che oggi soffocano i team: refactor su monorepo, generazione di test, upgrade di dipendenze, indagini su pipeline CI rotte, bug fix triviali. Lo stesso pulsante per lanciare un Vibe agent compare anche dentro Le Chat: si scrive il prompt nel browser e il job parte sullo stesso runtime cloud.

Come provarlo

Per usare Work Mode e gli agenti Vibe servono i piani Le Chat Pro, Team o Enterprise dal sito chat.mistral.ai. Il Free Tier resta sul modello base e non include Work Mode. La CLI Vibe va installata a parte: l'autenticazione avviene con un token API generato dalla console di Mistral. Dopo il login, un comando come vibe run --remote spara l'agente nel cloud, mentre vibe push teleporta la sessione locale.

Sul versante API, per chiamare Mistral Medium 3.5 da codice basta una richiesta REST con l'endpoint standard di Mistral:

curl https://api.mistral.ai/v1/chat/completions \
  -H "Authorization: Bearer $MISTRAL_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"model": "mistral-medium-3.5", "messages": [{"role": "user", "content": "Riassumi questo log e proponi un fix in Python"}]}'

Chi preferisce i pesi aperti li trova su Hugging Face nel repository di Mistral: la licenza MIT modificata consente uso commerciale ma con clausole specifiche per i clienti enterprise sopra una certa soglia di fatturato. Il download della variante 128B richiede circa 256 GB di spazio per i pesi in formato bf16.

Cosa cambia rispetto a Claude e GPT

La mossa di Mistral arriva mentre Anthropic ha appena reso disponibile Claude Platform su AWS e OpenAI ha lanciato la sua Deployment Company: tutti e tre i laboratori si stanno spostando dalla vendita di token alla vendita di sistemi che eseguono il lavoro. Il distintivo di Mistral resta la sovranita' dati: Le Chat puo' essere eseguito interamente su infrastrutture europee (l'azienda ha una partnership con OVHcloud e con Schwarz Group) e il modello e' scaricabile, cosa che ne' Claude ne' GPT permettono.

Per banche e PA europee la combinazione di pesi aperti, hosting locale e agenti integrati e' la vera leva commerciale di Mistral.

Sul piano puramente tecnico, il 77,6% di Medium 3.5 su SWE-Bench Verified lo mette poco sotto Claude Opus 4.7 (intorno all'82-83% nei test indipendenti) e sopra GPT-5.5 Instant nei task di coding non interattivi. La vera distanza la fanno gli agenti: Vibe e Work Mode portano l'integrazione a un livello che fino a oggi era prerogativa di Cursor e Claude Code. Per le aziende italiane interessate a un'IA europea full-stack, e' la prima offerta credibile in produzione.

Limiti e prossimi passi

Restano alcuni nodi. I connettori sono pochi rispetto a Microsoft 365 Copilot o Claude (che ha appena annunciato 20 connettori legali) e l'app mobile di Le Chat ancora non espone Work Mode nella stessa misura del web. I remote agent di Vibe partono dalla regione EU-West e l'azienda non ha ancora pubblicato gli SLA su uptime e tempi di esecuzione. Mistral promette per giugno un marketplace di agenti verticali (legal, financial, marketing) e un'API pubblica per i Vibe agent, in modo da integrarli in IDE diversi da quelli ufficiali.