xAI ha pubblicato Grok 4.3 il 6 maggio, e la prima cosa che dovete sapere e' che il modello costa il 40% in meno del suo predecessore: 1,25 dollari per milione di token in input e 2,50 dollari in output, contro le tariffe precedenti. La seconda cosa e' che capisce i video nativamente: niente piu' descrizione testuale dei frame, basta passare il file. La terza e' che ha guadagnato 18 punti sull'Artificial Analysis Intelligence Index (53 contro 35 di media nella sua fascia) e si e' piazzato in cima alla classifica agentic per tool calling e instruction following, davanti a Claude Sonnet 4.6 e GPT-5.5.

Cosa cambia rispetto a Grok 4.20

Grok 4.20 era un modello onesto ma non spiccava. La versione 4.3 alza le aste in maniera misurabile. Sulle prove di Artificial Analysis, il miglioramento piu' grande arriva su GDPval-AA, dove Grok 4.3 mette a referto un ELO di 1500 contro il 1179 del precedente Grok 4.20 0309 v2. Sui benchmark enterprise, il modello svetta su case law (giurisprudenza statunitense) e corporate finance: terreni dove i modelli di OpenAI hanno storicamente faticato e Claude ha avuto la mano migliore.

La finestra di contesto sale a 1 milione di token (era 256k), in linea con Gemini 3.1 Ultra e DeepSeek V4. Si tratta di una soglia ormai considerata necessaria per gli agenti che leggono interi codici sorgente o dossier processuali. xAI dichiara che il calo di qualita' al crescere del contesto e' modesto: nei test interni su needle in a haystack il recall resta sopra il 95% fino a 800k token, con un degrado piu' evidente solo nell'ultimo quartile.

Video nativo: il primo tra i modelli frontier

Su questo punto Grok 4.3 muove davvero la frontiera. Fino a oggi i modelli multimodali "vedevano" un video estraendone frame e analizzandoli come immagini. Grok 4.3 elabora invece la sequenza temporale: oltre alle immagini, capisce traiettorie, transizioni e relazioni tra inquadrature. xAI sostiene di averlo addestrato con clip generate via la sua stessa Grok Imagine e con materiale licenziato da partner che la societa' non ha nominato. La latenza dichiarata per un video da 30 secondi e' di 6-9 secondi.

Il video nativo e' il salto piu' visibile: oggi solo Grok 4.3 e Gemini 3.1 Ultra leggono direttamente file video senza pipeline esterne.

L'utilizzo via API prevede il passaggio dell'URL del video o l'upload di un file fino a 200 MB; sono supportati i formati MP4 e MOV. Il caso d'uso che xAI promuove di piu' e' l'analisi di filmati di sicurezza e di operazioni industriali, ma la community sta gia' sperimentando con tutorial su YouTube: il modello, dato un video lungo, restituisce una traccia con timestamp e azioni rilevate. Il prezzo del video e' di 2 centesimi per minuto elaborato, oltre ai token testuali in/out.

Voice cloning veloce e Grok Voice

Insieme al modello, xAI ha lanciato una nuova suite di voice cloning: pochi secondi di audio bastano per generare una voce sintetica che il modello puo' usare nelle conversazioni vocali su X e nell'app Grok. Le impostazioni di sicurezza obbligano l'utente a registrare una frase di consenso, ma le obiezioni sull'uso improprio sono gia' arrivate da AI Now Institute e da gruppi di doppiatori. xAI risponde che ogni clone e' marcato con un watermark audio proprietario, riconoscibile via un classificatore aperto.

Come usarlo

Grok 4.3 e' disponibile da subito su tre canali. Per gli utenti finali e' acceso di default su X Premium e nell'app Grok per iOS e Android: lo si trova nel selettore modelli con la voce "Grok 4.3" o "Grok 4.3 Voice". Per gli sviluppatori e' esposto via xAI API all'endpoint https://api.x.ai/v1/chat/completions con l'identificatore grok-4-3; e' compatibile con il client OpenAI tramite il solito trucco del base_url:

from openai import OpenAI

client = OpenAI(api_key="XAI_KEY", base_url="https://api.x.ai/v1")
risposta = client.chat.completions.create(
    model="grok-4-3",
    messages=[{"role": "user", "content": "Spiega in italiano cosa fa questo log"}],
)
print(risposta.choices[0].message.content)

Per chi preferisce gli aggregatori, Grok 4.3 e' gia' presente su OpenRouter e Vercel AI Gateway. Le voci cloning sono in beta sull'app: serve fare richiesta dalla pagina Voice studio nell'account X Premium.

Il contesto: xAI a Wall Street e in Cina

Il lancio arriva in un momento febbrile per xAI. Mentre la societa' di Elon Musk sta facendo testare Grok dai colossi finanziari Apollo e Morgan Stanley (notizia di ieri), il CEO Jensen Huang di NVIDIA e' partito con il presidente Trump alla volta della Cina per discutere di chip e controlli sull'export, con xAI nel mirino come uno dei grandi compratori. La leva del prezzo serve a Grok per intaccare le quote di OpenAI e Anthropic: l'Intelligence Index per dollaro ora favorisce nettamente xAI, soprattutto nei carichi di reasoning lunghi.

Grok 4.3 e' anche un atto politico: ricalibra il prezzo dei modelli frontier in un momento di consolidamento del mercato.

Resta da vedere se il salto in agentic tradurra' Grok da prodotto di nicchia per gli utenti X a alternativa solida per le pipeline enterprise. La community degli sviluppatori italiani che ha provato Grok 4.3 in OpenRouter segnala due cose: la qualita' del codice generato e' competitiva con Sonnet 4.6, ma il modello tende a chiamare piu' tool del necessario, comportamento che si pulisce con prompt di sistema piu' restrittivi. Per chi vuole sperimentare senza pagare nulla, l'app Grok offre un piano free a quota giornaliera limitata e l'API ha un credito iniziale di prova.