Il 10 maggio 2026 Hermes Agent, l'agente di intelligenza artificiale open source di Nous Research, ha scalzato OpenClaw dal primo posto della classifica globale giornaliera di OpenRouter, con circa 224 miliardi di token elaborati in un solo giorno; qualche giorno prima Nous Research aveva gia' rivendicato il primo posto con 271 miliardi di token, e non solo fra gli strumenti di coding ma fra tutte le applicazioni di IA che passano dalla piattaforma. Tradotto: e' uno degli "harness" agentici piu' usati al mondo in questo momento - ed e' completamente aperto.

Che cos'e' Hermes Agent

Hermes Agent non e' un modello linguistico: e' l'impalcatura (l'agent harness) che fa lavorare un modello come agente autonomo. Gira nel terminale, e le sue caratteristiche distintive sono tre:

  • Memoria persistente: ricorda il contesto fra una sessione e l'altra, non riparte da zero ogni volta.
  • Auto-miglioramento: dopo aver portato a termine un compito, riflette su cosa ha funzionato e salva delle "skill file" riutilizzabili - in pratica si costruisce da solo delle procedure per le volte successive.
  • Multi-agente e multi-canale: la versione 0.13.0 ("Tenacity"), rilasciata il 7 maggio 2026, ha aggiunto una bacheca di task in stile Kanban per coordinare piu' agenti, con monitoraggio dello stato, rilevamento degli agenti "bloccati" e recupero dalle allucinazioni; e l'agente puo' essere agganciato a una ventina di piattaforme di messaggistica (Slack, Discord, Telegram, Google Chat e altre).

Il codice e' su GitHub sotto licenza permissiva e lo sviluppo e' pubblico: e' questa apertura, unita a un'installazione molto semplice, ad aver spinto l'adozione.

Postazione di sviluppo con doppio schermo per programmare, scenario d'uso tipico di Hermes Agent per automatizzare compiti
Hermes Agent vive nel terminale e puo' coordinare piu' agenti in parallelo.

Quanto costa e cosa serve

Hermes Agent in se' e' gratis e open source: non si paga l'agente, si paga - eventualmente - il modello che ci metti sotto. Hai due strade:

  • Modelli via API (es. attraverso OpenRouter, oppure direttamente OpenAI, Anthropic, Google): paghi a token consumati, secondo i listini dei provider. E' la via piu' potente.
  • Modelli locali gratuiti via Ollama (per esempio i modelli Hermes/Llama in versione open weights): zero costi di token, ma servono RAM/VRAM adeguate (indicativamente almeno 16 GB di RAM per i modelli piu' piccoli, una GPU con 12-24 GB per quelli grossi) e le risposte sono meno brillanti dei modelli di frontiera.

Requisiti di sistema: macOS, Linux o Windows tramite WSL2; un terminale; per la via locale, Ollama installato. Pro: e' libero, ispezionabile, privato (se usato in locale), multi-piattaforma, con memoria che cresce nel tempo. Contro: richiede dimestichezza con la riga di comando; le funzioni "auto-migliorative" sono promettenti ma ancora giovani; per ottenere risultati seri serve comunque un buon modello (e quindi, spesso, una API key a pagamento).

Come installarlo e fare la prima prova, passo passo

  1. Prendi il codice. Apri il terminale e clona il repository ufficiale:
    git clone https://github.com/NousResearch/hermes-agent.git
    cd hermes-agent
    In alternativa, sul sito ufficiale del progetto e' disponibile uno script di installazione "one-line" via curl: verifica sempre il comando esatto sulla pagina/README ufficiale prima di lanciarlo.
  2. Configura un modello. Il modo piu' rapido e' usare OpenRouter: crea un account, genera una API key e impostala come variabile d'ambiente:
    export OPENROUTER_API_KEY="la-tua-chiave"
    Se preferisci restare in locale e gratis, installa Ollama e scarica un modello, ad esempio:
    ollama pull hermes3
    poi indica a Hermes di usare il provider locale (vedi la sezione "providers" della documentazione).
  3. Avvia l'agente dalla cartella del progetto seguendo le istruzioni del README (tipicamente un comando del tipo ./hermes o lo script di avvio incluso). Al primo avvio ti chiedera' quale modello/provider usare.
  4. Dagli un compito reale. Una volta nel prompt dell'agente, prova qualcosa di concreto. Esempio:
    Leggi i file di questo repository, individua i test mancanti per il modulo principale, scrivili in una nuova cartella tests/ e spiegami in tre righe cosa hai aggiunto.
    Risultato atteso: l'agente esplora i file, propone (o crea, se gli dai il permesso di scrivere) i nuovi test, e ti restituisce un riepilogo. Grazie alla memoria persistente, alla sessione successiva ricordera' la struttura del progetto.
  5. Sfrutta le "skill". Dopo qualche compito, controlla la cartella delle skill generate dall'agente: sono procedure riutilizzabili che puoi rivedere, correggere e versionare insieme al resto del codice.

Errori comuni e quando non usarlo

  • "command not found" all'avvio → non sei nella cartella del repo o non hai dato i permessi di esecuzione allo script (chmod +x).
  • "401 / invalid API key" → la variabile d'ambiente non e' impostata nella shell corrente; ri-esporta la chiave o mettila nel file di configurazione.
  • Risposte lente o scadenti con Ollama → il modello locale e' troppo grande per la tua macchina, oppure troppo piccolo per il compito: scegli una taglia adeguata o passa a un modello via API per i lavori complessi.

Quando evitarlo: se ti serve solo chattare con un'IA, un'app come ChatGPT, Claude o Le Chat e' piu' semplice; se lavori in un'azienda con policy rigide, valuta prima dove vanno a finire codice e dati (usa la modalita' locale) e fai approvare l'uso. Hermes Agent da' il meglio quando hai compiti ripetitivi e multi-passo - manutenzione di codice, automazioni, orchestrazione di piu' agenti - e vuoi uno strumento aperto che puoi ispezionare e adattare. Per approfondire, il punto di partenza e' il repository NousResearch/hermes-agent su GitHub e la pagina del progetto su OpenRouter.