Le aziende italiane medio-piccole spendono ore al giorno su attivita' che un workflow ben costruito puo' chiudere in trenta secondi: triage di email, smistamento di lead, riassunto di documenti, generazione di bozze di risposta, archiviazione su Drive, notifiche su Slack. n8n e' lo strumento open source che permette di mettere in piedi queste automazioni in modo visuale, e dall'anno scorso ha cucito direttamente nei suoi nodi OpenAI, Anthropic Claude, Google Gemini e LangChain, fino a integrare nativamente il Model Context Protocol. In questa guida partiamo da zero: installazione in Docker, configurazione delle credenziali, due workflow reali e tutti i trucchi che la documentazione non spiega.

A chi serve questa guida

A chi vuole una piattaforma di automazione AI senza limiti di esecuzioni e che non manda i dati a Zapier o Make. A chi gestisce uno studio professionale, un piccolo e-commerce o un team marketing. A chi e' gia' a suo agio con il terminale ma non vuole scrivere codice Python o Node per ogni integrazione. Alla fine avrai un'istanza di n8n self-hosted, due workflow funzionanti e gli strumenti per costruirne altri.

Prerequisiti

  • Un server Linux (anche un VPS da 5 dollari su Hetzner, DigitalOcean o Aruba) o un Mac/Windows con Docker installato.
  • Docker e Docker Compose aggiornati.
  • Una chiave API di Anthropic (creabile su console.anthropic.com, 5 dollari di credito iniziale) o di OpenAI (su platform.openai.com). Per i test bastano pochi euro.
  • Un dominio (opzionale ma consigliato) e Cloudflare o Caddy per HTTPS.

Quale strumento usare e perche'

Il mercato dell'automazione AI ha tre soluzioni dominanti:

  • n8n (consigliato come prima scelta): open source con piano Community gratuito e self-hostable senza limiti. AI Agent node nativo, MCP integrato, oltre 500 integrazioni. Ideale se vuoi possedere i tuoi dati.
  • Make.com (ex Integromat): cloud, interfaccia eccellente, ma costoso oltre i 10mila esecuzioni e i dati passano dai server europei dell'azienda.
  • Zapier: il piu' semplice, anche il piu' caro. Adatto a piccoli volumi e zero competenze tecniche.

Per chi sa avviare un container Docker, n8n vince su entrambi: la Community Edition e' gratis, gira ovunque e in tre comandi e' online.

Un workflow n8n e' un grafo: nodi trigger, nodi di elaborazione (tra cui gli AI Agent) e nodi azione.

Installazione in Docker

Crea una cartella per il progetto e dentro un file docker-compose.yml:

services:
  n8n:
    image: docker.n8n.io/n8nio/n8n:latest
    restart: unless-stopped
    ports:
      - "5678:5678"
    environment:
      - GENERIC_TIMEZONE=Europe/Rome
      - TZ=Europe/Rome
      - N8N_HOST=localhost
      - N8N_PROTOCOL=http
      - N8N_PORT=5678
      - WEBHOOK_URL=http://localhost:5678/
      - N8N_RUNNERS_ENABLED=true
    volumes:
      - n8n_data:/home/node/.n8n
volumes:
  n8n_data:

Avvia il container:

docker compose up -d

Apri http://localhost:5678 nel browser, crea l'utente owner (n8n richiede email + password) e atterri nella dashboard. Per metterlo dietro un dominio HTTPS, aggiungi un reverse proxy Caddy o Traefik con il certificato Let's Encrypt: la documentazione di hosting ha file di esempio pronti.

Configurare le credenziali AI

Nella dashboard, vai su Credentials e clicca Add Credential. Cerca Anthropic:

  1. Incolla la chiave API che inizia con sk-ant-...
  2. Salva. n8n prova subito una chiamata di health-check; se tutto e' a posto vedi il pallino verde.

Ripeti per OpenAI con la tua chiave sk-.... Da questo momento ogni nodo AI nei tuoi workflow puo' selezionare queste credenziali da un menu a tendina, senza che la chiave compaia mai nel grafo.

Workflow 1: triage delle email del cliente

Lo scopo: ogni nuova email che arriva nella casella supporto viene letta da Claude, classificata in tre categorie (urgente, fattura, generica), e:

  • Se urgente, una notifica Slack al team.
  • Se fattura, viene salvata su Google Drive.
  • In ogni caso, una bozza di risposta in italiano viene salvata nelle bozze di Gmail.

Apri + New Workflow. Trascina nel canvas i seguenti nodi:

  1. Gmail Trigger: scegli On Message Received, autorizzati con il tuo account Google. Lascia il polling ogni minuto.
  2. AI Agent (sotto la categoria "AI"): collega l'uscita del Gmail Trigger all'ingresso dell'agente. Nelle proprieta':
    • Chat Model: Anthropic Chat Model, modello claude-sonnet-4-6, temperatura 0.
    • System Message:
      Sei un assistente di customer support italiano. Per ogni email decidi la categoria (urgente, fattura, generica), estrai il nome del mittente, e scrivi una bozza di risposta cortese in italiano. Rispondi sempre in JSON con campi categoria, mittente, bozza.
    • User Message: {{ $json.snippet }} (usa l'espressione di n8n per passare il corpo del messaggio).
  3. Switch: si dirama in base al campo categoria dell'output dell'agente.
  4. Ramo "urgente": Slack node con webhook al canale #supporto, messaggio che include il mittente e l'oggetto.
  5. Ramo "fattura": Google Drive node che crea un file di testo nella cartella "Fatture in arrivo" con la bozza.
  6. Sempre: Gmail node, operazione Create Draft, con il corpo preso da {{ $json.bozza }}.

Attiva il workflow con l'interruttore in alto a destra. Manda una mail di prova alla casella e guarda gli eventi scorrere nel pannello Executions.

Workflow 2: generatore di brief marketing da un brief audio

Scenario realistico per uno studio di consulenza. Un cliente carica un audio su Drive con un brief vocale; vogliamo trascriverlo, riassumerlo in un brief strutturato, generarne tre angoli di campagna e mandare il tutto via email.

  1. Google Drive Trigger: On File Created sulla cartella "Brief audio".
  2. HTTP Request: scarica il file binario dall'URL fornito da Drive (autorizzandoti con l'OAuth gia' configurato).
  3. OpenAI node con risorsa Audio, operazione Transcribe, modello whisper-1, lingua italiano. L'output e' il testo della trascrizione.
  4. AI Agent (Anthropic, Claude Opus 4.7): system prompt:
    Sei uno strategist di un'agenzia. Ricevi un brief vocale trascritto. Produci 1) un brief strutturato in 8 punti, 2) tre angoli di campagna distinti per tone of voice. Output in Markdown.
  5. Gmail: invia il risultato all'indirizzo del responsabile di progetto.

Risultato: in 30 secondi il cliente passa da "audio WhatsApp di 5 minuti" a brief con angoli pronti. Sul mio account di test il costo di una singola esecuzione e' di circa 1,5 centesimi: 0,5 di trascrizione + 1 di ragionamento Claude.

Un workflow ben strutturato sostituisce decine di e-mail interne e fa rientrare in mezz'ora un'attivita' che ne richiedeva due.

MCP: il livello agentico avanzato

Dalla primavera 2026 n8n supporta il Model Context Protocol di Anthropic in due direzioni. La prima: i tuoi workflow possono esporre un server MCP che Claude Desktop o Cursor consumano. Bastano tre nodi: MCP Server Trigger, un parser dei parametri, e l'azione finale. Esempio reale: hai esposto a Claude la tua intera istanza n8n e dici al modello "crea un workflow che ogni lunedi' mandi un report di vendite". Claude scrive il workflow, lo deploya, lo collauda.

La seconda direzione: i tuoi AI Agent dentro n8n possono consumare server MCP esterni (per esempio quello ufficiale di GitHub, o quello di Notion). Aggiungi il nodo MCP Client Tool all'agente, passi l'URL del server, e il modello ha accesso a tutti gli strumenti esposti.

Memoria e RAG

Per workflow che hanno bisogno di ricordare le interazioni precedenti, aggiungi un nodo Simple Memory all'AI Agent. Conserva le ultime N interazioni in RAM (su Postgres se configuri il backend persistente). Se invece il volume e' grosso, monta un Vector Store: n8n supporta Pinecone, Qdrant, Chroma e Supabase. Carichi un PDF, fai split in chunk, embedi con OpenAI o Voyage e il tuo agente puo' rispondere su base aziendale.

Errori comuni

  • "Webhook URL not reachable": stai usando WEBHOOK_URL=http://localhost ma il trigger esterno (Gmail, Stripe) deve raggiungere n8n via Internet. Sostituisci con il tuo dominio HTTPS.
  • Crediti AI bruciati troppo in fretta: hai dimenticato di mettere una guardia. Aggiungi un nodo IF a inizio workflow che filtra solo i casi rilevanti (es. mittenti dei tuoi clienti) prima di chiamare il modello.
  • L'AI Agent risponde con testo invece che con JSON: aggiungi nel system prompt Rispondi SOLO con un oggetto JSON, niente testo prima o dopo, oppure usa Output Parser di n8n con schema JSON.
  • "Workflow run too long": di default i workflow si fermano dopo 5 minuti. Imposta EXECUTIONS_TIMEOUT nel docker-compose per estenderlo, o spezza il workflow in piu' parti collegate da webhook.
  • Permessi rotti dopo l'update di n8n: salva sempre il volume n8n_data e fai un export dei workflow prima di aggiornare l'immagine Docker.

Sicurezza minima da rispettare

  • Metti n8n dietro HTTPS con un certificato valido.
  • Disabilita la registrazione esterna: imposta N8N_USER_MANAGEMENT_DISABLED=false e crea l'utente owner subito.
  • Salva le credenziali AI come Credentials e mai in chiaro nei nodi.
  • Backup giornaliero del volume Postgres (se attivato) o SQLite.

Quando non usare n8n

Se il tuo team non sa toccare un terminale, paga Zapier e dormi sereno. Se hai bisogno di un agente autonomo che ragiona su lunghi orizzonti senza un grafo definito a priori, guarda LangGraph o Claude Managed Agents. Se devi gestire decine di milioni di esecuzioni al mese, valuta Apache Airflow + LLM custom o l'edizione enterprise di n8n.

Come continuare

Subito dopo aver assimilato i due workflow di base, ti consiglio di costruirne un terzo con due agenti che si parlano fra loro (un "writer" e un "editor") via il nodo Loop di n8n, e poi di esplorare la marketplace di template ufficiali su n8n.io/workflows, che contiene centinaia di esempi gia' pronti, molti dei quali con integrazione AI. La curva di apprendimento e' rapida; il salto dalla cosa-che-funziona alla cosa-che-fa-risparmiare-davvero-tempo lo fai con uno o due workflow che usi tutti i giorni.