News

Esecuzione di codice con MCP: agenti AI più efficienti e token ridotti

Punti salienti dell'articolo:
  • Esecuzione di codice con MCP riduce il consumo di token fino al 98.7% rispetto alle tool call dirette
  • Gli agenti caricano solo i tool necessari on-demand, evitando il sovraccarico di definizioni upfront
  • Filtro e trasformazione dei dati avvengono nell'ambiente di esecuzione, non nel contesto del modello
  • La persistenza dello stato consente agli agenti di riprendere lavori interrotti e sviluppare skill riutilizzabili
  • L'approccio privacy-preserving tokenizza automaticamente i dati PII durante il flusso tra tool
  • MCP è lo standard de facto dell'industria per connettere agenti intelligenti a sistemi esterni
  • Loop, condizionali e controllo di flusso in codice sono più efficienti che concatenare tool call
Esecuzione di codice con MCP: agenti AI più efficienti e token ridotti

Introduzione

L'esecuzione di codice con MCP (Model Context Protocol) rappresenta una svolta cruciale per gli agenti AI moderni. Invece di caricare tutte le definizioni dei tool nel contesto e passare ogni risultato intermedio attraverso il modello, gli agenti scrivono codice per interagire con i server MCP. Questo approccio riduce il consumo di token fino al 98.7%, abbattendo costi e latenza.

Da quando Anthropic ha lanciato MCP a novembre 2024, l'adozione è stata esponenziale: migliaia di server MCP community, SDK per tutti i linguaggi principali, e lo standard ormai de facto dell'industria per connettere agenti a tool e dati.

Che cos'è il Model Context Protocol

Il Model Context Protocol è uno standard aperto universale che connette gli agenti AI a sistemi esterni. Tradizionalmente, ogni integrazione tra agente e strumento richiedeva una customizzazione dedicata, creando frammentazione e duplicazione di sforzo. MCP elimina questo problema offrendo un'interfaccia standardizzata: i developer implementano MCP una sola volta nell'agente e ottengono accesso a un intero ecosistema di integrazioni pronte.

Il Problema: inefficienza nel caricamento dei tool

Con l'espansione dell'uso di MCP, gli agenti devono gestire centinaia o migliaia di tool distribuiti su dozzine di server. Qui emergono due sfide critiche:

  • Sovraccarico delle definizioni dei tool: la maggior parte dei client MCP carica tutte le definizioni upfront nel contesto. Per agenti con migliaia di tool, questo significa processare centinaia di migliaia di token prima ancora di leggere una richiesta.
  • Consumo di token dai risultati intermedi: ogni risultato di una tool call deve passare attraverso il modello. In uno scenario reale (ad esempio, scaricare una trascrizione da Google Drive e allega a un record Salesforce), documenti di grandi dimensioni transitano due volte nel contesto.

Un esempio pratico: una trascrizione di due ore di riunione può generare 50.000 token aggiuntivi. Inoltre, con dati complessi, il modello è più incline a commettere errori nel copiare informazioni tra tool call.

La Soluzione: Esecuzione di Codice con MCP

L'esecuzione di codice trasforma i server MCP in API codificate anziché tool call dirette. L'agente scrive codice per interagire con i server, caricando solo i tool necessari e processando i dati nell'ambiente di esecuzione prima di restituire i risultati.

Un approccio concreto: generare un file tree di tutti i tool disponibili dai server MCP connessi. Ogni tool corrisponde a un file, per esempio:

servers/
├── google-drive/
│ ├── getDocument.ts
│ └── ...
├── salesforce/
│ ├── updateRecord.ts
│ └── ...
└── ...

L'agente scopre i tool esplorando il filesystem: elenca la directory ./servers/ per trovare i server disponibili, poi legge i file specifici dei tool per comprendere le interfacce. Questo riduce l'uso di token da 150.000 a 2.000—un risparmio del 98.7% in tempo e costi.

"Le LLM sono eccellenti nel scrivere codice. I developer dovrebbero sfruttare questa forza per costruire agenti che interagiscono con i server MCP più efficientemente."

Anthropic, Blog Research

Vantaggi Principali dell'Esecuzione di Codice con MCP

1. Disclosure Progressiva dei Tool

I modelli sono esperti nel navigare file system. Presentare i tool come codice su filesystem consente ai modelli di leggere le definizioni on-demand, anziché tutte upfront. In alternativa, un tool search_tools trova definizioni rilevanti e carica solo quelle necessarie. Un parametro di dettaglio permette all'agente di selezionare il livello di informazione richiesto (solo nome, nome e descrizione, o definizione completa con schema), conservando contesto.

2. Risultati dei Tool Efficienti nel Contesto

Con grandi dataset, gli agenti filtrano e trasformano i risultati in codice prima di restituirli al modello. Esempio: scaricare 10.000 righe di foglio di calcolo. Senza esecuzione di codice: tutte le 10.000 righe fluiscono nel contesto per filtro manuale. Con esecuzione di codice: l'agente filtra nell'ambiente di esecuzione, restituendo solo le righe rilevanti (es. ordini in sospeso). L'agente vede 5 righe, non 10.000.

3. Controllo di Flusso Più Potente

Loop, condizionali e gestione degli errori usano pattern di codice familiari anziché concatenare tool call singole. Esempio: notificare un deployment su Slack verificando periodicamente lo storico canale. L'approccio è più efficiente che alternare tool call e comandi sleep nel loop agente, riducendo inoltre la latenza "time to first token".

4. Operazioni Privacy-Preserving

I risultati intermedi rimangono nell'ambiente di esecuzione per default. L'agente vede solo ciò che esplicitamente loga o restituisce. Per workload sensibili, il client MCP può tokenizzare automaticamente i dati PII (email, telefono, nomi). I dati reali fluiscono da Google Sheets a Salesforce senza transitare per il modello, prevenendo log accidentali o elaborazione di dati sensibili.

5. Persistenza dello Stato e Skill Riutilizzabili

Con accesso al filesystem, gli agenti mantengono stato tra operazioni. Scrivono risultati intermedi in file per riprendere il lavoro e tracciare il progresso. Inoltre, gli agenti persistono codice come funzioni riutilizzabili: una volta sviluppato codice funzionante, lo salvano per uso futuro. Un file SKILL.md crea skill strutturate referenziabili dai modelli, permettendo agli agenti di costruire una toolbox di capacità di livello superiore nel tempo.

Considerazioni di Implementazione e Trade-off

L'esecuzione di codice introduce complessità operativa. Eseguire codice generato dagli agenti richiede un ambiente di esecuzione sicuro con sandboxing appropriato, limiti di risorse e monitoraggio. Questi requisiti infrastrutturali aggiungono overhead operativo e considerazioni di sicurezza che le tool call dirette evitano. I benefici—ridotto consumo di token, latenza inferiore, composizione di tool migliorata—devono essere pesati contro questi costi implementativi.

Conclusione

MCP fornisce un protocollo fondazionale per connettere agenti a molti tool e sistemi. Tuttavia, quando troppi server sono connessi, le definizioni dei tool e i risultati consumano token eccessivi, riducendo l'efficienza dell'agente. L'esecuzione di codice applica pattern consolidati dell'ingegneria software agli agenti, consentendo loro di usare costrutti di programmazione familiari per interagire con i server MCP in modo drammaticamente più efficiente. Se implementi questo approccio, consideriamo di condividere i tuoi risultati con la comunità MCP.

Domande Frequenti

Cos'è il Model Context Protocol e come migliora l'esecuzione di codice negli agenti AI?

Il Model Context Protocol è uno standard aperto che connette agenti AI a sistemi esterni. L'esecuzione di codice con MCP trasforma i server in API codificate, permettendo agli agenti di caricare tool on-demand e processare dati localmente, riducendo il consumo di token fino al 98.7%.

Qual è il consumo di token risparmiato con l'esecuzione di codice MCP?

In uno scenario pratico, l'uso di code execution riduce il consumo di token da 150.000 a 2.000 per operazione, un risparmio del 98.7% in tempo e costi operativi.

Come funziona la disclosure progressiva dei tool in MCP?

I modelli esplorano il filesystem listando i server disponibili, poi leggono solo i file specifici dei tool necessari. Un tool search_tools opzionale consente filtraggio per rilevanza e selezione del livello di dettaglio, conservando contesto prezioso.

Quali sono i vantaggi di privacy nell'esecuzione di codice con MCP?

L'esecuzione di codice mantiene i risultati intermedi nell'ambiente di esecuzione, consentendo tokenizzazione automatica dei dati PII. I dati sensibili fluiscono tra tool senza passare dal modello, prevenendo log accidentali.

Come gli agenti mantengono stato con esecuzione di codice MCP?

Gli agenti scrivono risultati intermedi in file per riprendere lavori interrotti e tracciare progresso. Possono inoltre persistere codice come funzioni riutilizzabili in cartelle "skills", creando capacità di livello superiore evolute nel tempo.

Quali sono i costi implementativi dell'esecuzione di codice MCP?

L'esecuzione di codice agente-generato richiede un ambiente di esecuzione sicuro con sandboxing, limiti di risorse e monitoraggio. Questi requisiti infrastrutturali aggiungono overhead operativo e considerazioni di sicurezza superiori alle tool call dirette.

Qual è il caso d'uso ideale per MCP con esecuzione di codice?

Agenti che interagiscono con centinaia o migliaia di tool distribuiti su dozzine di server. L'approccio è ottimale quando il risparmio di token e latenza compensa la complessità operativa.

Come filtra l'agente grandi dataset con esecuzione di codice MCP?

L'agente carica il dataset completo nell'ambiente di esecuzione, lo filtra/trasforma localmente (es. ordini in sospeso), e restituisce solo i risultati rilevanti al modello, evitando inflazione contestuale.

Introduzione L'esecuzione di codice con MCP (Model Context Protocol) rappresenta una svolta cruciale per gli agenti AI moderni. Invece di caricare tutte le Evol Magazine