News

Il 95% dei piloti di AI generativa fallisce davvero? Cosa dice davvero il MIT

Punti salienti dell'articolo:
  • Il 95% riflette più l’implementazione che il valore intrinseco dell’AI
  • Campione ridotto e metriche vaghe richiedono cautela interpretativa
  • Shadow AI: LLM personali usati nel 90%+ delle aziende
  • Gli LLM general-purpose spesso battono tool enterprise costosi
  • Il valore oggi si concentra sugli individui, non su P&L
  • ROI chiaro dove si ridisegnano processi o si sostituisce BPO
  • Senza baseline e KPI i lift restano aneddotici
  • Buy-in di executive e team è prerequisito per scalare
  • Data readiness e permessi sono colli di bottiglia chiave
  • Tollerare fallimenti di pilota è segno di vera sperimentazione
Il 95% dei piloti di AI generativa fallisce davvero? Cosa dice davvero il MIT

Introduzione

95% dei piloti di AI generativa è la cifra che rimbalza dai titoli: un numero forte, ma privo di contesto rischia di fuorviare decisioni e analisi.

Il claim "95% dei piloti fallisce" nasce da un report MIT molto discusso. I dati sono limitati, l’interpretazione è spesso errata.

Contesto

I mercati sono nervosi: attese sui tassi, bassa liquidità estiva e timori che l’entusiasmo per l’AI non regga. In questo clima, la narrazione su un “95% di fallimenti” diventa un detonatore perfetto.

La fragilità del mercato amplifica headline drastici. L’AI ha sostenuto gli indici dal 2022; se l’entusiasmo cala, cresce il pessimismo.

95% dei piloti di AI generativa: cosa dice il MIT

Il report si basa su 52 interviste, ~150 sondaggi e una revisione di ~300 iniziative pubbliche. La “success metric” è legata a impatti dichiarati su produttività o P&L in comunicazioni ufficiali.

La misura del successo si appoggia a dichiarazioni pubbliche e auto-report. Mancano dettagli su ruolo e dimensione delle aziende coinvolte.

"I dipendenti sanno come si sente una buona AI, rendendoli meno tolleranti verso strumenti enterprise statici."

Ricercatori MIT, Project Nanda

Metodologia e limiti

Campione ridotto, definizioni poco chiare di “pilota” e forte affidamento su annunci/filings pubblici indeboliscono conclusioni generali. L’allocazione del 50% dei budget su sales/marketing appare distorta, suggerendo bias nel campione intervistato.

Metodologia fragile e termini ambigui rendono il 95% un numero da maneggiare con cautela.

Shadow AI e valore agli individui

Il report evidenzia una “economia ombra”: solo ~40% delle aziende ha sottoscrizioni LLM, ma dipendenti di oltre il 90% delle aziende usano regolarmente strumenti personali. Il valore oggi si concentra sugli individui, non sui KPI di organizzazione.

Produttività individuale non appare in P&L senza ridisegnare processi, ruoli e sistemi.

LLM generali vs strumenti specifici

Gli LLM general-purpose (ChatGPT, Claude, Gemini, ecc.) sono ampiamente provati e spesso adottati. Il famigerato 5% riguarda soprattutto iniziative embedded/task-specific e l’aver misurato “successo” via impatti ufficialmente annunciati.

Gli LLM consumer spesso battono strumenti enterprise costosi e limitati.

"Stiamo investendo sempre di più in Meta Super Intelligence Labs come azienda. Qualsiasi report contrario è chiaramente errato."

Alexander Wang, Chief AI Officer (secondo il testo)

Perché i piloti falliscono davvero

I principali ostacoli sono organizzativi più che tecnici. Il report stesso segnala barriere come change management, sponsorship debole e scarsa adozione interna, oltre a UX e qualità output modello.

Fallimenti di pilota riflettono soprattutto problemi di implementazione organizzativa, non l’inutilità dell’AI.

Leadership e sponsorship

Senza buy-in degli executive (meglio se del CEO) i piloti non scalano. Anche il buy-in dei team è cruciale, altrimenti prevalgono timori (sostituzione, visione poco chiara) e inerzia.

  • Mancanza di sponsorship e budget
  • Obiettivi strategici assenti
  • Ownership incerta o “hot potato”

Dati e contesto

AI senza contesto enterprise rende poco. Servono dati pronti, accessibili e con permessi coerenti con la realtà organizzativa.

  • Data readiness carente
  • Permessi e provisioning complessi
  • Workflows poco documentati

Processi e competenze

Senza baseline, KPI e controlli, i “lift” restano aneddotici. Abilitazione competenze e supporto sono indispensabili.

  • Assenza di baseline e KPI chiari
  • Scarso enablement e upskilling
  • Risorse limitate su agenti e gestione

Governance e strumenti

Rischio eccessivo, vendor lock-in a tool scadenti e frammentazione interna frenano. I dipendenti preferiscono strumenti consumer migliori e aggiornati.

  • Dipartimenti risk iper-prudenti
  • Tool enterprise “neutered” rispetto ai consumer
  • Progetti isolati, non interoperabili

Soluzioni pratiche

Collega ogni pilota a un problema misurabile, stabilisci baseline e controlli. Prepara dati e permessi, investi in competenze, evita lock-in a tool inferiori e valuta agenti per ridisegnare i processi.

Parti da problemi con KPI chiari, dati pronti e sponsor forti. Tollerare qualche fallimento è sano.

Dove arrivano i ROI

Esempi citati includono eliminazione di BPO (2–10M annui su customer service/document processing), taglio del 30% della spesa per agenzie creative e riduzioni su controlli di rischio. Spesso i "back office wins" pesano di più dei front office gains.

I ritorni più visibili emergono dove si sostituiscono funzioni o fornitori con AI.

Conclusione

Il numero “95%” non prova che l’AI non funzioni: mostra quanto sia difficile tradurre benefici individuali in impatto aziendale senza ridisegnare sistemi. Concentrati su problemi concreti, dati, processi, competenze e agenti: lì passa il vero ROI.

L’AI non è solo sostituzione 1:1: è riprogettazione del lavoro. Con metodo, il valore emerge.

 

FAQ

  • Il “95% dei piloti di AI generativa” significa che l’AI non funziona?
    No. Indica problemi di implementazione e misurazione a livello organizzativo più che limiti intrinseci dell’AI.

  • Perché gli LLM general-purpose hanno più successo?
    Perché sono migliori, aggiornati e familiari; spesso superano costosi strumenti enterprise limitati.

  • Come misurare il ROI dei piloti di AI generativa?
    Definisci baseline, KPI, controllo e target di P&L; collega il pilota a un costo/errore specifico.

  • Cos’è la “economia ombra” dell’AI?
    L’uso diffuso di LLM personali sul lavoro, fuori dai canali IT ufficiali, con valore che resta all’individuo.

  • Agenti AI o copilot: da dove iniziare?
    Copilot per adozione rapida; agenti per ridisegnare processi e ottenere impatti di costo/servizio.

  • Perché i piloti falliscono nelle imprese?
    Sponsorship debole, dati non pronti, governance rigida, KPI assenti e scarsa abilitazione delle persone.

Introduzione 95% dei piloti di AI generativa è la cifra che rimbalza dai titoli: un numero forte, ma privo di contesto rischia di fuorviare decisioni e [...] Evol Magazine
Tag:
MIT