News

AGI: Thinking Machines sfida il modello di scaling con il meta-learning

Punti salienti dell'articolo:
  • Thinking Machines sfida l'approccio dominante dell'industria AI basato sullo scaling computazionale
  • Rafael Rafailov sostiene che l'AGI richiede sistemi capaci di meta-learning, non solo modelli più grandi
  • La startup ha raccolto 2 miliardi di dollari, il seed round più grande della storia AI
  • L'industria ha investito oltre 100 miliardi nello scaling: OpenAI, Anthropic, Google e Meta in prima linea
  • La distinzione chiave: learning è processo attivo, training è processo passivo imposto dall'esterno
  • I modelli attuali non ricordano sessioni precedenti né costruiscono su errori passati
  • Meta-learning permetterebbe ai sistemi di apprendere come studenti umani, capitolo dopo capitolo
  • Entro 2-3 anni sapremo se meta-learning o scaling rappresenta la strada corretta verso l'AGI
AGI: Thinking Machines sfida il modello di scaling con il meta-learning

Introduzione

L'intelligenza artificiale generale (AGI) rappresenta il Santo Graal dell'AI, ma la strada per raggiungerla divide l'industria. Durante il TED AI di San Francisco, Rafael Rafailov di Thinking Machines Lab ha lanciato una sfida diretta alla strategia dominante: l'AGI non arriverà dai modelli più grandi, ma dai migliori sistemi di apprendimento. Questa visione contrasta con gli investimenti miliardari di OpenAI, Anthropic e Google DeepMind nello scaling computazionale.

La Visione di Thinking Machines: Apprendimento contro Addestramento

Rafailov ha espresso una convinzione chiara: la prima superintelligenza sarà un learner sovrumano, capace di adattarsi efficientemente, proporre teorie, progettare esperimenti e iterare il processo usando l'ambiente per verificare le ipotesi. La distinzione fondamentale che introduce è tra learning e training.

"L'apprendimento è qualcosa che un essere intelligente fa. L'addestramento è qualcosa che viene fatto a esso."

Rafael Rafailov, Reinforcement Learning Researcher / Thinking Machines Lab

I modelli attuali più avanzati non mancano di scala, secondo Rafailov, ma della capacità di imparare veramente dall'esperienza. Questo rappresenta un cambio di paradigma rispetto all'approccio che vede aziende investire centinaia di miliardi in infrastrutture computazionali sempre più potenti.

Il Contesto: La Scommessa da 2 Miliardi di Dollari

Thinking Machines Lab, co-fondata dall'ex CTO di OpenAI Mira Murati nel febbraio 2024, ha raccolto 2 miliardi di dollari con una valutazione di 12 miliardi, il seed round più grande della storia. Questa cifra astronomica rappresenta una scommessa contrarian rispetto alla direzione presa dall'intero settore.

L'industria AI ha investito oltre 100 miliardi di dollari nell'ipotesi dello scaling: OpenAI sta costruendo Stargate, Anthropic ha assicurato un gigawatt di TPU di Google, Meta sta spendendo 60 miliardi in infrastrutture. Thinking Machines scommette che tutto questo compute non sarà sufficiente senza risolvere il problema dell'apprendimento.

Il Problema: Agency non è Intelligenza Generale

Rafailov riconosce che l'approccio basato sullo scaling produrrà agenti sempre più capaci: sistemi in grado di navigare il web, scrivere codice e completare compiti complessi. Prevede che tra uno o due anni gli agenti di coding attuali sembreranno primitivi come i modelli di summarization di qualche anno fa.

Tuttavia, questa capacità di agency non equivale a intelligenza generale. La domanda cruciale che pone è se un ulteriore round di scaling sarà sufficiente per raggiungere l'AGI. La sua risposta è negativa: sotto gli attuali paradigmi, a qualsiasi scala, non si può raggiungere l'intelligenza artificiale generale.

I Limiti dei Modelli Attuali

Chiunque abbia utilizzato Claude o ChatGPT per costruire qualcosa di complesso ha sperimentato questo limite: il modello non ricorda ciò che ha imparato ieri, non costruisce sugli errori passati, riparte da zero ogni sessione. Questa mancanza di apprendimento continuo rappresenta un ostacolo fondamentale verso l'AGI.

La Soluzione: Meta-Learning o "Imparare a Imparare"

L'alternativa proposta da Rafailov si chiama meta-learning. Invece di addestrare modelli su problemi isolati, l'idea è fornire loro un manuale universitario avanzato e lasciarli lavorare progressivamente: capitolo uno, esercizio uno, due, tre, poi capitolo due. Esattamente come uno studente reale si auto-insegna.

Questo approccio richiede sistemi capaci di:

  • Proporre autonomamente teorie e ipotesi
  • Progettare esperimenti per verificarle
  • Utilizzare l'ambiente per ottenere feedback
  • Iterare il processo di apprendimento in modo continuo
  • Costruire su conoscenze precedentemente acquisite

Le Implicazioni per l'Industria AI

La posizione di Rafailov rappresenta una sfida diretta alla strategia dominante del settore. Se ha ragione, probabilmente ha ragione sul problema: l'incapacità dei modelli attuali di apprendere veramente è un limite evidente. Tuttavia, esiste un divario tra "fondamentalmente possibile" e "sappiamo come farlo".

Significativamente, Rafailov non ha fornito tempistiche né previsioni su quando questi breakthrough arriveranno. Ha solo espresso convinzione che, senza di essi, tutto lo scaling del mondo non sarà sufficiente. Se Thinking Machines ha ragione, il loro prodotto sarà la fondazione per qualcosa di molto più grande. Se sbagliano, avranno bruciato 2 miliardi perseguendo un'agenda di ricerca che non porta da nessuna parte mentre OpenAI e Anthropic li superano con modelli di reasoning scalati.

Conclusione

L'industria conoscerà la risposta entro 2-3 anni. O tutti pivoterranno verso il meta-learning, oppure Thinking Machines diventerà la scommessa contrarian più costosa nella storia dell'AI. La posta in gioco è enorme: non solo miliardi di dollari, ma la direzione futura dell'intelligenza artificiale e il percorso verso l'AGI. La domanda rimane aperta: l'intelligenza emerge dalla scala o dalla capacità di apprendimento?

FAQ

Cos'è il meta-learning nell'intelligenza artificiale?

Il meta-learning, o "imparare a imparare", è un approccio in cui i sistemi AI acquisiscono la capacità di apprendere autonomamente da nuove esperienze, adattarsi e costruire su conoscenze pregresse, simile a come apprende uno studente umano.

Perché Thinking Machines critica lo scaling per raggiungere l'AGI?

Thinking Machines sostiene che modelli sempre più grandi non raggiungeranno l'AGI perché mancano della capacità fondamentale di apprendere dall'esperienza e di costruire su conoscenze precedenti in modo continuo.

Qual è la differenza tra learning e training secondo Rafailov?

Secondo Rafailov, il learning è un processo attivo che un essere intelligente compie autonomamente, mentre il training è un processo passivo imposto dall'esterno durante la fase di addestramento del modello.

Quanto ha raccolto Thinking Machines e con quale valutazione?

Thinking Machines ha raccolto 2 miliardi di dollari con una valutazione di 12 miliardi, rappresentando il seed round più grande nella storia delle startup AI.

Quando sapremo se l'approccio di Thinking Machines all'AGI funziona?

L'industria conoscerà la risposta entro 2-3 anni, quando diventerà evidente se il meta-learning o lo scaling tradizionale rappresenta la strada corretta verso l'intelligenza artificiale generale.

Chi ha fondato Thinking Machines Lab?

Thinking Machines Lab è stata co-fondata da Mira Murati, ex Chief Technology Officer di OpenAI, nel febbraio 2024.

Introduzione L'intelligenza artificiale generale (AGI) rappresenta il Santo Graal dell'AI, ma la strada per raggiungerla divide l'industria. Durante il TED Evol Magazine