News

Mistral 3: La Rivoluzione Open Source da 675B Parametri è Qui

Punti salienti dell'articolo:
  • Mistral 3 lancia nuovi modelli sotto licenza Apache 2.0
  • Mistral Large 3 è una MoE con 675 miliardi di parametri totali
  • La serie Ministral include modelli da 3B, 8B e 14B per l'edge
  • Ottimizzazioni specifiche per hardware NVIDIA Blackwell e Hopper
  • Disponibili varianti base, instruct e reasoning per ogni modello
  • Supporto nativo per la comprensione delle immagini e multilingua
Mistral 3: La Rivoluzione Open Source da 675B Parametri è Qui

Introduzione

Il panorama dell'intelligenza artificiale open source compie oggi un salto evolutivo significativo con l'annuncio ufficiale di Mistral 3. Questa nuova generazione di modelli non si limita a un singolo rilascio, ma introduce una famiglia completa progettata per coprire ogni esigenza, dal data center ai dispositivi periferici. Al centro dell'annuncio troviamo tre modelli densi e compatti (la serie Ministral) e il potentissimo Mistral Large 3, una mixture-of-experts (MoE) che promette prestazioni di frontiera.

Per un approfondimento immediato e i dettagli tecnici completi, è possibile consultare la news ufficiale su Mistral 3.

Mistral Large 3: Il Gigante Open Source

Il nuovo fiore all'occhiello è senza dubbio Mistral Large 3. Con un'architettura sparse mixture-of-experts che conta 41 miliardi di parametri attivi su un totale di 675 miliardi, questo modello è stato addestrato da zero utilizzando 3.000 GPU NVIDIA H200. Rappresenta il modello più capace rilasciato da Mistral fino ad oggi e si posiziona come uno dei migliori modelli con pesi aperti (open weights) al mondo.

Le capacità di Mistral Large 3 includono:

  • Parità con i modelli top: Raggiunge prestazioni paragonabili ai migliori modelli instruction-tuned sul mercato.
  • Comprensione multimodale: Capacità avanzata di comprendere e analizzare le immagini.
  • Eccellenza multilingua: Prestazioni best-in-class nelle conversazioni non in inglese o cinese.

Secondo la classifica LMArena, il modello ha debuttato al secondo posto nella categoria dei modelli OSS non focalizzati sul ragionamento puro, confermando la sua validità tecnica.

Ministral 3: Intelligenza all'Edge

Non tutte le applicazioni richiedono server massicci. Per l'uso locale e "edge", Mistral ha introdotto la serie Ministral 3, disponibile in tre taglie: 3B, 8B e 14B parametri. Questi modelli sono progettati per offrire il miglior rapporto prestazioni-costo della loro categoria.

Ogni taglia è disponibile in tre varianti: base, instruct (istruzioni) e reasoning (ragionamento), tutte dotate di capacità di comprensione delle immagini. Una caratteristica distintiva dei modelli instruct è la loro efficienza verbosa: spesso producono un ordine di grandezza in meno di token rispetto ai concorrenti, pur mantenendo o superando la qualità della risposta.

Accessibilità e Partnership Strategiche

Un aspetto cruciale di questo rilascio è la collaborazione con giganti tecnologici come NVIDIA, vLLM e Red Hat per garantire che Mistral 3 sia accessibile e ottimizzato.

Ottimizzazione Hardware

Tutti i modelli sono stati addestrati su GPU NVIDIA Hopper per sfruttare la memoria HBM3e ad alta larghezza di banda. Inoltre, è stato rilasciato un checkpoint ottimizzato in formato NVFP4, permettendo l'esecuzione efficiente di Mistral Large 3 su sistemi Blackwell NVL72 o su nodi singoli 8×A100/H100 tramite vLLM.

Conclusione

Con il rilascio sotto licenza Apache 2.0, Mistral democratizza l'accesso a tecnologie AI di livello frontiera. Che si tratti di implementare soluzioni complesse su cloud con Large 3 o di portare l'intelligenza su laptop e robot con Ministral, la famiglia Mistral 3 offre una flessibilità senza precedenti agli sviluppatori e alle imprese.

FAQ

Cos'è Mistral 3?

Mistral 3 è la nuova generazione di modelli AI di Mistral, che include il potente Mistral Large 3 e la serie compatta Ministral 3 (3B, 8B, 14B) per l'uso edge.

Mistral 3 è open source?

Sì, tutti i modelli della famiglia Mistral 3, incluse le varianti base e instruct, sono rilasciati sotto licenza Apache 2.0, permettendo un ampio uso commerciale e di ricerca.

Quali sono le caratteristiche di Mistral Large 3?

È un modello Mixture-of-Experts (MoE) con 675 miliardi di parametri totali (41B attivi), addestrato su GPU NVIDIA H200, con capacità multilingua e di comprensione delle immagini.

Dove posso scaricare o usare Mistral 3?

I modelli sono disponibili su Mistral AI Studio, Hugging Face, e tramite provider cloud come Azure, AWS, Google Cloud, e piattaforme come NVIDIA NIM e OpenRouter.

Cosa sono i modelli Ministral 3?

Sono modelli densi e compatti progettati per l'efficienza e l'uso locale (edge), disponibili con capacità di ragionamento e comprensione delle immagini.

Introduzione Il panorama dell'intelligenza artificiale open source compie oggi un salto evolutivo significativo con l'annuncio ufficiale di Mistral 3. Questa Evol Magazine
Tag:
Mistral