Nvidia ha presentato Nemotron 3 Super, un modello di intelligenza artificiale da 120 miliardi di parametri, progettato per ottimizzare i costi e migliorare l'efficienza dei sistemi multi-agente. Questi sistemi, sempre più utilizzati in ambiti complessi come l'ingegneria del software e la gestione della sicurezza informatica, generano volumi di token significativamente superiori rispetto alle tradizionali chat, mettendo a dura prova la loro sostenibilità economica in contesti aziendali.

Nemotron 3 Super si distingue per il suo approccio ibrido, che fonde tre architetture distinte: modelli a spazio di stato, trasformatori e un innovativo design "Latent" mixture-of-experts. Questa combinazione strategica mira a fornire la profondità di specializzazione necessaria per i flussi di lavoro agentici, riducendo al minimo il carico computazionale tipico dei modelli di ragionamento densi. Il risultato è un modello più efficiente e performante, ideale per applicazioni aziendali che richiedono elevate capacità di elaborazione del linguaggio naturale.

Uno degli aspetti più interessanti di Nemotron 3 Super è la sua disponibilità con pesi (weights) in gran parte open-source, pubblicati su Hugging Face. Questo permette alla comunità di sviluppatori di accedere, studiare, modificare e utilizzare il modello per i propri progetti, favorendo l'innovazione e l'adozione di soluzioni basate sull'IA. La scelta di Nvidia di adottare un approccio open-source sottolinea l'importanza della collaborazione e della trasparenza nello sviluppo dell'intelligenza artificiale.

L'architettura di Nemotron 3 Super si basa su un nucleo ibrido Mamba-Transformer, che intercala strati Mamba-2 con trasformatori. Questa configurazione permette al modello di bilanciare efficacemente l'efficienza della memoria con la precisione del ragionamento. I modelli a spazio di stato, come Mamba, sono noti per la loro capacità di gestire sequenze di dati lunghe in modo efficiente, mentre i trasformatori offrono eccellenti prestazioni nel comprendere e generare linguaggio naturale. La combinazione di queste due architetture permette a Nemotron 3 Super di eccellere in una vasta gamma di compiti.

In termini di prestazioni, Nvidia afferma che Nemotron 3 Super supera GPT-OSS e Qwen in throughput, ovvero nella quantità di dati che il modello può elaborare in un determinato periodo di tempo. Questo risultato è particolarmente significativo per le applicazioni aziendali, dove la velocità di elaborazione è un fattore critico. La maggiore efficienza di Nemotron 3 Super si traduce in costi inferiori e tempi di risposta più rapidi, rendendolo una soluzione ideale per le aziende che desiderano sfruttare appieno il potenziale dell'intelligenza artificiale. La disponibilità di Nemotron 3 Super rappresenta un passo avanti significativo nello sviluppo di modelli IA più efficienti, accessibili e adatti alle esigenze delle imprese.