Meta ha recentemente lanciato una nuova collezione di modelli di intelligenza artificiale, nota come Llama 4, che rappresenta un importante passo avanti nella famiglia Llama. Questo lancio è avvenuto di recente, sabato scorso, e segna un nuovo capitolo nello sviluppo dell’intelligenza artificiale.
La collezione Llama 4 comprende quattro nuovi modelli: Llama 4 Scout, Llama 4 Maverick e Llama 4 Behemoth. Questi modelli sono stati addestrati su enormi quantità di dati, tra cui testi, immagini e video non etichettati, al fine di dotarli di una comprensione visiva estremamente ampia. Secondo Meta, questo addestramento ha consentito ai modelli di acquisire una profonda comprensione del mondo che li circonda.
Il successo dei modelli aperti sviluppati dal laboratorio di intelligenza artificiale cinese DeepSeek, che hanno dimostrato prestazioni simili o addirittura superiori a quelle dei precedenti modelli Llama di Meta, ha probabilmente giocato un ruolo importante nello sviluppo di Llama 4. Si dice che Meta abbia creato squadre di lavoro speciali per analizzare come DeepSeek sia riuscito a ridurre i costi di esecuzione e distribuzione dei propri modelli, come R1 e V3.
I modelli Scout e Maverick sono già disponibili pubblicamente su Llama.com e presso i partner di Meta, tra cui la piattaforma di sviluppo di intelligenza artificiale Hugging Face. Tuttavia, il modello Behemoth è ancora in fase di addestramento e non è ancora disponibile. Meta ha anche annunciato che il suo assistente alimentato da intelligenza artificiale, Meta AI, utilizzato in app come WhatsApp, Messenger e Instagram, è stato aggiornato per utilizzare Llama 4 in 40 paesi. Le funzionalità multimodali sono attualmente limitate agli Stati Uniti e sono disponibili solo in inglese.
Tuttavia, alcuni sviluppatori potrebbero incontrare difficoltà a causa delle restrizioni imposte dalla licenza di Llama 4. Ad esempio, gli utenti e le aziende con sede o sede principale nell’Unione Europea non sono autorizzati a utilizzare o distribuire i modelli, probabilmente a causa dei requisiti di governance imposti dalle leggi sull’intelligenza artificiale e la protezione dei dati della regione. Inoltre, le aziende con oltre 700 milioni di utenti attivi al mese devono richiedere una licenza speciale a Meta, che potrebbe essere concessa o negata a discrezione.
“I modelli Llama 4 segnano l’inizio di una nuova era per l’ecosistema Llama”, ha affermato Meta in un post del blog. “Questo è solo l’inizio per la collezione Llama 4, e siamo entusiasti di vedere cosa porterà il futuro.” Con questo lancio, Meta si pone all’avanguardia nello sviluppo dell’intelligenza artificiale e si prepara a rivoluzionare il modo in cui interagiamo con la tecnologia.
Meta ha annunciato il lancio di Llama 4, il suo primo insieme di modelli ad utilizzare un’architettura a miscela di esperti (MoE). Questa architettura innovativa divide i compiti di elaborazione dei dati in sottocompiti e li delega a modelli “esperti” più piccoli e specializzati, risultando più efficiente dal punto di vista computazionale per l’addestramento e la risposta alle query.
I modelli Maverick e Scout sono esempi di questa nuova architettura. Maverick, ad esempio, ha 400 miliardi di parametri totali, ma solo 17 miliardi di parametri attivi su 128 “esperti”. Allo stesso modo, Scout ha 17 miliardi di parametri attivi, 16 esperti e 109 miliardi di parametri totali. I parametri corrispondono approssimativamente alle capacità di risoluzione dei problemi di un modello, quindi questo approccio consente di ottenere prestazioni elevate con una quantità inferiore di parametri attivi.
Secondo i test interni di Meta, Maverick, che è il modello più adatto per utilizzi “di assistente e chat generale” come la scrittura creativa, supera modelli come GPT-4o di OpenAI e Gemini 2.0 di Google in determinati benchmark di codifica, ragionamento, multilinguismo, contesto lungo e immagini. Tuttavia, Maverick non riesce a stare al passo con modelli più recenti e potenti come Gemini 2.5 Pro di Google, Claude 3.7 Sonnet di Anthropic e GPT-4.5 di OpenAI. Ciò dimostra che, nonostante i progressi, c’è ancora spazio per migliorare le prestazioni dei modelli di intelligenza artificiale.
Il punto di forza di Scout risiede nella sua capacità di elaborare compiti complessi come la sintesi di documenti e l’analisi di grandi codebase. Grazie alla sua finestra di contesto di 10 milioni di token, Scout può lavorare con documenti estremamente lunghi, elaborando fino a milioni di parole e immagini. Questo significa che può prendere in considerazione una grande quantità di informazioni, permettendogli di fornire risposte più accurate e dettagliate.
Una delle caratteristiche più interessanti di Scout è la sua capacità di funzionare su una singola GPU Nvidia H100, rendendolo più accessibile rispetto ad altri modelli come Maverick, che richiede un sistema Nvidia H100 DGX o equivalente. Ciò dimostra la flessibilità e l’efficienza di Scout nel gestire compiti complessi con risorse relativamente limitate.
Il modello Behemoth di Meta, ancora in fase di sviluppo, promette di essere ancora più potente. Con 288 miliardi di parametri attivi, 16 esperti e quasi due trilioni di parametri totali, Behemoth sembra essere un gigante nel campo dell’intelligenza artificiale. I benchmark interni di Meta hanno già dimostrato che Behemoth supera modelli come GPT-4.5, Claude 3.7 Sonnet e Gemini 2.0 Pro in diverse valutazioni che misurano le abilità STEM, come la risoluzione di problemi matematici.
È importante notare che i modelli Llama 4 non sono modelli di “ragionamento” propriamente detti, come ad esempio o1 e o3-mini di OpenAI. I modelli di ragionamento verificano le risposte e forniscono risposte più affidabili, ma richiedono più tempo per elaborare le informazioni. Ciò significa che i modelli Llama 4 sono progettati per fornire risposte rapide e accurate, ma potrebbero non avere lo stesso livello di attendibilità dei modelli di ragionamento più avanzati.
In un’affascinante svolta, Meta ha ottimizzato tutti i modelli di Llama 4 per ridurre la frequenza con cui rifiuta di rispondere a domande “controversie”. Secondo l’azienda, Llama 4 è in grado di affrontare temi politici e sociali “discussi” che i precedenti modelli di Llama non avrebbero trattato. Inoltre, Meta afferma che Llama 4 è “notevolmente più equilibrato” nelle richieste che rifiuta di intrattenere.
“Puoi fare affidamento su Llama 4 per fornire risposte utili e fattuali senza pregiudizi,” ha dichiarato un portavoce di Meta. “Stiamo continuando a migliorare Llama in modo che possa rispondere a una varietà di domande, offrire una gamma di prospettive diverse e non favorire alcune opinioni rispetto ad altre.”
Queste modifiche sono state apportate in un momento in cui alcuni alleati della Casa Bianca hanno accusato i chatbot di intelligenza artificiale di essere eccessivamente “sensibili” a livello politico.
Molti dei confidenti più stretti del presidente Donald Trump, tra cui il noto imprenditore Elon Musk e il “zar” della criptovaluta e dell’intelligenza artificiale David Sacks, hanno sostenuto che i chatbot di intelligenza artificiale più popolari censurano le opinioni conservatrici. Sacks ha affermato in passato che ChatGPT di OpenAI è “programmato per essere politicamente corretto” e non veritiero su questioni politiche.
La realtà è che il pregiudizio nell’intelligenza artificiale rappresenta un problema tecnico complesso e difficile da risolvere. Anche xAI, l’azienda di intelligenza artificiale fondata da Musk, ha incontrato notevoli difficoltà nel creare un chatbot in grado di non promuovere alcune opinioni politiche a scapito di altre.
Nonostante ciò, società come OpenAI hanno lavorato per regolare i propri modelli di intelligenza artificiale, consentendo loro di rispondere a un maggior numero di domande rispetto al passato. In particolare, questi modelli possono ora affrontare argomenti controversi con maggiore efficacia, fornendo risposte più approfondite e informative.