Martedì, durante la sua prima conferenza LlamaCon dedicata agli sviluppatori, Meta ha calato un asso nella manica per la sua famiglia di modelli AI Llama: è nata la Llama API.
Per ora è accessibile in anteprima limitata (potete mettervi in lista d’attesa qui), ma il suo scopo è chiaro: mettere nelle mani degli sviluppatori gli strumenti per giocare, esplorare e costruire prodotti innovativi partendo dai vari modelli Llama. Insieme agli SDK di Meta, questa API apre le porte alla creazione di servizi, tool e app di ogni tipo. Un dettaglio ancora avvolto nel mistero, almeno per ora, è il prezzo: Meta non ha ancora svelato quanto costerà usarla.
Il lancio di questa API non è casuale, arriva in un momento cruciale per Meta, che punta a tenere alta la bandiera nel campo super competitivo dei modelli aperti. I modelli Llama hanno già superato il miliardo di download, un traguardo impressionante. Eppure, la concorrenza non sta certo a guardare: nomi come DeepSeek o Qwen di Alibaba si affacciano all’orizzonte, pronti a sfidare Meta nel suo tentativo di costruire un ecosistema Llama solido e diffuso.
Cosa si potrà fare con questa API? Beh, promette di semplificare la vita a chi vuole personalizzare e mettere alla prova i modelli Llama, a partire da Llama 3.3 8B. Immaginate di poter generare dati su misura, addestrare il modello proprio su quei dati e poi usare la suite di valutazione integrata nell’API per capire quanto il vostro modello “customizzato” sia davvero performante.