Microsoft continua a spingere i confini dell’intelligenza artificiale, e lo fa rendendola più accessibile. Mercoledì scorso, ha svelato una nuova serie di modelli “open” che promettono grandi cose, soprattutto per chi lavora a stretto contatto con la tecnologia.

Questi nuovi arrivati – Phi 4 mini reasoning, Phi 4 reasoning e Phi 4 reasoning plus – appartengono alla famiglia Phi, quella che Microsoft ha inaugurato un anno fa con l’idea di portare l’AI potente ma leggera direttamente sui dispositivi, “all’edge” come si dice in gergo. La loro caratteristica distintiva è il “reasoning”, ovvero la capacità di dedicare più tempo e attenzione a verificare le risposte, a “ragionare” sui problemi complessi per trovare soluzioni più solide.

Partiamo dal più piccolo, Phi 4 mini reasoning. Con i suoi circa 3,8 miliardi di parametri (pensa ai parametri come a un indicatore grezzo della capacità di un modello di capire e risolvere problemi), è stato addestrato su una montagna di circa un milione di problemi matematici creati artificialmente da un altro modello. L’idea, secondo Microsoft, è usarlo per l’educazione, magari per avere un “tutor” AI integrato direttamente su dispositivi che non hanno una potenza da supercomputer. In generale, più parametri ha un modello, migliori sono le sue performance.

Salendo di livello, troviamo Phi 4 reasoning, un modello da 14 miliardi di parametri. Questo è stato “nutrito” con dati web di alta qualità e con esempi specifici preparati a partire dalle risposte del modello o3-mini di OpenAI. È pensato per eccellere in campi come la matematica, la scienza e la programmazione.

E poi c’è Phi 4 reasoning plus. Non è un modello completamente nuovo, ma una versione “potenziata” di un modello Phi 4 già esistente, riadattato per migliorare la sua capacità di “ragionare” e quindi la precisione in compiti specifici. Microsoft è piuttosto fiduciosa: afferma che si avvicina alle performance di modelli enormi come DeepSeek R1 (che ha ben 671 miliardi di parametri!) e che, nei loro test interni, riesce a eguagliare o3-mini di OpenAI nel test OmniMath, che misura l’abilità matematica.

Chi vuole metterci le mani sopra o studiare i dettagli tecnici li trova già disponibili sulla piattaforma per sviluppatori AI, Hugging Face.

Microsoft sottolinea che, grazie a tecniche avanzate come la “distillation” (che permette di trasferire la conoscenza da modelli più grandi a quelli più piccoli) e l’uso di dati di alta qualità, questi modelli riescono a trovare un equilibrio perfetto tra dimensioni e performance. Sono così leggeri da poter funzionare senza ritardi significativi anche su dispositivi con poche risorse, mantenendo al contempo capacità di ragionamento che, a detta loro, possono competere con modelli ben più imponenti. È un passo importante per portare l’AI più sofisticata dove prima non era possibile.

Categorized in:

Breaking AI,

Last Update: Maggio 6, 2025