Social Icons

Press ESC to close

L’AI Capisce il Mondo Come gli Umani? sembrerebbe di si…

2 Min Read

Secondo un recente resoconto del Science and Technology Daily, i ricercatori dell’Istituto di Automazione presso l’Accademia Cinese delle Scienze hanno segnato un traguardo significativo. Per la prima volta, hanno confermato che i modelli linguistici multimodali di grandi dimensioni sono in grado di “comprendere” spontaneamente concetti durante il processo di addestramento. Quel che è ancora più notevole è che il loro approccio alla comprensione rispecchia sorprendentemente quello umano. Questa scoperta non solo apre nuove prospettive nell’esplorazione dei meccanismi di pensiero dell’intelligenza artificiale, ma getta anche le basi per lo sviluppo futuro di sistemi di IA capaci di percepire il mondo con una profondità simile alla nostra. I risultati di questa ricerca pionieristica sono stati pubblicati sulla prestigiosa rivista Nature Machine Intelligence.

La comprensione è da sempre al centro dell’intelligenza umana. Quando ci imbattiamo in parole come “cane” o “mela”, la nostra mente va oltre il semplice riconoscimento delle caratteristiche fisiche come dimensione, colore e forma. Afferriamo anche le loro funzioni, le emozioni che possono evocare e il loro significato culturale. Questa capacità di comprensione olistica è fondamentale per la nostra percezione del mondo. Con la rapida evoluzione di modelli di grandi dimensioni come ChatGPT, gli scienziati si sono interrogati sulla possibilità che questi modelli possano acquisire la capacità di “comprendere” le cose in modo simile agli esseri umani, attingendo a vastissime quantità di testo e immagini.

La ricerca tradizionale nel campo dell’intelligenza artificiale si è spesso concentrata sull’accuratezza nel riconoscimento degli oggetti, dedicando poca attenzione al fatto che il modello stesse effettivamente comprendendo l’essenza di ciò che identificava. Come ha sottolineato il ricercatore He Huiguang dell’Accademia Cinese delle Scienze, sebbene l’IA odierna possa distinguere tra l’immagine di un gatto e quella di un cane, la differenza sostanziale tra questo “riconoscimento” e la comprensione umana di questi animali richiede ancora un’indagine approfondita.

In questo studio innovativo, il team di ricerca ha tratto ispirazione dai principi cognitivi del cervello umano per ideare un esperimento affascinante: far giocare i modelli di grandi dimensioni al “gioco delle differenze” insieme agli esseri umani. Hanno selezionato triplette di concetti da un set di 1854 elementi comuni, chiedendo ai partecipanti di identificare quello meno affine agli altri due. Analizzando 4,7 milioni di punti dati derivanti da questi giudizi, i ricercatori sono riusciti a creare la prima “mappa mentale” o “mappa concettuale” dei modelli di grandi dimensioni.

Lo studio ha rivelato che gli scienziati hanno distillato 66 prospettive chiave che catturano l'”essenza” della comprensione da parte dell’intelligenza artificiale. Queste prospettive non sono solo facilmente interpretabili, ma mostrano anche un’elevata coerenza con i pattern di attività neuronale nel cervello umano responsabili dell’elaborazione degli oggetti. Un dato ancora più rilevante è che i modelli multimodali, capaci di elaborare sia testo che immagini, si avvicinano maggiormente agli esseri umani nei loro processi di “pensiero” e selezione.

È interessante notare una differenza cruciale: mentre gli esseri umani nel formulare giudizi considerano sia le caratteristiche fisiche degli oggetti sia i loro significati o funzioni intrinseche, i modelli di grandi dimensioni tendono a basarsi maggiormente sulle “etichette testuali” e sui concetti astratti che hanno assorbito. Questo risultato, tuttavia, conferma che i modelli di grandi dimensioni hanno effettivamente sviluppato una modalità di comprensione del mondo che presenta notevoli similitudini con quella umana, aprendo così un nuovo entusiasmante capitolo nelle capacità cognitive dell’intelligenza artificiale.

Categorized in:

Breaking AI,

Last Update: Giugno 13, 2025