Immagina un nuovo amico digitale per i bambini, uno di quelli che risponde alle domande e aiuta a creare immagini. Questo è un po’ quello che Google sta lanciando: un chatbot basato sull’intelligenza artificiale, Gemini, pensato apposta per i più piccoli, quelli sotto i 13 anni. L’idea è che diventi disponibile presto negli Stati Uniti e in Canada, per poi arrivare anche in Australia entro la fine dell’anno. La buona notizia è che non sarà accessibile a chiunque; i bambini potranno usarlo solo attraverso gli account collegati a Google Family Link, il che dà ai genitori un minimo di controllo.

Però, c’è un rovescio della medaglia che fa riflettere. Quando si crea un account per un bambino, vengono chiesti nome e data di nascita. Questo solleva interrogativi sulla privacy e su come verranno gestiti questi dati. Google ha assicurato che le informazioni raccolte dall’uso di questo sistema non verranno usate per “addestrare” l’intelligenza artificiale in futuro. Eppure, c’è un dettaglio importante: il chatbot è attivo per impostazione predefinita. Questo significa che i genitori devono ricordarsi di andare a disattivarlo manualmente se non vogliono che i loro figli lo usino. Non è proprio l’opzione “opt-in” che forse molti avrebbero preferito.

Questo Gemini permette ai bambini di chiacchierare, fare domande scrivendo o persino chiedere di generare immagini, incoraggiando l’interazione. Ma qui sta il punto: come ogni intelligenza artificiale, anche questa può sbagliare. Google stessa lo ammette. E qui subentra la necessità di capire bene cosa dice il chatbot e se è credibile. A differenza di una semplice ricerca online che ti mostra pagine web, questi strumenti AI creano contenuti nuovi basandosi su schemi e dati che hanno imparato. Per un bambino, distinguere cosa è reale o affidabile da cosa è inventato dall’AI può essere davvero difficile.

Certo, sono stati messi in campo dei filtri per evitare che vengano generati contenuti inappropriati. È un passo fondamentale per proteggere i bambini. Ma queste stesse precauzioni possono a volte essere troppo restrittive. Magari bloccano certe parole sensibili, ma finiscono anche per impedire l’accesso a contenuti che potrebbero essere educativi o semplicemente utili. È un equilibrio delicato da trovare.

Non a caso, in Australia, l’eSafety Commission, l’ente che si occupa della sicurezza online, ha già lanciato l’allarme sui rischi dei chatbot AI per i più giovani. Hanno sottolineato come questi “compagni” digitali possano diffondere informazioni sbagliate, distorcere la realtà o persino dare consigli pericolosi. Pensiamoci: i bambini, specialmente i più piccoli, stanno ancora imparando a pensare in modo critico. Potrebbero non avere ancora gli strumenti per capire se quello che leggono o vedono è vero.

Intanto, sempre in Australia, si sta pensando di vietare ai ragazzi sotto i 16 anni l’uso dei social media da dicembre. Questo ci fa capire quanto sia sentita la necessità di proteggere i più giovani nel mondo digitale. Ma oltre a mettere limiti, è fondamentale insegnare ai nostri figli come usare questi strumenti in modo sicuro e consapevole. E le aziende tecnologiche? Devono fare la loro parte. È qui che entrano in gioco le leggi, quelle che impongono una responsabilità digitale per affrontare seriamente i contenuti dannosi e garantire che i bambini possano navigare online in un ambiente più sicuro.

Categorized in:

Breaking AI,

Last Update: Maggio 13, 2025