Un segnale d’allarme scuote il mondo della conoscenza online: Wikipedia ha registrato un calo dell’8% nelle visualizzazioni di pagina generate da esseri umani. A rivelarlo è Marshall Miller della Wikimedia Foundation, che in un recente post ha spiegato come questo dato sia emerso dopo un’accurata pulizia delle statistiche. Un anomalo picco di traffico registrato tra maggio e giugno, infatti, non era dovuto a un’improvvisa sete di sapere, ma all’attività di bot sofisticati, creati appositamente per aggirare i sistemi di rilevamento.
Ma qual è la causa di questa flessione? Secondo Miller, le ragioni sono da ricercare nella rivoluzione che “l’intelligenza artificiale generativa e i social media stanno portando nel nostro modo di accedere alle informazioni”. Si delineano due tendenze dominanti: da un lato, i motori di ricerca che, grazie all’IA, forniscono risposte immediate e confezionate, rendendo superfluo il click verso fonti esterne come Wikipedia. Dall’altro, un cambiamento generazionale che vede i più giovani preferire la ricerca di informazioni su piattaforme video e social, a discapito del web tradizionale. Una visione, quest’ultima, che si scontra con la posizione di Google, che in passato ha negato come i suoi riassunti AI possano ridurre il traffico verso i siti originali.
La Wikimedia Foundation, per bocca di Miller, non si oppone al progresso e accoglie con favore “nuovi modi per le persone di accedere alla conoscenza”. L’enciclopedia libera non perde il suo valore finché il suo sapere continua a circolare, anche se ciò avviene senza una visita diretta al sito. Non a caso, la stessa Wikipedia aveva tentato di lanciare una propria funzione di riepilogo basata sull’IA, un progetto poi accantonato in seguito alle proteste della sua stessa comunità di editor.
Tuttavia, questa trasformazione nasconde delle insidie. Se le persone non visitano più direttamente le pagine di Wikipedia, la consapevolezza della fonte originale si affievolisce. Miller lancia un monito chiaro: “Con meno visitatori, potremmo avere meno volontari disposti ad arricchire i contenuti e meno donatori pronti a sostenere il nostro lavoro”. Un lavoro portato avanti da una comunità di volontari straordinari, capaci di contributi eccezionali, come quello di un editor che, secondo le cronache, sarebbe riuscito a disarmare un uomo armato durante un incontro della comunità lo scorso venerdì.
Per questo motivo, l’appello di Miller alle grandi aziende dell’IA, della ricerca e dei social media è diretto: chiunque utilizzi i contenuti di Wikipedia ha la responsabilità di “incoraggiare un maggior numero di visitatori” a esplorare il sito originale, la fonte di quel sapere.
Wikipedia, dal canto suo, non resta a guardare. L’organizzazione sta mettendo a punto un nuovo sistema per garantire la corretta attribuzione dei suoi contenuti ovunque vengano utilizzati. Sono stati inoltre creati due team dedicati a esplorare nuove vie per raggiungere i lettori e si cercano attivamente volontari per supportare questa missione vitale.
L’invito di Miller si estende infine a tutti noi lettori: “Sostenete l’integrità e la creazione dei contenuti”. Il suo consiglio è pratico e potente: “Quando cercate informazioni online, andate a caccia delle fonti citate e cliccate per leggere il materiale originale. Parlate con i vostri conoscenti dell’importanza di una conoscenza credibile e curata da persone, aiutandoli a capire che dietro la magia dell’IA ci sono esseri umani che meritano il nostro supporto”.
Il calo di traffico di Wikipedia non è un caso isolato, ma lo specchio di un cambiamento epocale nella distribuzione dei contenuti. Nell’era dell’intelligenza artificiale, dove le risposte arrivano prima delle domande, la necessità di visitare la fonte originale si affievolisce. Questa “mediazione” tecnologica rappresenta una sfida strutturale per tutte le piattaforme di conoscenza aperta che vivono grazie al traffico e al coinvolgimento della propria comunità.
Il dilemma di Wikipedia è emblematico. La più grande enciclopedia collaborativa del mondo è diventata il terreno di addestramento per innumerevoli modelli di IA e la spina dorsale di milioni di risposte generate dai motori di ricerca. Questo sfruttamento, però, interrompe un circolo virtuoso: un utente che non visita il sito non diventerà mai un potenziale editor o donatore. A lungo termine, la stessa sostenibilità della produzione di conoscenza è a rischio.
Emerge così una questione cruciale di attribuzione e di equa distribuzione del valore. Se i sistemi di IA traggono profitto commerciale da risorse libere e aperte, come possiamo garantire che i creatori e le piattaforme originali ricevano il giusto riconoscimento e il sostegno necessario? Le iniziative di Wikipedia e l’invito a cliccare sulle fonti sono le prime, fondamentali risposte a questa domanda.
Dal punto di vista dell’utente, ci troviamo di fronte a un paradosso: la comodità di un’informazione istantanea si scontra con la capacità di verificarne l’origine. I riassunti dell’IA e i feed social offrono risposte rapide, ma possono erodere la nostra consapevolezza critica riguardo all’affidabilità e alla completezza delle fonti. Una tendenza che, se non governata, rischia di minare la salute dell’intero ecosistema informativo online.