La non-profit che sta dietro a Wikipedia ha appena svelato la sua strategia sull’intelligenza artificiale per i prossimi tre anni. E tiriamo un sospiro di sollievo: non ha intenzione di sostituire la sua incredibile comunità di editori e volontari con l’AI.
Invece, la Wikimedia Foundation vede l’AI come un alleato. La userà per creare nuove funzionalità che “abbattono le barriere tecniche”, dando a editori, moderatori e chi si occupa di sorvegliare la piattaforma gli strumenti necessari per fare il loro lavoro prezioso, senza doversi preoccupare del “come realizzarlo tecnicamente”.
Mentre il mondo si interroga su quanto l’AI possa stravolgere il lavoro umano, specialmente nella creazione di contenuti, Wikipedia prende una posizione chiara. Non vuole che l’AI prenda il posto delle persone, ma che le aiuti a lavorare meglio, più facilmente. L’organizzazione intende sfruttare l’AI generativa proprio lì dove è più forte.
Questo significa, ad esempio, flussi di lavoro potenziati dall’AI che automatizzano compiti ripetitivi e noiosi. Significa anche migliorare la possibilità di trovare informazioni su Wikipedia, liberando così tempo prezioso per gli editori. Tempo da dedicare a ciò che l’AI non può fare: la riflessione umana, il confronto, la costruzione di quel consenso fondamentale per creare, modificare e aggiornare le voci dell’enciclopedia. L’AI darà una mano anche con le traduzioni automatiche e nel guidare i nuovi volontari nei loro primi passi.
Come hanno spiegato Chris Albon e Leila Zia, rispettivamente direttori di machine learning e ricerca alla Wikimedia Foundation, in un post sul loro blog, “Crediamo che il nostro futuro lavoro con l’AI avrà successo non solo per ciò che facciamo, ma per come lo facciamo.” E il “come” è cruciale. Hanno aggiunto che i loro sforzi saranno guidati dai valori e principi storici di Wikipedia: privacy, diritti umani, un approccio centrato sull’uomo che dà priorità all’azione umana (“human agency”), l’uso preferenziale di AI open-source, la trasparenza e un’attenzione particolare alla multilinguismo, che è nel DNA di Wikipedia.
L’organizzazione ha anche sottolineato un punto fondamentale: mantenere la base di conoscenza di Wikipedia affidabile è diventato ancora più importante con l’avvento dell’AI generativa, che, come sappiamo, a volte può commettere errori o inventare informazioni (le famose “hallucinations”). Questo rende il ruolo dei volontari umani ancora più insostituibile.