Wikipedia, con 55 milioni di articoli in più di 300 lingue, è l’enciclopedia online più consultata, di riferimento per milioni di utenti in giro per il mondo. Per pubblicare un articolo su Wikipedia o modificare una pagina, occorre solamente un requisito: citare le fonte. La Wikimedia Foundation vuole infatti che ogni modifica sia supportato da fonti esterne attendibili. Un lavoro comunque non da poco, che potrebbe trovare una soluzione grazie al laboratorio FAIR di Meta che ha sviluppato un algoritmo capace di scansionare automaticamente le pagine di citazioni per capire se siano corrette.



Secondo Petroni, ingegnere elettronico presso il Tech Lead Manager presso il Fundamental AI Research di Meta a Londra, le macchine spingeranno l’informazione verso sistemi che potrebbero rivoluzionare il pensiero umano. L’idea dell’algoritmo è nata così, spiega a Il Messaggero: “Ci siamo chiesti in che modo fosse possibile utilizzare la tecnologia per aiutare gli esseri umani a svolgere compiti piuttosto complessi, ad esempio verificare se le affermazioni su Wikipedia sono supportate da citazioni attendibili. Ogni giorno su Wikipedia avvengono migliaia di modifiche agli articoli esistenti, è impossibile controllarle tutte. Avere un sistema che consenta agli utenti di focalizzarsi solo sui casi problematici torna estremamente utile”. L’ingegnere ha spiegato come funziona il metodo sviluppato per la ricerca delle fonti: “L’algoritmo setaccia Wikipedia per portare alla luce tutte le voci che contengono citazioni non ancora verificate. Poi suggerisce agli editor, cioè gli utenti che controllano gli articoli, quali pagine web contengono una fonte alternativa attendibile. Ha due componenti principali: il “verifier”, che cerca di verificare se una voce sia supportata dalla sua citazione, e un sistema di raccomandazione che si appoggia a un database con oltre 100 milioni di pagine web da cui è possibile cercare una fonte alternativa”.



Come funziona l’algoritmo

Petroni ha proseguito spiegando più nel dettaglio il metodo utilizzato dall’algoritmo per scovare gli errori nelle pagine di Wikipedia. Questo metodo funziona: “Applicando delle nuove tecniche di analisi del linguaggio che confrontano il testo dell’articolo con quello della fonte, per capire se uno supporta l’altro, se c’è una connessione. Il nostro modello ordina milioni di coppie citazioni-fonte e le indicizza, consentendo così a un utente umano di avere subito sott’occhio i casi più problematici”. È sempre importante, comunque, l’intervento umano, che dopo la rilevazione degli errori può agire in prima persona: “Per prima cosa controlla la citazione per verificare che ci siano fonti attendibili. Se non le trova, avvisa gli editor di Wikipedia che non ha trovato nulla che supporti quell’affermazione. Gli utenti a quel punto possono controllare tutte le fonti che abbiamo segnalato e sostituirle, o con quelle suggerite da noi o con altre. E come si capisce se una fonte è attendibile? Il nostro modello, essendo stato allenato su milioni di citazioni, è riuscito in automatico ad apprendere la nozione di affidabilità di una fonte, e preferisce ad esempio citazioni dal Guardian o dal New York Times rispetto ad articoli prelevati da qualche punto oscuro del web”.



In futuro, un algoritmo del genere potrebbe diventare ancora più importante, aprendo a nuove strade: “Non è impensabile che questi sistemi, già adesso così sofisticati, possano aiutare un giorno l’uomo a creare conoscenza nuova, ad esempio un teorema matematico o un articolo scientifico. O magari proprio una nuova pagina Wikipedia. Le macchine potrebbero darci un giorno nuove conoscenze che strada facendo potrebbero esserci sfuggite”.