Wikipedia si rinnova: grazie ad un nuovo sistema cerca di diventare ancora più efficace e di evitare gli errori fatti in buona fede da quelli invece fatti appositamente.Ecco perché fa affidamento all’intelligenza artificiale per cercare di garantirsi quel primato e quell’affidabilità che caratterizzano il suo essere.
Sempre più spesso, gli utenti che contribuiscono a rendere Wikipedia l’enciclopedia più fornita al mondo, stanno diminuendo drasticamente. Nell’edizione inglese negli ultimi otto anni sono stati persi circa il 40% degli autori attivi.
Diventare nuovi editor infatti è diventato sempre più complicato ed è per questo che tale calo risulta anche giustificato: gli strumenti per la correzione infatti risultano troppo rigidi e l’accettazione e la pubblicazione del materiale diventa quasi per i pochi prescelti. Molto spesso anche errori minimi che non compromettono il contenuto vengono scartati a priori facendo di conseguenza diminuire la pubblicazione e gli editor.
Wikimedia Foundation, l’ente no profit di base a San Francisco che aiuta le attività di Wikipedia, sta cercando in tutti i modi di risollevare le sorti dell’enciclopedia. Secondo l’ente la soluzione è da ricercarsi in un software noto come Objective Revision Evaluation Service, meglio noto come Ores che permette di distinguere gli errori fatti casualmente da aspiranti editor da quelli invece fatti appositamente da editor malevoli. In questo modo il software invita i primi a rivedere gli errori mentre scarta automaticamente, facendo pulizia, i contenuti dei secondi.
Questo progetto è stato ideato da Aaron Halfaker, un ricercatore che ha appunto dato modo a Wikipedia di crescere ancora di più. Il sistema utilizza un set di algoritmi open source noti come SciKit Learn che permette di evidenziare le modifiche dannose e poi separarle dai cambiamenti apportati dagli editor “distratti”.
Ores ha come obiettivo quello di raffinarsi nel tempo e di crescere cercando di dar libero sfogo alle energie fresche di aspiranti editor. Le troppe regole infatti hanno allontanato le menti eccelse a causa delle regole imposte dal vecchio meccanismo : “L’atteggiamento aggressivo che hanno gli utenti di Wikipedia nel controllare i contenuti modificati proviene dal fatto che non sono incoraggiati ad avere un’interazione umana con le persone” ha detto Halaker alla Mit Technology Review.