L’intelligenza artificiale randerà Wikipedia più affidabile

Wikipedia è l’enciclopedia online nata dall’impegnativo sforzo continuo di revisione delle voci preesistenti. Ma cosa accadrebbe se fosse un’intelligenza artificiale a esaminare meticolosamente il nostro lavoro? Un recente sistema di intelligenza artificiale, denominato SIDE, sviluppato dalla società londinese Samaya AI, è in grado di scrutare tra le fonti citate all’interno delle voci di Wikipedia e individuare quelle ritenute meno affidabili o carenti di informazioni, offrendo soluzioni valide per sostituirle. Tale innovazione è stata descritta in un articolo pubblicato su Nature Machine Intelligence.

Il progetto SIDE sfrutta reti neurali, modelli matematici ispirati al sistema nervoso umano, per valutare se le fonti citate negli articoli di Wikipedia effettivamente supportano le affermazioni presenti, stabilendo la loro precisione e attendibilità. SIDE ha subito un rigoroso addestramento basato sulle “featured articles” di Wikipedia, cioè le voci ritenute tra le più accurate, neutrali, complete e stilisticamente impeccabili, contrassegnate da una stella di bronzo in alto a destra.

Grazie a questa formazione basata sulla crema delle creazioni di Wikipedia, SIDE agisce come un sistema di verifica e riesce persino a selezionare fonti alternative in rete contenenti informazioni affidabili, offrendo poi una serie di opzioni per rimpiazzare le citazioni inaccurate.

Dopo l’addestramento, gli scienziati hanno sottoposto SIDE a test analizzando articoli che non aveva mai esaminato in precedenza. L’IA ha esaminato le fonti originali e ha proposto alternative considerate affidabili secondo i suoi criteri. I risultati sono stati poi sottoposti all’insindacabile giudizio umano.

Nella metà dei casi, la prima opzione suggerita da SIDE era già presente nella voce di Wikipedia in esame. Tuttavia, per il primo 10% delle citazioni evidenziate da SIDE come non verificabili, quando l’IA ha proposto fonti alternative, il 70% degli utenti intervistati dai ricercatori ha preferito le raccomandazioni di SIDE. In un esperimento condotto su una comunità di utenti di Wikipedia in lingua inglese, le citazioni evidenziate come non verificabili hanno portato il doppio delle preferenze per la prima opzione fornita da SIDE rispetto alle citazioni esistenti su Wikipedia.

Questi risultati suggeriscono che sistemi come SIDE potrebbero collaborare con gli esseri umani per rendere risorse come Wikipedia più facilmente verificabili e ancor più affidabili, aprendo nuove prospettive per migliorare la qualità delle informazioni disponibili online.