È possibile usare l’AI per combattere la disinformazione online?
La disinformazione, fomentata dagli algoritmi delle Big Tech, è un fenomeno sempre più dilagante in rete. Da tempo i giornalisti cercano di smascherare le fake news che circolano online e le persone che vi sono dietro.
L’intelligenza artificiale può aiutare gli esseri umani a contrastare la disinformazione online, controllando istantaneamente le notizie e autenticando i contenuti in modo da migliorare la fonte di riferimento, ovvero la nostra capacità di identificare la natura, l’origine e lo scopo delle informazioni. La speranza è che questo rafforzi la fiducia dei consumatori nelle notizie.
Problemi di fiducia
L’Edelman Trust Barometer di quest’anno ha rilevato che il 76% degli utenti si preoccupa che “le fake news vengano usate come un’arma” e che quasi la metà considera i media come una “forza divisiva nella società”. In particolare, i livelli di fiducia sono più alti nei Paesi con emittenti pubbliche rispettate, tra cui Svezia, Danimarca e Regno Unito.
Queste preoccupazioni sulla fiducia nei media hanno spinto The Journalism Trust Initiative (JTI) e NewsGuard a sviluppare sistemi di valutazione per consentire al pubblico e agli inserzionisti di sapere quali sono gli organi di informazione affidabili.
Tra gli altri esempi troviamo “Vett News”, la quale si avvale invece di un sistema di feedback tra i consumatori e i produttori, facilitando la segnalazione e la correzione di errori di battitura, fattuali e di parzialità, nonché includendo ulteriori riferimenti al contesto.
Rischi e opportunità dell’IA
Da una parte ci sono le opportunità, che riguardano anche il mondo dell’informazione, con la possibilità, ad esempio, per giornalisti e fact-checker di verificare in maniera avanzata i contenuti digitali e così offrire un’informazione di maggiore qualità.
Dall’altra ci sono i tanti rischi che questi sistemi presentano. Dalla violazione del copyright alla mancanza di trasparenza, passando per la creazione di nuovi monopoli e l’impatto sul mercato del lavoro, fino ad arrivare al tema che oggi preoccupa di più gli esperti del settore: la possibilità di creare in modalità massiva contenuti del tutto falsi, ingannevoli o manipolatori.
L’AI Act e il piano normativo europeo
Proprio per tutelare queste opportunità e ridurre il rischio di un uso dannoso dell’IA, nel 2021 la Commissione Europea ha proposto il primo quadro normativo di riferimento dell’UE, denominato EU AI Act.
Il documento prevede che i sistemi tecnologici così avanzati, impiegati in diverse applicazioni, debbano essere analizzati e classificati in base al rischio che comportano per gli utenti.
Il 14 giugno 2023 il Parlamento Europeo ha approvato il passaggio della proposta, una volta terminato l’iter legislativo, l’EU AI Act diventerà il primo pacchetto normativo al mondo a regolare l’IA. È fondamentale, quindi, che le piattaforme social e i governi collaborino per contrastare un trend in evidente ascesa, coinvolgendo verificatori dei fatti esterni, i cosiddetti fact-checkers, e promuovendo la trasparenza e la responsabilità.