L’IA potrebbe influenzare le elezioni?
Questo è un anno denso di appuntamenti elettorali, ma i riflettori saranno puntati sulle presidenziali americane di novembre. L’elemento nuovo con cui quest’anno dovranno fare i conti tutti i paesi che hanno appuntamento con le urne è l’intelligenza artificiale (IA).
Forse non ce ne stiamo accorgendo, ma i suoi algoritmi già da tempo pervadono il nostro quotidiano. Su internet IA è a disposizione degli utenti per migliorare un testo, o ricrearlo.
Come sempre con le innovazioni tecnologiche il problema è l’uso che se ne fa. E in un anno pieno di votazioni, non si può ignorare il rischio che l’IA generativa possa essere usata per influenzare i votanti attraverso la fabbricazione digitale di disinformazione e fake news.
Fonte: Bloomberg Economics, elaborazione basata su previsioni del Fondo Monetario Internazionale (IMF). I dati non includono le elezioni per il Parlamento Europeo.
Potenziale destabilizzante
Lo riconosce perfino OpenAI, la società che produce ChatGPT, la quale si è sentita in dovere di dichiarare di voler evitare che la sua tecnologia per la generazione di testi e di immagini sia utilizzata per le elezioni. Ha anche promesso l’introduzione di strumenti per combattere la disinformazione in vista degli appuntamenti elettorali.
Se non verranno prese precauzioni, il rischio che i votanti non abbiano la certezza che quello che vedono o sentono in campagna elettorale sia reale o fabbricato è infatti molto concreto. In ultima istanza, se la tecnologia IA venisse usara per manipolare la realtà, potrebbe avere una portata destabilizzante e far danno alle istituzioni democratiche.
Questo può essere evitato. Per esempio, contrassegnando permanentemente le immagini create con il suo generatore DALL-E con informazioni sulla loro origine, OpenAI può rendere più semplice identificare se un’immagine che appare altrove sul Web è stata creata utilizzando l’IA.
“Per fortuna, siamo ancora in una fase ‘embrionale’ per quanto riguarda l’utilizzo della piena potenza dell’IA. Di conseguenza, è ancora possibile distinguere – anche se solo grazie a contro-algoritmi – il fake dalla realtà”, commenta Alessandro Tentori, CIO Europe di AXA Investment Managers.
Dove sta la verità?
Purtroppo, casi di manipolazione di audio o video si sono già verificati. Uno ha riguardato le passate elezioni per il sindaco di Chicago, negli Stati Uniti. Prima del voto è circolato un video che riproduceva la voce del candidato Paul Vallas apparentemente favorevole a un atteggiamento lassista nei confronti della violenza di alcune forze di polizia. Era un “fake”, falso, ma è stato visto online migliaia di volte. Altre fabbricazioni digitali hanno riguardato il presidente Joe Biden e la senatrice Elizabeth Warren.
Con l’IA si può clonare in pochi istanti la voce di un candidato, creare un video falso, o diffondere messaggi per portare discredito al campo opposto. “Quest’anno assisteremo alla prima stagione di campagne nazionali in cui strumenti di intelligenza artificiale ampiamente accessibili consentiranno agli utenti di sintetizzare l'audio nella voce di chiunque, generare immagini fotorealistiche di chiunque faccia quasi qualsiasi cosa e potenziare gli account bot dei social media con capacità di conversazione quasi a livello umano - e farlo su vasta scala con un investimento di tempo e denaro ridotto o trascurabile” avverte il Brennan Center for Justice – un’istituto indipendente di politica presso la New York University School of Law.
Sarà anche la prima stagione elettorale, aggiunge l’organizzazione indipendente, in cui “un gran numero di elettori consuma informazioni che non solo sono curate, ma anche prodotte dall’IA”.
Un target importante di chi usa l’IA per cercare di influenzare le elezioni sono i cosiddetti “swing voters”, coloro che decidono all’ultimo momento per chi votare e che possono facilmente cambiare opinione. La disponibilità di una enorme quantità di dati personali sugli “swing voters”, facilmente accessibili dall’IA, permette di lanciare messaggi mirati a specifici blocchi di potenziali elettori.
Serve regolamentazione
Ci sono altri potenziali rischi. “Proiettandoci in un futuro che col senno di oggi definiremmo distopico, non è difficile immaginare che le macchine, gli algoritmi, ci solleveranno dal fastidio di dover esprimere una opinione politica”, commenta Tentori. “Lo faranno analizzando la traccia lasciata dalle nostre abitudini di consumo, dalla nostra presenza sui social. Basterà il nostro DNA digitale per capire se votiamo a destra, a sinistra o se invece preferiamo astenerci.”
I governi si stanno già focalizzando sulla regolamentazione, che diventa tanto più urgente nella misura in cui l’intelligenza artificiale si sviluppa rapidamente e il suo uso diventa più facile. Scrive Chris Iggo, Chair dell’Investment Institute di AXA IM e CIO AXA IM Core: “Dalla sua nascita teorica negli anni '50, sono state depositate più di 340.000 applicazioni di invenzioni legate all'IA. Tuttavia, nell'ultimo decennio il tasso di richieste è rapidamente aumentato, passando da 2.560 brevetti nel 2010 a oltre 140.000 nel 2021.”
Aggiornati sui mercati in modo veloce, ma approfondito
Partecipa al webinar in diretta con Alessandro Tentori, CIO Europe AXA IM, ogni martedì alle 11.00
Disclaimer