Nessuna immagine che vediamo può ormai essere ritenuta credibile. Con l’avvento dell’intelligenza artificiale e il suo incredibile sviluppo, creare un’immagine verosimile ma totalmente inventata è a portata di tutti. Specie a tutti quelli che hanno un obiettivo per farla, in malafede. Guardate qui sotto.
Guardate le dita dei piedi, ancora la tecnologia non riesce a replicarle perfettamente. La stessa fine faranno i video: creare un video realistico per generare paura, sgomento e reazioni prevedibili sarà facile e poco costoso. Portando enormi conseguenze: “un’immagine vale più di mille parole” significherà solo “un’immagine generata con un prompt di mille parole”. O anche meno.
La fine della comunicazione? No, purtroppo è l’opposto: l’inizio di una comunicazione sempre più falsa e, al tempo stesso, potente ed evocativa. Fake news che diventano indistinguibili dalla realtà grazie a una tecnologia “magica” che, come abbiamo visto troppo spesso negli ultimi anni, diventa perfetta per coloro che la usano in malafede. Il problema è che tenderemo a credere comunque a quelle immagini. Ci emozionano, alimentano le nostre paure e i nostri pregiudizi, ci creano nemici facili da individuare.
Come capire se qualcuno ci sta prendendo in giro? Difficile. Sono anni che rifletto sulle fake news e come scoprirle. Ma la risposta che mi davo – il debunking – non basta: creare un falso testo/foto è questione di minuti, individuare la sua falsità è questione di ore/giorni oltre che di competenze e di tanta ricerca delle fonti. Una gara impari, lo sappiamo già dalla teiera di Russell. Senza contare l’Effetto Dunning-Kruger che ci spinge a prendere sonore cantonate su tante cose, così, perché ci piace.
Se il de-bunking a posteriori è inefficace, perché non provare a prevenire le fake news con il pre-bunking? Ossia insegnare alle persone le tecniche di manipolazione più usate. “Formarle” a capire perché qualcuno vuole farle fesse con notizie false e inventate. Qui c’è un bell’articolo sul pre-bunking in periodi elettorali, qui un altro sulla guerra in Ucraina ma gli scenari possono essere tantissimi, come la crisi a Gaza o la questione dei vaccini con il Covid. Se qualcuno può fare disinformazione per i propri scopi, lo farà (come direbbe la legge di Murphy).
Insomma, serve un approccio preventivo: se so che la IA può generare qualsiasi immagine, devo prendere qualsiasi foto con le pinze e capire che tecnica sta usando. Il problema è che serve seguire, studiare, capire. E spesso credere a un’immagine falsa ma che avvalora le nostre tesi è più comodo e veloce. E se fosse la IA a controllare le immagini fatte dalla IA? Tecnicamente sembra fattibile ma la vera domanda è: perché dovrebbe farlo, a chi gioverebbe? La risposta, mi sa, ha un gusto amaro.

