Districarsi tra i contenuti digitali affidabili è sempre più complesso. Specie se riferiti a questioni politiche, guerre e crisi internazionali. Sulla guerra Israele-Hamas (The Guardian la definisce “guerra”), Cory Doctorow sul suo blog Pluralistic ha diffuso una guida per i lettori per informarsi in maniera “safe”, difendendosi da fake news, deep fake e account social che propagano disinformazione.
Creare un video deep fake sta diventanto facilissimo, qui ad esempio un TikToker spiega come, suggerendo di usare questo script alla portata di chiunque abbia delle competenze tecnologiche di base, ma ci sono anche anche strumenti molto più semplici come HeyGen. I contenuti prodotti possono sembrare inizialmente di scarsa qualità, ma facendo fine-tuning possono arrivare ad essere perfettamente credibili, come per esempio quello in cui la moglie del presidente americano Biden critica il marito sulla gestione della crisi in Medioriente. Fioccano anche le interviste ad esperti che spiegano diciamo il “backstage” o making-of, per esempio questo proprio sul deep fake di Jill Biden.
Queste dinamiche fanno emergere contestualmente le potenzialità e rischi delle tecnologie basate su Intelligenza Artificale. Anche perché emergono sempre più dubbi sull’efficiacia del fact-checking come strumento di contrasto alla disinformazione. Dice il New York Times: dopo l’elezione di Biden 3 americani su 10 credevano alla narrativa secondo la quale l’elezione fosse stata truccata. Dopo anni di fact-checking e debunking, i numeri sono tristemente uguali e lo sforzo sul fact-checking non è servito a ridurli!
Non solo però è sempre più facile creare contenuti fake sfruttando l’Intelligenza Artificiale, ma tutto il mondo dell’AI generativa(quindi chatbot basati su modelli text-to-text come ChatGpt, Bard, Bing o modelli text-to-image come DALL-E, Midjourney) sta entrando rapidamente nel mercato dei consumatori, e quindi sempre più persone e organizzazioni cercano di sfruttarla per fare business. Di recente è stato lanciato Poe, un market place di chatbot fatto dagli autori di Quora. Poe vuol diventare un App Store, dove comprare e vendere servizi del genere sarà semplicissimo e a prezzi sempre più bassi.
A questi fenomeni si accompagnano i tentativi di realtà editoriali (troppo poche!) che usano la tecnologia per fare informazione: pensiamo a Bellingcat ad esempio che analizza e rilancia questo strumento OSINT per mappare i danni della guerra in Ucraina, e che ha una sezione dedicata per guide e strumenti analoghi: siamo anni luce più avanti rispetto a quello che vediamo in tutto il contesto editoriale italiano, nessuno escluso.
Quello che colpisce rispetto al passato è l’accelerazione che stiamo vivendo su queste sfide. Secondo Freedomhouse, le cose stanno andando sempre peggio. Nell’ultimo rapporto appena pubblicato, la libertà e la sicurezza in rete sono ancora una volta in declino anche a causa di governi (47!) che sfruttano le nuove tecnologie AI per fare propoganda. Una delle raccomandazioni che Freedomhouse propone – oltre al rafforzamento delle norme che regolano l’AI e la sempre maggiore responsabilizzazione delle piattafome – è la promozione di media, data e information literacy come uno degli strumenti essenziali. Scrivono gli autori del rapporto: «Le iniziative di educazione civica e la formazione sull’alfabetizzazione digitale possono aiutare le persone a navigare in ambienti mediatici complessi»
Non si tratta quindi semplicemente di fare un corso di un’ora o due sulle fake news, o per creare un grafico o una tabella pivot. Si tratta piuttosto di promuovere l’acquisizione di un paradigma culturale digital-driven che possa aiutarci non solo a vivere in sicurezzanelle nostre democrazie del presente, ma anche a preservarle (e farle quindi restare tali!) in futuro. Cosa intendiamo nello specifico con paradigma culturale digital-driven? In primis consapevolezza del funzionamento di alcune tecnologie e strumenti, ma anche lucidità nel valutare rischi e potenzialità.
