E-Mail: [email protected]
- La clonazione della voce e dell'immagine di Don Ciotti ha portato alla creazione di un video scam che ha ingannato molti spettatori malati.
- Europol e UNICRI hanno segnalato una crescita del 96% di contenuti deepfake non autorizzati, con aumenti significativi di truffe e campagne diffamatorie.
- Nel 2020, su 15.000 video deepfake analizzati, il 96% conteneva contenuti vietati ai minori; oggi i rischi includono truffe finanziarie e manipolazioni politiche.
Nel panorama tecnologico moderno, l’uso dell’intelligenza artificiale ha raggiunto livelli di sofisticazione tali da permettere la creazione di contenuti falsi estremamente realistici. Un esempio recente e preoccupante è quello che ha coinvolto Don Luigi Ciotti, fondatore di Libera, la cui immagine e voce sono state manipolate per promuovere una presunta cura miracolosa contro l’artrite e altre malattie articolari.
Il video, diffuso sui social media, mostra un Don Ciotti apparentemente sofferente a causa di una grave malattia legata al malfunzionamento di muscoli e articolazioni. La voce, clonata con l’ausilio dell’intelligenza artificiale, recita un messaggio ingannevole: “I medici nascondono la verità, i dolori articolari possono essere curati comodamente da casa.” Il finto Don Ciotti continua descrivendo una ricetta miracolosa che promette di liberare dal dolore in una settimana senza interventi chirurgici.
Questo video ha ingannato molti spettatori, in particolare persone malate, grazie alla riproduzione fedele della voce e dei movimenti labiali del sacerdote. Le immagini utilizzate risalgono a un intervento di Don Ciotti durante la Giornata contro le mafie a Tor Vergata il 24 marzo, manipolate per creare un contenuto falso e diffamatorio.
Europol e Onu lanciano l’allarme deepfake
L’episodio di Don Ciotti non è un caso isolato. Europol e l’Unione Internazionale delle Nazioni Unite per la Ricerca sul Crimine (UNICRI) hanno lanciato un allarme sui rischi enormi legati ai cosiddetti deepfakes, bufale hi-tech confezionate con l’intelligenza artificiale. Questi contenuti falsi, che includono video, foto e audio, possono sembrare estremamente realistici e provocare danni significativi alla reputazione delle persone coinvolte, convincere le vittime a sborsare denaro e persino causare terremoti politici.
Nel caso di Don Ciotti, i truffatori hanno manipolato le immagini del suo intervento a Tor Vergata per creare uno spot su una presunta cura miracolosa contro l’artrite. Il sacerdote ha scoperto l’inganno e ha denunciato l’accaduto alla magistratura, che ora indaga per trovare i responsabili.
Deepfakes: una minaccia crescente
L’evoluzione della tecnologia ha reso i deepfakes sempre più sofisticati e credibili, aumentando i timori di Europol e UNICRI. Quattro anni fa, queste organizzazioni hanno elaborato uno studio sui rischi derivanti dall’uso malevolo dell’intelligenza artificiale, con un capitolo dedicato ai deepfakes. Nel 2020, il pericolo si traduceva principalmente nella realizzazione di video pornografici falsi: su 15.000 filmati fake, il 96% conteneva contenuti vietati ai minori.
La tecnica consisteva nell’applicare il viso di una celebrità a un corpo nudo per suscitare morbosità negli utenti. All’epoca, il fenomeno era limitato, ma con l’evoluzione rapidissima degli strumenti, i rischi sono aumentati. Oggi, i casi sono così complessi che è difficile distinguere il vero dal falso, richiedendo conoscenze e risorse adeguate per smascherare i truffatori. Europol ha messo in guardia sugli sviluppi futuri, soprattutto riguardo alle campagne mediatiche e social per screditare avversari politici.
Un potenziale utilizzo ostile dei deepfakes prevede la diffusione di immagini artefatte a fini di estorsione: la vittima, pur sapendo che il contenuto è falso, non può dimostrarlo e paga per evitare scandali. Le insidie derivano anche dall’uso di voci contraffatte: Europol e UNICRI hanno documentato vari casi in cui dirigenti aziendali sono stati convinti a stanziare somme di denaro credendo di parlare con i loro superiori.
La risposta delle autorità
L’Unione Europea ha approvato una legge per regolare l’uso dell’intelligenza artificiale e prevenirne gli abusi. Tuttavia, resta da vedere se queste misure saranno sufficienti a contrastare la minaccia crescente dei deepfakes. L’Agenzia per la Cybersicurezza Nazionale, riprendendo il caso di Don Ciotti, ha raccomandato di diffidare da simili messaggi e di non cliccare su link di dubbia provenienza.
Il caso del deepfake di Don Ciotti è solo uno dei tanti esempi di truffe che si moltiplicano su web e telefonini. Queste truffe spaziano dalle finte telefonate agli spot che utilizzano personaggi famosi del mondo dello spettacolo. Ad esempio, l’attrice statunitense Scarlett Johansson ha accusato OpenAI, la società che gestisce ChatGPT, di aver utilizzato la sua voce dal film “Her” senza il suo consenso. Prima di lei, anche Tom Hanks si è ritrovato testimonial di servizi per l’igiene orale senza aver mai dato il suo consenso.
Bullet Executive Summary
Il caso di Don Ciotti clonato dall’intelligenza artificiale per promuovere una falsa cura anti-artrite è un esempio lampante dei pericoli legati ai deepfakes. Questi contenuti falsi, creati con tecnologie avanzate, possono ingannare facilmente il pubblico, causando danni significativi alla reputazione delle persone coinvolte e truffando le vittime. Europol e UNICRI hanno lanciato l’allarme sui rischi crescenti legati a questa tecnologia, che può essere utilizzata per scopi malevoli, come estorsioni e campagne di disinformazione.
*Nozione base di tecnologia: I deepfakes sono contenuti multimediali falsi creati utilizzando l’intelligenza artificiale, che permette di manipolare immagini, video e audio in modo estremamente realistico.
Nozione avanzata di tecnologia: La tecnologia dei deepfakes si basa su reti neurali generative avversarie (GAN), che consistono in due reti neurali che competono tra loro per migliorare continuamente la qualità dei contenuti generati. Una rete genera contenuti falsi, mentre l’altra cerca di distinguerli dai contenuti reali, portando a una continua evoluzione della qualità e della credibilità dei deepfakes.
In conclusione, è fondamentale che il pubblico sia consapevole dei rischi legati ai deepfakes* e che le autorità continuino a sviluppare e implementare misure efficaci per contrastare questa minaccia. La tecnologia può essere una forza positiva, ma è essenziale utilizzarla in modo responsabile e etico per evitare abusi e proteggere la società.