focus sull'innovazione.

Torna a precedente

Deepfake, quando foto e video falsi diventano un rischio reale

Deepfake, politica, frodi e disinformazione, come i contenuti falsi creati con l’IA stanno cambiando il panorama digitale

Deepfake, quando foto e video falsi diventano un rischio reale

Condividi

Video manipolati, voci clonate e immagini false, il report che mostra dove colpiscono di più i deepfake nel mondo

Le immagini non bastano più a dimostrare la realtà, e i video non sono più una prova automatica di autenticità. Nell’ecosistema digitale di oggi, i deepfake stanno trasformando foto, filmati e perfino voci in strumenti di manipolazione sempre più credibili. Il problema non riguarda solo la tecnologia in sé, ma l’uso che ne viene fatto per orientare opinioni, colpire reputazioni, creare frodi e alimentare campagne di disinformazione.

Un fenomeno che colpisce politica, frodi e pornografia

Secondo il primo Deepfake Intelligence Report realizzato dalla startup italiana IdentifAI, la quota più ampia delle minacce mondiali legate ai deepfake passa dai video manipolati, che rappresentano il 46% dei casi osservati. Una parte consistente di questi contenuti ha finalità di pressione politica, pari al 24,6%, mentre il 20,1% è collegato a tentativi di frode. Anche la pornografia sintetica continua a rappresentare un fronte molto delicato, con l’11,3% degli episodi analizzati, confermando che queste tecnologie vengono sfruttate soprattutto dove possono destabilizzare, umiliare o generare profitto.

La politica resta uno dei bersagli più esposti

Il rapporto mette in evidenza come i media sintetici siano stati utilizzati per alterare il racconto di eventi geopolitici e colpire figure istituzionali di primo piano. Tra gli obiettivi compaiono leader politici israeliani, personalità politiche statunitensi e soggetti statali mediorientali. In questo scenario, la manipolazione non serve solo a diffondere contenuti falsi, ma a insinuare dubbi, alimentare sospetti e rendere più fragile la fiducia nell’informazione pubblica. In un’epoca in cui la verità viene continuamente messa in discussione, i deepfake trovano terreno fertile proprio nella velocità con cui i contenuti circolano online.

Gli Stati Uniti sono il Paese più colpito

L’analisi, che prende in considerazione il periodo compreso tra il 2020 e i primi mesi del 2026, indica gli Stati Uniti come il Paese più esposto, con il 46,9% degli incidenti globali rilevati. Seguono Regno Unito con l’8,2%, India con il 7,2% e Israele con il 6,6%. A questi si aggiungono altre aree sensibili come Iran, Corea del Sud e Australia. Il dato non sorprende del tutto, perché proprio negli Stati Uniti si concentrano sia una forte produzione tecnologica legata all’IA sia una polarizzazione politica che rende più facile l’uso strumentale di contenuti alterati.

I video dominano, ma crescono anche audio e contenuti misti

Le tecniche più utilizzate non si limitano ai semplici ritocchi visivi. I video restano il formato più diffuso negli attacchi deepfake, con il 45,6%, ma avanzano anche i contenuti misti, che raggiungono il 25,2%, le immagini al 17,4% e la clonazione vocale al 10,5%. È un’evoluzione importante, perché dimostra che la manipolazione si sta muovendo verso forme sempre più complesse e coordinate. Non si tratta più soltanto di creare un falso credibile per l’occhio umano, ma di superare anche controlli tecnici, verifiche automatiche e in prospettiva persino sistemi biometrici.

I social media amplificano la diffusione

La forza dei deepfake non dipende solo dalla loro qualità, ma soprattutto dalla rapidità con cui vengono distribuiti. I social media sono oggi il principale canale di propagazione di questi contenuti. X pesa per il 51,2% degli incidenti distribuiti, seguito da TikTok con il 21,1%. Più indietro si collocano YouTube, Facebook, Instagram, Telegram e WhatsApp. Il nodo centrale è che gli algoritmi tendono spesso a premiare il coinvolgimento, la reazione emotiva e la viralità, non necessariamente la verifica della fonte. In questo contesto, un falso ben costruito può correre molto più veloce di una smentita.

La vera sfida è intercettare il falso prima che diventi virale

Il report sottolinea che la sofisticazione tecnica dei media sintetici è ormai passata dall’inganno diretto delle persone a una manipolazione pensata per aggirare soglie di controllo più avanzate. È questo il passaggio più inquietante. Non basta più insegnare agli utenti a dubitare di ciò che vedono, perché il problema si sta spostando sul piano strutturale. Come osserva Marco Ramilli, ceo e co-fondatore di IdentifAI, i deepfake stanno diventando strumenti ordinari per disinformazione ed estorsione su larga scala, mentre il tempo utile per un intervento umano si restringe sempre di più.

Difendere la verità richiede strumenti nuovi

La risposta, quindi, non può limitarsi alla moderazione successiva o alla semplice rimozione dei contenuti una volta segnalati. Serve una capacità di rilevamento integrata, solida e continua, capace di analizzare immagini, video, audio e segnali tecnici in tempo reale. Il punto non è demonizzare l’intelligenza artificiale, ma riconoscere che la stessa tecnologia che può produrre innovazione può anche essere usata per falsificare la realtà. E quando la realtà diventa modificabile con pochi strumenti accessibili, proteggere l’autenticità dei dati e delle informazioni smette di essere un tema tecnico e diventa una questione democratica.


Condividi

21 Aprile 2026
© I.CO.E. grippi associati
https://www.grippiassociati.com/focus.do?dettagli=deepfake&key=1776765078

focus sull'innovazione

Editoriale realizzato in collaborazione con la I.CO.E.
Centro studi su innovazione, comunicazione ed etica.

Copywriters
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P., Francesca N. e Roberto C. Indice articoli


Precedente

grippi associati Live, Think, Work, Create!

grippi e associati
con il supporto tecnologico di
supporto Oracle OpenAI

QRcode grippiassociati
LANGUAGE

grippi associati ICT
Via Giosué Carducci, 10
00187 Roma IT
PI 14592991005
GoogleMap
Data Center: Via C. Pavese RM-EUR

30th Anniversary 1996–2026
© 1996, grippi associati ICT. Tutti i diritti sono riservati.