Con l’intelligenza artificiale che rende sempre più facile per chiunque creare contenuti che alterano la verità, è opinione diffusa che stiamo entrando in un’era di “post-verità”. Ciò significa che sta diventando sempre più difficile dire se ciò che vediamo online è reale o è stato generato dall’intelligenza artificiale da qualcuno che vuole ingannarci.
Senza dubbio, i video falsi – a volte noti come deepfake o video sintetici – hanno il potenziale per essere la forma più ingannevole di contenuto falso. Mentre le prove video rappresentavano il gold standard della verità, anche in questioni legali, quei giorni sono ormai lontani.
Oggi è facile produrre video falsi iperrealistici che fanno sembrare che qualcuno abbia detto o fatto qualcosa utilizzando strumenti facilmente disponibili e hardware conveniente.
Ma ciò non significa che dobbiamo essere indifesi. Qui descriverò i passi che possiamo intraprendere per aiutarci a distinguere i fatti dalla finzione se vogliamo proteggere gli individui, le aziende e la società dalla crescente minaccia dei video falsi.
I pericoli dei video deepfake
I video deepfake rappresentano una minaccia emergente nell’era dell’intelligenza artificiale, il che significa che comportano rischi che individui, aziende e società non hanno mai dovuto affrontare prima. La capacità di creare contenuti video sintetici che possano indurre le persone a credere che siano reali ha il potenziale per influenzare l’opinione pubblica e persino destabilizzare i processi e le istituzioni democratiche.
Ad esempio, nel periodo precedente alle elezioni presidenziali americane di quest’anno, l’ex capo dello staff del Dipartimento per la Sicurezza Interna Miles Taylor ha osservato che gli stati ostili che intendono diffondere disordini non hanno più bisogno di influenzare il voto stesso. Tutto quello che devono fare è seminare il dubbio che il processo sia stato portato avanti in modo equo.
Questo non è solo ipotetico. È stato recentemente rivelato che la tecnologia deepfake ha consentito a un attore ostile di impersonare un alto funzionario della sicurezza ucraino durante una videochiamata con un senatore degli Stati Uniti. Sebbene il tentativo di raggiro sia stato scoperto prima che si verificasse il danno, la natura pericolosa di questo quasi incidente è chiara.
L’Ucraina è stata l’obiettivo di un altro attacco deepfake prima di questo nel 2022, quando le riprese video sintetiche del leader Volodymyr Zelensky sembravano mostrarlo che si arrendeva e esortava gli ucraini a deporre le armi poco dopo l’inizio della guerra.
Questi esempi mostrano la portata veramente globale dei disagi che i video deepfake potrebbero potenzialmente causare. Quindi, come possiamo proteggerci dal cadere vittime?
Metodi per rilevare video deepfake.
Possiamo suddividere i possibili metodi per identificare e mitigare la minaccia dei deepfake in quattro categorie generali. Questi sono:
Rilevare segnali visivi: ciò significa individuare indicatori visibili a occhio nudo. Potrebbero trattarsi di irregolarità rivelatrici e movimenti innaturali – in particolare che coinvolgono le espressioni facciali – che sembrano semplicemente “fuori”. Un’illuminazione incoerente e uno sbiadimento o una sfocatura dei confini tra gli elementi falsi del video (come i movimenti della bocca quando è stata utilizzata la sincronizzazione labiale) sono tutti potenziali indicatori.
Strumenti tecnologici: coprono un numero crescente di applicazioni software progettate specificamente per rilevare video deepfake, come FakeCatcher di Intel e McAfee Deepfake Detector. Funzionano applicando algoritmi di apprendimento automatico in grado di rilevare modelli o indicatori visivi che sfuggirebbero a occhio nudo ma che apparirebbero chiaramente in un’analisi digitale dei dati di origine.
Pensiero critico – Ciò implica controllare le fonti e porre domande. La fonte del video è affidabile? È probabile che il contenuto del video sia vero? Puoi incrociarlo con altre fonti che forniscono la copertura dello stesso evento per stabilire la verità? E ci sono incoerenze logiche che sembrano in contrasto con ciò che è realisticamente possibile?
Investigazioni forensi professionali: sebbene fuori dalla portata dei dilettanti, le organizzazioni più grandi e le forze dell’ordine possono accedere a strumenti specializzati, spesso alimentati dalle stesse reti neurali utilizzate per creare deepfake. L’analisi forense coinvolge investigatori addestrati che esaminano i video fotogramma per fotogramma per individuare irregolarità su scala pixel o utilizzano la ricerca inversa delle immagini per rintracciare la fonte originale di qualsiasi filmato utilizzato per creare falsi. Gli investigatori professionisti possono anche utilizzare l’analisi biometrica per rilevare discrepanze tra le caratteristiche facciali che indicano manipolazione.
Implicazioni future
Allora, cosa ci riserva in un mondo in cui vedere non significa più credere?
Poiché i deepfake sono ormai un fatto inevitabile della vita quotidiana, diventa responsabilità dei singoli individui, delle imprese e del governo assicurarsi di disporre di misure protettive.
Per me è chiaro che una delle implicazioni è che le misure precauzionali, la formazione e lo sviluppo di capacità di pensiero critico tra la forza lavoro dovrebbero ora far parte di qualsiasi strategia organizzativa di sicurezza informatica.
Ai dipendenti dovrebbe essere insegnato a stare in guardia e a identificare i segni rivelatori di video sintetici, proprio come rilevare ed eludere gli attacchi di phishing è ormai una pratica standard.
Possiamo anche aspettarci di vedere una crescente dipendenza dai sistemi di autenticazione e verifica. Ad esempio, potrebbe diventare comune l’integrazione del rilevamento dei deepfake negli strumenti di videoconferenza per rilevare tentativi di routine di sottrarre dati da conversazioni apparentemente riservate.
In definitiva, la nostra risposta deve coinvolgere lo sviluppo tecnologico, la vigilanza e l’educazione se vogliamo ridurre al minimo la misura in cui i video deepfake diventano un’influenza destabilizzante sulle nostre vite.