Home » News » Software » Deepfake sempre più pericolosi: i controlli? Tutt’altro che infallibili
software app deepfake

Deepfake sempre più pericolosi: i controlli? Tutt’altro che infallibili

di Patrizia Maimone Aggiornato il
Aggiornato il

Al pari delle tanto odiate fake news che diffondono bufale ogni giorno, anche il Deepfake è un fenomeno che genera disinformazione ed inganno. Se il secondo non è diffuso come le prime, non si può negare che il fenomeno sia in continua espansione. Ma di cosa si tratta e com’è possibile combatterlo sfruttando l’intelligenza artificiale su cui anch’esso si basa? Vediamo di fare un po’ di chiarezza anche perché se da un lato si prova a combattere il fenomeno, dall’altro il fenomeno stesso pare aver trovato una scappatoia.

Deepfake, come funziona il fenomeno dei video fake

Deepfake non è un termine di nuova accezione dal momento che circola ormai da qualche anno. Era il 2017 quando compariva per la prima volta per indicare i video fittizi che immortalano personaggi (noti o meno) ma che sono fasulli proprio perché ricreati ad arte. Per creare il video di un personaggio che, ad esempio, si comporta in maniera sconveniente, è sufficiente sovrapporre alcune immagini della persona in questione a filmati girati in separata sede.

Il risultato è un video (o in vari casi un’immagine) che ritrae la “vittima” in un atteggiamento mai avuto. Ed è chiaro che un evento di questo tipo possa rivelarsi davvero molto dannoso per la reputazione della persona. Un cenno merita la modalità in cui i deepfake nascono. La tecnica, sempre più perfezionata, si basa sull’intelligenza artificiale mediante cui si procede alla ricostruzione artificiosa di volti e voci che riescano a simulare le riprese video effettuate dalle telecamere.

Il lavoro dei rilevatori e le falle

A cercare di arginare il problema dei Deepfake pensano i cosiddetti rilevatori. Come si evince dal loro nome, si tratta di strumenti specificatamente pensati per rilevare i video fasulli. Lavoro che, occorre precisarlo, spesso è molto complicato dal momento che le tecniche di creazione si sono parecchie perfezionate con il tempo. In un contesto come questo, è stata identificata una falla che consente ai creatori di video fasulli di eludere i rilevatori e passare, quindi, indenni dai controlli.

In base a quanto svelato da un gruppo di studiosi americani, basterebbe inserire in tutti i fotogrammi dei video fasulli i cosiddetti “esempi contraddittori”. Di cosa si tratta? Semplicemente immagini che, con la corretta manipolazione, possono mandare “in tilt” l’intelligenza artificiale impedendole di rilevare i Deepfake. Il lavoro di chi vuole contrastare questo fenomeno è, quindi, molto impegnativo e va di pari passo con l’ingegno dei malintenzionati che, invece, producono giorno dopo giorno video così ingannevoli.

Fonte

Risparmia sulla tecnologia: scopri le offerte Amazon odierne!


Non vuoi più perderti le notizie hi-tech? Seguici su Google News cliccando la stellina!

Potrebbe anche interessarti