Tecnologia deepfake può suscitare falsi ricordi

Ci sono crescenti preoccupazioni circa il potenziale della tecnologia deepfake di diffondere disinformazione e distorcere i ricordi, sebbene molti evidenzino anche applicazioni creative come la rifusione di film utilizzando altri attori o versioni più giovani dello stesso attore.

In un nuovo studio, i video clip deepfake di remake di film che in realtà non esistono hanno spinto i partecipanti a ricordare erroneamente i film, ma semplici descrizioni testuali dei film falsi hanno provocato simili tassi di falsa memoria. Gillian Murphy dell'University College Cork, Irlanda, e Lero, il Science Foundation Ireland Research Center for Software, e colleghi hanno presentato questi risultati nella rivista ad accesso aperto Plos One.

I video deepfake sono clip che sono stati modificati utilizzando la tecnologia dell'intelligenza artificiale (AI) per sostituire la voce o il volto di una persona con quella di un'altra persona. Gli strumenti per creare deepfake sono recentemente diventati molto più economici e accessibili, amplificando le conversazioni su potenziali applicazioni creative e potenziali rischi, come diffondere disinformazione e manipolare i ricordi degli spettatori.

La tecnologia può riportare in vita i propri cari morti, permetterti di fare un selfie con il pittore surrealista Salvador Dalí, o letteralmente mettere le parole nella bocca di qualcun altro. Ovviamente, i deepfakes possono essere usati anche a fin di bene. Considerate il recente utilizzo di un'immagine generata dall'intelligenza artificiale del calciatore inglese David Beckham per lanciare una campagna per porre fine alla malaria, che è "parlata" in nove lingue. Ma dall'altra parte dello spettro, abbiamo assistito all'ascesa della pornografia di celebrità deepfake senza consenso, e c'è la preoccupazione che il deepfake possa alla fine portare a una società in cui non ci si può fidare di nulla e di nessuno.

Per esplorare potenziali rischi e benefici, i ricercatori hanno reclutato 436 partecipanti con un'età media di 25 anni. Ai partecipanti è stato chiesto di completare un sondaggio online in cui sono stati mostrati clip di remake di film reali e deepfake e gli è stato chiesto di esprimere la propria opinione. I deepfake includevano remake di film falsi con attori diversi, come Will Smith nei panni del personaggio Neo, originariamente interpretato da Keanu Reeves, in The Matrix e Brad Pitt e Angelina Jolie in Shining. Altri falsi remake nello studio erano Indiana Jones e Captain Marvel.

Per fare un confronto, i partecipanti hanno anche visto clip di remake reali, tra cui Charlie e la fabbrica di cioccolato, Total Recall, Carrie e Tomb Raider. Inoltre, in alcuni casi, i partecipanti leggono le descrizioni testuali dei remake invece di guardare i deepfake. Ai partecipanti non è stato detto che i deepfake erano falsi fino a più tardi nel sondaggio.

In linea con gli studi precedenti, i video e le descrizioni deepfake hanno suscitato falsi ricordi dei falsi remake, con una media del 49% dei partecipanti che credeva che ogni falso remake fosse reale. Molti partecipanti hanno riferito di ricordare che i remake falsi erano migliori degli originali. Tuttavia, i tassi di falsa memoria dalle descrizioni testuali erano altrettanto alti, suggerendo che la tecnologia deepfake potrebbe non essere più potente di altri strumenti per distorcere la memoria.

Secondo i ricercatori, anche se i deepfake siano fonte di profonda preoccupazione per molte ragioni, come la pornografia non consensuale e il bullismo, lo studio attuale suggerisce che non sono particolarmente potenti nel distorcere i nostri ricordi del passato. “Sebbene i deepfake abbiano indotto le persone a formare falsi ricordi a tassi piuttosto elevati, abbiamo ottenuto gli stessi effetti utilizzando un testo semplice. In sostanza, questo studio mostra che non abbiamo bisogno di progressi tecnici per distorcere la memoria, possiamo farlo molto facilmente ed efficacemente utilizzando mezzi non tecnici».

Tuttavia, i ricercatori affermano che le loro scoperte rappresentano un passo importante nello stabilire i rischi di base della distorsione della memoria come conseguenza dell'esposizione ai deepfake e potrebbero informare la futura progettazione e regolamentazione della tecnologia deepfake nell'industria cinematografica. Inoltre, sono necessarie anche ulteriori ricerche per comprendere le prospettive degli utenti sull'inclusione dei deepfake in altre aree, come l'istruzione, il marketing e i giochi.


stella

853 blog messaggi

Commenti