La Danimarca è sul punto di promulgare una legge radicale che metterebbe al bando la distribuzione di deepfake non consensuali, una mossa che ha suscitato serie preoccupazioni riguardo all'estensione del controllo governativo sulla libertà di espressione online. Sebbene l'obiettivo dichiarato sia quello di proteggere le persone da impersonificazioni fraudolente attraverso media generati dall'intelligenza artificiale, l'approccio solleva dubbi sulla censura e sui limiti della libertà di parola.
Presentata nell'aprile 2025, la legge criminalizzerebbe l'uso di contenuti multimediali sintetici che imitano la voce o l'aspetto di qualcuno senza la sua esplicita autorizzazione. Secondo il quadro normativo proposto, chi scopre un uso non autorizzato della propria immagine potrebbe richiederne la rimozione, obbligando le piattaforme a rimuovere il contenuto una volta ricevuta la notifica.
Sebbene siano state fatte eccezioni per satira e parodia, queste sono definite in modo restrittivo e richiedono un'etichettatura ben visibile per essere legalmente consentite. Tali qualificazioni rischiano di mettere da parte la libertà creativa e di imporre un filtro normativo al modo in cui l'umorismo o il commento vengono espressi, soprattutto quando sono coinvolti strumenti di intelligenza artificiale.
Il ministro per il governo digitale Jakob Engel-Schmidt ha sottolineato l'aspetto coercitivo, affermando: "Se un individuo scopre che qualcuno ha realizzato un video deepfake su di lui senza autorizzazione, la legge farà sì che i giganti della tecnologia lo rimuovano". La sua osservazione sottolinea una mentalità legislativa meno incentrata sulla libertà di espressione e più sul controllo del rispetto delle norme da parte delle piattaforme.
Questa spinta legislativa arriva in un momento in cui si sta verificando un'impennata di casi di inganno legati all'intelligenza artificiale, tra cui registrazioni vocali fraudolente utilizzate in truffe e materiale pornografico sintetico che coinvolge personaggi pubblici. Il governo danese considera questo un pretesto per un intervento legale preventivo. Ma il rischio risiede nel modo in cui questo precedente potrebbe essere ampliato o utilizzato impropriamente. Una volta che un sistema stabilisce cosa è "autorizzato", il confine tra protezione e repressione può rapidamente sfumare.
Sebbene la legge sull'intelligenza artificiale dell'Unione Europea imponga già l'etichettatura dei contenuti generati automaticamente, non arriva a vietare l'uso dell'immagine di una persona. La legge danese andrebbe ben oltre, affermando che la somiglianza biometrica costituisce proprietà privata; un concetto che, se adottato su larga scala, potrebbe limitare la reinterpretazione artistica, le ricostruzioni giornalistiche e il discorso politico anonimo.
La legge proposta si basa su una precedente normativa danese del 2024 che limitava i deepfake negli annunci politici. Quella restrizione più restrittiva si è ora trasformata in un meccanismo di vasta portata per il controllo dell'identità digitale, che si applica al pubblico in generale e non solo a chi ricopre posizioni di potere. Ma con questa espansione si introduce un dispositivo che, temono i critici, potrebbe in futuro servire a scopi più repressivi.
Un altro problema irrisolto è l'applicazione pratica della legge. Identificare se un deepfake sia stato creato con o senza consenso, soprattutto quando il contenuto viene caricato al di fuori della giurisdizione danese, pone serie complicazioni logistiche e legali. Ma forse ancora più urgente è la questione fondamentale se una legge del genere imponga un compromesso inaccettabile: sacrificare la libertà di parola in nome della sicurezza digitale.
fonte