In un mondo moderno incantato dai capricci della tecnologia, l’intelligenza artificiale (AI) occupa un posto speciale. È come la bacchetta magica del nostro tempo, che agita trasversalmente i settori e diffonde efficienza e innovazione. Ma come ogni strumento potente, ha il suo lato oscuro. Uno degli aspetti meno brillanti è il potenziale rafforzamento della sorveglianza invasiva da parte del governo. A differenza dei tradizionali sistemi di sorveglianza del passato, lo stato di sorveglianza basato sull’intelligenza artificiale trascende il regno visibile e crea una gabbia di ferro invisibile ma impenetrabile attorno alla società.
Prendiamo ad esempio la forza di sorveglianza della Cina. Il Regno di Mezzo ha utilizzato efficacemente l’intelligenza artificiale per rafforzare la sua già vasta infrastruttura di sorveglianza. Integrando la tecnologia di riconoscimento facciale, il governo può ora identificare e tracciare le persone in grandi folle in tempo reale. Nella città di Rongcheng, tra l'altro, è stato introdotto un sistema di credito sociale in cui l'intelligenza artificiale analizza il comportamento dei cittadini e assegna punteggi che poi influenzano i loro privilegi sociali. Questo panopticon guidato dalla tecnologia non si limita a osservare; giudica e sanziona.
Allo stesso modo, anche gli Stati Uniti hanno sperimentato la sorveglianza basata sull’intelligenza artificiale, anche se sotto auspici diversi. Dopo l’11 settembre, l’intelligenza artificiale è stata utilizzata per analizzare grandi quantità di dati alla ricerca di potenziali minacce. Il programma PRISM della NSA, rivelato da Edward Snowden, ha mostrato come l’intelligenza artificiale potrebbe analizzare enormi set di dati per scoprire modelli e connessioni nascosti agli analisti umani. Ciò preannuncia una nuova era in cui le impronte digitali di tutti saranno indelebili e scrutate da un occhio algoritmico invisibile e insensibile.
La storia si ripete in diverse sfumature in tutto il mondo. In Russia, il riconoscimento facciale basato sull’intelligenza artificiale è stato utilizzato per reprimere il dissenso politico identificando e arrestando le persone che partecipavano a proteste non autorizzate. Nel Regno Unito, l’uso dell’intelligenza artificiale nelle telecamere di sorveglianza pubblica ha scatenato un dibattito nazionale sulla privacy. Il filo conduttore che attraversa queste narrazioni è l’espansione del controllo statale e l’erosione della privacy personale.
L’emergere dell’intelligenza artificiale ha effettivamente cambiato le dinamiche della sorveglianza. Non si tratta solo di telecamere più grandi e migliori o di operazioni di intercettazione più segrete. Si tratta di un occhio instancabile e sempre presente che impara, si adatta e prevede. Un occhio indifferente alle preoccupazioni etiche e che alimenta l’appetito insaziabile dello stato di sorveglianza. Non si tratta di una mera estensione del vecchio apparato di sorveglianza, ma di una trasformazione in qualcosa di più pervasivo e minaccioso.
Inoltre, la combinazione dell’intelligenza artificiale con altre tecnologie emergenti come il 5G e l’Internet delle cose (IoT) aumenta esponenzialmente le capacità di sorveglianza. Una rete di dispositivi connessi, ciascuno dei quali è un potenziale informatore, tesse una rete di sorveglianza complessa e di vasta portata. I dati raccolti costituiscono il foraggio per gli algoritmi di intelligenza artificiale, che a loro volta perfezionano l’accuratezza e la portata della sorveglianza.
La realtà che fa riflettere è che la parvenza di controllo e privacy che avevamo una volta sta rapidamente scomparendo e viene sostituita da una parvenza tecnocratica.
Viene sostituita la realtà, in cui la libertà viene scambiata con una parvenza di sicurezza ed efficienza. Mentre ci muoviamo verso una realtà sempre più digitalizzata, la gabbia di ferro della sorveglianza si stringe e il fascino capriccioso dell’intelligenza artificiale diventa foriero di una realtà orwelliana.
Portando la narrazione dell’analisi dei dati governativi a un livello superiore, ti imbatterai in un’area in cui l’enorme volume di dati supera la cattura umana. È un’area in cui i modelli nascosti nelle ombre dei dati sono sfuggenti all’occhio umano ma appaiono sorprendenti allo sguardo algoritmico. L’intelligenza artificiale, con la sua forza nell’analisi dei dati, promette ai governi la capacità di vagliare il pagliaio delle informazioni per trovare aghi di intuizione.
Consideriamo gli sforzi degli Stati Uniti per utilizzare l’intelligenza artificiale per rafforzare la sicurezza nazionale. Utilizzando l’apprendimento automatico, le autorità possono ora analizzare enormi quantità di dati e identificare modelli e correlazioni che potrebbero indicare potenziali minacce. In un mondo in cui la traccia digitale è potente quanto quella fisica, l’intelligenza artificiale agisce come un detective, decodificando le narrazioni codificate nei dati.
Allo stesso modo, il salto della Cina verso un governo più intelligente esemplifica il fascino dell’intelligenza artificiale. Unendo l’intelligenza artificiale con i big data, il governo mira a creare una burocrazia più efficiente in grado di governare in modo predittivo. Non si tratta solo di snellire i processi amministrativi, ma di immaginare un modello di governo che affronti preventivamente i problemi prima che diventino sfide.
Ma in mezzo a questa narrazione di maggiore efficienza e lungimiranza si nasconde una sinistra sottotrama: lo smantellamento delle libertà civili. Il potere di prevedere è intrinsecamente il potere di controllo. Quando i governi possono prevedere il comportamento dei cittadini, il confine sottile tra governare e controllare diventa labile. Inoltre, collegare set di dati disparati fornisce un potente strumento per creare ampi profili di individui, un’impresa irta di violazioni della privacy.
Inoltre, le decisioni algoritmiche, ammantate di un manto di neutralità, spesso nascondono pregiudizi intrinseci. Quando l’intelligenza artificiale viene alimentata con dati distorti dal governo, emette decisioni che rafforzano tali pregiudizi. Il presupposto di obiettività legato alle decisioni algoritmiche aggrava la minaccia alle libertà civili poiché sfidare tali decisioni diventa un compito colossale.
Inoltre, la fusione tra intelligenza artificiale e big data rafforza un sottile passaggio dal controllo democratico alla governance tecnocratica. Quando gli algoritmi assumono il ruolo di decisori, l’elemento umano della governance passa in secondo piano. Questa transizione, seppure sottile, ha profonde implicazioni per il tessuto democratico poiché riduce i cittadini a semplici punti dati nel modello algoritmico di governo.
Il Dipartimento per la Sicurezza Nazionale degli Stati Uniti (DHS) ha delineato i suoi piani politici per "padroneggiare" l'intelligenza artificiale - in particolare in relazione all'uso dell'intelligenza artificiale (molto probabilmente solo apprendimento automatico - almeno per ora) come strumento per monitorare e tracciare gli Stati Uniti - cittadini.
Copia del documento qui.- PDF
All’inizio di quest’anno, l’agenzia federale ha creato quello che ha chiamato un gruppo di lavoro sull’intelligenza artificiale, e ora viene creato un gruppo di lavoro sulle politiche per formalizzare il modo in cui viene utilizzata l’intelligenza artificiale.
Il documento – Acquisition and Deployment of Artificial Intelligence and Machine Learning Technologies by DHS Components – firmato ad agosto dal capo dell’agenzia Alejandro Mayorkas, afferma che l’intelligenza artificiale “cambierà drasticamente” il panorama delle minacce – ma poi anche “l’arsenale di quelli disponibili amplierà in modo significativo gli strumenti per combattere le minacce nuove ed esistenti”.
E il capo del DHS vuole che questa “espansione” avvenga “rapidamente e agilmente”. Ciò ha portato alcuni osservatori sul lato opposto dell’attuale amministrazione americana a chiedersi quali siano i tempi e i motivi dell’”urgenza” mostrata dal DHS, ma anche da alcune altre agenzie chiave come il Dipartimento della Difesa.
Il potenziale dell’intelligenza artificiale e la febbrile necessità di utilizzarla il più rapidamente possibile sono effettivamente legati alle imminenti elezioni presidenziali del prossimo anno e c’è qualche speranza che possa essere utilizzata efficacemente per promuovere una particolare agenda politica? Solo il tempo e un’analisi seria lo diranno.
Tuttavia, è già abbastanza ovvio che il tempo è essenziale, poiché il documento DHS appena pubblicato indica che l’agenzia garantirà che la tecnologia venga implementata ovunque – commercialmente o sviluppata internamente – il più rapidamente possibile. E per rendere ciò possibile, la nota vuole logicamente che il processo di acquisizione vada di pari passo con la missione.
“Dobbiamo trasformare le capacità di procurement di un’agenzia governativa per agire effettivamente con velocità e agilità”, ha scritto Mayorkas in uno stile un po’ criptico e certamente eccessivo che è stranamente adatto a qualsiasi governo che pretenda “affidabilità”, per non parlare di “trasparenza”.
Che ne dici di una dichiarazione chiara?
Nel frattempo, secondo la nota, il DHS prevede di mettere insieme una “forza lavoro di livello mondiale” per lavorare su applicazioni di intelligenza artificiale in linea con le priorità del DHS.
C’è l’inevitabile menzione di contrastare le abilità degli “avversari” e di essere “affidabili e responsabili”. State tranquilli, Mayorkas promette che la privacy e le libertà civili saranno protette – “evitando pregiudizi indebiti”.
Ma cosa significa qualificare in questo modo la tutela della privacy e dei diritti civili?
E cosa significa: "Il DHS non raccoglierà, utilizzerà o diffonderà i dati utilizzati nelle attività di intelligenza artificiale né creerà sistemi basati sull'intelligenza artificiale che prendano decisioni basate su un'indebita considerazione di razza, etnia, genere, origine nazionale, religione, genere, orientamento sessuale" , identità di genere, età, nazionalità, condizione medica o disabilità.
Questa è un'altra citazione diretta dal documento e, semmai, possiamo vedere la parola "inappropriato" nel linguaggio ora utilizzato per "spiegare" e giustificare le politiche relative a misure di sorveglianza di massa più efficienti - e questo è preoccupante perché è un termine molto vago che può essere interpretato per servire praticamente a qualsiasi scopo.
Sembra che ci siano più domande che risposte qui. Per quanto riguarda il motivo per cui il DHS ha bisogno di utilizzare tali strumenti e che tipo di minacce ha in mente, Mayorkas ha citato cose come il miglioramento della salute e della sicurezza operativa, il servizio clienti di viaggi e immigrazione e simili.
Ma i critici dicono che questa è solo un’altra cortina di fumo politica progettata per oscurare l’obiettivo finale: monitorare, monitorare e quindi monitorare gli americani e, dati i poteri del DHS, prepararsi a utilizzare una qualche forma di intelligenza artificiale per farlo su vasta scala.
Poi c'è un'altra domanda: perché il DHS è addirittura legalmente autorizzato (se non del tutto legittimo, come sostengono i critici) a fare questo e pianificare di far avanzare ulteriormente l'agenda utilizzando le nuove tecnologie?
Secondo alcuni bisognerebbe risalire al 2001 e alla febbre del calpestio della privacy negli Stati Uniti post-11 settembre, incarnata nel Patriot Act, criticato per oltre 20 anni in quanto potere ereditario che fino a quel momento negli Stati Uniti Costituzione, in particolare nel primo, quarto e quinto emendamento.
L’argomentazione ha senso in quanto sono stati questi cambiamenti che dovevano essere effettivamente “sovrapposti” per innescare una sorveglianza interna, talvolta dilagante. E durante questo periodo, il DHS è diventato uno dei pilastri nell’attuazione di questa politica.
Con questo in mente, la nota di Mayorkas, resa pubblica proprio di recente, non è altro che un aggiornamento politico per garantire che ciò che accade da decenni continui a “prosperare” e a sfruttare al meglio ogni nuovo strumento o potere tecnologico che diventa disponibile.
fonte