Come gli strumenti di intelligenza artificiale stanno cambiando la lotta alla criminalità e le preoccupazioni sui diritti civili.
Negli Stati Uniti si sta diffondendo uno scandalo sull'uso di Cybercheck, un software di intelligenza artificiale (apprendimento automatico) della società canadese Global Intelligence, da parte delle forze dell'ordine.
Il Cybercheck è stato utilizzato quasi 8.000 volte da centinaia di dipartimenti di polizia e pubblici ministeri in 40 paesi per risolvere crimini gravi come l’omicidio e il traffico di esseri umani.
Ma mentre la polizia “abbraccia” il software e i produttori lo difendono, gli avvocati difensori dall’altra parte del processo avanzano accuse gravi.
Immagina uno scenario in cui tutta la tua vita digitale è visibile a un algoritmo che valuta costantemente se potresti essere un criminale. Cybercheck può facilmente analizzare enormi quantità di dati Internet e invadere la tua privacy senza un mandato di perquisizione o un consenso sussurrato. Il potenziale di abuso non è una fantasia paranoica, ma un problema urgente.
L'affidabilità del software, la trasparenza e l'affidabilità del fondatore di Cybercheck Adam Mosher sono messe in discussione.
Cybercheck mira a contribuire alla raccolta di prove fornendo dati provenienti da fonti disponibili al pubblico, ciò che l'azienda chiama "intelligence open source".
Si tratta di indirizzi e-mail, account di social media e altre parti della scia di informazioni personali che le persone lasciano su Internet. L'obiettivo è individuare i sospettati e fornire altri dati alle autorità di contrasto.
Ma il problema, dicono i critici, è che nonostante il suo uso diffuso e le sue conseguenze – vale a dire l’invio di persone in prigione per crimini gravi – Cybercheck passa in gran parte sotto il radar.
Ciò non sorprende considerando che lo stesso software di raccolta di “intelligence open source” è chiuso e proprietario. Ciò significa che nessuno tranne coloro che stanno dietro ad esso sa esattamente quali metodi utilizza e quanto sia accurato.
Inoltre, lo stesso Mosher è accusato di aver mentito sotto giuramento sulla propria esperienza e sul modo in cui è stato utilizzato lo strumento.
Questo punto è stato formalmente sollevato dagli avvocati della difesa in una mozione depositata in Ohio in cui si richiedeva che gli algoritmi e il codice di Cybercheck fossero divulgati per un'ispezione.
Naturalmente Mosher sosteneva che ciò non era possibile perché questa tecnologia era protetta dal diritto d'autore. La richiesta fa parte di un caso di omicidio gestito dal dipartimento di polizia di Akron.
Nel caso Akron, due uomini che negarono di aver commesso il crimine furono accusati sulla base di quelle che Mosher chiama prove "puramente circostanziali" ( bossoli rinvenuti sulla scena del crimine provenienti da una pistola trovata nella casa di uno di loro, e un auto intestata all'altro sospettato e vista dalle riprese di una telecamera di sorveglianza vicino alla scena del crimine).
Ma c'erano anche prove provenienti da Cybercheck che collegavano la posizione fisica dei sospettati al luogo della rapina e della sparatoria attraverso algoritmi che scansionavano i loro profili social e cercavano maggiori informazioni su Internet.
Alla fine, l'indirizzo di rete di un dispositivo connesso a Internet, ottenuto tramite il Wi-Fi di una telecamera di sorveglianza, è stato utilizzato come prova sufficiente per avviare l'azione penale.
E nonostante fosse coinvolta una telecamera, non esiste alcun filmato dell'incidente mortale. Inoltre non ci sono informazioni su come esattamente Cybercheck, per citare un rapporto della NBC, "abbia trovato l'indirizzo di rete della telecamera o come abbia verificato che il dispositivo si trovava sulla scena del crimine".
Altri dettagli che gli esperti forensi assunti dalla difesa non sono riusciti a capire includono come Cybercheck abbia verificato un indirizzo email presumibilmente utilizzato da entrambi i sospettati e tali esperti non siano riusciti a "individuare" un account social utilizzato in un rapporto preparato da Cybercheck menzionato.
Sembra che la polizia e i pubblici ministeri non solo prendano queste prove – o “prove” – per oro colato, ma prendano anche Mosher in parola quando afferma che l’accuratezza di Cybercheck è del “98,2%”.
Tuttavia, non ci sono informazioni su come sia arrivato a questo numero. Tuttavia, il fondatore di Cybercheck ha dichiarato, in questa e in una precedente domanda dell'estate 2023, che il software non è mai stato sottoposto a revisione paritaria.
Tuttavia, in un terzo caso lo scorso autunno, sempre ad Akron, Mosher ha affermato che l'Università del Saskatchewan aveva effettivamente sottoposto a revisione paritaria il documento. Ma il documento del 2019 “sembra essere un documento di istruzioni per il software e non dice nulla su chi ha eseguito la revisione o quale sia stato il risultato”, ha riferito la NBC.
Un portavoce dell'università ha negato che il documento sia mai stato sottoposto a revisione paritaria.
Il giudice dovrà ora decidere se costringere Mosher a rivelare il codice del controverso programma.
Le libertà civili non solo sono minacciate, sono anche a rischio. La capacità di Cybercheck di analizzare i dati potrebbe essere utilizzata come arma per sopprimere la libertà di espressione e monitorare i dissidenti politici. Non è molto lontano dall'utilizzare la tecnologia per rintracciare i criminali o per monitorare le persone che non seguono le regole. Nella camera di risonanza digitale, questo strumento potrebbe mettere a tacere le voci dissenzienti con il pretesto della sicurezza pubblica.
Il funzionamento di Cybercheck rimane un segreto. Come vengono determinati gli obiettivi dell’algoritmo? Chi si assicura che non superi il limite? Questa mancanza di trasparenza alimenta i legittimi timori di un panopticon digitale in cui gli algoritmi hanno l’ultima parola sulla storia dei propri dati. Quest’ombra che incombe sul modo in cui vengono prese le decisioni e interpretati i dati dimostra che c’è un urgente bisogno di una regolamentazione aperta e di un controllo pubblico.
Attualmente, il mercato della sorveglianza di massa, come quello utilizzato dalle forze dell’ordine statunitensi, è in subbuglio. L'eccitazione è in realtà solo il consolidamento di un mercato redditizio.
E questo consolidamento sembra avvenire come spesso accade in un settore in forte espansione: attraverso fusioni e acquisizioni con l’obiettivo di concentrare il potere (economico) nel minor numero di mani possibile.
Questa volta si tratta di SoundThinking, che sta acquisendo alcune divisioni di Geolitica, che ha sviluppato PredPol (come si chiamava prima l'azienda), una tecnologia per la polizia predittiva.
Sembra una classica acquisizione tecnologica: un'azienda di successo viene smembrata per acquistare le parti più preziose: ingegneri e brevetti.
"Siamo in un periodo di consolidamento in cui le grandi aziende tecnologiche della polizia stanno diventando più grandi, e questa mossa è parte di quel processo", ha detto il professore di diritto dell'Università americana Andrew Ferguson in un'intervista a Wired.
Niente contro le credenziali di Ferguson – ha scritto un libro intitolato “The Rise of Big Data Policing” – ma la sua conclusione su quest’ultima acquisizione non è certo un’analisi a livello di scienza missilistica. In altre parole, è abbastanza ovvio cosa sta succedendo qui.
Ma senza entrare nell'ovvio - l'importanza per la privacy delle persone e in ultima analisi, anche se in modo un po' ironico, per la sicurezza - vorremmo prima conoscere gli attori.
Anche se queste aziende operano in gran parte in segreto, spesso consapevolmente, il principale attore, SoundThinking, non sembra aver bisogno di molte presentazioni. Non quando i resoconti lo chiamano già “il Google della lotta al crimine” (“lotta al crimine” è una frase generosa).
No, il presupposto è che l’azienda stia accumulando prodotti e servizi nel suo settore, come ha fatto Google nel suo settore. E questo non va bene.
Non per niente qui si è fatto molto “rebranding”, perché questo tipo di aziende, anche se appaiono solo marginalmente nei media mainstream, sono riuscite a costruirsi una cattiva reputazione.
E così quello che SoundThinking una volta chiamava apertamente “polizia predittiva” – e il prodotto principale che vendono per aiutare le forze dell’ordine a “raggiungere” quell’obiettivo – è ora chiamato “gestione delle risorse per i dipartimenti di polizia”.
Questo lettore – anche con il suo nome allegro, positivo e salutare “SoundThinking” – sembra essere un cliente esperto. E acquirenti.
Questa volta l'obiettivo dell'acquisizione si chiama Geolitica. Non si trova nulla sul sito web dell'azienda: a quanto pare si tratta di un fornitore di "Servizi attendibili per comunità sicure per comunità più sicure".
Ma se approfondisci un po' il gergo dell'azienda, scoprirai in modo indiretto di cosa si tratta: analisi dei modelli di pattugliamento quotidiano, gestione delle operazioni di pattugliamento in tempo reale, creazione di mappe di calore di pattuglia, identificazione dei punti caldi delle risorse.
Ci sono due o forse tre domande chiave qui: funziona? Perché è necessario esternalizzarlo? E come arriva alla conclusione che vale la pena adottare (parzialmente) il “Google della sorveglianza poliziesca di massa”?
Il CEO di SoundThinking, Ralph Clark, ha dichiarato ad agosto che i clienti di Geolitica per la gestione delle pattuglie diventeranno ora clienti di SoundThinking.
"Abbiamo già assunto il loro team di ingegneri (...) ciò faciliterebbe la nostra applicazione dell'intelligenza artificiale e dell'apprendimento automatico alla sicurezza pubblica", disse all'epoca Clark in una teleconferenza con gli investitori dell'azienda.
Eppure si tratta di qualcosa di più di una semplice “autopsia” di un’azienda. Alcuni osservatori sono convinti che ciò che sta accadendo qui sia solo un esempio, un mattone nel muro, per così dire, di un cambiamento profondo e globale - per non dire controverso - nel modo in cui il governo degli Stati Uniti gestisce le attività di polizia da svolgere nelle loro comunità. .
Ma nonostante tutto l’ottimismo sul valore di un’azienda come Geolitica (precedentemente chiamata PredPol – e non è necessario essere un fan di Orwell per comprendere il neologismo, lo scopo e l’attività dell’azienda), ci sono anche preoccupazioni.
E risalgono al 2011, quando PredPol entrò in scena per la prima volta, utilizzando dati storici sulla criminalità per fare previsioni attuali.
“Per anni critici e studiosi hanno sostenuto che l’algoritmo PredPol, basato su dati storici e inaffidabili sulla criminalità, riproduce e rafforza modelli di polizia distorti”, afferma un rapporto di Wired.
Eppure sembra che nei prossimi anni, forse non esattamente la stessa tecnologia, ma senza dubbio - perché perché no, viene essenzialmente ricompensata per il "fallimento dall'alto" - questo tipo di strumenti e servizi si diffonderanno tra le ondate di polizia negli Stati Uniti, dove l’attuale governo è sospettosamente (nessun gioco di parole) propenso a esternalizzarlo a soggetti privati.
Quando tutto sarà detto, fatto, giocato ed esaminato, molto probabilmente ci saranno infinite controversie.
Ricordando varie tecnologie, strumenti come Geolitica sono progettati per raccogliere, analizzare e mappare grandi quantità di dati geospaziali per creare profili dettagliati che possono essere utilizzati da qualsiasi cosa, dalle agenzie di marketing alle agenzie governative. Tali strumenti promettono analisi, sicurezza e servizi mirati migliori, ma rappresentano anche una sfida importante per la privacy individuale e le libertà civili.
Per comprendere la controversia bisogna prima capire come funziona Geolitica. Immagina uno strumento in grado di tracciare i movimenti, analizzare modelli e prevedere la posizione futura delle persone sulla base di una varietà di punti dati raccolti da smartphone, dispositivi IoT, telecamere pubbliche e altro ancora. Fondendo intelligenza artificiale, big data e tecnologia geospaziale, Geolitica crea una rappresentazione digitale della vita di una persona con una precisione allarmante.
Un’altra questione controversa è la commercializzazione dei dati personali, nota come capitalismo di sorveglianza. Le aziende utilizzano incessanti strumenti di sorveglianza digitale come Geolitica per raccogliere dati comportamentali, spesso senza un consenso esplicito. Questi dati vengono utilizzati per pubblicità mirate, per influenzare il comportamento d'acquisto e persino per manipolare le opinioni, erodendo la privacy individuale per scopi commerciali. Tali pratiche non solo promuovono uno squilibrio di potere tra aziende e consumatori, ma creano anche monopoli di dati che minacciano la concorrenza sul mercato.
L’uso di strumenti di geolocalizzazione da parte dei governi solleva lo spettro della sorveglianza del “Grande Fratello”. La capacità di tracciare la posizione dei cittadini in tempo reale con il pretesto di sicurezza nazionale o salute pubblica rischia di comportare comportamenti autoritari. La storia è piena di esempi in cui gli strumenti destinati alla protezione sono stati utilizzati per opprimere i cittadini. Se non controllate, queste tecnologie potrebbero essere utilizzate per reprimere il dissenso, prendere di mira le popolazioni vulnerabili e portare avanti ingiustamente determinati obiettivi politici, minando fondamentalmente i principi democratici e le libertà civili.
Le forze dell’ordine fanno sempre più affidamento sui progressi tecnologici per prevenire la criminalità e garantire la sicurezza pubblica. Uno di questi progressi è la polizia predittiva, che utilizza algoritmi e analisi dei dati per prevedere dove è probabile che si verifichi il crimine, utilizzando strumenti come PredPol, di cui abbiamo parlato in precedenza.
La polizia predittiva non avviene nel vuoto. Spesso fa parte di una rete di sorveglianza più ampia che include videosorveglianza, lettori di targhe e tecnologie di riconoscimento facciale. Mentre PredPol analizza principalmente i modelli dei dati storici sulla criminalità, l’integrazione di ulteriori fonti di dati personali può portare a significative intrusioni nella privacy.
Ad esempio: a Chicago, l’uso da parte della polizia di un sistema predittivo chiamato “Heat List” o “Strategic Object List” per identificare le persone che potrebbero essere coinvolte in futuri crimini ha suscitato scalpore perché non era chiaro come arrivasse l’elenco delle persone che avevano risposto. Le persone presenti nell'elenco non sono state informate ma sono state ulteriormente monitorate, il che è stato visto come una diretta violazione del loro diritto alla privacy.
Concentrando l'attenzione delle forze dell'ordine su specifici punti caldi, la polizia preventiva limita inavvertitamente la libertà di movimento dei cittadini. I residenti di aree spesso identificate come hotspot possono essere soggetti a ripetute interazioni con la polizia e controlli ingiustificati, creando una recinzione virtuale che limita la libertà di movimento e contribuisce all’alienazione dalla comunità.
Ad esempio: nella città di New York, un rapporto ha mostrato che le persone che vivono in aree in cui sono frequenti i fermi di polizia predittivi si sentono costantemente sotto sorveglianza e hanno meno probabilità di impegnarsi in attività quotidiane, come camminare, per paura di un’attenzione ingiustificata da parte della polizia. Ad esempio, visitare gli amici o partecipare alle riunioni della comunità.
Consapevoli che determinati comportamenti o movimenti possono attirare l’attenzione delle forze dell’ordine, gli individui possono rinunciare a esercitare le proprie libertà di riunione, parola e associazione. Questa autocensura, nota anche come effetto raggelante, può danneggiare la coesione della comunità e l’impegno civico.
fonte