Grande Fratello a bordo: le stazioni ferroviarie britanniche utilizzano l’intelligenza artificiale di Amazon per leggere gli stati d’animo delle persone.
Nel Regno Unito, una serie di sperimentazioni sull’intelligenza artificiale che hanno coinvolto migliaia di passeggeri dei treni che sono stati inconsapevolmente esposti a software di riconoscimento delle emozioni sta sollevando notevoli preoccupazioni sulla privacy. La tecnologia sviluppata da Amazon, utilizzata in varie importanti stazioni ferroviarie come Euston e Waterloo a Londra e Manchester Piccadilly, utilizzava l’intelligenza artificiale per scansionare i volti e valutare gli stati emotivi, nonché l’età e il sesso. I documenti ottenuti dal gruppo per i diritti civili Big Brother Watch attraverso una richiesta di libertà di informazione hanno rivelato queste pratiche, che potrebbero presto influenzare le strategie pubblicitarie.

Negli ultimi due anni, queste sperimentazioni, guidate da Network Rail, hanno utilizzato la tecnologia CCTV “intelligente” e vecchie telecamere collegate a sistemi basati su cloud per monitorare una serie di attività. Questi includevano il rilevamento di intrusi sui binari, il controllo della folla sui binari e il rilevamento di comportamenti antisociali come urlare o fumare. I test hanno monitorato anche possibili furti di biciclette e altri incidenti legati alla sicurezza.

I dati derivati ​​da questi sistemi potrebbero essere utilizzati per aumentare le entrate pubblicitarie misurando la soddisfazione dei passeggeri in base al loro stato emotivo, catturato quando le persone guidano su fili virtuali vicino ai cancelli dei biglietti. Nonostante l’uso estensivo di queste tecnologie, l’efficacia e le implicazioni etiche del riconoscimento delle emozioni sono oggetto di accesi dibattiti. I critici, compresi i ricercatori sull’intelligenza artificiale, ritengono che la tecnologia sia inaffidabile e hanno chiesto che venga vietata. Sono supportati dagli avvertimenti dell’autorità britannica di regolamentazione dei dati, l’Information Commissioner’s Office, sull’immaturità delle tecnologie di analisi delle emozioni.

Secondo Wired, il CEO di Purple Transform Gregory Butler ha affermato che la capacità di rilevare le emozioni è stata interrotta durante le prove e ha confermato che nessuna immagine è stata salvata mentre il sistema era attivo. Nel frattempo, Network Rail ha affermato che le sue misure di monitoraggio soddisfano gli standard legali e sono cruciali per mantenere la sicurezza lungo la rete ferroviaria. Tuttavia, i documenti suggeriscono che l’accuratezza e l’applicazione dell’analisi delle emozioni nelle situazioni del mondo reale non sono state ancora confermate, come notato in diversi rapporti delle stazioni.

I sostenitori della protezione dei dati sono particolarmente preoccupati per l’opacità e l’eccessivo potenziale dell’uso dell’intelligenza artificiale negli spazi pubblici. Jake Hurfurt del Grande Fratello Watch ha espresso notevoli preoccupazioni riguardo alla normalizzazione di tale sorveglianza invasiva senza un adeguato discorso o supervisione pubblica.

Jake Hurfurt, capo della ricerca e delle indagini presso Big Brother Watch, ha dichiarato: "Network Rail non aveva il diritto di utilizzare una tecnologia di riconoscimento delle emozioni screditata contro ignari pendolari in alcune delle più grandi stazioni ferroviarie del Regno Unito e ho un reclamo a riguardo con il tentativo del commissario per l'informazione presentato.

È allarmante che un ente pubblico abbia deciso di effettuare una sperimentazione su larga scala della sorveglianza dell’intelligenza artificiale sviluppata da Amazon in diverse stazioni ferroviarie senza informare il pubblico, soprattutto quando Network Rail mescola tecnologie di sicurezza con strumenti pseudo-scientifici e suggerisce che i dati potrebbero essere trasmessi agli inserzionisti."

“La tecnologia può svolgere un ruolo nel rendere le ferrovie più sicure, ma è necessario un forte dibattito pubblico sulla necessità e la proporzionalità degli strumenti utilizzati.

“La sorveglianza basata sull’intelligenza artificiale potrebbe mettere a rischio tutta la nostra privacy, in particolare in caso di abuso, e il disprezzo di Network Rail per queste preoccupazioni mostra un disprezzo per i nostri diritti”.
#privacy #emozioni #ferroviaria #amazon #grandefratello
https://reclaimthenet.org/uk-t....rain-stations-use-am

image