La scoperta e lo sfruttamento da parte di Google del capitalismo della sorveglianza impallidiscono rispetto alla diffusione dell'intelligenza artificiale nell'assistenza sanitaria. È un selvaggio west di perenne illegalità senza responsabilità o trasparenza. Qualunque profitto possa essere realizzato nei prossimi due o tre anni determinerà chi detiene la maggior parte della quota di mercato e quindi guadagni perpetui. ⁃ Editore TN
Come riporta STAT, le principali aziende tecnologiche stanno combattendo contro le proposte di regolamenti federali che richiederebbero una maggiore supervisione degli strumenti di intelligenza artificiale (AI) utilizzati nella cura dei pazienti.
Le società, tra cui Google, Amazon ed Epic, trarranno vantaggio dall'espansione dell'intelligenza artificiale nel settore sanitario vendendo una varietà di strumenti ad assicuratori e fornitori, che vanno dall'automazione dei processi di documentazione clinica alla valutazione delle richieste di risarcimento assicurativo e dell'assistenza virtuale.
L'industria tecnologica, insieme ai principali fornitori di assistenza sanitaria, ai grandi assicuratori privati e ai fornitori di software medico, si è opposta alla proposta dell'Office of the National Coordinator for Health Information Technology (ONC) di limitare ed espandere la trasparenza nelle tecnologie AI e ML che supportano il processo decisionale sanitario - ciò che l'ONC chiama "Predictive Decision Support Interventions" (DSI).
L'ONC, che ha sede presso il Dipartimento della salute e dei servizi umani degli Stati Uniti e sovrintende alle cartelle cliniche elettroniche, ad aprile ha proposto regole sulle cartelle cliniche, la tecnologia e l'interoperabilità.
Le regole sono aperte al commento pubblico fino al 20 luglio.
Le regole proposte, che aggiornano il 21st Century Cures Act, hanno lo scopo di supportare il mandato dell'amministrazione Biden di aumentare la fiducia del pubblico nell'intelligenza artificiale consentendo ai medici maggiori informazioni sugli algoritmi di intelligenza artificiale nei loro sistemi di cartelle cliniche elettroniche in modo che possano valutare meglio l'applicabilità della tecnologia a una specifica popolazione o circostanza di pazienti, ha detto ai giornalisti l'ONC.
Uno studio pubblicato lo scorso anno sul Journal of Medical Internet Research ha rilevato che, nonostante la pletora di affermazioni sui benefici dell'IA nel migliorare i risultati clinici, ci sono poche prove solide".
Tuttavia, quella mancanza di prove non ha impedito ai giganti della tecnologia di sviluppare strumenti di intelligenza artificiale, né le aziende sanitarie private hanno smesso di usarli sempre più per "prendere decisioni che cambiano la vita con poca supervisione indipendente", ha scoperto STAT dopo aver esaminato documenti aziendali classificati e centinaia di pagine di documenti federali e giudiziari.
I fautori stanno propagandando l'espansione dell'intelligenza artificiale nell'assistenza sanitaria come un modo semplice per ridurre i costi e migliorare l'assistenza, tra le altre cose, riducendo il tempo che i pazienti trascorrono con i medici, specialmente nelle cure primarie.
Ma i critici come l'avvocato e attivista sanitario Ady Barkan affermano che ci sono prove crescenti che le decisioni sanitarie dell'IA stanno danneggiando i pazienti. "I robot non dovrebbero prendere decisioni di vita o di morte", ha detto.
Nella sua proposta per le nuove regole, l'ONC ha anche citato la preoccupazione che ci siano prove crescenti che i modelli predittivi introducano e aumentino il potenziale per molti rischi diversi che hanno impatti negativi sui pazienti e sulle comunità.
In risposta, l'ONC propone un nuovo criterio per gli "interventi di supporto decisionale" che creerebbe nuove aspettative di trasparenza e gestione del rischio per le tecnologie AI e ML per supportare il processo decisionale sanitario.
I nuovi regolamenti si applicherebbero anche ai modelli di tecnologia dell'informazione sanitaria che si interfacciano con l'IA.
Le principali modifiche proposte dall'ONC richiedono che tutti questi sistemi forniscano agli utenti informazioni su come funzionano gli algoritmi - in un linguaggio semplice, simile a una "etichetta nutrizionale".
Le regole richiedono inoltre che siano sviluppate nuove procedure di gestione del rischio per tutti i sistemi. E le informazioni sulla gestione del rischio dovrebbero essere disponibili al pubblico.
Gli sviluppatori sarebbero inoltre tenuti a fornire un meccanismo di feedback pubblico.
"Se la proposta per i regolamenti DSI verrà approvata", secondo la National Law Review, "avrà un impatto significativo sullo sviluppo, l'implementazione e l'uso degli strumenti AI/ML nell'assistenza sanitaria".
I giganti della tecnologia affermano che le regole sulla trasparenza li costringeranno a rivelare "segreti commerciali".
Più di 200 commenti pubblici inviati all'ONC sulla proposta - per lo più da società tecnologiche e sanitarie che saranno soggette ai regolamenti - "evidenziano la battaglia futura mentre le aziende competono per implementare strumenti di intelligenza artificiale sempre più potenti in settori critici per la sicurezza come l'assistenza sanitaria, dove i potenziali margini di profitto sono molto maggiori del margine di errore", secondo STAT.
Molti degli stessi scienziati di Google, così come i migliori miliardari tecnologici e sviluppatori di intelligenza artificiale, hanno espresso pubblicamente la preoccupazione che l'IA rappresenti una minaccia esistenziale per l'umanità e rischi imminenti per la salute e il benessere umano.
Tuttavia, nelle loro lettere all'ONC, società tecnologiche, assicuratori e associazioni di fornitori hanno espresso "preoccupazioni" per le regole proposte. Hanno affermato che le regole proposte erano "eccessivamente ampie" e che la trasparenza richiesta li costringerebbe a divulgare "proprietà intellettuale" e "segreti commerciali".
Nella sua dichiarazione, Google si è opposta a "requisiti di divulgazione troppo ampi o non necessari" che aumenterebbero i costi per gli sviluppatori e quindi per i consumatori.
Google ha anche affermato che l'inclusione dell'intelligenza artificiale generativa o di modelli di linguaggio di grandi dimensioni come BARD, insieme a quelli che definisce strumenti di intelligenza artificiale "a basso rischio", rappresenterebbe un onere eccessivo per le aziende.
Ma anche l'Organizzazione mondiale della sanità (OMS) ha affermato che una regolamentazione inadeguata dei modelli di linguaggio di grandi dimensioni generati dall'intelligenza artificiale mette in pericolo il benessere umano, citando in particolare programmi come BARD e ChatGPT.
Amazon ha anche scritto che l'applicazione delle sue regole da parte dell'ONC a un'ampia classe di tecnologie basate su AI/ML predittivo va ben oltre ciò che è appropriato per regolamentare il settore e mitigare il rischio.
Epic Systems, il più grande fornitore di cartelle cliniche elettroniche della nazione, ha anche sostenuto nella sua dichiarazione che i regolamenti proposti dall'ONC sono troppo ampi e ha affermato che l'ONC non dovrebbe rendere la divulgazione del funzionamento dell'IA un requisito per la certificazione dei sistemi IT sanitari.
"Se gli sviluppatori certificati di sistemi IT sanitari sono tenuti a divulgare la loro proprietà intellettuale, mentre gli sviluppatori non certificati di modelli predittivi non sono tenuti a fare la stessa divulgazione, si verificherebbe uno squilibrio significativo nella trasparenza del mercato e, in definitiva, nell'incentivo a innovare", ha scritto la società.
La mancanza di supervisione consente alle aziende di manipolare gli algoritmi per aumentare i profitti
I critici del crescente ruolo incontrollato e non regolamentato dell'IA/ML nell'assistenza sanitaria, compresi i ricercatori che sviluppano l'IA e gli operatori sanitari, hanno sostenuto che le regole proposte non vanno abbastanza lontano per informare e proteggere il pubblico.
Una lettera presentata all'ONC da un gruppo interdisciplinare di 34 scienziati dell'Università del Michigan - con co-firmatari di oltre 30 altri istituti di ricerca sanitaria negli Stati Uniti e in Europa - sollecita l'ONC ad adottare regolamenti più severi.
Hanno sostenuto che il pubblico dovrebbe anche essere informato su quali dati entrano in questi modelli, inclusa la richiesta di trasparenza su quali variabili utilizzano i modelli per fare le loro previsioni e da dove provengono i dati utilizzati per addestrare e confrontare i sistemi AI/ML.
La mancata educazione del pubblico su queste informazioni ha recentemente portato a "battute d'arresto e danni derivanti dall'uso di modelli predittivi nel settore sanitario", scrivono.
Ma nuove scoperte mostrano anche come la mancanza di trasparenza e regolamentazione consenta alle aziende di manipolare gli algoritmi per aumentare i propri profitti, con gravi conseguenze per la salute umana.
Uno studio STAT di marzo ha rilevato che l'intelligenza artificiale sta facendo salire alle stelle le negazioni di richieste mediche a Medicare Advantage. La ricerca ha scoperto che gli assicuratori utilizzano algoritmi predittivi non regolamentati sviluppati da naviHealth per determinare il punto in cui possono plausibilmente smettere di pagare per il trattamento dei pazienti anziani.
STAT ha riferito che in seguito all'acquisizione di naviHealth da parte di United Healthcare nel 2020, il problema è peggiorato e persino i medici non possono ignorare le decisioni terapeutiche prese dall'algoritmo senza una seria pressione da parte della direzione.
Nella sua dichiarazione all'ONC, United Healthcare si è anche fortemente opposta a diversi aspetti delle regole OTC proposte che regolerebbero maggiormente proprio questi tipi di algoritmi.
La società ha affermato che la definizione ONC di DSI è "vaga e troppo ampia" e sposterebbe il significato di DSI oltre l'uso clinico e imporrebbe onerose richieste a strumenti a basso rischio.
Si è inoltre opposta ai requisiti ONC proposti per divulgare informazioni su come funzionano gli algoritmi, citando i "rischi per lo sviluppatore" di dover condividere informazioni sensibili o proprietarie con gli utenti.
Alcuni attivisti hanno lanciato la campagna Stop #DeathByAI per fermare l'abuso di intelligenza artificiale a Medicare Advantage, riferisce Common Dreams.
Ma questa è solo la punta dell'iceberg in questo mercato in esplosione, che secondo Markets and Markets varrà oltre $ 102 miliardi entro il 2028, rispetto agli attuali $ 14,6 miliardi.
Leggi la storia completa qui...