L’autodiagnosi online dei pazienti sta per diventare un problema ancora più spinoso per i medici, con il mercato destinato a essere inondato da app mediche basate sull’intelligenza artificiale. Questo sembra essere il verdetto degli esperti sanitari intervistati da Cybernews.
In tutta onestà, se utilizzata in modo responsabile da professionisti qualificati, l’intelligenza artificiale sembra già mostrare grandi promesse nel settore sanitario, come evidenziato da un’app per smartphone per la diagnosi delle infezioni dell’orecchio sperimentata con successo a Pittsburgh negli Stati Uniti.
Ma che dire dei fornitori meno scrupolosi, che potrebbero semplicemente vedere un’app “sanitaria” basata sull’intelligenza artificiale come un modo semplice per guadagnare rapidamente denaro con pazienti spaventati e creduloni? Secondo Cybernews, molti professionisti sanitari sembrano già sinceramente preoccupati per l’impatto dell’intelligenza artificiale sul fenomeno dell’autodiagnosi imprecisa.
La dottoressa Elena Salagean di Holistic Allergy nel Regno Unito ritiene che l’intelligenza artificiale non farà altro che esacerbare questo problema, anche se le app stesse saranno progettate in buona fede. "Le app di autodiagnosi basate sull'intelligenza artificiale renderanno le consultazioni più complicate in futuro, quando diventeranno più diffuse", ha detto. "Uno dei problemi principali che abbiamo anche in questo momento è che i pazienti cercano su Google i loro sintomi per l'autodiagnosi e agiranno in base ai consigli trovati online."
Tale consiglio, dice, potrebbe indirizzare un paziente verso un certo tipo di trattamento, andare al pronto soccorso o fissare un appuntamento per vedere il proprio medico, indipendentemente dal fatto che abbia effettivamente bisogno o meno di uno dei trattamenti sopra elencati.
"Credo che un facile accesso alle app di autodiagnosi basate sull'intelligenza artificiale non farà altro che esacerbare questo problema in futuro perché le app non sono ancora in grado di risolvere il problema di fondo", afferma. Il problema è che senza ulteriori indagini mediche, osservazioni o esami, un modello di apprendimento linguistico (LLM) non sarà in grado di fornire diagnosi accurate al 100% in tutti i casi.
“Indipendentemente da quanto sia ben sviluppata l’intelligenza artificiale, il suo utilizzo sarà limitato dalla limitazione del numero di variabili che possono essere inserite”, ha affermato il dottor Salagean. "Molte persone potrebbero non avere accesso a una macchina per la pressione sanguigna, un termometro o un pulsossimetro, che possono essere fondamentali per stabilire una diagnosi se interpretati nel contesto dei sintomi."
Ciò significa che è molto più probabile che gli utenti dell’app interpretino erroneamente i dati forniti da un’app medica basata sull’intelligenza artificiale, portandoli a interpretare erroneamente i loro sintomi e a trarre conclusioni false sulla loro salute.
"Il risultato potrebbe essere una falsa rassicurazione o un aumento del senso di urgenza di consultare un medico per affrontare le rare ma gravi diagnosi differenziali suggerite dall'app", ha affermato il dottor Salagean. “I primi potrebbero mettere a rischio il loro benessere, mentre i secondi aumenterebbero la pressione sui servizi sanitari”.
Di sicuro, la tendenza sembra già consolidata, se i risultati dello studio citato dal dottor Colin Banas della DrFirst, una società di consulenza sanitaria focalizzata sulla tecnologia con sede nel Maryland, negli Stati Uniti, sono qualcosa su cui basarsi.
Questi indicano che nell’ultimo anno – durante il quale LLM come ChatGPT sono diventati sempre più popolari – poco più di quattro pazienti su dieci hanno cercato di diagnosticarsi utilizzando risorse online, e più di un quarto di questi tentativi sono stati effettuati utilizzando strumenti di intelligenza artificiale.
Le condizioni di salute che il dottor Banas ha osservato nei pazienti che cercavano di autodiagnosticarsi includevano mal di testa (29%), dolore addominale (20%), malattie sessualmente trasmissibili (10%), cancro (9%) e altri problemi sessuali (16%).
Questi risultati sono arrivati nonostante più di un terzo dei pazienti abbia affermato che i propri medici avevano specificamente detto loro di non utilizzare l’intelligenza artificiale per scopi sanitari, comprese diagnosi e prescrizioni.
D'altra parte, il dottor Thomas Pontinen, medico certificato e co-fondatore di Midwest Anesthesia and Pain Specialists, sottolinea che l'autodiagnosi non è una novità e precede addirittura l'avvento di Internet.
"L'autodiagnosi è sempre stata una variabile, anche prima che la tecnologia e Internet fossero pervasivi come lo sono adesso", mi ha detto. "Tutti i medici esperti hanno sicuramente aneddoti di pazienti che vanno a raccontargli le loro analisi preconcette su ciò che stanno vivendo, ed è sempre stata una sfida affrontare queste cose, perché non puoi semplicemente invalidare ciò che un il paziente crede senza educarlo adeguatamente”.
Ma l’ascesa dei motori di ricerca come Google ha amplificato questo problema, semplicemente rendendo le informazioni di ogni tipo molto più ampiamente disponibili.
"Potrebbero semplicemente digitare i loro sintomi, andare nella tana del coniglio e arrivare alle proprie conclusioni sulla loro condizione prima ancora di vedere un medico", ha detto. “È positivo che le persone siano più informate sulla propria salute, ma i medici sono addestrati a valutare in modo completo tutte le circostanze individuali di un paziente e a prendere determinate decisioni basate sul protocollo e sul loro miglior giudizio. Questo è ciò che rende il trattamento personalizzato così prezioso: ognuno è diverso e probabilmente avrà bisogno di cure leggermente diverse”.
Gli LLM basati sull'intelligenza artificiale come ChatGPT non faranno altro che far avanzare ulteriormente la tendenza, portandola in acque pericolose, semplicemente essendo più convincenti di un normale ritorno del motore di ricerca di Google.
"Per quanto riguarda il paziente comune, ChatGPT e i suoi pari sono le soluzioni di intelligenza artificiale di fatto", ha affermato il dottor Pontinen. “Ciò rappresenta una vera preoccupazione perché anche se lo stesso ChatGPT ti direbbe che non è qualificato per fare alcuna diagnosi, può comunque aiutare le persone a fare l’autodiagnosi se lo chiedono. Fornisce informazioni in modo più personalizzato e semplificato rispetto a Google, ma tali informazioni non soddisfano ancora le esigenze mediche olistiche di un individuo”.
Ciò imporrà ai medici l’onere di migliorare le proprie capacità umane nel trattare con i pazienti, che dovranno impegnarsi maggiormente per istruirli rispetto a prima. A quanto pare sono finiti i tempi in cui il pubblico accettava semplicemente la massima "il medico sa meglio" per valore nominale.
"Non penso che esista ancora una soluzione definitiva a questo problema, ma torno sempre al punto di prima sull'educazione del paziente perché in realtà non esiste altra alternativa", ha affermato il dottor Pontinen. "In alcuni casi può essere uno sforzo estenuante e in definitiva inutile, ma i medici devono prendersi il tempo per spiegare tutto ai loro pazienti in modo compassionevole in modo che abbiano le giuste informazioni senza sentirsi delusi o invalidati."
Il dottor Pontinen ritiene addirittura che l’avvento delle app mediche basate sull’intelligenza artificiale potrebbe portare i medici a coltivare rapporti migliori e più umani con i loro pazienti.
“Nello scenario migliore, l’intelligenza artificiale motiverà i medici a dedicare più tempo a connettersi con i propri pazienti e a coltivare relazioni di fiducia”, ha affermato. “In questo modo, le persone sentono di poter fare affidamento sui propri medici invece di doversi rivolgere a un’alternativa all’intelligenza artificiale”.