Anche l'ultimo modello di intelligenza artificiale di OpenAI, pubblicizzata con il nome in codice "Strawberry", è ancora capace di commettere errori idioti: dopo miliardi di dollari, il modello non è ancora in grado di dire in modo affidabile quante volte la lettera "r" appare nella parola "strawberry"(fragola).
E mentre le "allucinazioni" (termine opportunamente antropomorfico usato dalle aziende di intelligenza artificiale per indicare le stronzate inventate dai loro chatbot) non sono un grosso problema quando, ad esempio, uno studente viene beccato con le risposte sbagliate in un compito, la posta in gioco è molto più alta quando si tratta di consigli medici.
Una piattaforma di comunicazione chiamata MyChart gestisce ogni giorno centinaia di migliaia di messaggi scambiati tra medici e pazienti; di recente l'azienda ha aggiunto una nuova funzionalità basata sull'intelligenza artificiale che elabora automaticamente le risposte alle domande dei pazienti per conto di medici e assistenti.
Come riporta il New York Times, circa 15.000 medici stanno già utilizzando questa funzionalità, nonostante la possibilità che l'intelligenza artificiale introduca errori potenzialmente pericolosi.
Un esempio calzante è il medico di medicina di famiglia dell'UNC Health, Vinay Reddy, che ha dichiarato al NYT che una bozza di messaggio generata dall'intelligenza artificiale ha rassicurato una sua paziente sul fatto di essersi vaccinata contro l'epatite B, nonostante non avesse mai avuto accesso ai suoi documenti vaccinali.
Peggio ancora, il nuovo strumento MyChart non è tenuto a divulgare che una determinata risposta è stata scritta da un'IA. Ciò potrebbe rendere quasi impossibile per i pazienti rendersi conto che hanno ricevuto un consiglio medico da un algoritmo.
Lo strumento, che si basa su una versione di GPT-4, il modello linguistico di grandi dimensioni di OpenAI su cui si basa ChatGPT, estrae dati da materiale che include cartelle cliniche e prescrizioni di farmaci.
Lo strumento tenta addirittura di simulare la "voce" del medico, rendendo il tutto ancora più insidioso.
"Il discorso di vendita è stato che dovrebbe fargli risparmiare tempo in modo che possano dedicare più tempo a parlare con i pazienti", ha detto al NYT il ricercatore di bioetica dell'Hastings Center Athmeya Jayaram. "In questo caso, stanno cercando di risparmiare tempo a parlare con i pazienti con l'intelligenza artificiale generativa".
I critici temono che, nonostante i professionisti del settore medico siano tenuti a rivedere queste bozze, l'intelligenza artificiale potrebbe introdurre errori che potrebbero passare inosservati.
Ci sono molte prove che potrebbero già accadere. In uno studio di luglio, i ricercatori hanno trovato "allucinazioni" in sette dei 116 messaggi di bozza generati dall'intelligenza artificiale tramite lo strumento MyChart.
Anche se può sembrare poco, anche un singolo errore potrebbe avere conseguenze disastrose.
Uno studio separato ha scoperto che GPT-4 commetteva ripetutamente errori quando doveva rispondere ai messaggi dei pazienti.
Alcuni pazienti potrebbero non scoprire mai di ricevere consigli da un'IA. Non ci sono regole federali sui messaggi che devono essere etichettati come generati dall'IA.
"Quando leggi una nota medica, la leggi con la voce del tuo medico",ha detto Jayaram al NYT . "Se un paziente sapesse che, in effetti, il messaggio che sta scambiando con il suo medico è generato dall'intelligenza artificiale, penso che si sentirebbe giustamente tradito".
fonte