L’intelligenza artificiale fornisce #consigli potenzialmente #pericolosi per la #cura delle #malattie
Secondo i risultati di uno studio, #chatgpt ha diffuso regimi di #trattamento del #cancro che contenevano una miscela “potenzialmente pericolosa” di informazioni corrette e false.
I ricercatori del Brigham and Women's Hospital, un marchio della Harvard Medical School, hanno spinto il popolare #chatbot di OpenAI a fornire #consigli sul trattamento del cancro al #seno, alla #prostata e ai #polmoni in linea con le linee guida stabilite dal National Comprehensive Cancer Network.
Sebbene le risposte contenessero risposte in parte corrette, l’IA ha fornito anche #informazioni_false e #inventate. Più di un terzo delle risposte di ChatGPT contenevano quindi suggerimenti per trattamenti terapeutici non conformi alle raccomandazioni mediche, circa il 34% conteneva anche una raccomandazione terapeutica errata, mentre 12% di queste risposte erano cosiddette #allucinazioni, cioè #risposte_inventate dall'intelligenza artificiale che non hanno nulla a che fare con la cura del tumore.
ChatGPT "parla spesso in un modo molto sicuro che sembra avere senso, e il modo in cui può mescolare informazioni errate e corrette è potenzialmente pericoloso", ha affermato la ricercatrice Danielle Bitterman, oncologa del programma di intelligenza artificiale in medicina presso il Mass General Brigham Health System.
I risultati dello studio supportano le preoccupazioni comuni sollevate dai critici che hanno avvertito che gli strumenti avanzati di #intelligenza_artificiale diffonderanno rapidamente #disinformazione se non verranno messe in atto adeguate garanzie.
https://jamanetwork.com/journa....ls/jamaoncology/full