Giá, non è un segreto che i chatbot AI come ChatGPT di OpenAI abbiano una forte tendenza a inventare cose e che sono anche altrettanto bravi a inventare fatti quanto ti stanno assistendo con il lavoro.
Descritto come allucinazione, confabulazione o semplicemente inventare cose, ora è un problema per ogni azienda, organizzazione e studente delle scuole superiori che cerca di ottenere un sistema di intelligenza artificiale generativa per comporre documenti e portare a termine il lavoro. Alcuni lo utilizzano per compiti con potenziali conseguenze ad alto rischio, dalla psicoterapia alla ricerca e alla stesura di memorie legali.
Se le persone che creano l'intelligenza artificiale possono risolvere questo problema rimane in discussione, riporta l'Associated Press . Alcuni esperti, compresi i dirigenti che stanno commercializzando questi strumenti, sostengono che questi chatbot sono destinati a inventare per sempre falsità, nonostante i migliori sforzi dei loro creatori.
“Non credo che oggi esista un modello che non soffra di qualche allucinazione”, ha dichiarato Daniela Amodei, co-fondatrice e presidente di Anthropic, creatrice del chatbot Claude 2. "In realtà sono progettati solo per prevedere la parola successiva", ha detto Amodei. "E quindi ci sarà una certa velocità con cui il modello lo fa in modo impreciso."
Anthropic, il produttore di ChatGPT OpenAI e altri importanti sviluppatori di sistemi di intelligenza artificiale noti come modelli di linguaggio di grandi dimensioni affermano che stanno lavorando per renderli più veritieri. Quanto tempo ci vorrà - e se saranno mai abbastanza bravi da, diciamo, dispensare in sicurezza consigli medici - resta da vedere.
E questo non è esattamente di buon auspicio, dato che le aziende tecnologiche hanno investito molto nella tecnologia. Ad esempio, c'è Google, che ha lanciato segretamente un generatore di notizie basato sull'intelligenza artificiale ai principali quotidiani. Altri organi di stampa stanno già sperimentando la tecnologia, producendo contenuti generati dall'intelligenza artificiale che spesso sono pieni di imprecisioni.
In altre parole, senza la possibilità per i chatbot di correggere la loro forte tendenza a inventare cose, le imprese potrebbero trovarsi di fronte a gravi battute d'arrestoesplorando nuovi modi di utilizzare la tecnologia. Ma, secondo alcuni esperti linguisti che hanno studiato la tecnologia, come Emily Bender dell'Università di Washington, questo non è risolvibile. "È insito nella discrepanza tra la tecnologia e i casi d'uso proposti".
I leader tecnologici, tuttavia, sono ottimisti, il che non è esattamente sorprendente, considerando che sono in gioco miliardi di dollari. "Penso che porteremo il problema delle allucinazioni in un posto molto, molto migliore", ha detto il CEO di OpenAI Sam Altman a un pubblico in India all'inizio di quest'anno. "Penso che ci vorranno un anno e mezzo, due anni. Qualcosa del genere."
Aziende come OpenAI e Anthropic sono ora coinvolte in una dura battaglia. Se c'è una cosa certa, è che convincere i chatbot a dire la verità in modo affidabile sarà tutt'altro che facile, se possibile.