Gli scienziati avvertono che l’intelligenza artificiale minaccia la #scienza stessa: "La nostra tendenza ad antropomorfizzare le macchine e i #modelli di fiducia come narratori di verità simili a quelli umani - consumando e diffondendo le cattive informazioni che producono nel processo - è particolarmente preoccupante per il futuro della scienza."
I modelli #linguistici di grandi dimensioni (LLM) non distinguono tra realtà e finzione. Restituiranno una risposta a quasi tutti i prompt, ma le risposte effettivamente errate sono all'ordine del giorno. Per garantire che il nostro utilizzo dei LLM non degradi la scienza, dobbiamo usarli come traduttori zero-shot: per convertire materiale sorgente accurato da una forma all'altra.
In un nuovo saggio, i ricercatori dell'Oxford Internet Institute sostengono che gli #scienziati dovrebbero astenersi dall'utilizzare strumenti basati sul LLM come i #chatbot per assistere nella ricerca scientifica sulla base del fatto che la propensione dell' #intelligenza_artificiale ad avere allucinazioni e fabbricare fatti, combinata con la tendenza umana ad antropomorfizzare l'essere umano - imitando i motori di parole, potrebbe portare a maggiori disgregazioni delle informazioni, un destino che alla fine potrebbe minacciare il tessuto stesso della scienza.
Come spiegano i ricercatori di Oxford, il problema delle allucinazioni dell’intelligenza artificiale è solo metà del problema. L’ #effetto_eliza, o la tendenza umana a leggere troppo in profondità i risultati dell’intelligenza artificiale dal suono umano a causa della nostra propensione profondamente mortale ad antropomorfizzare tutto ciò che ci circonda, è un fenomeno ben documentato. A causa di questo effetto, siamo già pronti a riporre un po’ troppa fiducia nell’intelligenza artificiale; abbinalo al tono fiducioso che questi chatbot assumono così spesso e avrai una ricetta perfetta per la disinformazione. Dopotutto, quando un essere umano ci fornisce una parafrasi perfettamente imbottigliata e dall'aspetto esperto in risposta a una domanda, probabilmente siamo meno propensi a usare lo stesso pensiero critico nel nostro controllo dei fatti come potremmo quando stiamo facendo la nostra ricerca.
È importante sottolineare che gli scienziati notano la “traduzione zero-shot” come uno scenario in cui i risultati dell’intelligenza artificiale potrebbero essere un po’ più affidabili. "Si chiama traduzione zero-shot perché il modello non è stato addestrato specificamente per gestire quel tipo di suggerimento". Quindi, in altre parole, un modello viene più o meno riorganizzato e analizzato attraverso un set di dati molto limitato e affidabile e non viene utilizzato come un vasto centro di conoscenza simile a #internet. Ma ciò limiterebbe sicuramente i suoi casi d’uso e richiederebbe una comprensione più specializzata della #tecnologia #ai, molto diversa dal semplice caricamento di #chatgpt e dalla risposta ad alcune domande di ricerca.
E altrove, sostengono i ricercatori, al centro di questo dibattito sull’automazione c’è una battaglia ideologica. Dopotutto, la scienza è un’attività profondamente umana. Affidare una parte eccessiva del processo scientifico al lavoro automatizzato dell’intelligenza artificiale, dicono gli Oxforder, potrebbe minare quell’umanità profondamente radicata. Ed è davvero qualcosa che possiamo permetterci di perdere?
https://futurism.com/scientist....s-ai-threatens-scien