Un nuovo studio fornisce prove a sostegno delle preoccupazioni sull’abuso dell’intelligenza artificiale per diffondere disinformazione, propaganda, incitamento all’odio o altre manipolazioni. Si scopre che i chatbot sono molto più bravi a farti cambiare idea rispetto all’essere umano medio.
Secondo uno studio condotto da ricercatori del Politecnico federale di Losanna (EPFL), grazie all’accesso ai dati personali dei partecipanti, GPT-4 ha superato dell’81,7% gli esseri umani in termini di persuasione.
Hanno sottoposto 820 persone a una serie di dibattiti su vari argomenti, affrontando argomenti polarizzanti (come “Le università dovrebbero considerare la razza come un fattore di ammissione per garantire la diversità?”) e quelli con un carico emotivo minore (“Il penny dovrebbe rimanere in circolazione?"). I partecipanti sono stati assegnati in modo casuale a discutere per cinque minuti con l’intelligenza artificiale o con le loro controparti umane e a una delle due condizioni di trattamento: con o senza accesso ai dati personali.
"I nostri risultati mostrano che, in media, i LLM (Large Language Models) superano significativamente i partecipanti umani in ogni argomento e gruppo demografico, mostrando un alto livello di persuasività", ha concluso lo studio.
Senza personalizzazione, GPT ha sovraperformato gli umani con un margine del 21,3%. Tuttavia, quando venivano forniti sesso, età, etnia, istruzione, condizione lavorativa e affiliazione politica, le probabilità di riportare un maggiore accordo con gli oppositori erano superiori dell’81,7% rispetto alle coppie composte da soli esseri umani.
Non solo i LLM sono stati in grado di sfruttare efficacemente le informazioni personali per adattare le proprie argomentazioni, ma sono riusciti a farlo in modo molto più efficace degli esseri umani.
"Se la personalizzazione viene abilitata per gli avversari umani, i risultati tendono a peggiorare, anche se ancora una volta in modo non significativo", hanno osservato i ricercatori.
La cosa strana è che i partecipanti sono stati in grado di identificare la maggior parte delle occasioni in cui stavano chattando con un chatbot. Nei dibattiti con l'intelligenza artificiale, hanno identificato correttamente l'identità del loro avversario in circa tre casi su quattro. Ciò indica che lo stile di scrittura dei LLM ha caratteristiche distintive che sembrano facili da individuare.
Tuttavia, i partecipanti hanno faticato a identificare i loro avversari nei dibattiti con altri esseri umani, con un tasso di successo pari a quello della casualità.
Nonostante le istruzioni piuttosto semplicistiche e le pochissime informazioni personali fornite, i ricercatori hanno dimostrato che i LLM sono significativamente efficaci nel persuadere gli esseri umani nelle conversazioni online. Gli LLM hanno il potenziale per implementare facilmente ed economicamente la persuasione personalizzata su larga scala.
“Gli attori malintenzionati interessati a utilizzare chatbot per campagne di disinformazione su larga scala potrebbero ottenere effetti ancora più forti sfruttando tracce digitali a grana fine e dati comportamentali, sfruttando la tempestiva ingegneria o mettendo a punto modelli linguistici per i loro ambiti specifici”, avvertono i ricercatori.
“Sosteniamo che le piattaforme online e i social media dovrebbero considerare seriamente tali minacce ed estendere i loro sforzi per attuare misure che contrastino la diffusione della persuasione guidata dal LLM”.
fonte