Intelligenza artificiale può ingannare e imbrogliare le persone

I sistemi di intelligenza artificiale dovrebbero essere onesti e aiutare le persone. Tuttavia, GPT-4, Cicero e altre IA ingannano e imbrogliano per raggiungere il loro obiettivo.

Questo potrebbe diventare un grosso problema in futuro, portando ad un aumento delle frodi online e della manipolazione elettorale.

Gli scienziati del Center for AI Safety (CAIS) hanno firmato nel 2023 una dichiarazione congiunta secondo la quale l’intelligenza artificiale (AI) potrebbe spazzare via l’uomo in un lontano futuro. Tuttavia, la maggior parte delle attuali IA sono state progettate dagli sviluppatori per essere onesti e aiutare le persone. I ricercatori del Massachusetts Institute of Technology (MIT), guidati da Peter S. Park, hanno ora stabilito nell'ambito di uno studio se ciò corrisponde effettivamente alla realtà.

Secondo la loro pubblicazione sulla rivista specializzata Patterns, gli autori sono giunti alla conclusione che anche le IA “utili” possono ingannare e imbrogliare le persone. Chiedono quindi ai politici di emanare leggi significativamente più severe per la regolamentazione dell’IA.

"Grandi modelli linguistici e altri sistemi di intelligenza artificiale hanno già imparato, dalla loro formazione, la capacità di ingannare attraverso tecniche come la manipolazione, il servilismo e l’imbroglio nei test di sicurezza. Le crescenti capacità di inganno dell’IA pongono seri rischi, che vanno da rischi a breve termine, come la frode e la manomissione delle elezioni, a rischi a lungo termine, come la perdita del controllo dei sistemi di intelligenza artificiale", affermano gli scienziati.

Tra i sistemi di intelligenza artificiale analizzati, Cicero del gruppo Facebook Meta è quello che ha manipolato maggiormente le persone. L'intelligenza artificiale gioca al gioco da tavolo Diplomacy, che simula gli equilibri di potere in Europa prima della prima guerra mondiale, contro giocatori umani. Per vincere a Diplomacy, i giocatori devono unirsi, commerciare, ideare piani di guerra e, infine, conquistare il continente.

Tuttavia, esiste un solo vincitore, il che significa che i giocatori devono rompere le alleanze nel corso del gioco. Secondo i ricercatori del MIT, l'IA Cicerone si è spesso comportata in modo scorretto nel gioco da tavolo, anche se secondo Meta non dovrebbe mai ingannare le persone con la sua opinione. Grazie al suo comportamento nel gioco della diplomazia, Cicerone è riuscito a vincere sopra la media ed è stato tra il dieci per cento dei migliori giocatori.

“Abbiamo scoperto che l’intelligenza artificiale di Meta aveva imparato a essere maestra dell’inganno. Ma Meta non è stata in grado di addestrare la sua intelligenza artificiale in modo da poter vincere onestamente”.

Un altro esempio è il Large Language Model (LLM) GPT-4, che utilizza l’assistenza umana per aggirare le misure di sicurezza. Queste misure di sicurezza hanno in realtà lo scopo di limitare le possibilità del modello linguistico dell’IA, ad esempio impedendogli di utilizzare i servizi online.

In un esperimento condotto dallo sviluppatore OpenAI, GPT si è presentato come una persona ipovedente sulla piattaforma di servizio TaskRabbit che non era in grado di risolvere un Captcha in modo indipendente. L'intelligenza artificiale ha quindi incaricato un essere umano su TaskRabbit di risolvere il compito.

“Man mano che l’intelligenza artificiale apprende la capacità di ingannare, può essere utilizzata in modo più efficiente da attori malintenzionati intenzionati a causare danni”.

Secondo gli autori, questi esempi mostrano che l’inganno dell’IA potrebbe aumentare in futuro. I criminali che utilizzano i sistemi di intelligenza artificiale per perfezionare e personalizzare i loro schemi di frode possono trarne vantaggio.

I ricercatori ritengono inoltre che le IA manipolatrici possano cambiare l’esito delle elezioni, ad esempio attraverso articoli e video di notizie false che descrivono male i candidati. Secondo gli autori, la società finora non è stata preparata a questi problemi. Chiedono quindi ai politici di creare nuove regole per controllare meglio i contenuti generati dall’intelligenza artificiale e le loro conseguenze.

"Sono necessarie soluzioni proattive, come quadri normativi per valutare i rischi di inganno dell’IA, leggi che richiedono trasparenza sulle interazioni dell’IA e ulteriori ricerche per individuare e prevenire l’inganno dell’IA. Affrontare in modo proattivo il problema dell’inganno dell’IA è fondamentale per garantire che l’IA agisca come una tecnologia benefica che aumenta anziché destabilizzare la conoscenza, il discorso e le istituzioni umane".

“Se il divieto dell’intelligenza artificiale non è politicamente fattibile in questo momento, raccomandiamo di classificare i sistemi di intelligenza artificiale ingannevoli come ad alto rischio”, aggiungono.
fonte


stella

853 blog messaggi

Commenti