Adrian de Wynter, scienziato e ricercatore Microsoft presso l'Università di York, ha deciso di testare il modello generativo GPT-4 di OpenAi facendogli giocare a Doom senza previa formazione. Sebbene il modello IA non addestrato non abbia avuto molto successo nel gameplay, ha imparato da solo come aprire le porte e sparare a oggetti a forma umana (mostri).
"Questo modello linguistico di grandi dimensioni (LLM) è in grado di eseguire e giocare con solo poche istruzioni, oltre a una descrizione testuale, generata dal modello stesso a partire da schermate, sullo stato del gioco osservato", afferma il ricercatore. "Troviamo che GPT-4 possa giocare a un livello accettabile: è in grado di manipolare porte, combattere nemici ed eseguire percorsi. Strategie di prompt più complesse che coinvolgono più chiamate di modello forniscono risultati migliori. Sebbene sia necessario ulteriore lavoro per consentire al LLM di giocare così come le sue controparti classiche basate sull'apprendimento di rinforzo, notiamo che GPT-4 non richiedeva formazione, appoggiandosi invece alle proprie capacità di ragionamento e di osservazione."
Il ricercatore ha scoperto che il GPT-4 non ha il senso della permanenza dell'oggetto, che è il suo bersaglio principale, quindi non appena il nemico si sposta fuori dallo schermo, l'IA non ne è più consapevole. Sebbene abbia istruzioni su cosa fare se un nemico fuori dallo schermo causa danni, il modello non può reagire a nulla al di fuori del suo raggio d'azione ristretto.
De Wynter dice che nonostante non sia riuscito a interpretare Doom, trova preoccupante quanto sia stato facile convincere il modello a sparare a "persone" senza seguire effettivamente le istruzioni. "Quindi, anche se questa è una ricerca molto interessante sulla pianificazione e sul pensiero, e potrebbe avere applicazioni nei test automatizzati dei videogiochi, è abbastanza ovvio che questo modello non è consapevole di ciò che sta facendo. Incoraggio vivamente tutti a pensare a quale sia l'applicazione di questi modelli implicano per la società e il loro potenziale abuso", afferma il ricercatore.
Dato che le tecnologie belliche e le armi più terrificanti di oggi vengono sempre più migliorate dall'intelligenza artificiale, è chiaro che questa semplice programmazione di un modello autonomo in un gioco di tiro da parte di una sola persona ha implicazioni molto maggiori, quindi sorge la domanda su cosa accadrebbe se l’esercito sviluppasse robot da guerra in modo simile.
Quando pensiamo agli scenari dei film Terminator, di solito pensiamo che l’intelligenza artificiale dovrebbe diventare pienamente consapevole di sé e iniziare a eliminare gli esseri umani quando ritenga di non aver più bisogno della razza umana. Secondo questa ricerca, si scopre che i futuri Terminator non dovrebbero affatto avere un tale livello di intelligenza, ma potrebbero sterminarci in base alle decisioni che prendono con un ragionamento rudimentale.
In ogni caso, poiché GPT-4 non ha esitato a prendere di mira oggetti a forma umana, questa è una cosa piuttosto preoccupante per il nostro futuro.