I virus informatici possono diffondersi utilizzando ChatGPT per scrivere e-mail subdole - il virus stesso invia e-mail per diffondersi e può evitare il rilevamento da parte dei programmi antivirus:
I #modelli #linguistici di grandi dimensioni possono essere sfruttati in modo improprio dal #malware per evitare di essere rilevati e propagarsi tramite la creazione di risposte realistiche alle #e_mail. Gli esperti avvertono che questo è solo un piccolo assaggio di ciò che può fare l’ #intelligenza #artificiale generativa e di come, anche senza alcuna conoscenza specifica, può essere utilizzata per #attacchi #dannosi contro gli altri.
I ricercatori hanno dimostrato che un #virus #informatico può utilizzare #chatgpt per riscrivere il proprio codice in modo da evitare di essere rilevato, quindi scrivere e-mail personalizzate che sembrano risposte autentiche e diffondersi in un allegato e-mail.
Oltre a produrre testo simile a quello umano, i modelli linguistici di grandi dimensioni (LLM), le intelligenze artificiali alla base di potenti chatbot come ChatGPT, possono anche scrivere codice informatico. David Zollikofer dell'ETH di Zurigo in Svizzera e Benjamin Zimmerman della Ohio State University temono che questa capacità possa essere sfruttata da virus che riscrivono il proprio codice, noti come malware metamorfici.
Vale a dire, il virus sfrutta ChatGPT per creare un'e-mail che sembra scritta da un essere umano. Successivamente il virus viene "aggiunto" all'e-mail sotto forma di file o allegato #infetto e inviato. I ricercatori hanno chiamato questo metodo di diffusione "cancro sintetico" e ciò che è particolarmente preoccupante è che non sia stato rilevato dai programmi antivirus.
Una volta sul computer di destinazione, il virus apre Outlook e inizia a scrivere risposte alle e-mail pertinenti al contesto, aggiungendo la propria copia come allegato apparentemente innocuo. Gli autori di questo esperimento sottolineano che il loro prototipo ha mostrato i rischi che i modelli linguistici di grandi dimensioni (LLM) rappresentano per la sicurezza informatica. Sono particolarmente preoccupati del fatto che l’intelligenza artificiale sia stata straordinariamente credibile nei suoi tentativi di ingegneria sociale via e-mail.
Così, in uno dei messaggi selezionati dal virus, ha inviato un messaggio di auguri di compleanno e ha rinominato il file infetto che ha inserito come allegato in una playlist per una festa di compleanno. La maggior parte degli utenti farebbe clic su tale allegato senza pensarci due volte.
Ma, cosa interessante, in alcune situazioni ChatGPT ha riconosciuto le cattive intenzioni del virus e si è rifiutato di collaborare. Questo è proprio ciò che sottolineano gli autori di questo esperimento come speranza che l'intelligenza artificiale possa essere utilizzata per la difesa informatica, cioè che la sicurezza informatica possa essere migliorata utilizzando l'intelligenza artificiale in grado di riconoscere le intenzioni malevole.
Il lavoro di Zollikofer e Zimmerman deve ancora essere sottoposto a revisione paritaria, ma non è l'unico che ha esplorato l'uso dell'intelligenza artificiale per gli attacchi informatici. E in altri lavori i ricercatori hanno dimostrato che è possibile utilizzare modelli di intelligenza artificiale per creare virus e worm e utilizzarli per attacchi informatici senza troppe conoscenze tecniche preliminari.
https://www.newscientist.com/a....rticle/2438132-compu