stella    è la sensazione Arrabbiato
1 y

I manifestanti hanno paragonato il rilascio pubblico da parte di Meta dei suoi grandi modelli linguistici ad armi di distruzione di massa.

Gli sforzi per rendere l’intelligenza_artificiale #open_source sono diventati un parafulmine per i disaccordi sui potenziali #danni della #tecnologia emergente. La settimana scorsa, i #manifestanti si sono riuniti davanti agli uffici di #meta a San Francisco per protestare contro la sua politica di rilascio pubblico dei suoi #modelli di #intelligenza_artificiale, sostenendo che i rilasci rappresentano una "proliferazione irreversibile" di tecnologia potenzialmente pericolosa. Ma altri sostengono che un approccio aperto allo #sviluppo dell’intelligenza artificiale sia l’unico modo per garantire la fiducia nella tecnologia.

Mentre aziende come OpenAI e Google consentono agli utenti di accedere ai loro #modelli #linguistici di grandi dimensioni (LLM) solo tramite un'API, Meta ha suscitato scalpore lo scorso febbraio quando ha reso la sua famiglia di modelli LLaMA liberamente accessibile ai #ricercatori di intelligenza artificiale. La versione includeva i pesi dei modelli, ovvero i parametri che i modelli hanno appreso durante l'addestramento, che consentono a chiunque abbia l'hardware e le competenze giuste di #riprodurre e #modificare i modelli stessi.

Nel giro di poche settimane i pesi sono trapelati online e la società è stata criticata per aver potenzialmente messo potenti modelli di intelligenza artificiale nelle mani di attori malvagi, come hacker e truffatori. Ma da allora, l’azienda ha raddoppiato gli sforzi sull’intelligenza artificiale open source rilasciando i pesi dei suoi modelli #llama_2 di prossima generazione senza alcuna restrizione.

I sedicenti “cittadini preoccupati” che si sono radunati fuori dagli uffici di Meta venerdì scorso erano guidati da Holly Elmore. Nota che un'API può essere chiusa se un modello risulta non sicuro, ma una volta rilasciati i pesi del modello, l'azienda non ha più alcun mezzo per #controllare il modo in cui viene utilizzata l'intelligenza artificiale.

"Rilasciare i pesi è una politica pericolosa, perché i modelli possono essere modificati da chiunque e non possono essere ritirati", afferma Elmore, un sostenitore della sicurezza dell'IA finanziato in modo indipendente che in precedenza ha lavorato per il think tank Rethink Priorities. “Più potenti diventano i modelli, più pericolosa diventerà questa politica”. Meta non ha risposto a una richiesta di commento.

Gli LLM a cui si accede tramite un' #api presentano in genere varie funzionalità di #sicurezza, come il filtraggio delle risposte o una formazione specifica per impedire loro di fornire risposte #pericolose o sgradevoli. Se i pesi dei modelli vengono rilasciati, tuttavia, afferma Elmore, è relativamente facile riqualificare i modelli per aggirare questi guardrail. Ciò potrebbe rendere possibile l’utilizzo dei modelli per creare e-mail di #phishing, pianificare #attacchi #informatici o creare ingredienti per sostanze chimiche pericolose, aggiunge.

Parte del problema è che non c’è stato uno sviluppo sufficiente di “misure di sicurezza per garantire il rilascio libero”, afferma Elmore. "Sarebbe fantastico avere un modo migliore per rendere sicuro un modello diverso dalla segretezza, ma semplicemente non lo abbiamo."

Al di là di ogni #preoccupazione su come gli odierni modelli open source potrebbero essere utilizzati in modo #improprio, afferma Elmore, il pericolo maggiore arriverà se lo stesso approccio verrà adottato con l’intelligenza artificiale futura, più potente, che potrebbe agire in modo più #autonomo.

L’argomentazione contro il rilascio dei pesi del modello si basa sul presupposto che non ci saranno attori aziendali dannosi, afferma Biderman, cosa che la storia suggerisce sia fuori luogo. Incoraggiare le aziende a mantenere segreti i dettagli dei loro modelli porterà probabilmente a “gravi #conseguenze a valle in termini di trasparenza, consapevolezza pubblica e scienza”, aggiunge, e avrà un impatto principalmente su ricercatori indipendenti e hobbisti.

Ma non è chiaro se l'approccio di Meta sia davvero sufficientemente aperto da trarre i vantaggi dell'open source. Il software open source è considerato affidabile e sicuro perché le persone sono in grado di comprenderlo e analizzarlo, afferma Park. Questo non è il caso dei modelli Meta, perché l'azienda ha fornito pochi dettagli sui dati di addestramento o sul codice di addestramento.
https://spectrum.ieee.org/meta-ai

image