samantha    è la sensazione Contento
41 w

I manifestanti contro OpenAI: "Non devi essere un genio per capire che costruire macchine potenti che non puoi controllare è forse una cattiva idea."
Circa 30 #attivisti si sono radunati lunedì pomeriggio all'ingresso della sede di OpenAI a San Francisco, determinati a farsi sentire. "Metti in pausa l'IA!" uno ha gridato in un megafono e la folla ha risposto: "Perché non vogliamo morire!" Avevano cartelli che dicevano: "Non fidarti di #sam_altman " e "Sopravvivenza ai profitti". Tre piani più in alto, alcuni dipendenti di OpenAI si sono avvicinati alle finestre per sbirciare e scattare foto.

I #manifestanti erano particolarmente preoccupati per come a gennaio #openai avesse silenziosamente cambiato le sue politiche di #utilizzo per rimuovere il divieto di applicazioni “militari e di #guerra ” per i suoi prodotti. Pochi giorni dopo, un dirigente di OpenAI ha dichiarato in un’intervista a #bloomberg che la società sta lavorando con il Dipartimento della Difesa degli Stati Uniti su un software di #sicurezza informatica open source ed è in trattative con il #governo degli #stati_uniti per aiutare a prevenire il suicidio dei veterani.

Holly #elmore, che ha contribuito a organizzare la #protesta di lunedì, ha affermato che il #problema di fondo è molto più grande del lavoro #militare di OpenAI. È il modo in cui OpenAI ha dichiarato pubblicamente che non avrebbe funzionato con gli eserciti e poi ha ritirato l'impegno.

Elmore ha tracciato parallelismi con le dichiarazioni dell'anno scorso di Sam Altman, amministratore delegato di OpenAI, secondo cui il suo consiglio di amministrazione dovrebbe essere in grado di licenziarlo. Più tardi, quando il consiglio lo licenziò, tornò come amministratore delegato cinque giorni dopo.

"Non ci sono denti a questi confini", ha detto Elmore. “Anche quando le aziende stabiliscono limiti molto ragionevoli, possono modificarli quando vogliono”.

Un portavoce di OpenAI ha affermato che mantiene il divieto di utilizzare i suoi strumenti per costruire #armi, danneggiare persone o distruggere proprietà. Ha modificato il divieto militare per consentire progetti che sono ancora “molto in linea con ciò che vogliamo vedere nel mondo”, ha detto il mese scorso Anna #makanju, vicepresidente di OpenAI per gli affari globali.

Elmore e altri hanno trasformato la protesta contro le forme di #intelligenza #artificiale in uno sforzo a tempo pieno, anche se gran parte di essa rimane non retribuita. Elmore guida le operazioni statunitensi per #pauseai, che sostiene un’interruzione indefinita della ricerca sull’intelligenza artificiale di frontiera fino a quando non sarà dimostrata sicura.

Sam Kirchner, che ha organizzato la manifestazione con Elmore, protesta regolarmente a Seattle contro l'intelligenza artificiale generale. OpenAI e altre società mirano a creare AGI, che definiscono un'intelligenza artificiale intelligente quanto la persona media. Kirchner ha affermato che l’AGI rimuoverà significato dall’esistenza umana ostacolando la nostra capacità di contribuire e fare scoperte.

Elmore è entrata nel suo lavoro attraverso un altruismo efficace, una filosofia #filantropica che è stata ampiamente spostata negli ultimi 15 anni per dare priorità ai rischi esistenziali, soprattutto derivanti dall'intelligenza artificiale canaglia. Elmore ha studiato progetti sul benessere degli animali presso un think tank EA, ma ora cerca di aumentare la consapevolezza sui rischi dell'intelligenza artificiale superintelligente.

Sebbene riconosca che la proposta di PauseAI invita alle critiche, spera anche di utilizzare il messaggio chiaro (e provocatorio) per dire al pubblico che andare avanti non è l'unica opzione.

È incoraggiata dai recenti sondaggi secondo cui le persone condividono la sua paura. La maggior parte degli intervistati preferisce rallentare lo sviluppo dell’intelligenza artificiale e ritiene che l’intelligenza artificiale potrebbe causare accidentalmente una catastrofe.

"Non è necessario essere un genio per capire che costruire macchine potenti che non si possono controllare è forse una cattiva idea", ha detto Elmore. “Forse non dovremmo semplicemente lasciare che sia il mercato a proteggerci da tutto questo”.
https://www.bloomberg.com/news..../newsletters/2024-02

image