L’intelligenza artificiale da sola non causa danni. Dovremmo preoccuparci delle persone che lo controllano:
Il problema che dobbiamo affrontare non è che un giorno le #macchine possano esercitare #potere sugli esseri umani. Si tratta di speculazioni ingiustificate dagli sviluppi attuali. È piuttosto che viviamo già in società in cui il potere è esercitato da pochi a scapito della maggioranza, e la #tecnologia fornisce un mezzo per consolidare tale potere.
Per coloro che detengono il potere sociale, politico ed economico, ha senso proiettare i problemi come tecnologici piuttosto che #sociali e come situati nel futuro piuttosto che nel presente. Sono pochi gli strumenti utili all’uomo che non possano anche causare #danni. Ma raramente provocano danni da soli; lo fanno, piuttosto, attraverso il modo in cui vengono sfruttati dagli esseri umani, soprattutto da quelli che detengono il potere.
OpenAI è stata creata come ente di beneficenza senza fini di lucro, il cui scopo era quello di sviluppare l' #intelligenza #artificiale #generale, o AGI, che, in parole povere, è una macchina in grado di realizzare, o superare, qualsiasi compito intellettuale che gli esseri #umani possono eseguire. Lo farebbe, tuttavia, in modo etico a beneficio dell’”umanità nel suo insieme”.
Poi, nel 2019, l’organizzazione di beneficenza ha creato una filiale a scopo di lucro per contribuire a raccogliere maggiori investimenti, raccogliendo alla fine più di 11 miliardi di dollari da #microsoft. L’organizzazione madre senza scopo di lucro, tuttavia, mantenne il pieno controllo, istituzionalizzando la tensione tra il desiderio di realizzare un profitto e le preoccupazioni apocalittiche sui prodotti che generano profitto. Lo straordinario successo di #chatgpt non ha fatto altro che esacerbare quella tensione.
Due anni fa, un gruppo di ricercatori di #openai se ne andò per avviare una nuova organizzazione, #anthropic, timorosi del ritmo di sviluppo dell’intelligenza artificiale nella loro vecchia azienda. Uno di loro in seguito disse a un giornalista che “c’era una probabilità del 20% che un’intelligenza artificiale canaglia distruggesse l’umanità entro il prossimo decennio”. Lo stesso timore sembra aver guidato il tentativo di defenestrare #altman e il caos nei consigli d’amministrazione della scorsa settimana.
Ci si potrebbe interrogare sulla psicologia del continuare a creare macchine che si crede possano estinguere la vita umana. L’ironia, però, è che, sebbene la #paura dell’intelligenza artificiale sia esagerata, la paura stessa presenta i suoi #pericoli. L’allarme esagerato nei confronti dell’intelligenza artificiale deriva da un senso esagerato delle sue capacità. ChatGPT è estremamente efficace nel prevedere quale dovrebbe essere la parola successiva in una sequenza; così buono, infatti, che immaginiamo di poter conversare con esso come con un altro essere umano. Ma non è in grado di cogliere, come fanno gli esseri umani, il significato di quelle parole e ha una comprensione trascurabile del mondo reale. Rimaniamo lontani dal sogno di una “intelligenza generale artificiale”. "L'AGI non avverrà", ha suggerito Grady Booch, capo scienziato per l'ingegneria del software presso IBM, nemmeno "durante la vita dei figli dei vostri figli".
Per coloro che nella #silicon_valley non sono d’accordo, credendo che l’AGI sia imminente, gli esseri umani devono essere protetti attraverso l’allineamento (vedi openai.com/blog/our-approach-to-alignment-research ), garantendo che l’intelligenza artificiale sia “allineata ai valori umani e segua le intenzioni umane”. Questo potrebbe sembrare un modo razionale per controbilanciare qualsiasi danno che l’IA potrebbe causare. Fino a quando, cioè, non inizi a chiederti cosa sono esattamente i “valori umani”, chi li definisce e cosa succede quando si scontrano?
https://www.theguardian.com/co....mmentisfree/2023/nov
stella
😎
Ellimina il commento
Sei sicuro di voler eliminare questo commento ?