Gli argomenti tecnici, non importa di che tipo, tendono ad essere pesantemente distorti quando vengono discussi in pubblico. Ci sono molte ragioni per questo: ideologia, clic e l'assoluta incapacità del giornalista medio di comprendere adeguatamente il concetto in questione.
Gli esempi abbondano: basti pensare alle sciocchezze scritte sul riscaldamento globale o sul COVID.
Il più recente di questi argomenti è l'intelligenza artificiale (AI). Dal rilascio di ChatGPT, un'app AI che afferma di essere in grado di imparare a creare narrazioni in qualsiasi stile su richiesta, i commenti dei media sull'IA sono esplosi. Il consenso, per citare uno stile che ChatGPT non ha ancora imparato, è quasi uniformemente "una storia raccontata da un idiota, piena di rumore e furia che non significa nulla".
La frenesia dei media è caratterizzata da due approcci: il primo (e più comune) è una completa mancanza di comprensione della tecnologia. La seconda è un'immagine del soggetto presa dai film, principalmente HAL 9000 e Skynet,una vecchia generazione aggiungerebbe Colossus. Queste entità di intelligenza artificiale sono costantemente pazze, malevole o entrambe le cose (sebbene non al livello dell'IA in "I Have No Mouth and I Must Scream" di Harlan Ellison, che è così sopraffatto dall'odio esistenziale che uccide tutti tranne cinque di l'umanità distruggendo individui che poi intende torturare per tutta l'eternità). Per un motivo nessuno suggerisce l'IA Samantha nel grande film Her, che è allegra, disponibile e persino amorevole. Questo dice più sulla natura umana che sull'intelligenza artificiale.
L'intelligenza artificiale è stata introdotta da Alan Turing nel suo articolo del 1950 Computing Machinery and Intelligence. Turing propose per la prima volta i computer negli anni '30 e poi svolse un ruolo nella costruzione dei primi modelli funzionanti per i decifratori di codici britannici a Bletchley Park. In quel documento, ha proposto quello che in seguito divenne noto come il test di Turing, progettato per rispondere alla domanda se un'intelligenza artificiale debba essere trattata come un essere autocosciente, una persona diversa. Turing sostiene che quando stai conversando con un'intelligenza artificiale - fai domande e ottieni risposte - e non puoi decidere se hai a che fare con un essere umano o una macchina, devi pensare a loro come esseri intelligenti e sicuri di sé.
Le speculazioni di Turing caddero su un terreno fertile. Mentre le "bombe" originali di Bletchley Park (così chiamate a causa del ticchettio che facevano durante i calcoli) furono dismesse dopo la guerra, computer più avanzati come l'UNIVAC furono progettati e costruiti nei primi anni '50. Sono stati accolti con speculazioni e speculazioni selvagge su ciò che tutto ciò significava per il destino dell'umanità. Le conclusioni furono in gran parte unanimi: "Thinking Machines" avrebbe presto superato gli umani, che sarebbero stati annientati o messi da parte per estinguersi silenziosamente.
Ottant'anni dopo, poco è cambiato. Il dibattito continua allo stesso livello superficiale e disinformato mentre attendiamo con impazienza che AM o HAL emergano e inizino a torturarci o ad ucciderci.
Allora, qual'è il problema? Innanzitutto, quando parliamo di IA nel 21° secolo, stiamo discutendo di due tipi distinti e separati come se fossero la stessa cosa. Queste sono quelle che io chiamo "app AI", che include ChatGPT e le molte app di AI art che stanno facendo il giro, e la "general intelligence AI", che sono gli HAL e gli Skynet dei film in grado di affrontare qualsiasi cosa e facendo qualunque cazzo gli piaccia.
Finora abbiamo visto solo le IA delle app. Si tratta di un software, che di solito lavora su reti neurali, dedicato a un'attività specifica - creazione di testo o grafica - e dispone di algoritmi che possono modificare le risposte del programma man mano che "impara" di più sull'attività”. L'apprendimento dell'intelligenza artificiale si ottiene attraverso un "apprendimento supervisionato" in cui solo gli esseri umani stabiliscono i parametri e gli obiettivi, monitorano il processo e rivedono e giudicano i risultati.
Finora, questa interazione umana si è dimostrata assolutamente necessaria: "l'apprendimento senza supervisione", quando viene tentato, tende a fallire piuttosto rapidamente. L'unico lavoro di App AI è il suo intero universo e non può facilmente trasferire ciò che ha imparato ad altre aree. Come Eric J. Larson scrive in The Myth of Artificial Intelligenceun libro che chiunque sia interessato all'argomento dovrebbe leggere: “... I sistemi di gioco degli scacchi non giocano al gioco più complesso del Go. I sistemi Go non giocano nemmeno a scacchi.” Quindi nessuna IA di questo tipo smetterà mai di raccogliere immagini su Internet e cercherà di impadronirsi del Pentagono. (Così fa l'uomo che qualche settimana fa ha affermato che ChatGPT già "gestisce il sistema finanziario").
Ultimamente ci sono state molte speculazioni sul fatto che questi sistemi sostituiranno gli esseri umani in determinate aree. La risposta è no, non ancora e probabilmente mai. Qualche settimana fa, amata da tutti i lettori di AT, Monica Showalter ha eseguito una sorta di test di Turing su ChatGPT. Ha accettato la sfida: "Scrivi un articolo in stile Thomas Lifson sul futuro del settore aereo". Quello che ha ottenuto è stato un articolo blando, ampolloso, scritto male, pieno di cliché, non sequitur ed errori palesi, nessuno dei quali posso dire con certezza ha mai caratterizzato la scrittura di Thomas. Ci vorrà molto tempo prima che ChatGPT prenda le redini qui in AT.
Ma un'intelligenza artificiale dell'app non potrebbe imparare abbastanza, acquisire abbastanza esperienza ed evolversi abbastanza da estendere i suoi tentacoli elettronici in aree per le quali non è mai stata concepita?
Questo ci porta all'IA generale, il regno di HAL e Samantha, il Santo Graal della ricerca sull'IA e ciò di cui ci hanno messo in guardia sia Stephan Hawking che Elon Musk.
Turing inizialmente respinse l'idea dell'intelligenza delle macchine, sostenendo che alle macchine mancava l'intuizione, l'abilità umana che ci consente di saltare le procedure passo dopo passo e arrivare direttamente al cuore di un problema. Non c'è modo di quantificare l'intuizione, né lo sono altre capacità umane correlate come l'immaginazione. Sebbene Turing abbia ignorato questo fattore nel suo articolo del 1950, si applica ancora oggi. Non c'è modo di abbattere l'intuito, l'immaginazione o il buon senso per renderli programmabili.
Uno degli sviluppi più scioccanti nella ricerca sull'IA alla fine del secolo scorso è stata la consapevolezza che le macchine non possono affrontare il banale. Un programma può facilmente giocare a scacchi, modellare l'interno di una stella di classe M o calcolare la traiettoria di un razzo, ma se gli chiedi di pilotare un robot lungo un corridoio, si schianterà immediatamente contro un muro e subirà un collasso completo . È qualcosa che Elon ha sperimentato lui stesso con le sue auto a guida autonoma.
Le tecniche statistiche impiegte dai programmi di intelligenza artificiale (passano al setaccio migliaia, milioni o forse miliardi di possibili soluzioni prima di scegliere quella più probabile) semplicemente non possono sostituire i tratti umani che tutti diamo per scontati.
Non sappiamo davvero cosa sia "intuizione" o "buon senso", il che significa che non sappiamo cosa sia il pensiero. E se è così, come possiamo sperare di copiarlo? Ci sono voluti circa tre milioni e mezzo di anni perché l'intelligenza umana si sviluppasse. Nessuno, per quanto talentuoso, sarà in grado di replicarlo in una manciata di anni.
Probabilmente scopriremo che l'intelligenza cosciente è una qualità emergente, derivante da elementi che oggi difficilmente possiamo concettualizzare, figuriamoci comprendere. E se non riusciamo a capirli, è improbabile che saremo in grado di trasferirli su chip di silicio.
Quindi Skynet non calpesterà ancora i nostri crani. Ma ciò non significa che le persone smetteranno di lavorare sull'IA generale. Non è una brutta cosa: questa ricerca ci insegnerà molto su noi stessi, forse cose che preferiremmo non sapere. E se un tale tentativo dovesse avere successo, avremmo ancora pochi motivi per preoccuparci. Come ha sottolineato Elon, una tale unità sarebbe isolata in una struttura di ricerca e dipendente da un hardware straordinariamente complesso e sensibile. Qualsiasi cambiamento nel sistema, come ad esempio B. un malfunzionamento o un'interruzione di corrente probabilmente paralizzerebbe l'intero sistema. (Il che solleva ulteriori domande: è moralmente giustificabile creare un essere intelligente che inevitabilmente subiranno malfunzionamenti? direi di no.)
Per quanto riguarda l'App AI, è solo una nuova generazione di strumenti e il Sapiens è bravo con gli strumenti. Continuerà a migliorare e ci darà più competenze e opportunità. Attualmente, l'intelligenza artificiale delle app è più o meno allo stesso livello dei computer di casa nei primi anni '80, quando era limitata a piccole cose come i giochi primitivi. Le prospettive sono enormi.
Ma ChatGPT non prenderà il sopravvento e costringerà tutti a leggere le proprie cose diciotto ore al giorno. Inoltre, l'intelligenza artificiale non metterà tutti senza lavoro, come previsto dalla pubblicazione di Player Piano di Kurt Vonnegut nel 1952. Dagli anni '70 è stato chiaro che l'infotecnologia crea effettivamente posti di lavoro espandendo le industrie esistenti e creandone di nuove. Non abbiamo motivo di credere che questo sarà diverso con l'IA.
L'intelligenza artificiale ci fornirà anche un nuovo arsenale di difese digitali contro gli attuali sforzi del WEF, dei giganti della tecnologia e delle élite per imporci il tecnofeudalesimo. E questo, cari compagni di gioco, sarà qualcosa di utile.