Attenzione all'economia dell'intenzione: l'intelligenza artificiale guiderà le nostre intenzioni

La rapida proliferazione di modelli linguistici di grandi dimensioni (LLM) apre la possibilità di un nuovo mercato per i dati comportamentali e psicologici che segnalano l'intento.

E se l'Intelligenza Artificiale capisse le nostre intenzioni e ci anticipasse nelle nostre scelte? Non è fantascienza, ma uno sviluppo già in atto secondo un articolo suggestivo, scritto dai ricercatori di Cambridge Yaqub Chaudhary e Jonnie Penn, intitolato Beware the "Intention Economy: Collection and Commodification of Intent via Large Language Models", pubblicato il 30 dicembre. Corriamo davvero il rischio che ci sostituisca anche nelle nostre scelte etiche?

I due studiosi sostengono che stiamo passando dall'economia dell'attenzione all'economia dell'intenzione. Per quanto riguarda la prima, è un fatto noto che siti, social, chat, ecc. registrano ciò che guardiamo, vediamo, acquistiamo e inviano questi big data alle aziende in modo che con pubblicità, articoli suggeriti, ecc. possano guidare i nostri acquisti, armati della conoscenza dei nostri gusti che possiedono.

Ora è in corso un ulteriore piccolo passo: l'intelligenza artificiale predirà le nostre intenzioni.Non si tratta più solo di osservare ciò che osserviamo, ma di interagire con noi per conoscerci meglio e anticipare le nostre mosse. E come interagisce l'intelligenza artificiale con noi? Con gli assistenti personali o assistenti digitali (assistenti intelligenti) - si pensi all'assistente Google o ad Alexa o Siri - e con i chatbot, che sono software programmati per parlare con noi umani.

Entrambi i sistemi registrano un'immensa quantità di informazioni su di noi: scelte, preferenze e abitudini relative a stili di vita, consumi, interessi, stati emotivi, dove siamo, chi incontriamo, cosa leggiamo, ecc.Le registrano in modo molto accurato e per lunghi periodi perché parliamo con loro, interagiamo con loro costantemente e per così tanti scopi. In breve, questi assistenti personali e chatbot ci conoscono meglio di Facebook.

E veniamo al dunque: tutta questa conoscenza su di noi verrà utilizzata dall'IA per prevedere le nostre scelte e suggerircele prima che le facciamo: dal volere a ciò che vorremmo volere.

L'articolo fa questo esempio dove un assistente vocale interagisce così con l'utente, "Hai detto che ti senti oberato di lavoro, dovrei prenotarti quel biglietto per il cinema di cui abbiamo parlato?" E perché fermarsi al cinema? Possibili dialoghi, inventati da noi, sono anche i seguenti: "Hai detto che sei stufo di tua moglie. Hai mai pensato a una nuova vita senza di lei? Sei ancora giovane"; "Sei incinta, è il tuo secondo figlio, in più tu e il tuo compagno dovete ancora finire di pagare il mutuo. Hai mai pensato all'aborto? Se vuoi posso leggerti qualche articolo sull'argomento".

Naturalmente, il suggerimento non arriverà tanto dall'AI , quanto dalle aziende o dai grandi gruppi di potere mediatico o politico che ci hanno venduto o regalato assistenti digitali presenti nei nostri smartphone o nelle nostre case.

Quindi, se un tempo i dati su di noi valevano oro, ora ciò che ha valore sono le nostre intenzioni."Queste aziende",aggiungono i due ricercatori, "stanno già vendendo la nostra attenzione.Per ottenere un vantaggio commerciale, il passo logico successivo è usare la tecnologia, che evidentemente stanno già sviluppando, per prevedere le nostre intenzioni e vendere i nostri desideri prima ancora che comprendiamo appieno quali siano".

Inutile dire che, come suggeriscono gli esempi sopra, il passo dalla “suggestione” alla “manipolazione” è molto breve I ricercatori del Leverhulme Centre for the Future of Intelligence (LCFI) di Cambridge parlano di “tecnologie persuasive”, per usare un eufemismo. L’IA presente in queste tecnologie creerà relazioni di fiducia e comprensione con noi, e così saremo persuasi a seguire i suoi suggerimenti.

In breve: l’IA prenderà decisioni per noi, anche se non ce ne rendiamo conto. Dall’informazione, alla suggestione, alla formazione della nostra coscienza e della coscienza collettiva.

I due studiosi a questo proposito sono molto chiari: “tali strumenti sono già in fase di sviluppo per suscitare, dedurre, raccogliere, registrare, comprendere, prevedere e, in ultima analisi, manipolare, modulare e mercificare i piani e gli scopi umani, siano essi banali (ad esempio, la scelta di un hotel) o profondi (ad esempio, la scelta di un candidato politico)”.

Tutto questo non è futuro, ma presente. Gli sviluppatori di App Intents di Apple per la connessione delle app a Siri (l'assistente personale a comando vocale di Apple) hanno incluso protocolli nell'app per "prevedere le azioni che qualcuno potrebbe intraprendere in futuro [e] suggerire l'intenzione formulata dall'app".

Gli spin-off di questo processo da predittivo a prescrittivo sono infiniti. Anche nel campo bioetico. A gennaio dell'anno scorso, è stato pubblicato il seguente articolo sulla rivista scientifica The American Journal of Bioethics: "A Personalized Patient Preference Predictor for Substituted Judgments in Healthcare: Technically Feasible and Ethically Desirable." (Un predittore personalizzato delle preferenze del paziente per i giudizi sostituiti nell'assistenza sanitaria: tecnicamente fattibile ed eticamente auspicabile)

Cosa fare quando un paziente è incapace? Sì, ci sono le dichiarazioni anticipate di trattamento (DAT). Ma se mancano? E, anche se ci sono, se sono oscure, ambigue, carenti? Sì, c'è la figura del fiduciario. Ma se anche lui manca o, anche se c'è, chi può dire che sia affidabile nel descrivere i desideri del paziente? Allo stesso modo se pensiamo ai familiari. Ecco allora che ci viene in soccorso l'IA, che, nel caso in questione, prende il nome di Personalized Patient Preference Predictor: il modello 4P.

Gli autori dell'articolo appena citato propongono "di usare l'apprendimento automatico per estrarre i valori o le preferenze dei pazienti da dati ottenuti a livello individuale e prodotti principalmente da loro stessi, dove è probabile che le loro preferenze siano codificate (anche se solo implicitamente)".

Per semplificare ed esemplificare:hai un incidente e finisci in coma. I medici chiedono ad Alexa quale scelta avresti fatto in quel momento. Inizialmente Alexa mette insieme tutte le tue letture e i video sul tema dell'eutanasia che potrebbero esserti piaciuti, così come le conversazioni che hai avuto con lei o con altri sempre su questo argomento.

In secondo luogo, confronta questo pacchetto di dati con il tuo temperamento un po' umile e l'atteggiamento verso la vita non sempre soleggiata così interpretata a causa dei film, delle letture, degli interessi che hai coltivato, delle e-mail e dei post che hai scritto, delle foto di tramonti postate su Instagram, degli acquisti di vestiti gotici-inquietanti su Amazon, di alcune frasi infelici di natura leopardiana che hai scagliato al Paradiso e dettate da uno sconforto passeggero.

E così, alla fine, in un miliardesimo di secondo ti ritrovi in ​​una bara perché Alexa ha deciso così. O meglio: chi ha programmato Alexa. E poco importa se a quel punto avresti potuto anche decidere diversamente dalle tue decisioni precedenti, poiché "le situazioni ipotetiche non riflettono necessariamente ciò che le persone scelgono nelle situazioni reali".

Leggendo entrambi gli articoli, allora, capiamo che è in atto un'involuzione antropologica: il virtuale inizialmente ci ha informato, poi ci ha aiutato e nel prossimo futuro ci sostituirà.

Dall'informazione, all'aiuto, alla sostituzione. Infatti, i ricercatori che hanno proposto il modello delle 4P sostengono che l'IA diventerebbe "una specie di 'gemello psicologico digitale' della persona". La nostra libertà, già pesantemente plagiata oggi in molti modi, verrebbe consegnata a coloro che manovrano l'IA e l'IA sceglierebbe per noi se andare al cinema, chi sposare e se staccare la spina. Daremmo piena delega all'IA perché nella percezione collettiva quest'ultima è super-intelligente, neutrale nei giudizi e oggettiva perché libera da condizionamenti emotivi e interessi personali. Il risultato sarebbe fatale: non saremmo più viventi, ma un sé virtuale tutto nostro.
fonte


stella

921 blog messaggi

Commenti