Facebook guadagna solo circa £ 34 all'anno dal cliente medio nel Regno Unito - poco meno di £ 3 al mese (e questo è prima dei costi) , quindi chiaramente non c'è spazio o motivazione per il servizio o l'attenzione umana al cliente. L'utente non è il cliente, bensì il prodotto i cui dati vengono venduti agli inserzionisti.
Gli utenti non hanno quindi alcun rapporto cliente diretto con la piattaforma. Non vi è alcun incentivo diretto affinché la rete “si preoccupi” dell’utente più che dell’inserzionista. E non importa dove ti trovi sulla scala tra “libertà di parola assoluta” e “le aziende private hanno il diritto di censurare qualsiasi utente”, con margini di profitto così sottili, è inevitabile che l’elaborazione automatica debba essere utilizzata per moderare post e contenuti.
Tuttavia, il fatto è che le funzionalità di elaborazione e gestione dei clienti che i social network stanno attualmente sviluppando vengono utilizzate in molti modi oltre la semplice moderazione. Ed è anche vero che questo trattamento automatizzato avviene su larga scala e viene applicato ormai ad ogni post di ogni iscritto. Il 68% degli elettori statunitensi è su Facebook. Nel Regno Unito è del 66% e in Francia del 73,2%. I numeri sono simili in tutti i paesi democratici dell’Occidente. È quindi fondamentale che le regole applicate siano politicamente neutre.
Il potere che risiede nella capacità di elaborare meccanicamente i contributi di ciascun utente è molto più profondo e profondo di quanto molti possano immaginare. E sebbene non possa dettare direttamente ciò che gli utenti scrivono nei loro messaggi, ha la capacità di influenzare in modo fondamentale quali messaggi vengono ricevuti.
I servizi di social media sono diventati di fatto piazze cittadine e la maggior parte concorda sul fatto che i proprietari delle aziende dovrebbero evitare di influenzare la politica.
Inoltre, chiunque usi Facebook sa che il sistema limita la portata di una persona, soprattutto su argomenti politicamente sensibili, a volte in misura estrema. Oppure l'utente in questione viene semplicemente bloccato per un certo periodo di tempo o completamente bandito dalla rete.
Quindi sorge la domanda: come facciamo a sapere che le società di social media non interferiscono in modo non etico nella politica quando hanno così tanto potere sulla censura? Possono essere affidati con responsabilità?
Tornerò su questa domanda, ma è chiaro che la fiducia in queste aziende è del tutto mal riposta.
La pandemia ha svegliato molte persone e ha fatto capire loro quanto controllo esercitano i responsabili delle nostre reti di social media. Scrivono le regole per aumentare il coinvolgimento sui post che gli piacciono e aumentare il numero di follower di determinate persone. Al contrario, gli utenti che vanno controcorrente (o contro la narrativa dell’establishment) vedranno il loro coinvolgimento sottilmente ridotto o addirittura eliminato, oppure potrebbero essere completamente banditi dal servizio. E ci sono segnali che, contrariamente ai principi della democrazia, Facebook, Twitter e YouTube mantengono saldamente il controllo della bilancia.
Quando Elon Musk acquistò Twitter, invitò i giornalisti indipendenti Matt Taibbi, Bari Weiss e Michael Schellenburger negli uffici di Twitter per ricercare le comunicazioni interne dell'azienda e scoprire fino a che punto i precedenti proprietari avevano censurato i tweet degli utenti.
Il risultato sono i file di Twitter, che mostrano chiaramente che ci sono stati interventi su larga scala e che in molti casi erano motivati politicamente . Il team di Twitter Files ha scoperto che le agenzie governative erano impegnate nella sorveglianza e nella censura da parte dell'azienda dei cittadini statunitensi e di altre nazioni, e che le agenzie governative richiedevano regolarmente (con forza) azioni di censura. Inoltre, è stato rivelato che interventi simili sono avvenuti anche su altri social network, come Facebook.
Ma dopo i file di ingerenza di Twitter, è emersa una minaccia nuova e potenzialmente più grande.
AI.
C'è stato un tempo in cui gli algoritmi sembravano essere l'unico argomento di conversazione di cui gli esperti di marketing digitale potevano discutere. E poiché non vi è spazio per l’intervento umano a livello di contributo individuale, sono stati utilizzati degli algoritmi.
All’inizio erano piuttosto semplici, come le equazioni che facevamo a scuola durante le lezioni di matematica, e quindi relativamente facili da calcolare. L'ascesa di Google si basa su un'idea semplice ma geniale: contare i collegamenti esterni a un sito web come indicatore di pertinenza.
Tuttavia, gli algoritmi hanno ora lasciato il posto a modelli di apprendimento automatico più complessi, che si basano ancora su algoritmi al loro interno, ma ora vengono generati automaticamente e sono così estesi che qualsiasi tentativo umano di districarli è un fallimento. Pertanto, limitiamo le nostre considerazioni a ciò che possono ottenere, a quali cose importanti possono rilevare, piuttosto che a come funziona esattamente il codice.
E ora siamo entrati nella terza generazione tecnologica. L’apprendimento automatico si è trasformato nello sviluppo di Large Language Models (LLM) o, più in generale, di intelligenza artificiale. E con quest’ultimo sviluppo, le aziende hanno trovato nuove, immense e spaventose opportunità di potere e controllo.
La creazione di LLM richiede formazione. La formazione fornisce loro determinate competenze e pregiudizi. Lo scopo della formazione è colmare le lacune in modo che non vi siano buchi evidenti nella capacità dei LLM di affrontare gli elementi costitutivi della concettualizzazione e del linguaggio umani. E questo è l'elemento di differenziazione dei LLM; che possiamo conversare con loro e la conversazione scorre, e la grammatica e il contenuto sembrano normalmente fluidi e completi. Idealmente, un LLM si comporta come un sofisticato maggiordomo inglese: educato, informativo e corretto senza essere scortese. Ma la formazione conferisce anche specializzazioni al LLM.
Nel contesto dei social media – ed è qui che la spaventosa portata del potere diventa chiara – gli LLM vengono utilizzati per fungere da monitor di corridoio e imporre la “moderazione dei contenuti”.
Metas Llama Guard è un ottimo esempio, addestrato non solo per la moderazione ma anche per la segnalazione degli utenti. E questa funzione di reporting non include solo la possibilità di effettuare report, ma anche di utilizzare questi dati di reporting per trovare opportunità di influenzare e fornire suggerimenti in relazione a e per l'utente. E quando parlo di suggerimenti, un LLM può fornire non solo il tipo ovvio di suggerimenti che l'utente potrebbe accogliere e accettare felicemente, ma anche un tipo più insidioso e subconscio che può essere manipolativo e finalizzato al controllo.
Non ci sono ancora prove accumulate (per quanto ne so) che i LLM vengano utilizzati in questo modo; Non ancora. Ma la capacità esiste certamente, e se il comportamento passato è indicativo di sviluppi futuri, è probabile che venga utilizzata.
Basta guardare l'episodio del 2006 del programma televisivo di Derren Brown, "Derren Brown: The Heist", in cui convince un gruppo di sconosciuti a commettere una rapina in banca, per rendersi conto di quanto profondo e potente possa essere l'uso della suggestione. . Per coloro che non conoscono Derren Brown, è un ipnotizzatore e mentalista da palcoscenico che enfatizza il potere della suggestione rispetto all'ipnosi (la maggior parte dei suoi spettacoli non contengono alcuna ipnosi). Solo attraverso il potere della suggestione, riesce a convincere le persone a fare le cose più straordinarie.
I suggerimenti “alla Derren Brown” funzionano perché il cervello umano è in realtà molto meno mobile e molto più lineare di quanto pensiamo. La coscienza è una risorsa preziosa e molte azioni che compiamo frequentemente diventano abituali, permettendoci di farle senza pensare e mantenendo così la consapevolezza nelle aree in cui è più necessaria.
Per abitudine, cambiamo marcia in un'auto con il cambio manuale senza pensarci. E conosciamo tutti il gioco in cui hai un determinato periodo di tempo per elaborare un elenco di cose, ad es. B. Paesi che terminano con la lettera A. Quando si mette alla prova davanti a una folla, a volte può essere difficile trovare qualcosa. Il cervello spesso non è così bravo a pensare in modo creativo o a ricordare qualcosa in modo rapido e consapevole.
Ma se qualcuno con cui hai parlato pochi minuti prima della partita ti racconta della sua vacanza in Kenya, allora il Kenya sarà sicuramente la prima risposta che ti verrà in mente. Inoltre, l'associazione avviene automaticamente, che lo vogliamo o no!
È semplicemente così che funziona il cervello. Quando le informazioni vengono fornite al momento giusto e nel modo giusto, è quasi certo che un dato suggerimento verrà seguito.
Derren Brown lo sa ed è un maestro nello sfruttarlo.
I motori di ricerca e le piattaforme di social media hanno un enorme potere di influenzare il comportamento attraverso suggerimenti sottili. E infatti ci sono prove che Facebook e Google lo abbiano fatto.
Professore e ricercatore Dott. Robert Epstein “ha sorpreso” Google a manipolare la casella dei suggerimenti di ricerca che appare sotto la casella di testo in cui gli utenti inseriscono una query di ricerca. L'intero episodio è diventato ancora più spiacevole quando è diventato chiaro che Google barava ed era consapevole che i suoi esperimenti non erano etici. Non fornirò tutti i dettagli, ma dai un'occhiata ai link: è una storia interessante di per sé.
Gli utenti si trovano in uno stato mentale particolarmente fiducioso e ricettivo quando utilizzano la funzione dei collegamenti suggeriti di Google e non si accorgono quando i risultati contengono azioni e suggerimenti convincenti che sono lungi dall'essere la migliore risposta alla loro query di ricerca, ma piuttosto servono a manipolare l'opinione dell'utente. azioni successive.
Quando si tratta di post sui social media, l’uso dei suggerimenti è spesso molto più subdolo, rendendo più difficile rilevarli e contrastarli. L'analisi LLM del database dei post degli utenti può rivelare post correlati che suggeriscono azioni. Qui la rete può trarre vantaggio dal fatto di avere a sua disposizione molti milioni di messaggi utente, compresi messaggi che suggeriscono risultati preferiti. Tali messaggi possono essere selezionati e avere la priorità nei feed degli utenti.
La moderazione dei contenuti è ovviamente necessaria per affrontare il linguaggio inaccettabile e il comportamento antisociale. Tuttavia, esiste un’ampia zona grigia in cui le opinioni spiacevoli possono essere etichettate come “incitamento all’odio” e poiché si tratta di un’area grigia, c’è ampio spazio perché il social network entri nel regno della politica personale e della libertà di parola.
Il termine “incitamento all’odio” è stato uno strumento molto efficace per giustificare l’uso del martello del divieto, ma la preoccupazione principale ora è che con l’uso degli LLM, un importante traguardo storico è stato superato con appena un sussurro, portandolo a un livello è implicito un livello completamente nuovo di tali restrizioni e minacce alla libertà di comunicazione degli utenti.
E questa pietra miliare è che gli LLM verranno ora utilizzati per gestire il comportamento umano piuttosto che il contrario. Il superamento di questo traguardo è stato difficilmente notato perché avevamo già algoritmi più semplici che svolgevano questo compito e lo facevano comunque all’oscuro.
Gli utenti se ne accorgono solo quando ne sono evidentemente colpiti. Tuttavia, ci sono molte ragioni per credere che guarderemo indietro al futuro e ci renderemo conto che questa pietra miliare è stata una sorta di momento critico dopo il quale una sorta di futuro simile a Sky-Net è diventato inevitabile.
Proprio la scorsa settimana, il primo ministro britannico Keir Starmer ha annunciato un’iniziativa della polizia per utilizzare i social media per identificare coloro che sono coinvolti nella repressione dei disordini pubblici, dimostrando come la segnalazione automatizzata del LLM si estenda oltre i social media e possa essere utilizzata nei procedimenti penali.
Non ci sono ancora dettagli su come verrà effettuato questo monitoraggio, ma in base all’esperienza del Tech Project Pitching, si può essere certi che il governo ha una serie di aziende tecnologiche che propongono soluzioni. E puoi star certo che i LLM sono pubblicizzati come parte integrante di quasi tutti questi progetti!
Quindi abbiamo scoperto che i social media sono chiusi e proprietari e hanno consentito la creazione di nuove strutture di potere mediatico. Abbiamo visto che i proprietari dei social media hanno il potere di sopprimere o aumentare la viralità di un post e che LLM (AI) ha ora introdotto un monitoraggio e un reporting che probabilmente si espanderanno nel mondo reale. Attraverso i file di Twitter, abbiamo visto che le società di social media hanno infranto la legge durante la pandemia e hanno mostrato la volontà di collaborare con le autorità governative per censurare e sopprimere le notizie impopolari.
fonte