Ti fidi dell'intelligenza artificiale per scrivere le notizie? Lo fa già, e non senza problemi: secondo il quotidiano "The Conversation", sforna migliaia di articoli alla settimana.
Le #aziende utilizzano sempre più l’intelligenza artificiale (AI) per #generare #contenuti #multimediali, comprese le #notizie, per coinvolgere i propri clienti. Ora vediamo persino l’intelligenza artificiale utilizzata per la “gamification” delle notizie, ovvero per creare interattività associata ai contenuti delle notizie.
Nel bene e nel male, l’intelligenza artificiale sta cambiando la natura dei media. E dovremo essere saggi se vogliamo proteggere l'integrità di questa istituzione.
I principali fornitori di grandi #modelli #linguistici – i modelli che sono alla base di vari programmi di #intelligenza_artificiale – hanno un incentivo #finanziario e reputazionale per assicurarsi che i loro #programmi non causino danni. Open AI con i suoi modelli #gpt e #dall-E , Google con #palm 2 (utilizzato in Bard) e #meta con il suo scaricabile #llama 2 hanno tutti compiuto sforzi significativi per garantire che i loro modelli non generino #contenuti #dannosi.
Spesso lo fanno attraverso un processo chiamato “apprendimento per rinforzo”, in cui gli esseri #umani curano le risposte a domande che potrebbero causare #danni. Ma ciò non impedisce sempre ai modelli di produrre #contenuti #inappropriati.
Lo dimostra il recente incidente del sondaggio di Microsoft sulla morte di Lilie James (di cui si è già parlato qui) ha suscitato una ragionevole rabbia e sollevato la domanda: perché Microsoft ha permesso che ciò accadesse?
Come scrive Guardian, l’intelligenza artificiale generativa sta diventando accessibile e #conveniente. Ciò lo rende attraente per le aziende di notizie commerciali, che sono state scosse dalle perdite di entrate. Pertanto, ora stiamo vedendo l’intelligenza artificiale “scrivere” notizie, risparmiando alle #aziende dal dover pagare gli stipendi dei #giornalisti.
A giugno, il presidente esecutivo di News Corp, Michael Miller, ha rivelato che la società aveva un piccolo team che produceva circa 3.000 articoli a settimana utilizzando l’intelligenza artificiale.
In sostanza, il team di quattro persone garantisce che il contenuto abbia senso e non contenga "allucinazioni": false informazioni inventate da un modello quando non è in grado di prevedere una risposta adeguata a un input.
Anche se è probabile che queste #notizie siano accurate, gli stessi strumenti possono essere utilizzati per generare contenuti potenzialmente fuorvianti che si spacciano per notizie e sono quasi indistinguibili dagli articoli scritti da giornalisti professionisti.
Da aprile, un’indagine di NewsGuard ha individuato centinaia di siti web, scritti in diverse lingue, che sono per lo più o interamente generati dall’intelligenza artificiale per imitare siti di notizie reali. Alcuni di questi includevano una disinformazione dannosa, come l’affermazione secondo cui il presidente degli Stati Uniti Joe Biden era morto.
Si pensa che i siti, che pullulavano di #pubblicità, fossero probabilmente generati per ottenere entrate pubblicitarie.
Con l’avanzare della tecnologia, aumenta anche il rischio:
In generale, molti #modelli #linguistici di grandi dimensioni sono stati limitati dai dati di #addestramento sottostanti. Ad esempio, i modelli addestrati sui dati fino al 2021 non forniranno “notizie” accurate sugli eventi mondiali nel 2022.
Tuttavia, la situazione sta cambiando, poiché ora i modelli possono essere messi a punto per rispondere a fonti particolari. Negli ultimi mesi, l’uso di un framework di intelligenza artificiale chiamato “ retrieval augmented generation ” si è evoluto per consentire ai modelli di utilizzare dati molto recenti.
Con questo metodo sarebbe certamente possibile utilizzare contenuti concessi in licenza da un numero limitato di fonti di informazione per creare un sito Web di notizie.
Sebbene ciò possa essere conveniente dal punto di vista aziendale, è ancora un altro potenziale modo in cui l’intelligenza artificiale potrebbe escludere gli esseri umani dal processo di creazione e diffusione delle notizie.
Una pagina di notizie curata dal punto di vista editoriale è un prodotto prezioso e ben pensato. Lasciare che l’intelligenza artificiale faccia questo lavoro potrebbe esporci a tutti i tipi di #disinformazione e #pregiudizi (soprattutto senza la supervisione umana) o comportare la mancanza di un’importante copertura localizzata.
Il News Media Bargaining Code australiano è stato concepito per “livellare il campo di gioco” tra le grandi aziende tecnologiche e quelle dei media. Da quando il codice è entrato in vigore, un cambiamento secondario sta ora derivando dall’uso dell’intelligenza artificiale generativa.
Mettendo da parte la qualità dei #clic, attualmente non esiste alcun confronto tra la qualità delle notizie che un giornalista può produrre e ciò che può produrre l’intelligenza artificiale.
Sebbene l’intelligenza artificiale generativa possa contribuire ad aumentare il lavoro dei giornalisti, ad esempio aiutandoli a ordinare grandi quantità di contenuti, abbiamo molto da perdere se iniziamo a vederla come un sostituto.
https://theconversation.com/do....-you-trust-ai-to-wri