Chatbot di Bing diventa difensivo

Le persone testano il chatbot Bing di Microsoft, progettato per essere informativo e conversazionale.

Un forum su Reddit dedicato alla versione potenziata dall'intelligenza artificiale del motore di ricerca Bing, questa settimana era pieno di racconti di essere stati rimproverati, mentiti o palesemente confusi negli scambi in stile conversazione con il bot.

Il chatbot di Bing è stato progettato da Microsoft e dalla start-up OpenAI, che ha fatto scalpore dal lancio di ChatGPT a novembre, un'app in grado di generare tutti i tipi di testo in pochi secondi con una semplice richiesta. La tecnologia dietro di esso, nota come intelligenza artificiale generativa, ha suscitato passioni, tra fascino e preoccupazione.

Ma, secondo gli scambi condivisi online dagli sviluppatori che testano la creazione dell'IA, il nascente chatbot Bing di Microsoft a volte può uscire dai binari, negando fatti ovvi e rimproverando gli utenti.

Quando è stato chiesto da AFP di spiegare una notizia secondo cui il chatbot di Bing stava facendo affermazioni selvagge come dire che Microsoft spiava i dipendenti, il chatbot ha detto che si trattava di una falsa "campagna diffamatoria contro me e Microsoft".

I post sul forum di Reddit includevano schermate dello scambio (screen shots) con Bing, che raccontavano di inciampi come insistere sul fatto che l'anno in corso è il 2022 e dire a qualcuno che "non è stato un buon utente" per averne contestato la veridicità. Alcuni hanno affermato che il chatbot ha dato consigli su come hackerare account Facebook, plagiare saggi e raccontare barzellette razziste.

"Il nuovo Bing cerca di mantenere le risposte divertenti e concrete, ma dato che si tratta di un'anteprima anticipata, a volte può mostrare risposte inaspettate o imprecise per diversi motivi, ad esempio la lunghezza o il contesto della conversazione", ha detto un portavoce di Microsoft all'AFP. Afferma inoltre che continuano a imparare da queste interazioni e si sforzano di adattare le risposte degli utenti per creare risposte coerenti, pertinenti e positive.

Gli inciampi di Microsoft hanno fatto eco alle difficoltà riscontrate da Google la scorsa settimana quando ha lanciato la propria versione del chatbot chiamata Bard, solo per essere criticato per un errore commesso dal bot in un annuncio. Il pasticcio ha fatto precipitare il prezzo delle azioni di Google di oltre il sette percento alla data dell'annuncio.

Rafforzando i loro motori di ricerca con qualità simili a ChatGPT, Microsoft e Google sperano di aggiornare radicalmente la ricerca online fornendo risposte già pronte invece del familiare elenco di collegamenti a siti Web esterni.


Followme

497 blog messaggi

Commenti