Il CEO di Google ammette che la sua intelligenza artificiale è completamente incasinata:
Google ha avuto una settimana e mezza terribile. La settimana scorsa, il suo #motore di #intelligenza #artificiale #gemini ha iniziato a sputare immagini di nazisti razzialmente diversi, confondendo #internet con la sua insapore e inesattezza storica. La #notizia ha attirato un’enorme quantità di attenzione da parte dei media mainstream, trasformando l’incidente in una crisi di pubbliche relazioni di proporzioni epiche. In risposta, hanno impedito al sistema di #generare qualsiasi #immagine di persone.
"Tre settimane fa abbiamo lanciato una nuova funzionalità di generazione di immagini per l' app conversazionale Gemini (precedentemente nota come #bard), che includeva la possibilità di creare immagini di persone. È chiaro che questa funzionalità ha mancato il bersaglio. Alcune delle immagini generate sono imprecise o addirittura offensive. Siamo grati per il #feedback degli utenti e ci dispiace che la funzionalità non abbia funzionato bene. Abbiamo riconosciuto l'errore e abbiamo temporaneamente #sospeso la generazione delle immagini delle persone in Gemini mentre lavoriamo su una versione migliorata", ha ammesso il vicepresidente senior di #google Prabhakar #raghavan in un post sul blog.
"Nessuna intelligenza artificiale è perfetta, soprattutto in questa fase emergente dello sviluppo del settore, ma sappiamo che il livello per noi è alto e continueremo a farlo per tutto il tempo necessario", ha affermato Pichai. "E esamineremo quello che è successo e ci assicureremo di risolverlo su larga scala."
Tuttavia, la sua spiegazione per il bizzarro #incidente era vaga e insoddisfacente. Questo l’incidente dimostra solo una lezione che le potenti aziende tecnologiche stanno imparando più e più volte: è abbastanza facile creare un’intelligenza artificiale che generi testo o immagini, ma estremamente difficile testarla per tutti i #problemi che gli utenti potrebbero avere – e, poiché Google sembra imparare in tempo reale, il che è imbarazzante quando l'intelligenza artificiale sbaglia in modo iper-pubblico.
https://futurism.com/google-ceo-gemini-scandal