Centinaia di immagini di abusi sessuali su minori trovate in un set di dati utilizzato per addestrare gli strumenti di generazione di immagini dell'intelligenza artificiale!
Più di mille #immagini di materiale #pedopornografico sono state trovate in un enorme set di #dati_pubblici utilizzato per #addestrare popolari #modelli di #generazione_di_immagini basati sull’ #intelligenza_artificiale, hanno affermato i ricercatori dell’Osservatorio Internet di Stanford in uno #studio pubblicato all’inizio di questa settimana.
La presenza di queste immagini nei dati di addestramento può rendere più semplice per i modelli di intelligenza artificiale creare nuove e realistiche immagini generate dall’intelligenza artificiale di contenuti pedopornografici o immagini “deepfake” di #bambini_sfruttati.
I risultati sollevano anche una serie di nuove #preoccupazioni riguardanti la natura opaca dei dati di addestramento che fungono da base per una nuova serie di potenti strumenti di intelligenza artificiale generativa. L’enorme set di dati esaminato dai ricercatori di #stanford, noto come #laion_5b, contiene miliardi di immagini che sono state recuperate da Internet, inclusi #social #media e siti di intrattenimento per #adulti.
Degli oltre cinque miliardi di immagini presenti nel set di dati, i ricercatori di Stanford hanno affermato di aver identificato almeno 1.008 casi di materiale pedopornografico. LAION, l’organizzazione no-profit tedesca dietro il set di dati, ha dichiarato in una dichiarazione sul suo sito web di avere una “politica di tolleranza zero per i contenuti illegali”.
L'organizzazione ha affermato di aver ricevuto una copia del rapporto da Stanford e che sta valutando i risultati. Ha inoltre osservato che i set di dati vengono sottoposti a “strumenti di filtraggio intensivo” per garantire che siano sicuri e conformi alla legge.
Leggi tutto:
https://edition.cnn.com/2023/1....2/21/tech/child-sexu