Tecnologia tra Deep Nude e pregiudizi | contro gli stereotipi si fa strada l’IA femminista

La vicenda di Grok, il software che crea deepfake a sfondo sessuale, ha riacceso il dibattito sui pregiudizi di genere nell’intelligenza artificiale. In Italia, cresce la preoccupazione per come questi strumenti possano alimentare stereotipi e discriminazioni. Gli esperti chiedono regole più stringenti, mentre i produttori si difendono. La questione non riguarda solo la tecnologia, ma anche il modo in cui la società gestisce i pregiudizi.

Pregiudizi di genere nell’intelligenza artificiale,  deepfake a sfondo sessuale diventati un caso con Grok.  Gli spazi online perpetuano  gli stereotipi  di coloro che li creano e dai dati inseriti, al momento prevalentemente uomini. Secondo stime rilanciate dal  World Economic Forum  le donne costituiscono meno di un terzo della forza lavoro IA in tutto il mondo. Un fenomeno globale che sta portando alla costruzione di  alternative tecnologiche come la Rete Femminista di IA dell’America Latina e dei Caraibi.  La letteratura tecnologica è piena di esempi di  pregiudizi di genere. I sistemi di riconoscimento delle immagini hanno faticato a identificare accuratamente le donne, in particolare di colore, portando a identificazioni errate con gravi conseguenze per le forze dell’ordine.🔗 Leggi su Ildenaro.itImmagine generica

Approfondimenti su Grok DeepNude

Un Memory per imparare il rispetto: a Bari gli studenti combattono pregiudizi e stereotipi con un mazzo di carte

Iniziative educative come il Memory sul rispetto, adottato a Bari, aiutano gli studenti a riflettere su stereotipi e pregiudizi di genere.

Disabilità, Mattarella: pregiudizi e stereotipi ostacoli partecipazione

Qui sotto trovi una selezione di post e contenuti legati allo stesso argomento.

Sono disponibili ulteriori notizie e video informativi attraverso la ricerca dedicata.