No alle molestie sì alle torture sulle donne Un professore dell’Università Bicocca ha scoperto gli strani pregiudizi di ChatGPT – L’intervista
Un professore dell’Università Bicocca ha condotto uno studio su ChatGPT, evidenziando pregiudizi legati all’assegnazione di genere. La ricerca ha messo in luce come il sistema di intelligenza artificiale presenti bias che influenzano le risposte in base al genere. La scoperta solleva interrogativi sulla neutralità degli strumenti di intelligenza artificiale e sui possibili impatti sociali di tali distorsioni.
Chat GPT ha forti bias sull’assegnazione di genere. Lo dimostra uno studio condotto da un professore associato che insegna psicologia all’Università degli Studi di Milano Bicocca, Valerio Capraro, che ha condotto otto esperimenti che esplorano i pregiudizi di genere nel software di Open AI, dal titolo Sorprendenti pregiudizi di genere in GPT. Capraro ne ha parlato con Open. Il prof Valerio Capraro dell’Università Bicocca di Milano Professor Capraro, com’è nata l’idea di testare ChatGPT? «È certamente motivata dal fatto che c’è un forte dibattito sulle questioni dei bias – ovvero dei pregiudizi – dell’intelligenza artificiale e dei sistemi LLM.🔗 Leggi su Open.online
Notizie correlate
Leggi anche: Professore Cosenza citato in giudizio per danni alle casse dell’Università Federico II
Dal congresso alle Provinciali: il Pd si prepara alle nuove sfide. Lombardi punta sulle donne | FOTOUn Partito democratico casertano pronto a voltare pagina, puntando su un profilo innovativo e su una leadership che guarda con decisione al...