Un'indagine sui pregiudizi di genere nelle risposte di ChatGPT
Author(s)
Bordogna, Gloria
CNR-IREA
Editor(s)
CNR -IRPPS
Badaloni, Silvana
Università di Padova
CNR-ISAC
Martinelli, Lucia
MUSE Trento
Orsi, Mirella
IFF-BSS
Presto, Sabina
CNR-ICMATE
CNR-ISMAR
Language
Italian
Obiettivo Specifico
OS: Terza missione
Publisher
CNR Istituto di Ricerche sulla Popolazione e le Politiche Sociali (IRPPS Monografie)
Status
Published
Pages Number
109-115
Refereed
Yes
Journal
Donne e scienza: venti anni fa, tra venti anni
Date Issued
December 23, 2024
Alternative Location
ISBN
978-88-98822-25-6
Abstract
L’articolo esplora l’impatto di ChatGPT, un modello di linguaggio di grandi dimensioni, evidenziando il dibattito tra le sue capacità innovative e le implicazioni etiche, in
particolare analizzando dei bias di genere che affliggono le risposte di ChatGPT. Si evidenzia come ChatGPT possa perpetuare stereotipi di genere, ma anche come con
l’intervento degli utenti si possano mitigare i bias. Replicando nel Giugno 2023 l’esperimento di (Gross, 2023), che indaga le risposte di ChatGPT su domande con un
evidente dimensione di genere, si rilevano distorsioni e stereotipi. Si analizzano esempi di risposte discriminatorie e stereotipate su ruoli professionali, storie di successo, curriculum vitae, e abilità matematiche. Infine, si nota come il comportamento dei “Large Language Models” manchi di trasparenza nei criteri che producono le risposte. Per gestire questi problemi si suggerisce l’intervento di organismi regolatori sovranazionali, promuovendo la trasparenza e la qualità dei dati. Si conclude con l’importanza del coinvolgimento degli utenti nel miglioramento dei sistemi AI per una società più equa e priva di pregiudizi.
particolare analizzando dei bias di genere che affliggono le risposte di ChatGPT. Si evidenzia come ChatGPT possa perpetuare stereotipi di genere, ma anche come con
l’intervento degli utenti si possano mitigare i bias. Replicando nel Giugno 2023 l’esperimento di (Gross, 2023), che indaga le risposte di ChatGPT su domande con un
evidente dimensione di genere, si rilevano distorsioni e stereotipi. Si analizzano esempi di risposte discriminatorie e stereotipate su ruoli professionali, storie di successo, curriculum vitae, e abilità matematiche. Infine, si nota come il comportamento dei “Large Language Models” manchi di trasparenza nei criteri che producono le risposte. Per gestire questi problemi si suggerisce l’intervento di organismi regolatori sovranazionali, promuovendo la trasparenza e la qualità dei dati. Si conclude con l’importanza del coinvolgimento degli utenti nel miglioramento dei sistemi AI per una società più equa e priva di pregiudizi.
Type
book chapter
File(s)![Thumbnail Image]()
Loading...
Name
monogr 2024 atti ds 2023 BORDOGNA&RUBBIA genere e ChatGPT.pdf
Size
819.17 KB
Format
Adobe PDF
Checksum (MD5)
10e19ce28c73f2563e964411fb45dfb0