Repository logo
  • English
  • Italiano
Log In
New user? Click here to register.Have you forgotten your password?
  1. Home
  2. Affiliation
  3. INGV
  4. Book chapters
  5. Un'indagine sui pregiudizi di genere nelle risposte di ChatGPT
 
  • Details

Un'indagine sui pregiudizi di genere nelle risposte di ChatGPT

Author(s)
Bordogna, Gloria
CNR-IREA
Rubbia, Giuliana  
Istituto Nazionale di Geofisica e Vulcanologia (INGV), Sezione Milano, Milano, Italia  
Editor(s)
Avveduto, Sveva  
CNR -IRPPS
Badaloni, Silvana
Università di Padova
Mangia, Cristina  
CNR-ISAC
Martinelli, Lucia
MUSE Trento
Orsi, Mirella
IFF-BSS
Presto, Sabina
CNR-ICMATE
Ravaioli, Mariangela  
CNR-ISMAR
Rubbia, Giuliana  
Istituto Nazionale di Geofisica e Vulcanologia (INGV), Sezione Milano, Milano, Italia  
Language
Italian
Obiettivo Specifico
OS: Terza missione
Publisher
CNR Istituto di Ricerche sulla Popolazione e le Politiche Sociali (IRPPS Monografie)
Status
Published
Pages Number
109-115
Refereed
Yes
Journal
Donne e scienza: venti anni fa, tra venti anni
Date Issued
December 23, 2024
Alternative Location
http://epub.irpps.cnr.it/index.php/mono/article/view/314
ISBN
978-88-98822-25-6
URI
https://www.earth-prints.org/handle/2122/57769
Subjects
05. General  
05.03. Educational, History of Science, Public Issues  
Subjects

sistemi domanda-rispo...

modelli di linguaggi ...

intelligenza artifici...

discriminazioni di ge...

mancanza di trasparen...

Large Language Models...

question-answer syste...

Artificial intelligen...

gender discrimination...

lack of transparency ...

Abstract
L’articolo esplora l’impatto di ChatGPT, un modello di linguaggio di grandi dimensioni, evidenziando il dibattito tra le sue capacità innovative e le implicazioni etiche, in
particolare analizzando dei bias di genere che affliggono le risposte di ChatGPT. Si evidenzia come ChatGPT possa perpetuare stereotipi di genere, ma anche come con
l’intervento degli utenti si possano mitigare i bias. Replicando nel Giugno 2023 l’esperimento di (Gross, 2023), che indaga le risposte di ChatGPT su domande con un
evidente dimensione di genere, si rilevano distorsioni e stereotipi. Si analizzano esempi di risposte discriminatorie e stereotipate su ruoli professionali, storie di successo, curriculum vitae, e abilità matematiche. Infine, si nota come il comportamento dei “Large Language Models” manchi di trasparenza nei criteri che producono le risposte. Per gestire questi problemi si suggerisce l’intervento di organismi regolatori sovranazionali, promuovendo la trasparenza e la qualità dei dati. Si conclude con l’importanza del coinvolgimento degli utenti nel miglioramento dei sistemi AI per una società più equa e priva di pregiudizi.
Type
book chapter
File(s)
Loading...
Thumbnail Image
Name

monogr 2024 atti ds 2023 BORDOGNA&RUBBIA genere e ChatGPT.pdf

Size

819.17 KB

Format

Adobe PDF

Checksum (MD5)

10e19ce28c73f2563e964411fb45dfb0

rome library|catania library|milano library|napoli library|pisa library|palermo library
Explore By
  • Research Outputs
  • Researchers
  • Organizations
Info
  • Earth-Prints Open Archive Brochure
  • Earth-Prints Archive Policy
  • Why should you use Earth-prints?
Earth-prints working group
⚬Anna Grazia Chiodetti (Project Leader)
⚬Gabriele Ferrara (Technical and Editorial Assistant)
⚬Massimiliano Cascone
⚬Francesca Leone
⚬Salvatore Barba
⚬Emmanuel Baroux
⚬Roberto Basili
⚬Paolo Marco De Martini

Built with DSpace-CRIS software - Extension maintained and optimized by 4Science

  • Privacy policy
  • End User Agreement
  • Send Feedback