Eliminare i Gender Bias: Dimensioni di Qualità dei Dati per un IA Equa
I sistemi di IA non sono intrinsecamente neutrali. In particolare quando hanno a che fare con persone, gli algoritmi riflettono errori tecnici originati dal problema dell’etichettatura errata dei dati. Dato che alimentano classificazioni errate e discriminatorie, questi sistemi non sono sistematicamente protetti dai bias. Considerando il problema del bias dal punto di vista delle dimensioni della qualità dell’informazione, esaminiamo un toolkit per la mitigazione dei bias (Cleanlab), che definisce l’equità concentrandosi sulle dimensioni di accuratezza e completezza dei dati. Attraverso un caso studio sull’attributo Gender, suggeriamo strategie per migliorare l’identificazione degli errori nella classificazione di due esempi difficili: individui non binari e individui transgender. Concentrandoci sulla timeliness, forniamo un quadro teorico di dimensioni utili per un’IA equa.
Eliminare i Gender Bias: Dimensioni di Qualità dei Dati per un IA Equa