Eliminare i Gender Bias:
Dimensioni di Qualità dei Dati per un IA Equa

I sistemi di IA non sono intrinsecamente neutrali. In particolare quando hanno a che fare con persone, gli algoritmi riflettono errori tecnici originati dal problema dell’etichettatura errata dei dati. Dato che alimentano classificazioni errate e discriminatorie, questi sistemi non sono sistematicamente protetti dai bias. Considerando il problema del bias dal punto di vista delle dimensioni della qualità dell’informazione, esaminiamo un toolkit per la mitigazione dei bias (Cleanlab), che definisce l’equità concentrandosi sulle dimensioni di accuratezza e completezza dei dati. Attraverso un caso studio sull’attributo Gender, suggeriamo strategie per migliorare l’identificazione degli errori nella classificazione di due esempi difficili: individui non binari e individui transgender. Concentrandoci sulla timeliness, forniamo un quadro teorico di dimensioni utili per un’IA equa.

Eliminare i Gender Bias:
Dimensioni di Qualità dei Dati per un IA Equa

In streaming/Speech

Contenuto esclusivo, registrati per visualizzarlo

GUARDA ANCHE

PRIVACY WEEK S.R.L.
VIA MAURO MACCHI N. 26, 20124 MILANO (MI)
P.IVA 11941860964

Resta in contatto

Bisogno d'aiuto?

Se hai riscontrato un problema, puoi farcelo sapere qui.

Vuoi saperne di più?

Per info e comunicazioni clicca qui.

Rimani aggiornat*
su Privacy Week 2023

Benvenuto!

Inserisci la tua mail per registrarti.



Aggiungi qui il testo dell'intestazione