Caricamento Eventi
In streaming
Speech

Eliminare i Gender Bias:
Dimensioni di Qualità dei Dati per un IA Equa

I sistemi di IA non sono intrinsecamente neutrali. In particolare quando hanno a che fare con persone, gli algoritmi riflettono errori tecnici originati dal problema dell’etichettatura errata dei dati. Dato che alimentano classificazioni errate e discriminatorie, questi sistemi non sono sistematicamente protetti dai bias. Considerando il problema del bias dal punto di vista delle dimensioni della qualità dell’informazione, esaminiamo un toolkit per la mitigazione dei bias (Cleanlab), che definisce l’equità concentrandosi sulle dimensioni di accuratezza e completezza dei dati. Attraverso un caso studio sull’attributo Gender, suggeriamo strategie per migliorare l’identificazione degli errori nella classificazione di due esempi difficili: individui non binari e individui transgender. Concentrandoci sulla timeliness, forniamo un quadro teorico di dimensioni utili per un’IA equa.

Quando

Mer 28 Set ore 16:00 - 17:00

Speakers info

Camilla Quaresmini

foto di Camilla Quaresmini

Filosofa presso l’Università degli Studi di Milano, ricercatrice sul gender bias nei software di riconoscimento facciale. Responsabile della ricerca presso Privacy Network.

Giuseppe Primiero

foto di Giuseppe Primiero

Logico, Filosofo del Calcolo e dell’Informazione. Membro del Gruppo Logica, Incertezza, Calcolo e Informazione (LUCI) del Dipartimento di Filosofia, Università degli Studi di Milano. Attualmente è anche membro associato del Department of Computer Science, Middlesex University London (UK) e del Philosophy of Computing Research Group presso l’International Center for Formal Ontology presso la Warsaw University of Technology.

Lavora come consulente scientifico per Soffos.ai. La sua ricerca si concentra sui modelli formali di razionalità dinamica per i sistemi informativi meccanici e naturali intelligenti, la semantica e la teoria della dimostrazione dei sistemi computazionali, i fondamenti dell’informatica.