Killer Robots: perché AI Act non si applica in guerra

L’AI Act vale per tutti i settori meno uno: la difesa. “Il presente regolamento non si applica ai sistemi IA sviluppati o usati per scopri esclusivamente militari”. Questa affermazione determina un grave vuoto normativo di cui ci possiamo ben rendere conto in un momento in cui le guerre sono vicinissime all’Europa. Già ora l’IA è alla base delle decisione tattiche e strategiche. Per esempio, il sistema di IA “Gospel” viene usato da da Israele per indentificare target sul territorio palestinese, mentre “MetaConstellation” è lo strumento AI per localizzare le truppe russe sul fronte ucraino offrono esempi dell’uso. Il ministero della difesa Usa, della Gran Bretagna e la Nato si sono dati dei principi etici generici e l’Onu ha adottato una bozza di risoluzione sulle armi autonome. Ma non basta perché ai rischi etici tipici dell’AI, vale a dire bias, limitato controllo umano e attribuzione di responsabilità, si aggiungono i rischi etici propri della guerra, vale a dire il rispetto della dignità umana, dei criteri della proporzionalità e necessità dell’uso delle forza, dei diritti dei non-combattenti.

Killer Robots: perché AI Act non si applica in guerra

In streaming/Privacy Talk

30 Maggio ore 18:00

Iscriviti

Contenuto esclusivo, registrati per visualizzarlo

GUARDA ANCHE

PRIVACY WEEK S.R.L.
VIA MAURO MACCHI N. 26, 20124 MILANO (MI)
P.IVA 11941860964

Benvenuto!

Inserisci la tua mail per registrarti.



Aggiungi qui il testo dell'intestazione