Qual è la politica aggiornata del Pentagono sui robot killer?

Il Pentagono ha emesso un aggiornamento alla sua Direttiva 3000.09, che copre ciò che essi definiscono Autonomia nei sistemi d'arma e altri chiamano 'robot assassini.' Droni attuali come l'Air Force e la CIA Razziatori MQ-9 sono azionati da un telecomando: un essere umano seduto davanti a uno schermo video identifica i bersagli a terra a migliaia di chilometri di distanza, li posiziona nel mirino e rilascia a Missile infernale o altra arma. Le armi autonome sono diverse: scelgono i propri bersagli senza alcun intervento umano. Sono necessarie regole chiare su quando e come possono essere utilizzate e la nuova direttiva le avvicina ulteriormente.

Dieci anni fa, quando fu rilasciata la prima versione di 3000.09, le armi autonome sembravano fantascienza. Ora sono molto reali. L'ONU lo ha affermato I droni forniti dalla Turchia hanno attaccato obiettivi autonomamente in Libia nel 2020 e la Russia sta ora dispiegando munizioni vaganti in Ucraina con capacità autonoma.

Molti attivisti, come il Campagna per fermare i robot assassini, vogliono un divieto assoluto delle armi autonome, insistendo che qualsiasi arma remota rimanga sotto controllo controllo umano significativo sempre. L'ONU ha discusso su come farlo controllare tali armi per molti anni.

Tuttavia, come chiarisce la nuova direttiva, il Pentagono si attiene a una linea diversa.

"Il DoD si è costantemente opposto a uno standard politico di 'controllo umano significativo' quando si tratta sia di sistemi autonomi che di sistemi di intelligenza artificiale", Gregorio Allen, direttore del Progetto sulla Governance dell'IA presso il Centro di Studi Strategici e Internazionali, Dimmi. "Il termine d'arte preferito dal Dipartimento della Difesa è 'livelli appropriati di giudizio umano', che riflette il fatto che in alcuni casi - velivoli di sorveglianza autonomi e alcuni tipi di armi informatiche autonome, ad esempio - il livello appropriato di controllo umano può essere minimo o nullo .”

Quali armi autonome sarebbero consentite in quali circostanze? Allen ritiene che la versione precedente della direttiva fosse così poco chiara da scoraggiare qualsiasi sviluppo in questo settore.

"La confusione era così diffusa - anche tra alcuni alti dirigenti del DoD - che i funzionari si stavano astenendo dallo sviluppare alcuni sistemi che non solo erano consentiti dalla politica, ma anche espressamente esentati dal requisito della revisione senior", afferma Allen.

Nessuna singola arma è stata sottoposta al processo di revisione per le armi autonome previsto nell'originale 3000.09 nei dieci anni successivi alla sua pubblicazione.

Allen ha scritto un saggio su questo per CSIS l'anno scorso, descrivendo quattro aree che necessitavano di lavoro: definire formalmente sistemi d'arma autonomi, dire cosa significa "abilitato all'IA" per la politica, come il processo di revisione gestirà la riqualificazione dei modelli di apprendimento automatico e chiarire quali tipi di armi richiedono passare attraverso l'arduo processo di revisione.

"Il DoD li ha implementati tutti", afferma Allen.

In linea di principio, quindi, ciò dovrebbe garantire ciò che il Dipartimento della Difesa definisce "impegno forte e continuo ad essere un leader globale trasparente nello stabilire politiche responsabili in materia di usi militari di sistemi autonomi".

Tuttavia, ci sono alcune aggiunte che potrebbero essere viste come scappatoie, come un'esenzione dall'esame di alto livello per le armi autonome che difendono i droni che non prendono di mira le persone ("armi antimateriali") e che sarebbero autorizzate a prendere di mira missili, altri droni e potenzialmente altri sistemi.

"La parola 'difendere' sta facendo un sacco di lavoro", Zak Kallenborn, mi ha detto un ricercatore della Schar School of Policy and Government della George Mason University. "Se un drone sta operando in territorio nemico, quasi tutte le armi potrebbero essere interpretate come 'difese' della piattaforma."

Kallenborn osserva inoltre che mentre armi effettivamente autonome come le mine terrestri sono in uso da oltre un secolo, il panorama sta cambiando rapidamente a causa dei progressi dell'intelligenza artificiale e del particolare apprendimento automatico. Questi hanno dato origine a sistemi molto capaci, ma tecnicamente fragile - quando falliscono, falliscono in modo spettacolare in modi che nessun essere umano farebbe, per esempio scambiando una tartaruga per un fucile.

"L'autonomia attraverso l'intelligenza artificiale merita sicuramente più preoccupazione, data la fragilità e la mancanza di spiegabilità degli approcci attualmente dominanti", afferma Kallenborn.

L'aggiornamento non è grande. Ma mostra il continuo impegno del Pentagono verso lo sviluppo di efficaci armi autonome e la convinzione che possano conformarsi il diritto internazionale umanitario — distinguendo i civili dal personale militare, cercando di evitare di danneggiare i civili e usando solo la forza proporzionata e necessaria.

Gli attivisti ritengono che l'intelligenza artificiale non possiederà la comprensione necessaria per esprimere giudizi morali in tempo di guerra e rischia di creare un mondo in cui la guerra è automatizzata e gli esseri umani non hanno più il controllo. Altri credono che lo saranno le forze armate statunitensi sconfitto dagli avversari con armi autonome a meno che l'intelligenza artificiale non sia incorporata a livello tattico e quel troppo coinvolgimento umano rallenta i robot militari.

È probabile che la discussione continui anche quando inizieranno a comparire armi autonome, ei risultati saranno seguiti da vicino. Ad ogni modo, sembra che i robot assassini stiano arrivando.

Fonte: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/