L'etica dell'IA alle prese con l'infuocato One-Two Punch di entrambi i sistemi di armi autonomi basati sull'IA e lo sfruttamento di sistemi autonomi basati sull'IA che sono diabolicamente armati

Quei fantastici robot danzanti a quattro zampe.

Sono sicuro che hai visto quei video virali dei sistemi robotici a quattro zampe che ballano e saltellano in modi amati apparentemente deliziosi e simili a cani. Sembra che apprezziamo vedere quei robot guidati dall'intelligenza artificiale mentre scavalcano gli ostacoli e sembrano prendere un punto d'appoggio delicato quando sono appollaiati sopra le scatole o dopo essere stati posizionati in modo precario su armadi alti e alti. I loro addestratori umani a volte colpiranno o spingeranno i simpatici robot a quattro zampe, il che sembra esasperamente ingiusto e può prontamente suscitare la tua ira per il trattamento impertinente da parte di quegli umanoidi della mente geniale.

Mi chiedo però se hai visto i video non così virali di un calibro completamente diverso.

Preparatevi.

Ci sono video ampiamente pubblicati che mostrano lo stesso tipo di robot a quattro zampe che sono stati equipaggiati con armi pronunciate di un tipo o dell'altro.

Ad esempio, una mitragliatrice o un'arma da fuoco simile è montata sopra un robot altrimenti familiare che balla e balla. C'è un collegamento elettronico tra il robot a quattro zampe e il meccanismo di sparo dell'arma. L'aggeggio per camminare con il computer ora armato viene mostrato mentre si avvicina a grandi passi dove è stato posizionato un bersaglio a occhio di bue e la mitragliatrice viene sparata ferocemente contro il bersaglio. Dopo aver inchiodato il bersaglio successivamente parzialmente distrutto, il robot a quattro zampe balla e saltella intorno agli ostacoli vicini e si mette in fila per ripetere la stessa azione più e più volte su altri nuovi bersagli.

Non proprio quello che ti aspetteresti di vedere. Questo certamente toglie la spensieratezza e la relativa gioia di guardare candidamente quei teneri robot a quattro zampe fare le loro cose. Benvenuti nella dura realtà dell'apparentemente innocuo sistemi autonomi che vengono convertiti o trasformati per essere fortemente armati. Con uno sforzo minimo, dall'oggi al domani puoi avere un sistema autonomo considerato "non armato" adattato per contenere armi complete.

È quasi facile in alcune circostanze.

Discuterò questo argomento molto controverso e tratterò i problemi piuttosto pesanti che sorgono sull'etica dell'IA. Faremo un viaggio nei sistemi autonomi, nell'IA, nei veicoli autonomi, nell'armamento e in una sfilza di questioni combattive relative all'IA etica. Per la mia copertura continua ed estesa dell'etica dell'IA e dell'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Cominciamo con alcune chiavi di volta fondamentali.

Per motivi di discussione, accetta che ci siano due modi principali per classificare i sistemi autonomi che sono stati armati di armi:

1) Sistemi di armi autonomi (in base alla progettazione)

2) Sistemi autonomi armati (a posteriori)

C'è una differenza importante tra le due categorie.

In primo luogo, definiremo an sistema d'arma autonomo essere fin dall'inizio una creazione computerizzata che è intenzionalmente intesa come un'arma. Gli sviluppatori avevano in mente di voler escogitare un'arma. La loro ricerca esplicita è quella di produrre un'arma. Sapevano di poter combinare integralmente armi con le ultime tecnologie dei sistemi autonomi. Questa è un'arma che cavalca l'onda dell'alta tecnologia che raggiunge movimenti autonomi e azioni autonome (elaborerò in modo più completo, tra breve).

Al contrario, in secondo luogo, considereremo la questione dei sistemi autonomi che non hanno affatto una particolare inclinazione verso gli armamenti. Si tratta di sistemi autonomi in fase di sviluppo per altri scopi. Immagina un veicolo autonomo come un'auto a guida autonoma che verrà utilizzato per fornire mobilità a tutti e aiutare a ridurre le migliaia di decessi annuali che si verificano a causa della guida umana e delle automobili a guida umana (vedi la mia copertura approfondita a il link qui). Non un'arma sembra essere presa in considerazione per quegli sforzi positivi che promuovono la società per far uscire gli umani dal volante e mettere invece l'IA al posto di guida.

Ma quegli innocui sistemi autonomi possono essere armati se gli umani lo vogliono.

Mi riferisco quindi a questa seconda categoria come sistemi autonomi che sono armati. Il sistema autonomo è stato originariamente e devotamente realizzato per uno scopo presumibilmente non armato. Nonostante ciò, la sognante speranza altruistica viene sconvolta da qualcuno da qualche parte che ha l'idea connivente che questo espediente possa essere utilizzato come arma. All'improvviso, il sistema autonomo che sembrava coccoloso è diventato un'arma letale etichettando alcune forme di capacità delle armi (come i robot a quattro zampe simili a cani menzionati in precedenza che hanno una mitragliatrice o un'arma da fuoco simile aggiunta alle loro caratteristiche) .

Purtroppo, le due categorie finiscono in qualche modo nello stesso posto, vale a dire fornendo la capacità di utilizzare sistemi autonomi per armi su base potenzialmente letale.

È probabile che il processo per raggiungere quell'endpoint sia diverso.

Per i sistemi autonomi completamente armati che sono stati ancorati come armi, gli aspetti delle armi sono in genere in primo piano e al centro. Si potrebbe dire che le sfaccettature del sistema autonomo sono avvolte attorno alla pietra angolare di qualunque arma venga presa in considerazione. Il processo di riflessione degli sviluppatori è in qualche modo in linea con il modo in cui un'arma può sfruttare l'avvento dei sistemi autonomi.

L'altra prospettiva di solito non è affatto quella mentalità. Gli sviluppatori vogliono derivare un sistema autonomo all'avanguardia, forse per il miglioramento dell'umanità. Questi sviluppatori hanno messo il loro cuore e la loro anima più sinceri nella realizzazione del sistema autonomo. Questo è il cuore della loro invenzione. Potrebbero non immaginare che qualcuno avrebbe usurpato o sovvertito il loro dispositivo miracolosamente benefico. Sono beatamente innamorati dei benefici sociali associati al sistema autonomo che viene modellato e prodotto.

Ad un certo punto, diciamo che terze parti si rendono conto che il sistema autonomo può essere rimodellato per essere armato. Forse ingannano gli sviluppatori facendogli avere il sistema autonomo per quelli che si dice siano scopi nobili. A porte chiuse, questi malfattori scelgono di aggiungere furtivamente una capacità di armamento al sistema autonomo. Voilà, l'innocenza si è trasformata in armi vere e proprie.

Le cose non devono procedere in quel modo.

Forse agli sviluppatori è stato detto che stavano sviluppando un sistema autonomo innocente, ma coloro che finanziavano o dirigevano lo sforzo avevano in mente altri scopi. Forse lo sforzo del sistema autonomo è effettivamente iniziato innocentemente, ma poi, quando è stato necessario pagare le bollette, la leadership ha concluso un accordo con una fonte di finanziamento che vuole i sistemi autonomi per ragioni nefaste. Un'altra possibilità è che gli sviluppatori sapessero che un uso successivo potrebbe essere per l'armamento, ma che hanno pensato che avrebbero attraversato quel ponte straziante quando o se mai fosse sorto. Eccetera.

Ci sono un sacco di percorsi diversi su come tutto questo si svolge.

Potresti trovare interessante che ho descritto nelle colonne precedenti che c'è una crescente consapevolezza dell'etica dell'IA riguardo al doppio uso elementi dell'IA contemporanea, cfr il link qui. Lascia che ti aggiorni brevemente.

Un sistema di intelligenza artificiale concepito per il bene può essere talvolta sull'orlo del male, forse tramite alcune modifiche piuttosto semplici, e di conseguenza è considerato di natura a duplice uso. Nelle notizie di recente c'era un sistema di intelligenza artificiale creato per scoprire sostanze chimiche che potrebbero essere assassine, per le quali gli sviluppatori volevano assicurarsi che potessimo evitare o diffidare di tali sostanze chimiche mal concepite. Si scopre che l'IA potrebbe essere in qualche modo facilmente modificata per scoprire devotamente quelle sostanze chimiche assassine e quindi potenzialmente consentire ai cattivi di sapere quali tipi di sostanze chimiche potenzialmente cucinare per i loro piani malvagi abissali.

I sistemi autonomi possono adattarsi in modo dimostrabile a quell'involucro a duplice uso.

In una certa misura, ecco perché AI Ethics and Ethical AI è un argomento così cruciale. I precetti di AI Ethics ci portano a rimanere vigili. I tecnologi dell'IA possono a volte interessarsi alla tecnologia, in particolare all'ottimizzazione dell'alta tecnologia. Non stanno necessariamente considerando le più ampie ramificazioni della società. Avere una mentalità etica dell'IA e farlo integralmente allo sviluppo e alla messa in campo dell'IA è fondamentale per produrre un'IA appropriata, inclusa (forse sorprendentemente o ironicamente) la valutazione di come l'etica dell'IA viene adottata dalle aziende.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. In effetti, avvertono che se promulghiamo alcune di queste leggi sull'IA, ridurremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società.

L'autonomia e l'arma come due precetti

C'è uno slogan che alcuni usano per avvertire di sistemi autonomi armati di tutti i tipi, che vengono coniati collettivamente come bot macellazione.

Questo fa emergere un ulteriore aspetto su cui dovremmo rimuginare.

Un sistema d'arma autonomo e/o un sistema autonomo che è stato armato deve avere una preponderanza di robot letali o killer?

Alcuni sosterrebbero che possiamo avere decisamente non letale anche sistemi autonomi armati. Quindi, da questo punto di vista, sembrerebbe del tutto inappropriato usare espressioni come macellatori o robot assassini. Una variante non letale sarebbe presumibilmente in grado di sottomettere o mettere in atto un danno che non ha un risultato letale. Questi sistemi di questo tipo non stanno uccidendo, hanno una minore capacità di generare danni. Non sopravvalutare le capacità, dì quelli che insistono sul fatto che non dobbiamo preoccuparci di un vero e proprio tropo di macchina per uccidere.

Quindi, potremmo avere questo:

  • Sistemi d'arma autonomi letali
  • Sistemi autonomi letali che sono stati armati
  • Sistemi d'arma autonomi non letali
  • Sistemi autonomi non letali che sono stati armati

Naturalmente, la controargomentazione è che qualsiasi sistema autonomo che è stato armato sembrerebbe avere il potenziale per scivolare nel regno della letalità, anche se presumibilmente previsto per l'uso solo su base non letale. I due passaggi incrementali per passare da non letale a letale verranno rapidamente intrapresi una volta che avrai già in mano un'arma in un sistema autonomo. Ti sarebbe difficile fornire una ferrea garanzia che i non letali non siano entrati nell'arena letale (sebbene alcuni stiano cercando di farlo, in una parvenza matematica).

Prima di approfondire l'argomento generale dei sistemi autonomi e dell'armamento, potrebbe essere utile sottolineare qualcos'altro che, sebbene forse ovvio, non è necessariamente visibilmente in cima alla mente.

Eccolo:

  • C'è un aspetto dell'IA che è parte integrante del sistema autonomo
  • C'è un aspetto delle armi che è il lato delle armi di questa equazione
  • L'IA potrebbe anche essere interconnessa con le armi

Spacchiamolo.

Assumeremo che i sistemi autonomi odierni richiedano l'IA come mezzo computerizzato sottostante per far emergere le sfaccettature autonome. Dico questo perché potresti provare a sostenere che potremmo usare tecnologie e tecniche non legate all'IA per realizzare i sistemi autonomi, il che, sebbene vero, sembrerebbe sempre meno probabile. Fondamentalmente, l'IA tende a consentire maggiori livelli di autonomia e la maggior parte sta sfruttando l'alta tecnologia dell'IA di conseguenza.

Ok, quindi abbiamo una capacità basata sull'intelligenza artificiale che è infusa in qualche modo all'interno del sistema autonomo e agisce per guidare e controllare il sistema autonomo.

Tienilo a portata di mano come regola pratica.

Sembra subito evidente che abbiamo anche bisogno di avere una qualche forma di armamento, altrimenti perché stiamo discutendo qui l'argomento dei sistemi autonomi ed Armi. Quindi, sì, ovviamente, c'è un'arma di un tipo o dell'altro.

Non ho intenzione di approfondire il tipo di armi che potrebbero essere utilizzate. Puoi semplicemente sostituire qualsiasi arma ti venga in mente. Potrebbero esserci armi precise. Potrebbero esserci armi distruttive orientate alla massa. Potrebbe essere qualcosa con proiettili o proiettili. Potrebbe essere qualcosa che contiene sostanze chimiche o componenti volatili atomici. L'elenco è infinito.

La considerazione aggiuntiva è se l'IA è interconnessa o meno con le armi. L'IA potrebbe semplicemente prendere in giro le armi. Nel caso del robot a quattro zampe che stava sparando con una pistola, forse la pistola è stata sparata da un essere umano che ha un telecomando collegato all'attivazione dell'arma. Il robot simile a un cane naviga in una scena e poi tocca a un umano remoto premere il grilletto.

D'altra parte, l'IA potrebbe essere l'estrattore del grilletto, per così dire. L'IA potrebbe essere stata ideata non solo per navigare e manovrare, ma anche per attivare l'arma. In questo senso, l'IA sta facendo di tutto, dalla A alla Z. Non c'è alcuna dipendenza da un umano remoto per eseguire il lato delle armi delle cose. L'IA è invece programmata per farlo.

Per chiarire quindi in questo particolare caso d'uso di sistemi autonomi armati, abbiamo questo tipo di possibilità:

  • Sistema autonomo: L'IA gestisce il sistema autonomo interamente da sola
  • Sistema autonomo: L'IA gestisce il sistema autonomo, ma può intervenire anche un essere umano
  • Armi: L'umano remoto gestisce le armi (l'IA no)
  • Armi: L'IA gestisce le armi, ma può intervenire anche un essere umano
  • Armi: L'IA gestisce le armi da sola

In precedenza ho trattato le variazioni dell'avere un essere umano nel ciclo per quanto riguarda i sistemi autonomi e i veicoli autonomi, vedi il link qui.

Quando guardi quei video orientati al divertimento dei robot a quattro zampe che ballano e saltellano, di solito dovrebbero essere robot che sono gestiti esclusivamente in modo navigabile dall'IA (beh, questa è l'usanza o considerata un'etichetta corretta tra quelli che sono profondamente in queste materie). Questo è ciò che potresti anche giustamente presumere. Certo, non lo sai per certo. Potrebbe essere che un operatore umano remoto stia guidando i robot. C'è anche la possibilità che l'IA faccia parte della guida, e anche un operatore umano remoto lo faccia, forse aiutando l'IA se il robot si trova in una posizione difficile e non può calcolare computazionalmente un mezzo praticabile per liberarsi.

Il succo qui è che ci sono numerosi aspetti di come l'IA, i sistemi autonomi e l'armamento possono essere mescolati. Alcuni hanno un'intelligenza artificiale che esegue il sistema autonomo ma non esegue le armi. Un umano forse gestisce a distanza le armi. Un altro aspetto è che l'armamento è forse attivato in anticipo e il sistema autonomo fornisce l'arma attivata, quindi l'IA non ha partecipato direttamente all'attivazione dell'arma in sé e ha invece agito come un veicolo di consegna. E potrebbe essere che l'IA sia un proverbiale tuttofare e faccia anche l'intera gamma di aspetti del sistema autonomo per l'utilizzo delle armi.

Fai la tua scelta.

Nel frattempo, sappi che l'essere umano nel ciclo è un fattore importante quando si tratta di dibattiti su questo argomento.

Una linea di demarcazione per alcuni è che se l'IA sta prendendo di mira e sparando (o qualunque cosa comporti l'arma), l'intero kit e il cabodle sono passati in una terra senza limiti. Questo apparentemente differisce dalle armi convenzionali spara e dimentica che hanno una selezione pre-mirata determinata dall'uomo, come un drone di pattuglia che ha un missile pronto per sparare contro un bersaglio che era già scelto da un essere umano.

Alcuni si chiedono perché i sistemi autonomi che sono armati non sempre includano un essere umano nel ciclo durante il processo del sistema autonomo che si trova in uno stato attivamente in corso. Sembra che potremmo stare meglio se un requisito stridente fosse che tutti questi sistemi autonomi armati dovevano avere un essere umano nel circuito, sia per il funzionamento del sistema autonomo che per il funzionamento delle armi (o per entrambi) . Mantenere una mano umana presunta sicura e ferma in questo mix di intelligenza artificiale potrebbe sembrare del tutto astuto.

Preparati per un lungo elenco di motivi per cui ciò non è necessariamente fattibile.

Considera queste difficoltà:

  • Human-in-the-loop potrebbe non essere abbastanza veloce da rispondere tempestivamente
  • Human-in-the-loop potrebbe non disporre di informazioni sufficienti per rispondere diligentemente
  • Human-in-the-loop potrebbe non essere disponibile al momento necessario
  • Human-in-the-loop potrebbe essere indeciso e non agirà quando necessario
  • Human-in-the-loop potrebbe prendere la decisione "sbagliata" (relativamente)
  • Human-in-the-loop potrebbe non essere accessibile dal sistema al momento necessario
  • Human-in-the-loop potrebbe confondersi ed essere sopraffatto
  • Etc.

Sei indubbiamente tentato di guardare quell'elenco di fragilità e limitazioni umane e poi giungere alla conclusione solenne che ha apparentemente senso eliminare l'essere umano nel ciclo e usare sempre invece l'IA. Questo potrebbe essere l'esclusione dell'umano-in-the-loop o forse l'IA in grado di sovrascrivere un design radicato di human-in-the-loop. Vedi la mia analisi di come i disaccordi tra l'IA e un essere umano nel ciclo possono portare a situazioni precarie, trattata in il link qui.

Spesso, un elenco sminutivo di questi tipi di svantaggi incentrati sull'uomo in tempo reale viene lasciato da solo e lascia un'impressione persistente che l'IA debba in qualche modo essere una scelta molto più saggia rispetto ad avere un essere umano nel ciclo . Non cadere in quella trappola insidiosa. Ci sono compromessi che fanno riflettere.

Considera queste ramificazioni dell'IA:

  • L'IA potrebbe riscontrare un errore che la fa smarrire
  • L'IA potrebbe essere sopraffatta e bloccarsi senza rispondere
  • L'IA potrebbe contenere bug degli sviluppatori che causano comportamenti irregolari
  • L'IA potrebbe essere danneggiata da un virus malfattore impiantato
  • L'IA potrebbe essere rilevata dai cyberhacker in tempo reale
  • L'IA potrebbe essere considerata imprevedibile a causa della complessità
  • L'IA potrebbe prendere computazionalmente la decisione "sbagliata" (relativamente)
  • Etc.

Confido che tu possa vedere che ci sono dei compromessi tra l'uso di un essere umano nel ciclo e l'affidamento esclusivamente all'IA. Nel caso in cui tu sia tentato di suggerire che la soluzione pronta sia quella di utilizzare entrambi, vorrei solo sottolineare che puoi ottenere il meglio da entrambi i mondi, ma puoi anche ottenere il peggio da entrambi i mondi. Non dare per scontato che sarà sempre e sicuramente il migliore dei due mondi.

Potresti essere stato in qualche modo sorpreso da uno degli aspetti negativi sopra elencati dell'IA, in particolare che l'IA potrebbe esserlo imprevedibile. Siamo abituati a credere che l'IA debba essere strettamente logica e matematicamente precisa. Pertanto, potresti anche aspettarti che l'IA sia completamente prevedibile. Dovremmo sapere esattamente cosa farà l'IA. Punto, fine della storia.

Mi dispiace far scoppiare quel pallone, ma questo mito della prevedibilità è un termine improprio. La dimensione e la complessità dell'IA moderna è spesso un pantano che sfida l'essere perfettamente prevedibile. Questo è stato visto nei tumulti dell'IA etica su alcuni usi di Machine Learning (ML) e Deep Learning (DL) di oggi. Mi spiego un po' più momentaneamente.

Inoltre, potresti voler dare un'occhiata alla mia ultima analisi delle tendenze imminenti verso il tentativo di garantire sistemi di IA verificabili e matematicamente dimostrabili corretti attraverso le ultime novità in materia di sicurezza dell'IA, a il link qui.

Rimuginando sulle regole della strada

Avevo menzionato la nozione di target e targeting, che è un pezzo di terminologia piuttosto carico che merita un'attenzione particolare.

Possiamo riflettere su questo:

  • Obiettivi che sono umani
  • Bersagli che non sono umani ma sono creature viventi
  • Obiettivi che sono interpretati come proprietà

Supponiamo di avere un sistema autonomo che è stato armato. L'IA viene utilizzata per guidare il sistema autonomo e utilizzata per le armi. L'IA fa di tutto, dalla A alla Z. Non è previsto un human-in-the-loop. In termini di targeting, l'IA sceglierà gli obiettivi. Non c'è un pre-targeting che è stato stabilito dagli esseri umani. Invece, l'IA è stata programmata per accertare generalmente se ci sono umani da prendere di mira (forse scansionando per azioni ostili, certi tipi di uniformi e così via).

Con me su questo finora?

Questo scenario è praticamente quello che provoca il maggior clamore sui sistemi autonomi armati.

La preoccupazione dichiarata è che l'IA stia facendo (almeno) tre cose che non dovrebbe essere autorizzata a fare:

  • Prendere di mira gli umani come bersagli
  • Targeting senza l'uso di un essere umano nel ciclo
  • Potenzialmente comportandosi in modo imprevedibilely

Si noti che c'è una precisa menzione delle preoccupazioni per l'imprevedibilità dell'IA. Potrebbe essere che, sebbene l'IA sia stata programmata per prendere di mira determinati tipi di umani, la programmazione dell'IA non è quella che pensavamo fosse, e l'IA finisce per prendere di mira "amichevoli" oltre a quelli che l'IA avrebbe dovuto interpretare come "ostili". ” (o, forse al posto di). Inoltre, anche se scegliamo di includere una disposizione human-in-the-loop, l'imprevedibilità dell'IA potrebbe significare che quando l'IA dovrebbe conferire con l'uomo-in-the-loop, non riesce a farlo così e agisce senza alcun intervento umano.

Potresti trovare interessante il fatto che il Comitato Internazionale della Croce Rossa (CICR) abbia offerto una posizione generale in tre punti sui sistemi d'arma autonomi che elabora questi tipi di preoccupazioni (secondo il sito web del CICR):

1. “I sistemi d'arma autonomi imprevedibili dovrebbero essere espressamente regolamentati su, in particolare a causa dei loro effetti indiscriminati. Ciò potrebbe essere ottenuto al meglio con un divieto di sistemi d'arma autonomi progettati o utilizzati in modo tale che i loro effetti non possano essere sufficientemente compresi, previsti e spiegati".

2. “Alla luce delle considerazioni etiche per salvaguardare l'umanità e per sostenere le norme del diritto internazionale umanitario per la protezione dei civili e dei combattenti fuori combattimento, l'uso di sistemi d'arma autonomi per prendere di mira gli esseri umani dovrebbe essere escluso. Ciò potrebbe essere raggiunto al meglio attraverso un divieto di sistemi d'arma autonomi progettati o utilizzati per applicare la forza contro le persone".

3. “Al fine di proteggere i civili e le cose civili, sostenere le regole del diritto umanitario internazionale e salvaguardare l'umanità, la progettazione e l'uso di sistemi d'arma autonomi che non sarebbero vietati dovrebbero essere regolamentati, anche attraverso una combinazione di: limiti sui tipi di target, come vincolarli a oggetti che per natura sono obiettivi militari; limiti di durata, ambito geografico e scala di utilizzo, anche per consentire il giudizio e il controllo umani in relazione a un attacco specifico; limiti alle situazioni di utilizzo, come costringerli a situazioni in cui non sono presenti civili o oggetti civili; rrequisiti per l'interazione uomo-macchina, in particolare per garantire un'efficace supervisione umana e un intervento e una disattivazione tempestivi."

In una prospettiva correlata, le Nazioni Unite (ONU) attraverso la Convenzione su alcune armi convenzionali (CCW) a Ginevra avevano stabilito undici Principi guida non vincolanti sulle armi letali autonome, come da rapporto ufficiale pubblicato online (che comprende riferimenti a pertinenti Disposizioni di legge o DIU):

(a) il diritto umanitario internazionale continua ad applicarsi pienamente a tutti i sistemi d'arma, compreso il potenziale sviluppo e uso di sistemi d'arma autonomi letali;

(b) La responsabilità umana per le decisioni sull'uso dei sistemi d'arma deve essere mantenuta poiché la responsabilità non può essere trasferita alle macchine. Questo dovrebbe essere considerato durante l'intero ciclo di vita del sistema d'arma;

(c) L'interazione uomo-macchina, che può assumere varie forme ed essere attuata in varie fasi del ciclo di vita di un'arma, dovrebbe garantire che l'uso potenziale di sistemi d'arma basati su tecnologie emergenti nell'area dei sistemi d'arma autonomi letali sia in rispetto del diritto internazionale applicabile, in particolare il DIU. Nel determinare la qualità e la portata dell'interazione uomo-macchina, dovrebbe essere presa in considerazione una serie di fattori, compreso il contesto operativo e le caratteristiche e le capacità del sistema d'arma nel suo insieme;

(d) La responsabilità per lo sviluppo, il dispiegamento e l'uso di qualsiasi sistema d'arma emergente nel quadro del CCW deve essere assicurata in conformità con il diritto internazionale applicabile, anche attraverso il funzionamento di tali sistemi all'interno di una catena responsabile di comando e controllo umano;

(e) In conformità con gli obblighi degli Stati ai sensi del diritto internazionale, nello studio, nello sviluppo, nell'acquisizione o nell'adozione di una nuova arma, mezzo o metodo di guerra, si deve determinare se il suo impiego sarebbe, in alcune o tutte le circostanze, proibito dal diritto internazionale;

(f) Durante lo sviluppo o l'acquisizione di nuovi sistemi d'arma basati su tecnologie emergenti nell'area dei sistemi d'arma autonomi letali, della sicurezza fisica, di adeguate salvaguardie non fisiche (compresa la sicurezza informatica contro l'hacking o lo spoofing dei dati), il rischio di acquisizione da parte di gruppi terroristici e il rischio di proliferazione dovrebbe essere considerato;

(g) le valutazioni del rischio e le misure di attenuazione dovrebbero far parte del ciclo di progettazione, sviluppo, test e dispiegamento di tecnologie emergenti in qualsiasi sistema d'arma;

(h) dovrebbe essere presa in considerazione l'uso delle tecnologie emergenti nell'area dei sistemi d'arma autonomi letali nel rispetto del DIU e di altri obblighi legali internazionali applicabili;

(i) Nell'elaborazione di potenziali misure politiche, le tecnologie emergenti nell'area dei sistemi d'arma autonomi letali non dovrebbero essere antropomorfizzate;

(j) le discussioni e le eventuali misure politiche adottate nel contesto della CCW non dovrebbero ostacolare i progressi o l'accesso agli usi pacifici delle tecnologie autonome intelligenti;

(k) La CCW offre un quadro appropriato per affrontare la questione delle tecnologie emergenti nell'area dei sistemi d'arma autonomi letali nel contesto degli obiettivi e delle finalità della Convenzione, che cerca di trovare un equilibrio tra necessità militari e considerazioni umanitarie.

Il dilemma in cui ci troviamo

Queste varie leggi di guerra, leggi sui conflitti armati o IHL (leggi umanitarie internazionali) servono come guida vitale e sempre promettente per considerare cosa potremmo provare a fare riguardo all'avvento di sistemi autonomi che sono armati, sia per progettazione chiave di volta che per con metodi a posteriori.

Possiamo sinceramente augurare che il divieto di sistemi autonomi armati letali venga rigorosamente e obbedientemente osservato. Il problema è che molto spazio di manovra è destinato a trovarsi furtivamente all'interno di uno qualsiasi dei divieti più sinceri. Come si suol dire, le regole sono fatte per essere infrante. Puoi scommettere che dove le cose sono sciolte, la marmaglia scovare le lacune e cercare di strizzare l'occhio per aggirare le regole.

Ecco alcune potenziali scappatoie degne di considerazione:

  • Affermazioni di non letali. Rendere non letale sistemi d'arma autonomi (apparentemente a posto dato che è al di fuori del confine del divieto), che puoi quindi trasformare un centesimo in diventare letali (sarai oltre il divieto solo all'ultimo minuto).
  • Solo rivendicazioni del sistema autonomo. Sostieni il divieto non realizzando sistemi autonomi focalizzati sulle letali, nel frattempo, fai tanti progressi nell'ideazione di sistemi autonomi di tutti i giorni che non sono (ancora) armati ma che puoi adattare in un centesimo per essere armati.
  • Affermazioni di non integrato come uno. Crea sistemi autonomi che non sono affatto armati e, quando arriverà il momento, armamenti a cavalcioni in modo tale da poter tentare di sostenere con veemenza che sono due elementi separati e quindi sostenere che non rientrano nella rubrica di un all-in-one sistema d'arma autonomo o suo cugino.
  • Afferma che non è autonomo. Crea un sistema d'arma che non sembra avere capacità autonome. Lascia spazio in questo sistema presumibilmente non autonomo per l'introduzione dell'autonomia basata sull'intelligenza artificiale. Quando necessario, collega l'autonomia e sei pronto per partire (fino ad allora, a quanto pareva non stavi violando il divieto).
  • Altro

Ci sono molte altre difficoltà espresse nel tentativo di vietare completamente i sistemi d'arma autonomi letali. Ne tratterò alcuni in più.

Alcuni esperti sostengono che un divieto non è particolarmente utile e invece dovrebbero esserci disposizioni normative. L'idea è che questi aggeggi saranno consentiti ma rigorosamente sorvegliati. Viene presentata una litania di usi legittimi, insieme a modi legittimi di prendere di mira, tipi leciti di capacità, proporzionalità legittima e simili.

Per loro, un divieto assoluto è come mettere la testa sotto la sabbia e fingere che l'elefante nella stanza non esista. Questa affermazione però fa ribollire il sangue di coloro che contrastano con l'argomento secondo cui istituendo un divieto si è in grado di ridurre drasticamente la tentazione altrimenti di perseguire questo tipo di sistemi. Certo, alcuni osserveranno il divieto, ma almeno si spera che la maggior parte non lo farà. Puoi quindi concentrare la tua attenzione sugli sbandieratori e non dover dividere la tua attenzione su tutti.

Intorno e in tondo questi dibattiti vanno.

Un'altra preoccupazione spesso nota è che anche se i buoni rispettano il divieto, i cattivi non lo faranno. Questo mette il buono in una pessima posizione. I cattivi avranno questo tipo di sistemi autonomi armati e i buoni no. Una volta che le cose vengono rivelate che i cattivi le hanno, sarà troppo tardi perché i buoni possano recuperare. In breve, l'unica cosa astuta da fare è prepararsi a combattere il fuoco con il fuoco.

C'è anche la classica contesa deterrente. Se i buoni scelgono di creare sistemi autonomi armati, questo può essere utilizzato per dissuadere i cattivi dal cercare di entrare in una rissa. O i buoni saranno meglio armati e così dissuaderanno i cattivi, oppure i buoni saranno pronti quando i cattivi forse sveleranno di aver ideato di nascosto quei sistemi da sempre.

Un contro a questi contatori è che creando sistemi autonomi armati, stai conducendo una corsa agli armamenti. L'altra parte cercherà di avere lo stesso. Anche se non sono tecnologicamente in grado di creare di nuovo tali sistemi, ora saranno in grado di rubare i piani di quelli "buoni", decodificare le viscere high-tech o imitare qualsiasi cosa sembrino vedere come un vero e proprio modo per portare a termine il lavoro.

Ah, qualche replica, tutto questo potrebbe portare a una riduzione dei conflitti per una parvenza di reciprocità. Se il lato A sa che il lato B ha quelle armi letali dei sistemi autonomi, e il lato B sa che il lato A le ha, potrebbe stare stretto e non venire alle mani. Questo ha quell'aura distinta di vibrazioni di distruzione reciprocamente assicurata (MAD).

E così via.

L'IA nell'autonomia

Assicuriamoci di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

Fai molta attenzione all'antropomorfizzazione dell'IA di oggi.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Con questo background fondamentale aggiunto, torniamo ancora una volta al tema dei sistemi autonomi e dell'armamento. In precedenza abbiamo visto che l'IA entra nella componente del sistema autonomo e può anche entrare nella componente dell'armamento. L'IA di oggi non è senziente. Questo è degno di essere ripetuto e lo metterò in evidenza per ulteriori approfondimenti su questi argomenti.

Esploriamo alcuni scenari per vedere come questa sia una considerazione cruciale. Lascerò momentaneamente un orientamento in tempo di guerra su questo argomento e mostrerò come permea molti altri ambienti sociali. Rimani stabile di conseguenza.

Un sistema autonomo basato sull'intelligenza artificiale come un veicolo autonomo che diremo che non ha nulla a che fare con le armi si sta facendo strada in un ambiente normale. Un essere umano arriva per utilizzare il veicolo autonomo. La persona è armata con un'arma di presagio. Assumiamo per amor di discussione in questo particolare scenario che la persona abbia in mente qualcosa di spiacevole. La persona sale nel veicolo autonomo (portando la propria arma, nascosta o non nascosta, in entrambi i casi).

Il veicolo autonomo procede verso la destinazione richiesta dal pilota. In questo caso, l'IA sta semplicemente trasportando programmaticamente questo passeggero da un punto di ritiro a una destinazione designata, proprio come ha fatto per dozzine o centinaia di viaggi, ogni giorno.

Se questo fosse stato un guidatore umano e un veicolo a guida umana, presumibilmente c'è qualche possibilità che il guidatore umano si renda conto che il passeggero è armato e sembra avere intenzioni sfavorevoli. Il conducente umano potrebbe rifiutarsi di guidare il veicolo. Oppure l'autista umano potrebbe guidare fino alla stazione di polizia. O forse il conducente umano potrebbe tentare di sottomettere il passeggero armato (esistono casi segnalati) o dissuadere il passeggero dall'usare la sua arma. È piuttosto complicato e può esistere un numero qualsiasi di variazioni. Sarebbe difficile affermare che esiste solo una risposta giusta per risolvere una simile situazione. Purtroppo, la situazione è irritante e ovviamente pericolosa.

È improbabile che l'IA in questo caso sia programmata per uno di questi tipi di possibilità. In breve, il passeggero armato potrebbe essere in grado di utilizzare la propria arma, dall'interno del veicolo autonomo, durante il viaggio di guida. Il sistema di guida AI continuerà a viaggiare e il veicolo autonomo continuerà a dirigersi verso la designazione dichiarata del passeggero (supponendo che la destinazione non sia stata altrimenti considerata fuori limite).

La maggior parte dei sistemi di guida IA ​​contemporanei si concentrerebbe computazionalmente solo sulla carreggiata e non sugli sforzi del ciclista.

Le cose possono andare peggio di così.

Supponiamo che qualcuno voglia far trasportare un mucchio di generi alimentari in un posto che prende cibo extra per i bisognosi. La persona richiede un veicolo autonomo e deposita i sacchetti della spesa sul sedile posteriore del veicolo. Non stanno andando avanti per il viaggio e stanno semplicemente usando il veicolo autonomo per consegnare loro i sacchetti del cibo.

Sembra perfettamente a posto.

Immagina che una persona vile scelga invece di inserire una qualche forma di arma nel veicolo autonomo piuttosto che la nozione più pacifica di sacchetti della spesa. Penso che tu possa indovinare cosa potrebbe succedere. Questa è una preoccupazione che ho ripetutamente esortato nei miei articoli e che ho avvertito che dobbiamo affrontare prima o poi.

Una risposta offerta a questo tipo di scenari è che forse tutti i veicoli autonomi potrebbero essere programmati per utilizzare le loro telecamere e altri sensori per cercare di rilevare se un potenziale passeggero è armato e ha intenzioni nefaste. Forse l'IA sarebbe programmata per farlo. Oppure l'IA avverte elettronicamente e silenziosamente un operatore umano a distanza che poi attraverso le telecamere esaminerebbe visivamente e in altro modo e possibilmente interagirebbe con il passeggero. Fa tutto parte di una complessa e potenzialmente intrattabile lattina di worm, tale da sollevare intensi problemi di privacy e una pletora di altre potenziali preoccupazioni relative all'IA etica. Vedi la mia copertura su il link qui.

Un'altra alternativa in qualche modo simile è che l'IA contenga una sorta di programmazione etica incorporata che cerca di consentire all'IA di formulare giudizi etici o morali che normalmente sono riservati ai decisori umani. Ho esaminato questi tipi di pronostici di etica computazionale incorporati nell'intelligenza artificiale, vedi il link qui ed il link qui.

Tornando allo scenario di un campo di battaglia, immagina che un letale sistema d'arma autonomo stia navigando sopra una zona di combattimento. L'IA sta facendo funzionare il sistema autonomo. L'IA sta azionando le armi a bordo. In precedenza avevamo concepito la possibilità che l'IA potesse essere programmata per cercare movimenti apparentemente ostili o altri indicatori di bersagli umani ritenuti validi combattenti.

Questa stessa IA dovrebbe avere una sorta di componente etica che si sforza di considerare computazionalmente cosa potrebbe fare un essere umano nel ciclo, agendo in un certo senso al posto di avere un essere umano nel ciclo?

Alcuni dicono di sì, perseguiamo questo. Alcuni indietreggiano con orrore e dicono che o è impossibile o viola in altro modo la santità dell'umanità.

Ancora un altro barattolo di vermi.

Conclusione

Per quelli di voi interessati a questo argomento, c'è molto altro da discutere.

Ti darò un rapido assaggio di un fastidioso enigma.

Normalmente ci aspettiamo che un essere umano alla fine sarà ritenuto responsabile di qualunque cosa accada durante la guerra. Se l'IA sta controllando un sistema d'arma autonomo o controllando un sistema autonomo che forse è stato armato, e questo sistema fa qualcosa sul campo di battaglia che si ritiene essere irragionevole, chi o cosa è da biasimare per questo?

Si potrebbe obiettare che l'IA dovrebbe essere ritenuta responsabile. Ma, se sì, cosa significa esattamente? Non consideriamo ancora l'IA di oggi l'incarnazione della personalità giuridica, vedi la mia spiegazione a il link qui. Non inchiodare la coda all'asino nel caso dell'IA. Forse se un giorno l'IA diventa senziente, puoi provare a farlo. Fino ad allora, questo è un po' di portata (inoltre, a che tipo di penalità o ripercussioni sarebbe soggetta l'IA, vedere la mia analisi su il link qui ed il link qui, per esempio).

Se l'IA non è il sospettato responsabile, allora potremmo naturalmente dire che qualunque cosa umana o umana abbia ideato l'IA dovrebbe essere ritenuta responsabile. Puoi farlo se l'IA stesse semplicemente eseguendo un sistema autonomo e alcuni umani sono arrivati ​​​​che lo hanno abbinato all'armamento? Insegui gli sviluppatori di intelligenza artificiale? O quelli che hanno schierato l'IA? O solo l'attore armato?

Confido che tu abbia l'idea che ho solo toccato la punta dell'iceberg nella mia cordiale discussione.

Per ora, andiamo avanti e concludiamo questo discorso. Potresti ricordare che John Lyly è entrato Euphues: L'anatomia dello spirito nel 1578 affermò in modo memorabile che tutto è lecito in amore e in guerra.

Avrebbe avuto in mente l'emergere di sistemi d'arma autonomi e lo stesso avvento di sistemi autonomi che sono armati?

Abbiamo sicuramente bisogno di metterlo in cima alla nostra mente, subito.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-lotuggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- sistemi-di-arma-e-sfruttamento-di-sistemi-autonomi-guidati-da-intelligenza artificiale-che-sono-diabolicamente-armati/