L'etica dell'IA e la legge sull'intelligenza artificiale fanno domande difficili su quella nuova promessa ballando i produttori di robot dicendo che eviteranno l'uso di armi dell'IA

Potresti aver forse visto la scorsa settimana nelle notizie o notato sui social media l'annuncio annunciato da alcuni produttori di robot sui loro obiettivi dichiarati di evitare l'armamento AI di robot generici. Ti guiderò nei dettagli tra un momento, quindi non preoccuparti se non ti sei accorto della questione.

La reazione a questa proclamazione è stata rapida e, forse come al solito nella nostra società polarizzata, è stata sia elogiativa che, a volte, beffardamente critica o addirittura scettica.

È una storia di due mondi.

In un mondo, alcuni dicono che questo è esattamente ciò di cui abbiamo bisogno responsabile Gli sviluppatori di robot AI a dichiarare.

Grazie al cielo per essere dalla parte giusta di un problema che diventerà gradualmente più visibile e più preoccupante. Quei simpatici robot danzanti sono preoccupanti perché è abbastanza facile riattivarli per trasportare armi ed essere usati nel peggiore dei modi (puoi verificarlo tu stesso andando sui social media e ci sono molti video che mostrano robot danzanti armati di mitragliatrici e altri armamenti).

L'altro lato di questa medaglia dice che il cosiddetto impegno non è altro che uno stratagemma di marketing o di pubbliche relazioni (come nota a margine, qualcuno conosce la differenza tra un impegno e una donazione?). Ad ogni modo, i dubbiosi esortano che questa è una segnalazione di virtù sfrenata nel contesto dei robot danzanti. Vedete, lamentarsi del fatto che i robot generici possano essere utilizzati come armi è certamente una considerazione utile e seriamente ricercata, anche se affermare semplicemente che un produttore non lo farà è probabilmente una promessa vuota, insistono alcuni.

Tutto sommato, l'intera questione solleva una serie piuttosto pesante di considerazioni sull'etica dell'IA e sulla legge dell'IA. Esamineremo meticolosamente l'argomento e vedremo come questo sia un doppio smacco di una palude di IA etica e legale. Per la mia copertura continua ed estesa dell'etica dell'IA e della legge sull'IA, vedere il link qui ed il link qui, solo per citarne alcuni.

Mi riferirò anche durante questa discussione alle mie precedenti analisi dei pericoli dell'armamento dell'IA, come la mia valutazione approfondita a il link qui. Potresti dare un'occhiata a quel discorso per ulteriori dettagli dietro le quinte.

La lettera aperta che apre una lattina di vermi

Iniziamo questa analisi eseguendo un'attenta esplorazione passo passo della Lettera aperta che è stata recentemente pubblicata da sei produttori di robot avanzati relativamente noti, vale a dire Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics e Unitree. In generale, immagino che tu abbia visto principalmente i robot Boston Dynamics, come quelli che si muovono a quattro zampe. Sembrano simili a cani e ci piace vederli scorrazzare in giro.

Come ho già e ripetutamente avvertito, l'uso di tali robot "danzanti" come mezzo per convincere il pubblico in generale che questi robot sono carini e adorabili è purtroppo fuorviante e vira nelle abbondanti insidie ​​di antropomorfizzarli. Iniziamo a pensare a questi pezzi di metallo e plastica induriti come se fossero l'equivalente di un cane coccolone e fedele. La nostra disponibilità ad accettare questi robot si basa su un falso senso di sicurezza e sicurezza. Certo, devi fare soldi e le probabilità di farlo sono aumentate sfilando intorno ai robot danzanti, ma questo purtroppo omette o apparentemente nasconde il fatto reale che questi robot sono robot e che l'IA che controlla i robot può essere concepita in modo errato o andare storto.

Considera queste ramificazioni dell'IA (estratte dal mio articolo sull'armamento dell'IA, che si trova all'indirizzo il link qui):

  • L'IA potrebbe riscontrare un errore che la fa smarrire
  • L'IA potrebbe essere sopraffatta e bloccarsi senza rispondere
  • L'IA potrebbe contenere bug degli sviluppatori che causano comportamenti irregolari
  • L'IA potrebbe essere danneggiata da un virus malfattore impiantato
  • L'IA potrebbe essere rilevata dai cyberhacker in tempo reale
  • L'IA potrebbe essere considerata imprevedibile a causa della complessità
  • L'IA potrebbe prendere computazionalmente la decisione "sbagliata" (relativamente)
  • Etc.

Questi sono punti riguardanti l'IA che è del tipo che è veramente escogitato all'inizio per fare la cosa giusta.

Oltre a queste considerazioni, devi includere i sistemi di intelligenza artificiale creati dall'inizio per fare cose cattive. Puoi avere un'IA creata per scopi benefici, spesso indicata come AI in bene. Puoi anche avere un'IA creata intenzionalmente per cattivi scopi, nota come AI for Bad. Inoltre, puoi avere AI in bene che è corrotto o trasformato in divenire AI for Bad.

A proposito, niente di tutto ciò ha a che fare con l'intelligenza artificiale che diventa senziente, cosa che cito perché alcuni continuano a esclamare che l'IA di oggi è senziente o sul punto di essere senziente. Non così. Smonto quei miti nella mia analisi a il link qui.

Assicuriamoci quindi di essere sulla stessa pagina sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente sull'IA senziente, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Suggerirei caldamente di mantenere le cose con i piedi per terra e di considerare l'odierna IA computazionale non senziente.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

Fai molta attenzione all'antropomorfizzazione dell'IA di oggi.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di IA potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Tutto ciò ha implicazioni notevolmente significative sull'etica dell'IA e offre una pratica finestra sulle lezioni apprese (anche prima che tutte le lezioni accadano) quando si tratta di cercare di legiferare sull'IA.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. Avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società.

Nelle colonne precedenti, ho trattato i vari sforzi nazionali e internazionali per elaborare e emanare leggi che regolano l'IA, vedi il link qui, Per esempio. Ho anche trattato i vari principi e linee guida dell'etica dell'intelligenza artificiale che varie nazioni hanno identificato e adottato, incluso ad esempio lo sforzo delle Nazioni Unite come il set dell'etica dell'intelligenza artificiale dell'UNESCO che quasi 200 paesi hanno adottato, vedi il link qui.

Ecco un utile elenco chiave di volta dei criteri o delle caratteristiche dell'IA etica relativi ai sistemi di intelligenza artificiale che ho precedentemente esplorato da vicino:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Questi principi di etica dell'intelligenza artificiale dovrebbero essere utilizzati seriamente dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e persino quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale.

Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come sottolineato in precedenza qui, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Ora che ho gettato una base utile per entrare nella Lettera Aperta, siamo pronti per tuffarci.

Il titolo ufficiale dell'oggetto della Lettera Aperta è questo:

  • "Una lettera aperta all'industria robotica e alle nostre comunità, i robot per uso generico non dovrebbero essere armati” (come da pubblicato online).

Fin qui, tutto bene.

Il titolo sembra quasi gelato e torta di mele. Come si potrebbe contestare questo come una precedente chiamata per evitare l'armamento dei robot dell'IA?

Continua a leggere per vedere.

Innanzitutto, come spunto di riflessione, ecco il paragrafo ufficiale di apertura della Lettera Aperta:

  • “Siamo alcune delle aziende leader a livello mondiale che si dedicano all'introduzione di nuove generazioni di robotica mobile avanzata nella società. Queste nuove generazioni di robot sono più accessibili, più facili da usare, più autonome, convenienti e adattabili rispetto alle generazioni precedenti e in grado di navigare in luoghi precedentemente inaccessibili alle tecnologie automatizzate o controllate a distanza. Riteniamo che i robot mobili avanzati forniranno grandi benefici alla società come collaboratori nell'industria e compagni nelle nostre case "(come pubblicato online).

Il lato positivo dell'avvento di questi tipi di robot è che possiamo prevedere che emergono molti grandi vantaggi. Nessun dubbio a riguardo. Potresti avere un robot nella tua casa in grado di svolgere attività simili a quelle di Jetson come pulire la casa, lavare i piatti e altre faccende domestiche. Avremo robot avanzati da utilizzare nelle fabbriche e negli impianti di produzione. I robot possono potenzialmente strisciare o manovrare in spazi ristretti, ad esempio quando un edificio crolla e sono in gioco vite umane per essere salvate. E così via.

Per inciso, potresti trovare interessante la mia recente copertura critica per gli occhi del Tesla AI Day, in cui alcuni tipi di robot ambulanti sono stati descritti da Elon Musk come il futuro di Tesla e della società, vedi il link qui.

Torniamo alla questione in corso. Quando si discute seriamente di robot danzanti o robot ambulanti, dobbiamo prendere in considerazione i compromessi o il ROI (ritorno sull'investimento) totale di questo uso dell'IA. Non dobbiamo permetterci di innamorarci eccessivamente dei benefici quando ci sono anche dei costi da considerare.

Un nuovo giocattolo brillante può avere bordi piuttosto affilati.

Tutto ciò stimola un punto importante ma in qualche modo silenzioso che parte del motivo per cui si pone ora il problema dell'armamento dell'IA è dovuto all'avanzamento dell'IA verso l'attività autonoma. Di solito ci si aspetta che le armi siano generalmente azionate dall'uomo. Un essere umano decide se sparare o innestare l'arma. Presumibilmente possiamo ritenere quell'essere umano responsabile delle sue azioni.

L'intelligenza artificiale progettata per funzionare in modo autonomo o che può essere indotta a farlo rimuoverebbe apparentemente l'umano dal circuito. L'IA prende quindi algoritmicamente decisioni computazionali che possono finire per uccidere o danneggiare gli esseri umani. Oltre alle ovvie preoccupazioni per la mancanza di controllo sull'IA, hai anche lo scrupolo che potremmo avere un tempo arduo nell'attribuire responsabilità alle azioni dell'IA. Non abbiamo un essere umano che sia il nostro ovvio istigatore.

Mi rendo conto che alcuni credono che dovremmo ritenere semplicemente e direttamente l'IA responsabile delle sue azioni, come se l'IA avesse raggiunto la sensibilità o altrimenti ottenuto la personalità giuridica (vedi la mia copertura sui dibattiti sull'acquisizione della personalità giuridica da parte dell'IA a il link qui). Non funzionerà per ora. Dovremo far risalire l'IA agli umani che l'hanno ideata o che l'hanno messa in campo. Cercheranno senza dubbio di eludere legalmente la responsabilità cercando di sostenere che l'IA è andata oltre ciò che avevano immaginato. Questa è una contesa crescente che dobbiamo affrontare (vedi i miei scritti sulla legge sull'IA per approfondimenti sulle questioni controverse coinvolte).

Le Nazioni Unite (ONU) tramite la Convenzione su alcune armi convenzionali (CCW) di Ginevra hanno stabilito undici Principi Guida non vincolanti sulle armi letali autonome, come da rapporto ufficiale pubblicato online (che comprende riferimenti al diritto umanitario internazionale o disposizioni del diritto internazionale umanitario) pertinenti) , Compreso:

(a) il diritto umanitario internazionale continua ad applicarsi pienamente a tutti i sistemi d'arma, compreso il potenziale sviluppo e uso di sistemi d'arma autonomi letali;

(b) La responsabilità umana per le decisioni sull'uso dei sistemi d'arma deve essere mantenuta poiché la responsabilità non può essere trasferita alle macchine. Questo dovrebbe essere considerato durante l'intero ciclo di vita del sistema d'arma;

(c) L'interazione uomo-macchina, che può assumere varie forme ed essere attuata in varie fasi del ciclo di vita di un'arma, dovrebbe garantire che l'uso potenziale di sistemi d'arma basati su tecnologie emergenti nell'area dei sistemi d'arma autonomi letali sia in rispetto del diritto internazionale applicabile, in particolare il DIU. Nel determinare la qualità e la portata dell'interazione uomo-macchina, dovrebbe essere presa in considerazione una serie di fattori, compreso il contesto operativo e le caratteristiche e le capacità del sistema d'arma nel suo insieme;

(d) La responsabilità per lo sviluppo, il dispiegamento e l'uso di qualsiasi sistema d'arma emergente nel quadro del CCW deve essere assicurata in conformità con il diritto internazionale applicabile, anche attraverso il funzionamento di tali sistemi all'interno di una catena responsabile di comando e controllo umano;

(e) In conformità con gli obblighi degli Stati ai sensi del diritto internazionale, nello studio, nello sviluppo, nell'acquisizione o nell'adozione di una nuova arma, mezzo o metodo di guerra, si deve determinare se il suo impiego sarebbe, in alcune o tutte le circostanze, proibito dal diritto internazionale;

(f) Durante lo sviluppo o l'acquisizione di nuovi sistemi d'arma basati su tecnologie emergenti nell'area dei sistemi d'arma autonomi letali, della sicurezza fisica, di adeguate salvaguardie non fisiche (compresa la sicurezza informatica contro l'hacking o lo spoofing dei dati), il rischio di acquisizione da parte di gruppi terroristici e il rischio di proliferazione dovrebbe essere considerato;

(g) le valutazioni del rischio e le misure di attenuazione dovrebbero far parte del ciclo di progettazione, sviluppo, test e dispiegamento di tecnologie emergenti in qualsiasi sistema d'arma;

(h) dovrebbe essere presa in considerazione l'uso delle tecnologie emergenti nell'area dei sistemi d'arma autonomi letali nel rispetto del DIU e di altri obblighi legali internazionali applicabili;

(i) Nell'elaborazione di potenziali misure politiche, le tecnologie emergenti nell'area dei sistemi d'arma autonomi letali non dovrebbero essere antropomorfizzate;

(j) le discussioni e le eventuali misure politiche adottate nel contesto della CCW non dovrebbero ostacolare i progressi o l'accesso agli usi pacifici delle tecnologie autonome intelligenti;

(k) La CCW offre un quadro appropriato per affrontare la questione delle tecnologie emergenti nell'area dei sistemi d'arma autonomi letali nel contesto degli obiettivi e delle finalità della Convenzione, che cerca di trovare un equilibrio tra necessità militari e considerazioni umanitarie.

Queste e altre varie leggi di guerra e leggi sui conflitti armati, o IHL (International Humanitarian Laws) servono come guida vitale e sempre promettente per considerare cosa potremmo provare a fare riguardo all'avvento di sistemi autonomi che sono armati, sia per chiave di volta progettazione o con metodi post-fatto.

Alcuni dicono che dovremmo vietare apertamente quei sistemi autonomi di IA che sono utilizzabili come armi. Esatto, il mondo dovrebbe puntare i piedi e chiedere stridentemente che i sistemi autonomi di IA non vengano mai armati. Deve essere imposto un divieto totale. Fine della storia. Punto, punto.

Bene, possiamo sinceramente augurare che il divieto di sistemi autonomi armati letali venga rigorosamente e obbedientemente osservato. Il problema è che un sacco di spazio di manovra è destinato a essere trovato di nascosto in uno qualsiasi dei divieti più sinceri. Come si suol dire, le regole sono fatte per essere infrante. Puoi scommettere che dove le cose sono sciolte, la marmaglia scovare le lacune e cercare di strizzare l'occhio per aggirare le regole.

Ecco alcune potenziali scappatoie degne di considerazione:

  • Affermazioni di non letali. Crea sistemi d'arma autonomi non letali (apparentemente ok dato che è al di fuori del confine del divieto), che puoi quindi trasformare in un centesimo per diventare letale (sarai oltre il divieto solo all'ultimo minuto).
  • Solo rivendicazioni del sistema autonomo. Sostieni il divieto non realizzando sistemi autonomi focalizzati sulle letali, nel frattempo, fai tanti progressi nell'ideazione di sistemi autonomi di tutti i giorni che non sono (ancora) armati ma che puoi adattare in un centesimo per essere armati.
  • Affermazioni di non integrato come uno. Crea sistemi autonomi che non sono affatto armati e, quando arriverà il momento, armamenti a cavalcioni in modo tale da poter tentare di sostenere con veemenza che sono due elementi separati e quindi sostenere che non rientrano nella rubrica di un all-in-one sistema d'arma autonomo o suo cugino.
  • Afferma che non è autonomo. Crea un sistema d'arma che non sembra avere capacità autonome. Lascia spazio in questo sistema presumibilmente non autonomo per l'introduzione dell'autonomia basata sull'intelligenza artificiale. Quando necessario, collega l'autonomia e sei pronto per partire (fino ad allora, a quanto pareva non stavi violando il divieto).
  • Altro

Ci sono molte altre difficoltà espresse nel tentativo di vietare completamente i sistemi d'arma autonomi letali. Ne tratterò alcuni in più.

Alcuni esperti sostengono che un divieto non è particolarmente utile e invece dovrebbero esserci disposizioni normative. L'idea è che questi aggeggi saranno consentiti ma rigorosamente sorvegliati. Viene presentata una litania di usi legittimi, insieme a modi legittimi di prendere di mira, tipi leciti di capacità, proporzionalità legittima e simili.

Per loro, un divieto assoluto è come mettere la testa sotto la sabbia e fingere che l'elefante nella stanza non esista. Questa affermazione però fa ribollire il sangue di coloro che contrastano con l'argomento secondo cui istituendo un divieto si è in grado di ridurre drasticamente la tentazione altrimenti di perseguire questo tipo di sistemi. Certo, alcuni osserveranno il divieto, ma almeno si spera che la maggior parte non lo farà. Puoi quindi concentrare la tua attenzione sugli sbandieratori e non dover dividere la tua attenzione su tutti.

Intorno e in tondo questi dibattiti vanno.

Un'altra preoccupazione spesso nota è che anche se i buoni rispettano il divieto, i cattivi non lo faranno. Questo mette il buono in una pessima posizione. I cattivi avranno questo tipo di sistemi autonomi armati e i buoni no. Una volta che le cose vengono rivelate che i cattivi le hanno, sarà troppo tardi perché i buoni possano recuperare. In breve, l'unica cosa astuta da fare è prepararsi a combattere il fuoco con il fuoco.

C'è anche la classica contesa deterrente. Se i buoni scelgono di creare sistemi autonomi armati, questo può essere utilizzato per dissuadere i cattivi dal cercare di entrare in una rissa. O i buoni saranno meglio armati e in tal modo dissuaderanno i cattivi, oppure i buoni saranno pronti quando i cattivi forse sveleranno di aver ideato di nascosto quei sistemi da sempre.

Un contro a questi contatori è che creando sistemi autonomi armati, stai conducendo una corsa agli armamenti. L'altra parte cercherà di avere lo stesso. Anche se non sono tecnologicamente in grado di creare di nuovo tali sistemi, ora saranno in grado di rubare i piani di quelli "buoni", decodificare le viscere high-tech o imitare qualsiasi cosa sembrino vedere come un vero e proprio modo per portare a termine il lavoro.

Ah, qualche replica, tutto questo potrebbe portare a una riduzione dei conflitti per una parvenza di reciprocità. Se il lato A sa che il lato B ha quelle armi letali dei sistemi autonomi, e il lato B sa che il lato A le ha, potrebbe stare stretto e non venire alle mani. Questo ha quell'aura distinta di vibrazioni di distruzione reciprocamente assicurata (MAD).

E così via.

Osservando da vicino il secondo paragrafo

Abbiamo già trattato molto terreno qui e solo finora abbiamo considerato il primo paragrafo o l'apertura della Lettera Aperta (ci sono quattro paragrafi in totale).

È ora di dare un'occhiata al secondo paragrafo, ecco qui:

  • “Come con qualsiasi nuova tecnologia che offre nuove capacità, l'emergere di robot mobili avanzati offre la possibilità di un uso improprio. Persone inaffidabili potrebbero usarle per invadere i diritti civili o per minacciare, danneggiare o intimidire gli altri. Un'area di particolare preoccupazione è l'armamento. Riteniamo che l'aggiunta di armi a robot azionati in remoto o autonomamente, ampiamente disponibili al pubblico e in grado di navigare in luoghi precedentemente inaccessibili in cui le persone vivono e lavorano, sollevi nuovi rischi di danni e seri problemi etici. Le applicazioni armate di questi robot di nuova capacità danneggeranno anche la fiducia del pubblico nella tecnologia in modi che danneggeranno gli enormi benefici che porteranno alla società. Per questi motivi, non supportiamo l'armamento dei nostri robot per uso generico a mobilità avanzata. Per quelli di noi che hanno parlato di questo problema in passato e per coloro che si sono occupati per la prima volta, ora sentiamo una rinnovata urgenza alla luce della crescente preoccupazione pubblica negli ultimi mesi causata da un piccolo numero di persone che hanno visibilmente pubblicizzato il loro improvvisato sforzi per armare i robot disponibili in commercio” (come pubblicato online).

Dopo aver letto quel secondo paragrafo, spero che tu possa vedere come il mio discorso precedente qui sull'armamento dell'IA viene alla ribalta.

Esaminiamo alcuni punti aggiuntivi.

Una sorta di scrupolo su un particolare aspetto della formulazione che ha sollevato il problema da parte di alcuni è che la narrativa sembra enfatizzare che "persone inaffidabili" potrebbero abusare di questi robot IA. Sì, in effetti, potrebbero essere persone cattive o malfattori a compiere atti vili che "abusano" dei robot IA.

Allo stesso tempo, come sottolineato all'inizio di questa discussione, dobbiamo anche chiarire che l'IA stessa potrebbe andare storta, probabilmente a causa di bug o errori incorporati e altre complicazioni simili. La preoccupazione espressa è che solo sottolineando le possibilità di persone inaffidabili è che sembra ignorare altre possibilità avverse. Sebbene la maggior parte delle aziende e dei fornitori di intelligenza artificiale siano restii ad ammetterlo, esiste una pletora di problemi relativi ai sistemi di intelligenza artificiale che possono compromettere la sicurezza e l'affidabilità dei sistemi autonomi. Per la mia copertura della sicurezza dell'IA e la necessità di salvaguardie rigorose e dimostrabili, vedere il link qui, per esempio.

Un altro punto degno di nota che è emerso tra coloro che hanno esaminato la lettera aperta riguarda l'affermazione inclusa che potrebbe finire per minare la fiducia del pubblico associata ai robot di intelligenza artificiale.

Da un lato, questa è un'affermazione valida. Se i robot dell'IA vengono utilizzati per fare offerte malvagie, puoi scommettere che il pubblico si arrabbierà abbastanza. Quando il pubblico si entusiasma, puoi scommettere che i legislatori entreranno nell'incursione e cercheranno di emanare leggi che reprimono i robot AI e i produttori di robotica AI. Ciò a sua volta potrebbe paralizzare l'industria della robotica dell'IA se le leggi fossero onnicomprensive e interrompessero gli sforzi che coinvolgono i vantaggi della robotica dell'IA. In un certo senso, il bambino potrebbe essere buttato fuori con l'acqua sporca (un'antica espressione, probabilmente meritevole di essere ritirato).

Anche la domanda ovvia sollevata è se questa affermazione sull'evitare una riduzione della fiducia pubblica per i robot di intelligenza artificiale sia un credo in qualche modo egoistico o se sia per il bene di tutti noi (può essere entrambi?).

Tu decidi.

Veniamo ora alla parte particolarmente carnosa della Lettera Aperta:

  • “Ci impegniamo a non armare i nostri robot per uso generico a mobilità avanzata o il software che sviluppiamo che abilita la robotica avanzata e non supporteremo altri per farlo. Quando possibile, esamineremo attentamente le applicazioni previste dai nostri clienti per evitare potenziali armi. Ci impegniamo inoltre a esplorare lo sviluppo di funzionalità tecnologiche che potrebbero mitigare o ridurre questi rischi. Per essere chiari, non stiamo mettendo in discussione le tecnologie esistenti che le nazioni e le loro agenzie governative usano per difendersi e sostenere le loro leggi” (come pubblicato online).

Possiamo disimballare questo.

Siediti e preparati di conseguenza.

Sei pronto per un po' di polarizzazione infuocata?

Sul lato favorevole, alcuni annunciano vocalmente che questi produttori di robot di intelligenza artificiale farebbero un tale impegno. Sembra che questi produttori di robot cercheranno fortunatamente di non armare i loro robot "a mobilità avanzata per uso generale". Inoltre, la Lettera Aperta afferma che non sosterranno altri che lo fanno.

I critici si chiedono se ci sia qualche abile creazione di parole in corso.

Ad esempio, dove inizia e dove finisce la "mobilità avanzata"? Se un produttore di robot sta ideando a semplice-Mobility AI robot piuttosto che uno avanzato (che è un pezzo indefinito del gergo tecnico), questo viene escluso dall'ambito di ciò che sarà non essere armato? Quindi, a quanto pare, va bene armare robot IA a mobilità semplice, purché non siano cosiddetti Avanzate.

Lo stesso vale per il fraseggio dei robot generici. Se un robot di intelligenza artificiale è concepito specificamente per l'armamento e quindi non lo è, dobbiamo dire a scopo generale robot, diventa una possibile esclusione dal campo di applicazione?

Potresti cavillare con questi cavilli e sostenere con fervore che questa è solo una lettera aperta e non un documento legale di cinquanta pagine che esplicita ogni angolo.

Questo ci porta all'apparentemente più scrupolo di livello macro espresso da alcuni. In sostanza, cosa denota un "pegno"?

Alcuni chiedono, dov'è il manzo?

Una società che si impegna in questo modo apparentemente lo fa senza alcuna vera partecipazione al gioco. Se i vertici di qualsiasi azienda che si iscrivono a questo impegno decidono di non onorare più l'impegno, cosa succede a quell'azienda? I dirigenti verranno sommariamente inscatolati? La società chiuderà e si scuserà profusamente per aver violato l'impegno? E così via.

Per quanto si può dedurre, non è prevista alcuna sanzione o sanzione particolare per l'eventuale violazione del pegno.

Si potrebbe obiettare che esiste la possibilità di un danno reputazionale. Una società di pegno potrebbe essere intaccata sul mercato per aver fatto una promessa che non ha più rispettato. Naturalmente, questo presuppone anche che le persone ricorderanno che l'impegno è stato fatto. Presuppone inoltre che la violazione dell'impegno venga in qualche modo rilevata (sembra decisamente improbabile che un'azienda dica tutto se lo fa). Il trasgressore della promessa dovrebbe essere denunciato, eppure un problema del genere potrebbe diventare un semplice rumore nello tsunami in corso di notizie sui produttori di robotica AI.

Considera un altro angolo che è emerso.

Una società di pegno viene acquistata da una società più grande. L'azienda più grande sceglie di iniziare a trasformare i robot per uso generico a mobilità avanzata in versioni armate di intelligenza artificiale.

Si tratta di una violazione dell'impegno?

L'azienda più grande potrebbe insistere sul fatto che non si tratta di una violazione poiché (l'azienda più grande) non si è mai impegnata. Nel frattempo, gli innocui robot di intelligenza artificiale che l'azienda più piccola ha messo insieme e ideato, facendo ciò con le intenzioni apparentemente più altruistiche, vengono rinnovati quasi dall'oggi al domani per essere trasformati in armi.

In qualche modo mina la promessa, anche se si potrebbe dire che l'azienda più piccola non sapeva che un giorno sarebbe successo. Erano sinceri nel loro desiderio. Era fuori dal loro controllo su ciò che l'azienda acquirente più grande ha deciso di fare.

Alcuni chiedono anche se ci sia una responsabilità legale in questo.

Una società di pegno decide tra qualche mese che non onorerà l'impegno. Hanno cambiato idea. L'azienda può essere citata in giudizio per aver rinunciato all'impegno assunto? Chi farebbe causa? Quale sarebbe la base per la querela? Sorgono una serie di problemi legali. Come si suol dire, puoi citare in giudizio praticamente chiunque, ma se prevarrai è una questione completamente diversa.

Pensa a questo in un altro modo. Una società che si è impegnata in pegno ha l'opportunità di fare un grosso affare per vendere un intero gruppo dei suoi robot per uso generico a mobilità avanzata a un'enorme azienda che è disposta a pagare attraverso il naso per ottenere i robot. È uno di quegli affari di acquisto da miliardi di dollari irripetibili.

Cosa dovrebbe fare l'azienda di robotica AI?

Se la società di pegno di robotica AI fosse quotata in borsa, quasi certamente mirerebbero a effettuare la vendita (lo stesso si potrebbe dire di un'azienda privata, anche se non proprio). Immagina che la società che si è impegnata in pegno sia preoccupata che l'acquirente possa tentare di armare i robot, anche se diciamo che non ci sono discussioni del genere sul tavolo. Si dice solo che l'acquirente potrebbe farlo.

Di conseguenza, l'azienda promettente inserisce nella loro licenza che i robot non devono essere armati. L'acquirente si oppone a questa lingua e si allontana dall'acquisto.

Da quanto profitto si è appena allontanata la promettente azienda di robotica AI?

C'è un punto in cui il profitto in mano supera l'inclusione del requisito di restrizione della licenza (o, forse, la formulazione legale della restrizione per consentire spazio di manovra e far sì che l'accordo accada)? Penso che tu possa vedere il dilemma coinvolto. Tonnellate di tali scenari possono essere facilmente evocati. La domanda è se questa promessa avrà i denti. Se sì, che tipo di denti?

In breve, come accennato all'inizio di questa discussione, alcuni sono amplificati dal fatto che questo tipo di impegno sia stato preso, mentre altri hanno una visione più debole del fatto che l'impegno reggerà l'acqua.

Andiamo avanti.

Ottenere un impegno in corso

Il quarto e ultimo paragrafo della Lettera Aperta dice questo:

  • "Comprendiamo che il nostro impegno da solo non è sufficiente per affrontare pienamente questi rischi, e pertanto invitiamo i responsabili politici a collaborare con noi per promuovere un uso sicuro di questi robot e per proibirne l'uso improprio. Chiediamo inoltre a tutte le organizzazioni, sviluppatori, ricercatori e utenti della comunità robotica di impegnarsi in modo simile a non costruire, autorizzare, supportare o consentire l'attacco di armi a tali robot. Siamo convinti che i vantaggi per l'umanità di queste tecnologie superino di gran lunga il rischio di un uso improprio e siamo entusiasti di un futuro luminoso in cui esseri umani e robot lavoreranno fianco a fianco per affrontare alcune delle sfide del mondo” (come pubblicato online).

Quest'ultima parte della Lettera Aperta ha diversi elementi aggiuntivi che hanno suscitato ira.

Alcuni affermano che fare appello ai politici può essere bene o male consigliato. Potresti ottenere politici che non sono esperti in queste questioni che poi fanno la classica corsa al giudizio e creano leggi e regolamenti che usurpano i progressi sui robot IA. Secondo quanto affermato in precedenza, forse l'innovazione che sta portando avanti i progressi robotici dell'IA verrà interrotta o calpestata.

Meglio essere sicuri di sapere cosa stai chiedendo, dicono i critici.

Naturalmente, la contro-argomentazione è che la narrativa afferma chiaramente che i responsabili politici dovrebbero collaborare con le aziende di robotica AI per capire come adottare presumibilmente in modo ragionevole tali leggi e regolamenti. La contro-argomentazione è che i responsabili politici potrebbero essere visti come se osservassero i responsabili della robotica AI se soddisfano i loro capricci. Il contrasto al contro-argomentazione è che è naturalmente una necessità lavorare con coloro che conoscono la tecnologia, altrimenti il ​​​​risultato sarà potenzialmente instabile. Eccetera.

Su una base forse cavillosa, alcuni hanno avuto bruciore di stomaco oltre la linea che invita tutti a fare promesse simili per non allegando armi a robot per uso generico a mobilità avanzata. La parola chiave lì è la parola allegando. Se qualcuno sta realizzando un robot con intelligenza artificiale che incorpora o incorpora perfettamente armi, sembra aggirare la formulazione di allegando qualche cosa. Puoi vederlo ora, qualcuno che sostiene con veemenza che l'arma non è attaccata, è completamente parte integrante del robot AI. Lascia perdere, esclamano, non siamo nell'ambito di quell'impegno, e avrebbero anche potuto dire che lo erano.

Ciò solleva un'altra lamentela sulla mancanza di viscosità dell'impegno.

Un'azienda o chiunque scelga di fare questo impegno può dichiararsi non impegnata in qualsiasi momento che lo desidera e per qualsiasi motivo lo desidera?

Apparentemente così.

C'è un sacco di chiacchiere sul fare promesse e sulla trazione che infondono.

Conclusione

Yikes, si potrebbe dire, queste aziende che stanno cercando di fare la cosa giusta vengono picchiate per aver cercato di fare la cosa giusta.

Che cosa è venuto dal nostro mondo?

Chiunque faccia una simile promessa dovrebbe avere il beneficio del dubbio, potresti sostenere appassionatamente. Stanno entrando nella sfera pubblica per dare un contributo audace e vitale. Se iniziamo a infangarli per averlo fatto, sicuramente peggiorerà le cose. Nessuno vorrà fare un simile impegno. Le aziende e gli altri non ci proveranno nemmeno. Si nasconderanno e non avvertiranno la società di ciò in cui possono essere pericolosamente trasformati quei cari robot danzanti.

Gli scettici affermano che il modo per convincere la società a diventare saggia implica altre azioni, come abbandonare l'atto fantasioso di mostrare i robot IA danzanti che si divertono. O almeno renderlo un atto più equilibrato. Ad esempio, piuttosto che imitare solo amati cani fedeli agli animali domestici, illustra come i robot danzanti possono essere più simili a lupi arrabbiati scatenati che possono fare a brandelli gli umani senza esitazione.

Ciò otterrà più attenzione delle promesse, implorano.

Le promesse possono essere indubbiamente un enigma.

Come ha affermato eloquentemente il Mahatma Gandhi: "Non importa quanto esplicito sia l'impegno, le persone gireranno e distorceranno il testo per adattarlo al proprio scopo".

Forse per concludere qui con una nota edificante, Thomas Jefferson ha detto questo sulle promesse: "Ci impegniamo reciprocamente l'un l'altro le nostre vite, le nostre fortune e il nostro sacro onore".

Quando si tratta di robot con intelligenza artificiale, della loro autonomia, della loro armamento e simili, alla fine saremo tutti coinvolti in questo insieme. Il nostro impegno reciproco deve almeno essere quello di mantenere queste questioni in primo piano, ci sforzeremo di trovare modi per far fronte a questi progressi e in qualche modo trovare la nostra strada per garantire il nostro onore, le nostre fortune e le nostre vite.

Possiamo impegnarci in questo?

Lo spero.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-aking-hard-questions-about-that-new-pledge-by-dancing- produttori-di-robot-dicendo-che-eviteranno-l'armamento/