L'etica dell'IA alle prese con l'inevitabile incidente dell'IA, che incombe anche sulle auto a guida autonoma

Per caso conosci qualcuno che sembra essere particolarmente incline agli incidenti?

Sembra che lo facciamo tutti.

Forse la persona è quel tipo che è incline a scivolare su una buccia di banana o a rovesciare un vaso prezioso nel tuo soggiorno. Sono una calamita umana per incidenti di un tipo o dell'altro. Potrebbe essere così brutto che a volte sei persino riluttante ad essere vicino a loro. Potresti avere il sinistro straripamento o subire le ingloriose conseguenze di uno dei loro spiacevoli incidenti.

Ma forse siamo eccessivamente severi quando suggeriamo che qualcuno è più predisposto agli incidenti di altri. Si potrebbe argomentare che gli incidenti possono capitare a chiunque di noi. Siamo tutti soggetti alla possibilità di commettere o rimanere coinvolti in un incidente. Il meglio di noi incluso.

Mettiamo in cima a questa discussione un'ulteriore domanda irritante.

Gli incidenti sono inevitabili?

In altre parole, non importa quanto si possa tentare di prevenire gli incidenti, potrebbe inestricabilmente essere che ciononostante c'è ancora una possibilità e una certezza assoluta che gli incidenti si verificheranno. Puoi cercare di proteggere il mondo dagli incidenti. Sembra indubbiamente prudente. Ma in un modo o nell'altro, gli incidenti alzeranno ancora la loro brutta testa.

Come si suol dire, gli incidenti aspettano di accadere.

Potrebbe essere utile chiarire cosa si intende quando si fa riferimento a un evento come opportunamente etichettato come incidente. La consueta definizione del dizionario è che un incidente è un tipo di incidente che si verifica in modo imprevisto e non intenzionale, per il quale esiste uno sfortunato risultato che consiste in una parvenza di danno o lesione.

Disimballare consapevolmente quella definizione.

Il suddetto incidente è inaspettato. Ciò implica che non sembravamo renderci conto che l'incidente stesso sarebbe sorto.

Il suddetto incidente non è intenzionale. Ciò suggerisce che dovremmo escludere le circostanze in cui qualcuno ha cercato intenzionalmente che l'incidente si verificasse. Se un burlone mette una buccia di banana sul pavimento dove sa che uno sfortunato e ignaro innocente calpesta, sarebbe difficile affermare che la persona che ci è inciampata ha subito un incidente. Sono stati invece ingannati e insidiosamente portati in una trappola.

La definizione include anche il criterio che il risultato è sfortunato. Un incidente in questa luce deve portare a un esito negativo. La persona che ha accidentalmente rovesciato un vaso ha rotto e forse danneggiato l'oggetto gustato in modo irreparabile. Il proprietario del vaso è danneggiato dalla perdita di valore. La persona che si è imbattuta nel vaso potrebbe ora essere in debito con il proprietario per la perdita. Il cielo non voglia che qualcuno possa essere stato tagliato o demolito dalla rottura del vaso.

Per motivi di parità, potremmo voler notare che ci sono anche i cosiddetti incidenti "buoni". Una persona potrebbe trovarsi in grande fortuna o accumulare qualche altro beneficio vitale a causa del risultato di un incidente. Uno degli esempi più citati è costituito da Sir Alexander Fleming e dalla sua acclamata scoperta della penicillina. La storia racconta che era un po' negligente nel suo laboratorio e al ritorno da una vacanza di due settimane trovò uno stampo su uno dei suoi piatti di coltura. Secondo quanto riferito, ha detto questo sulla questione: “A volte si trova ciò che non si sta cercando. Quando mi sono svegliato subito dopo l'alba il 28 settembre 1928, non avevo certo intenzione di rivoluzionare tutta la medicina scoprendo il primo antibiotico al mondo, o killer di batteri. Ma immagino che sia esattamente quello che ho fatto".

Metteremo da parte gli incidenti favorevoli e ci concentreremo qui sugli incidenti tristi. La versione accigliata degli incidenti è dove quegli esiti negativi possono essere particolarmente pericolosi per la vita o avere risultati onerosi. Per quanto possibile, gli incidenti al ribasso che vogliamo ridurre al minimo (e, naturalmente, gli incidenti al rialzo che vorremmo massimizzare, se ciò è fattibile, anche se tratterò quella variante della faccina sorridente in una colonna successiva).

Vorrei riformulare leggermente la domanda precedente sull'inevitabilità degli incidenti. Finora abbiamo mantenuto la nostra attenzione sugli incidenti che si verificano nel caso particolare di una persona singolare. Non c'è dubbio che gli incidenti possono anche avere un impatto su una moltitudine di persone contemporaneamente. Questo può essere particolarmente riscontrato quando le persone sono immerse in un sistema complesso di un tipo o dell'altro.

Preparati per una variante della domanda precedentemente proposta.

Gli incidenti di sistema sono inevitabili?

Dovremmo rimuginare su questo.

Supponiamo che venga allestita una fabbrica per produrre parti per automobili. Coloro che hanno progettato la fabbrica sono, diciamo, estremamente preoccupati per gli incidenti sui lavoratori che potrebbero verificarsi. Gli operai sono tenuti a indossare sempre il casco. La segnaletica in fabbrica esorta a fare attenzione agli incidenti ea prestare attenzione al proprio lavoro. Vengono prese tutte le precauzioni per evitare che si verifichino incidenti.

In questo sistema, potremmo sperare che nessuno possa mai incorrere in un incidente. Credi che ci sia zero possibilità che si verifichi un incidente? Oserei suggerire che nessun pensatore ragionevole scommetterebbe che la possibilità di un incidente è zero in questo caso. Le probabilità che si verifichi un incidente potrebbero essere davvero basse, ma sappiamo ancora e supponiamo che, nonostante tutte le precauzioni, c'è ancora un minimo di rischio che si verifichi un incidente.

Tutto ciò porta all'idea che in un sistema di sufficiente complessità siamo obbligati a credere che gli incidenti si verificheranno ancora, indipendentemente da quanto ci sforziamo per prevenirli. Con riluttanza ci appoggiamo alla conclusione che gli incidenti di sistema sono davvero inevitabili. Un'affermazione grandiosa di questo calibro potrebbe avere l'avvertenza che il sistema dovrebbe essere di una certa soglia di complessità tale che è essenzialmente impossibile coprire tutte le basi per prevenire totalmente gli incidenti.

Ora sei stato introdotto in modo ordinato passo dopo passo a una teoria ampiamente delineata sugli incidenti che possono essere etichettati come incidenti normali o teoria degli incidenti normali (NAT). Ecco una pratica descrizione dei ricercatori che hanno esaminato questa nozione: “Su scala sufficientemente ampia, qualsiasi sistema produrrà 'incidenti normali'. Si tratta di incidenti inevitabili causati da una combinazione di complessità, accoppiamento tra componenti e potenziali danni. Un incidente normale è diverso dai più comuni incidenti con guasti ai componenti in quanto gli eventi e le interazioni che portano a un incidente normale non sono comprensibili per gli operatori del sistema” (come affermato in “Capire ed evitare i guasti dell'IA: una guida pratica” di Robert Williams e Roman Yampolskij, Filosofie rivista).

Il motivo per cui ti ho portato nella terra dei cosiddetti incidenti normali è che potremmo aver bisogno di applicare con attenzione questa teoria a qualcosa che sta gradualmente e inevitabilmente diventando onnipresente nella nostra società, vale a dire l'avvento dell'Intelligenza Artificiale (AI).

Approfondiamo questo.

Alcune persone presumono erroneamente che l'IA sarà la perfezione. I sistemi di intelligenza artificiale non commetteranno errori e non ci metteranno nei guai, si dice. Tutto quello che devi fare è assicurarti che quegli sviluppatori di IA svolgano un lavoro abbastanza buono, e voilà, l'IA non farà mai nulla che possa essere interpretato come accidentale o generando un incidente.

Non così in fretta su quell'ipotetica convinzione. Se sei disposto ad accettare la teoria di incidenti normali, qualsiasi IA di qualsiasi complessità sostanziale provocherà inevitabilmente un incidente. Indipendentemente da quanto armeggino a tarda notte quegli sviluppatori di IA per prevenire un incidente, l'IA sarà sicuramente coinvolta a un certo punto in un incidente. Questo è il modo in cui il biscotto si sbriciola. E non c'è tregua nel piangere a riguardo nel nostro latte versato.

Rifletti sul mashup di AI e sui principi concettuali di incidenti normali.

Immagina di avere un sistema di intelligenza artificiale che controlla le armi nucleari. L'IA è stata realizzata con cura. Ogni possibile controllo e bilanciamento è stato codificato nel sistema di intelligenza artificiale. Siamo al sicuro da un incidente basato sull'intelligenza artificiale che potrebbe verificarsi? Coloro che supportano il punto di vista degli incidenti normali direbbero che non siamo così sicuri come si potrebbe pensare. Dato che è probabile che l'IA sia particolarmente complessa, un normale incidente sta aspettando silenziosamente che un giorno emerga, forse nel momento peggiore possibile.

Il succo di queste spinose domande e scrupoli è che dobbiamo essere attenti al fatto che l'IA è destinata a essere carica di incidenti e l'umanità deve fare qualcosa di sensato e proattivo riguardo ai pericoli che possono derivarne. Come vedrai tra un momento o due, questa è una considerazione incombente quando si tratta di usare l'IA, e il campo dell'etica dell'IA e dell'IA etica sta lottando un po' su cosa fare. Per la mia copertura continua ed estesa dell'etica dell'IA e dell'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Prima di andare in una tana del coniglio, assicuriamoci di essere sulla stessa pagina sulla natura dell'IA. Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano che ti dà consigli. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui). Tutto sommato, questi scenari aumenterebbero la valutazione della fonte.

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tutto sommato, una speranza generale è che stabilendo un senso dei precetti dell'etica dell'IA saremo almeno in grado di aumentare la consapevolezza della società su ciò che l'IA può fare sia in modo vantaggioso sia anche in modo negativo. Ho ampiamente discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'IA e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Potremmo aver bisogno di aggiungere ai decantati elenchi di etica dell'IA che dobbiamo considerare esplicitamente e intraprendere azioni esplicite per prevenire o almeno mitigare stridentemente incidenti normali che potrebbe verificarsi. Coloro che sviluppano l'IA devono fare del loro meglio su questo fronte. Coloro che implementano l'IA devono fare lo stesso. Coloro che utilizzano o sono in qualche modo soggetti all'IA dovrebbero stare attenti e in guardia dalla possibilità di incidenti dell'IA che apparentemente si verificheranno.

Potresti essere tentato di pensare che nell'IA possano essere integrate sufficienti precauzioni da ridurre a zero le possibilità di un incidente. Per quelli che sono tecnici, la solita arroganza è che se un pezzo di tecnologia può generare un problema, un altro pezzo di tecnologia può sicuramente risolvere il problema. Continua a lanciare sempre più tecnologia finché il problema non scompare.

Ebbene, coloro che hanno studiato gli incidenti orientati ai sistemi tenderebbero a non essere d'accordo e a ribattere educatamente alla presunta pomposità della tecnica proponendo un punto di vista noto come Swiss Cheese Model (SCM): "Nell'SCM, gli strati di sicurezza sono modellati come fette di formaggio con fori che rappresentano punti deboli in ogni strato di sicurezza. Nel tempo, i buchi cambiano forma e si spostano. Alla fine, non importa quante fette di formaggio (strati di sicurezza) ci siano, i fori si allineeranno consentendo un tiro dritto attraverso tutte le fette di formaggio (si verifica un incidente)" (secondo l'articolo citato in precedenza da Robert Williams e Roman Yampolskiy ).

Non voglio impantanarmi in questa tangente laterale sull'esistenza o meno di un modo garantito per programmare l'IA in modo da evitare completamente e sempre ogni possibilità di un incidente. Ci sono tutti i tipi di approcci matematici e computazionali che vengono provati. Penso che sia ragionevole e giusto dichiarare che oggi non abbiamo un metodo di lavoro scalabile né tecnologie che possano garantire in modo ferreo una possibilità così zero, inoltre siamo sicuramente gravati da tonnellate e tonnellate di IA che viene prodotta alla rinfusa che noi sa per certo non ha cercato di attenersi a tali pratiche. Quest'ultimo punto è cruciale dal momento che anche se riusciamo a inventare qualcosa in un laboratorio di intelligenza artificiale, scalarlo ai miliardi di sforzi di intelligenza artificiale selvaggi e spensierati in corso e che continueranno a emergere è un problema complicato e probabilmente non risolto anche se una macchina di prova computazionale argento proiettile esisteva.

Un altro punto che ritengo meriti una breve menzione consiste nell'IA che viene trasformata in atti spiacevoli come risultato di attori umani maliziosi. Non collocherò queste istanze nel regno degli incidenti di IA. Ricorda che la discussione di apertura suggeriva che la definizione del dizionario di incidente fosse un incidente di an involontario natura. Se un cybercriminale umano riesce a convincere un sistema di intelligenza artificiale a fare cose cattive, non classificherei quell'IA come un incidente. Confido che andrai d'accordo con quella presunzione.

Sorge una domanda interessante su quanto delle varie azioni spiacevoli dell'IA possa essere attribuita a un semplice incidente dell'IA rispetto all'atto subdolo di un criminale informatico. Secondo alcuni dei database di segnalazione di incidenti di intelligenza artificiale esistenti, sembra che gli incidenti di intelligenza artificiale accadano più degli incidenti provocati in modo dannoso, anche se devi prendere questa nozione con una buona dose di sale. Dico questo perché c'è una grande tentazione di non segnalare quando un sistema di intelligenza artificiale è stato attaccato e forse essere un po' più disposti a segnalare quando si verifica un incidente di IA.

C'è un avvertimento estremamente importante che dobbiamo discutere riguardo agli incidenti con IA.

Usare lo slogan "Incidenti AI" è generalmente indesiderabile e creerà un bel pasticcio per tutti noi, vale a dire per tutta la società. Quando per caso un umano ha un incidente, spesso alziamo le spalle e siamo solidali con la persona che ha avuto l'incidente. Sembriamo trattare la parola "incidente" come se significasse che nessuno è responsabile di quello che è successo.

Prendiamo l'esempio di un incidente d'auto. Un'auto gira a destra e va a sbattere contro un'altra macchina che stava andando dritto. Shucks, è stato solo un incidente ed è successo per caso. Coloro che non sono stati coinvolti nell'incidente forse lasceranno scorrere la questione se l'evento è espresso in termini di semplice incidente accaduto.

Ho la sensazione però che se tu fossi nell'auto che è stata colpita, non saresti così comprensivo con il guidatore che ha fatto la curva troppo ampia. La tua opinione sarebbe sicuramente che l'altro guidatore fosse un pessimo guidatore e che un atto di guida apparentemente illegale o poco saggio abbia portato all'incidente d'auto. Etichettando l'incidente come un "incidente", l'autista che è rimasto bloccato è ora in una certa posizione di svantaggio poiché l'apparenza è che tutto è accaduto solo per caso, piuttosto che per mano dell'autista che ha incasinato.

In effetti, la parola "incidente" è così piena di connotazioni diverse che, in generale, le statistiche del governo sugli incidenti automobilistici si riferiscono alla questione come collisioni o incidenti automobilistici, piuttosto che utilizzare la frase incidenti stradali. Una collisione d'auto o un incidente d'auto non sembrano avere alcuna implicazione su come si è verificato l'incidente. Nel frattempo, il fraseggio di un "incidente d'auto" ci porta quasi a pensare che sia stato un capriccio del destino o in qualche modo al di fuori delle mani dell'umanità.

Puoi vedere abbondantemente come questa considerazione connotazionale entra in gioco quando ci si riferisce agli incidenti dell'IA. Non vogliamo che gli sviluppatori di IA si nascondano dietro lo scudo connotazionale che l'IA ha appena accidentalmente causato del male a qualcuno. Lo stesso vale per quelli che implementano l'IA. Si potrebbe obiettare che la formulazione di "incidenti dell'IA" è quasi un'antropomorfizzazione dell'IA che ingannerà la società nel consentire agli umani che erano dietro le quinte dell'IA di sfuggire alla responsabilità. Per la mia discussione sulla crescente importanza di ritenere gli esseri umani responsabili della loro IA, vedere la mia discussione su questo link qui ed questo link qui.

D'ora in poi userò lo slogan degli incidenti di IA, ma lo faccio con riluttanza e solo perché è il modo convenzionale di riferirmi a questo fenomeno. I tentativi di dirlo in modo diverso tendono a essere purtroppo più gonfi e non così facilmente leggibili. Assicurati di interpretare lo slogan in un modo che non ti faccia voltare dall'altra parte e non ti rendi conto che gli umani alla base dell'IA sono colpevoli quando l'IA va storta.

Per aiutare a illustrare la probabile confusione o gli aspetti fuorvianti del riferirsi all'IA come incidente, possiamo tornare alle mie osservazioni sull'aver rovesciato un vaso. Considera questo esempio di AI che fa così: “Questo problema ha a che fare con cose che vengono fatte per caso o per indifferenza dall'IA. Un robot di pulizia che rovescia un vaso ne è un esempio. Gli ambienti complessi hanno così tanti tipi di 'vasi' che difficilmente saremo in grado di programmare una penalità per tutti gli effetti collaterali” (secondo l'articolo di Robert Williams e Roman Yampolskiy).

Un sistema di intelligenza artificiale che viene utilizzato in una famiglia e poi "accidentalmente" rovescia un vaso sembrerebbe suggerire che nessuno dovrebbe essere incolpato di questa azione avversa dell'IA. È stato solo un incidente, si potrebbe deplorare deplorevolmente. D'altra parte, dovremmo giustamente chiederci perché il sistema di intelligenza artificiale non è stato programmato per gestire la circostanza del vaso in generale. Anche se gli sviluppatori di intelligenza artificiale non prevedevano che un vaso di per sé rientrasse nell'ambito degli oggetti che potevano essere incontrati, possiamo certamente chiederci perché non ci fosse qualche evitamento generale degli oggetti che avrebbe impedito al sistema di intelligenza artificiale di rovesciare il vaso (quindi, l'IA potrebbe non classificare il vaso come un vaso, ma avrebbe comunque potuto evitarlo come un oggetto rilevabile da evitare).

Ho previsto e continuo a prevedere che ci stiamo gradualmente dirigendo verso un'enorme battaglia legale sull'emergere di sistemi di intelligenza artificiale che si ritrovano in "incidenti di intelligenza artificiale" e causano una qualche forma di danno. Finora, la società non ha reagito in modo significativo al respingimento legale dell'IA che viene spalata sul mercato e produce conseguenze negative, intenzionalmente o involontariamente. Il carrozzone dell'IA di oggi, che è diventato una corsa all'oro di produttori di intelligenza artificiale a metà e coloro che attuano frettolosamente l'implementazione dell'IA stanno avendo fortuna in questo momento e rimangono relativamente incontaminati da cause civili e procedimenti penali.

Il contraccolpo legale alimentato dall'IA arriverà, prima o poi.

Andando avanti, come dobbiamo cercare di far fronte all'inevitabilità dei cosiddetti incidenti di IA?

Una cosa che possiamo fare subito è cercare di anticipare come potrebbero verificarsi gli incidenti dell'IA. Anticipando gli incidenti dell'IA, possiamo almeno cercare di escogitare mezzi per ridurli o ridurre al minimo la loro probabilità che si verifichino. Inoltre, possiamo tentare di mettere in atto dei guardrail in modo che quando si verifica un incidente con l'IA, le possibilità di danni dimostrativi diminuiscono.

Un utile insieme di fattori che sono stati descritti nell'articolo di ricerca citato in precedenza Comprendere ed evitare i guasti dell'IA: una guida pratica include queste proprietà (come citato dal documento di ricerca):

  • Il sistema che è influenzato dalle uscite dell'IA.
  • Ritardo tra le uscite dell'IA e il sistema più grande, osservabilità del sistema, livello di attenzione umana e capacità degli operatori di correggere il malfunzionamento dell'IA.
  • Il massimo danno possibile da un uso dannoso dei sistemi controllati dall'IA.
  • Accoppiamento delle componenti in prossimità dell'IA e complessità delle interazioni.
  • Divario di conoscenza dell'IA e delle altre tecnologie utilizzate e del livello energetico del sistema.

A questo punto di questa pesante discussione, scommetto che sei desideroso di alcuni esempi illustrativi che potrebbero chiarire ulteriormente l'argomento degli incidenti dell'IA. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sull'avvento dei cosiddetti incidenti dell'IA e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e incidenti di intelligenza artificiale

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Confido che fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Ora siamo pronti per fare un tuffo profondo nelle auto a guida autonoma e nelle possibilità dell'IA etica che comportano l'avvento dei cosiddetti incidenti dell'IA.

Immagina che un'auto a guida autonoma basata sull'intelligenza artificiale sia in corso nelle strade del tuo quartiere e sembri guidare in sicurezza. All'inizio, hai dedicato un'attenzione speciale a ogni volta che sei riuscito a intravedere l'auto a guida autonoma. Il veicolo autonomo si è distinto per il suo rack di sensori elettronici che includeva videocamere, unità radar, dispositivi LIDAR e simili. Dopo molte settimane in cui l'auto a guida autonoma gira per la tua comunità, ora te ne accorgi a malapena. Per quanto ti riguarda, è solo un'altra macchina sulle strade pubbliche già trafficate.

Per non pensare che sia impossibile o non plausibile acquisire familiarità con la visione di auto a guida autonoma, ho scritto spesso di come i luoghi che rientrano nell'ambito delle prove di auto a guida autonoma si siano gradualmente abituati a vedere i veicoli abbelliti. Molti dei locali alla fine sono passati dall'essere rapiti a bocca aperta a guardare a bocca aperta e ora emettendo un ampio sbadiglio di noia per assistere a quelle tortuose auto a guida autonoma.

Probabilmente il motivo principale in questo momento per cui potrebbero notare i veicoli autonomi è il fattore di irritazione ed esasperazione. I sistemi di guida basati sull'intelligenza artificiale assicurano che le auto rispettino tutti i limiti di velocità e le regole della strada. Per i frenetici conducenti umani nelle loro tradizionali auto a guida umana, a volte ti irriti quando sei bloccato dietro le auto a guida autonoma rigorosamente basate sull'intelligenza artificiale.

È qualcosa a cui tutti potremmo aver bisogno di abituarci, a torto oa ragione.

Torniamo al nostro racconto.

Un giorno, l'auto a guida autonoma ha un incidente.

Mentre svoltava a destra, il sistema di guida dell'IA ha fatto oscillare ampiamente il veicolo autonomo e un'auto guidata da un essere umano è stata colpita. L'auto a guida umana procedeva dritta nella corretta corsia di circolazione. Non c'era una particolare opportunità per il guidatore umano di sterzare o evitare di essere colpito. Inoltre, non c'era alcun avviso o indicazione da parte dell'auto a guida autonoma che avrebbe svoltato ampiamente a destra.

È un incidente?

Possiamo certamente dire che è racchiuso nella rubrica di essere un incidente di IA. La base di tale affermazione è che c'era un sistema di guida AI al volante dell'auto a guida autonoma. In qualche modo, per qualsiasi motivo, l'IA ha deciso di fare un ampio swing quando svolta a destra. Il risultato ha portato l'auto a guida autonoma a colpire un'auto a guida umana.

Ricorda la discussione precedente sulle connotazioni associate alla parola "incidente" e guarda come tali sfumature entrano in gioco in questo scenario. Inoltre, ricorda che abbiamo discusso il caso di un guidatore umano che compie un'ampia svolta a destra e si imbatte in un'auto a guida umana. Ci siamo resi conto che l'idea che questo atto sia un "incidente" è fuorviante e confondente. L'autista umano che ha fatto l'ampia oscillazione potrebbe nascondersi dietro l'idea che sia semplicemente accaduto un incidente che è stato apparentemente per caso o per capricci del destino.

Invece di etichettare lo scenario come un "incidente di intelligenza artificiale" nel caso dell'auto a guida autonoma basata sull'intelligenza artificiale che si allarga e colpisce l'auto guidata dall'uomo, forse dovremmo dire che si è trattato di un incidente d'auto o di una collisione d'auto che ha coinvolto un auto- guidare un'auto e un'auto a guida umana. Possiamo quindi fare a meno della vacua confusione di essere un incidente di mezzi inconoscibili.

Quale pensi che sarebbe la reazione del pubblico all'incidente?

Bene, se la casa automobilistica o l'azienda tecnologica a guida autonoma possono attenersi all'etichettatura della questione come un incidente, potrebbero essere in grado di aggirare il potenziale contraccolpo della comunità in generale. Un senso di simpatia per gli incidenti raccontati potrebbe fluire sulla circostanza particolare. Per ulteriori informazioni su come le città, le contee e i leader statali reagiranno potenzialmente agli incidenti con veicoli autonomi con intelligenza artificiale, vedere la discussione di uno studio di Harvard che ho co-diretto e come descritto in il link qui.

Se la situazione è chiaramente descritta come un incidente d'auto o una collisione d'auto, forse ciò potrebbe consentire allora di rendersi conto che qualcuno o qualcosa è forse la causa dell'incidente. Una reazione istintiva potrebbe essere che l'IA debba essere ritenuta responsabile. Il fatto è che, fino a quando o se mai decidessimo di ungere l'IA come avente una parvenza di personalità giuridica, non sarai in grado di attribuire la responsabilità all'IA di per sé (vedi la mia discussione sull'IA e sulla personalità giuridica all'indirizzo il link qui).

Possiamo ispezionare il sistema di guida dell'IA per cercare di capire cosa ha portato alla guida apparentemente inappropriata e al successivo incidente d'auto. Ciò non implica però che l'IA sarà ritenuta responsabile. Le parti responsabili includono gli sviluppatori di intelligenza artificiale, l'operatore della flotta dell'auto a guida autonoma e altri. Ne includo anche altri poiché esiste la possibilità che la città possa essere ritenuta parzialmente responsabile della progettazione dell'angolo in cui è avvenuta la svolta. Inoltre, supponiamo che un pedone stia sfrecciando fuori dall'angolo e che il sistema di guida dell'IA abbia scelto di evitare la persona e poi sia rimasto invischiato nell'incidente d'auto.

E così via.

Conclusione

Vorremmo sapere cosa calcolava computazionalmente l'IA e cosa era stata programmata per fare. L'IA ha fatto come era stato codificato? Forse l'IA ha riscontrato un bug o un errore nella programmazione, il che non giustifica le azioni ma fornisce un indizio su come si è verificato l'arresto anomalo.

Che tipo di guardrail AI sono stati programmati nel sistema di guida AI? Se ci fossero i guardrail, vorremmo capire perché sembravano non impedire l'incidente d'auto. Forse il sistema di guida dell'IA avrebbe potuto fermarsi piuttosto che fare la svolta. Vorremmo sapere quali alternative l'IA ha valutato computazionalmente nel corso dell'incidente.

Oltre ad arrivare al fondo del particolare incidente, un altro legittimo scrupolo è se il sistema di guida dell'IA ha un difetto o un altro aspetto incorporato che comporterà simili tipi di atti negativi. In sostanza, questo incidente potrebbe essere un indicatore rivelatore di altro a venire. In che modo le simulazioni computerizzate delle situazioni di guida sono state utilizzate per cercare di anticipare questo tipo di sistema di guida basato sull'IA? C'erano sufficienti test di guida su strada per scoprire i problemi di intelligenza artificiale che avrebbero potuto portare all'incidente d'auto?

Questo scenario evidenzia un enigma controverso che sta affrontando l'emergere di auto a guida autonoma basate sull'intelligenza artificiale.

Va così.

Da un lato, c'è il desiderio della società di adottare rapidamente le auto a guida autonoma a causa della speranza che i sistemi di guida dell'IA siano sicuri o forse più sicuri dei conducenti umani. Solo negli Stati Uniti, attualmente abbiamo quasi 40,000 vittime umane all'anno a causa di incidenti stradali e circa 2.5 milioni di feriti umani. Le analisi suggeriscono che una parte considerevole di quegli incidenti stradali sono attribuibili a errori umani come guidare in stato di ebbrezza, guidare distratti, ecc. (vedi la mia valutazione di tali statistiche su il link qui).

I sistemi di guida dell'IA non berranno e non guideranno. Non avranno bisogno di riposo e non si consumeranno mentre sono al volante. Il presupposto è che stabilendo le auto a guida autonoma come mezzo di trasporto praticabile, possiamo ridurre il numero di conducenti umani. Questo a sua volta dovrebbe significare che ridurremo sommariamente il numero di decessi umani annuali e feriti da incidenti stradali.

Alcuni esperti hanno detto che finiremo con zero vittime e zero feriti, e quelle auto a guida autonoma presumibilmente non potranno essere danneggiate, ma questo è un insieme di aspettative del tutto assurde e assolutamente false. Ho spiegato perché questo è così falso a il link qui.

In ogni caso, supponiamo che avremo una certa quantità di incidenti stradali in cui saranno coinvolte auto a guida autonoma. Supponiamo anche che quegli incidenti stradali avranno una certa quantità di vittime e feriti. La domanda su cui si sta angosciando è se noi come società siamo disposti a tollerare tali casi. Alcuni dicono che se si verifica anche solo una morte o un infortunio a causa di vere auto a guida autonoma, l'intero kit e il kaboodle dovrebbero essere chiusi.

Il punto di vista compensativo è che se le vite salvate stanno riducendo i conteggi annuali, dovremmo continuare a incoraggiare l'avvento delle auto a guida autonoma e non reagire in modo così illogico. Dovremo accettare la premessa che esisterà ancora una certa quantità di vittime e feriti, anche con le auto a guida autonoma, e tuttavia renderci conto che il conteggio annuale, se diminuito, suggerisce che siamo sulla strada giusta.

Naturalmente, alcuni sostengono che non dovremmo avere auto a guida autonoma sulle nostre strade pubbliche fino a quando non saranno autorizzate a tale uso a seguito di simulazioni computerizzate estese ed esaurienti o come tramite test privati ​​a circuito chiuso. La controargomentazione è che l'unico modo praticabile e più veloce per far funzionare le auto a guida autonoma è utilizzare le strade pubbliche e che qualsiasi ritardo nell'adozione di auto a guida autonoma consentirà altrimenti di continuare l'orrendo conteggio degli incidenti automobilistici a guida umana. Ho trattato più ampiamente questo dibattito nei miei articoli e invito i lettori a guardare a quelle discussioni per avere il pieno senso delle prospettive su questa questione controversa.

Chiudiamo le cose per ora.

Gli incidenti dell'IA accadranno. Dobbiamo resistere all'impulso di interpretare un incidente di intelligenza artificiale come apparentemente accidentale ed ergo, lascia che i produttori e coloro che implementano l'IA siano categoricamente sganciati.

C'è una svolta in più che ti lascio come ultimo intrigante pensiero per la tua giornata.

Secondo quanto riferito, il comico Dane Cook ha raccontato questa barzelletta sugli incidenti d'auto: "Un paio di giorni fa, ho avuto un incidente d'auto. Non è colpa mia. Anche se non è colpa tua, l'altra persona esce dalla sua macchina e ti guarda come se fosse colpa tua: perché ti sei fermato al semaforo rosso e mi hai permesso di colpirti facendo 80!

Dove la svolta viene alla ribalta è la possibilità che un sistema di IA possa scegliere di insistere sul fatto che quando si verifica un incidente di IA che coinvolge quella particolare IA, l'IA sostiene che l'incidente è stato colpa dell'uomo e sicuramente non colpa dell'IA. A proposito, questo potrebbe essere ampiamente vero e l'umano potrebbe cercare di fare il capro espiatorio all'IA affermando che è stata colpa dell'IA.

O forse l'IA sta cercando di fare da capro espiatorio all'umano.

Vedete, l'IA che elaboriamo potrebbe essere complicata in questo modo, per caso o meno.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- guida-auto-anche/