Etica dell'intelligenza artificiale furiosa per la crescente sindrome della patata bollente utilizzata da produttori di intelligenza artificiale che apparentemente cercano di evitare la responsabilità per i loro sistemi autonomi che decidono la vita

Sappiamo tutti che dovresti assicurarti di non finire con la proverbiale patata bollente.

Il gambetto della patata bollente sembra risalire alle sue radici almeno alla fine del 1800, quando un gioco di società che coinvolgeva candele accese fece girare la palla. Le persone in genere erano sedute su una serie di sedie di legno che erano relativamente adiacenti l'una all'altra e giocavano a un gioco del tutto entusiasmante in quell'epoca. Una candela accesa veniva consegnata da persona a persona dai giocatori e rappresentava ciò che, in seguito, abbiamo deciso di definire come consegnare un patata bollente.

Era consuetudine che ogni persona fosse tenuta a parlare ad alta voce una rima popolare prima di poter passare la candela che progressivamente bruciava. A quanto pare la rima è andata così:

“Jack è vivo e probabilmente vivrà;

Se muore nelle tue mani, hai un forfait da dare.

Questo recital in rima presumibilmente consentirebbe alla candela un po' di tempo per continuare a bruciare verso la sua conclusione finale. Chi è rimasto bloccato con la candela in suo possesso allo spegnimento naturale alla fine è stato colui che ha perso la partita (gioco di parole!).

Secondo le parole indicate nella rima, il perdente doveva pagare il "forfeit" e quindi solitamente doveva uscire da eventuali ulteriori round di gioco. Questo potrebbe quindi essere combinato con quelle che oggi consideriamo sedie musicali di tutti i giorni, in modo tale che la persona che ha perso il round non parteciperebbe più ai round successivi (come se la musica si fermasse e non riuscissero a ottenere un posto disponibile). Alla fine, sarebbero rimaste solo due persone rimaste che hanno passato la candela accesa e hanno detto la rima, fino a quando un vincitore finale non è stato determinato nell'estinzione finale.

Potresti chiederti perché non giochiamo più a questo gioco con una candela accesa e perché invece in genere ci riferiamo a questo come una patata bollente piuttosto che descriverlo come uno schema di "candela accesa". I ricercatori hanno escogitato molte teorie su come ciò sia gradualmente emerso. La storia sembra torbida e indecisa su come si sono evolute le cose in questa materia. Suppongo che possiamo essere sollevati dal fatto che le candele accese non vengano comunemente usate in questo modo poiché le possibilità che qualcosa vada palpabilmente storto sembrerebbero abbondantemente preoccupanti (qualcuno lascia cadere la candela e accende un fuoco, o qualcuno viene bruciato dalla candela quando gli viene consegnata da un altro giocatore, ecc.).

In termini di patata bollente come potenziale sostituto della candela accesa, si potrebbe generalmente sostenere che la patata sarà nel complesso in qualche modo più sicura. Nessuna fiamma libera. Nessuna cera che si scioglie. La base potenziale per l'utilizzo delle patate in questo contesto è che sono note per trattenere facilmente il calore una volta che sono state riscaldate. Potete passare la patata in giro e rimarrà calda per un po'. Si suppone che decidere quando la patata bollente non è più calda e invece è classificata come fredda sarebbe una proposta fortemente discutibile.

Naturalmente, la nozione di una proverbiale patata bollente è più una considerazione a sé stante in questi giorni. Tutto ciò che è valutato o classificato come una patata bollente è solitamente di una qualità da eliminare seriamente. Non vuoi tenere in mano una patata bollente. Vuoi assicurarti che vada da qualche altra parte. In una certa misura, potresti non essere eccessivamente preoccupato di dove va, semplicemente perché non è più in tuo possesso.

Sembreresti piuttosto insensibile consegnare potenzialmente una patata bollente a un caro amico o conoscente simile. Questo sembrerebbe del tutto fuori luogo. Forse trova qualcun altro o un altro posto dove mettere quella patata bollente, se puoi farlo. Una mossa disperata potrebbe essere quella di forzare la patata bollente su un collega affabile, ma si spera che questo venga fatto solo come ultima risorsa.

L'altro lato di quella medaglia è che potresti divertirti nel consegnare una patata bollente a qualcuno che non ti piace o di cui stai cercando vendetta. Certo, una patata bollente può essere quasi gloriosamente utile se stai mirando a minare una persona che ti ha trattato male. Lascia che capiscano cosa fare con la patata bollente. Buona liberazione alla patata e sfortuna alla persona con cui l'hai etichettata.

In uno scenario di patata bollente che coinvolge solo due persone, c'è la possibilità di una rapida contesa avanti e indietro su quale persona stia tenendo l'oggetto sgradevole e sgradito. Ad esempio, ti consegno la patata bollente e tu me la restituisci in fretta. Supponendo che non abbiamo bisogno di annunciare una filastrocca tra ogni passaggio di consegne, possiamo praticamente semplicemente passare lungo la patata alla velocità con cui le nostre braccia ci consentono di farlo.

Potresti essere curioso di sapere perché ho scelto di fare un tuffo profondo nella venerata e spesso citata patata bollente.

Ecco perché.

Si scopre che la forma della patata bollente viene sempre più utilizzata nel campo dell'intelligenza artificiale (AI).

La maggior parte delle persone non ne sa nulla. Non ne hanno mai sentito parlare. Sono completamente ignari di cosa sia. Anche molti sviluppatori di intelligenza artificiale non sono a conoscenza della questione. Tuttavia, esiste e sembra essere utilizzato in contesti davvero discutibili, in particolare casi che coinvolgono circostanze di vita o di morte.

Mi riferisco a questo come il AI Sindrome della patata bollente.

Ci sono molte gravi ripercussioni alla base di questa sindrome e dobbiamo assicurarci di indossare i nostri cappucci di pensiero sull'etica dell'IA e considerare cosa dovrebbe essere fatto. Ci sono considerazioni etiche che fanno riflettere. Ci saranno anche notevoli implicazioni legali (che non hanno ancora raggiunto la visibilità sociale, anche se prevedo che presto lo faranno). Per la mia copertura continua ed estesa di questioni relative all'etica dell'IA, all'IA etica e all'IA legale, vedere il link qui ed il link qui, solo per citarne alcuni.

Disimballiamo il Sindrome della patata bollente AI.

Immagina un sistema di intelligenza artificiale che funziona insieme a un essere umano. L'IA e l'umano stanno passando il controllo di alcune attività in corso in modo tale che a volte l'umano abbia il controllo mentre altre volte l'IA ha il controllo. Questo potrebbe inizialmente essere fatto in un modo per così dire educato o ragionevole. Per vari motivi, di cui parleremo momentaneamente, l'IA potrebbe accertare computazionalmente che il controllo deve essere passato in fretta all'umano.

Questa è la patata bollente che arriva a mettere in pericolo la vita nel mondo reale piuttosto che servire semplicemente come un gioco istruttivo per bambini.

Il problema con un passaggio frettoloso del controllo dall'IA all'umano è che ciò può essere fatto in modo ragionevole o può essere ottenuto in un modo piuttosto irragionevole. Se l'essere umano non si aspetta particolarmente la consegna, questo è probabilmente un problema. Se l'essere umano è generalmente d'accordo con il passaggio del controllo, le circostanze alla base del passaggio di consegne possono essere scoraggianti quando all'essere umano viene concesso tempo insufficiente o consapevolezza insufficiente del motivo per cui il controllo viene forzato nelle sue mani umane.

Esploreremo esempi di come ciò possa produrre un pericolo di vita o di morte per l'essere umano e possibilmente per altri esseri umani vicini. È roba seria. Punto, punto.

Prima di entrare in alcune altre sfaccettature carnose delle considerazioni selvagge e lanose alla base del Sindrome della patata bollente AI, esponiamo alcuni fondamenti aggiuntivi su argomenti profondamente essenziali. Dobbiamo fare un breve tuffo nell'etica dell'IA e in particolare nell'avvento del Machine Learning (ML) e del Deep Learning (DL).

Potresti essere vagamente consapevole del fatto che una delle voci più forti in questi giorni nel campo dell'IA e anche al di fuori del campo dell'IA consiste nel chiedere a gran voce una maggiore parvenza di IA etica. Diamo un'occhiata a cosa significa fare riferimento a AI Ethics e Ethical AI. Inoltre, esploreremo cosa intendo quando parlo di Machine Learning e Deep Learning.

Un particolare segmento o porzione dell'etica dell'intelligenza artificiale che ha ricevuto molta attenzione da parte dei media è costituito dall'intelligenza artificiale che mostra pregiudizi e disuguaglianze spiacevoli. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tra un momento, condividerò con voi alcuni principi generali alla base dell'etica dell'IA. Ci sono molti di questi tipi di elenchi che fluttuano qua e là. Si potrebbe dire che non esiste ancora un unico elenco di attrattive universali e di concorrenza. Questa è la sfortunata notizia. La buona notizia è che almeno ci sono elenchi di etica dell'IA prontamente disponibili e tendono ad essere abbastanza simili. Tutto sommato, questo suggerisce che attraverso una sorta di convergenza ragionata stiamo trovando la nostra strada verso una comunanza generale di ciò in cui consiste l'etica dell'IA.

Innanzitutto, esaminiamo brevemente alcuni dei precetti generali dell'IA etica per illustrare ciò che dovrebbe essere una considerazione vitale per chiunque crei, utilizzi o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, comprese metodologie trasparenti e verificabili, fonti di dati, procedure e documentazione di progettazione.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'IA e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Assicuriamoci anche di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Torniamo al nostro focus sulla patata bollente e sul suo uso potenzialmente disastroso nell'IA. C'è anche una diabolicità che può nascondersi anche all'interno dello stratagemma della patata bollente.

Come breve riassunto sulla manifestazione dell'IA del gambetto della patata bollente:

  • L'intelligenza artificiale e un essere umano stanno lavorando insieme su un determinato compito
  • L'IA ha il controllo per un po' di tempo
  • L'umano-in-the-loop ha il controllo per un po' di tempo
  • Esiste una qualche forma di protocollo di trasferimento tra l'IA e l'umano
  • Il trasferimento potrebbe essere altamente visibile, oppure potrebbe essere sottile e quasi nascosto
  • Tutto questo di solito avviene in un contesto in tempo reale (qualcosa di attivo è in corso)

L'obiettivo principale qui è quando il trasferimento è essenzialmente una patata bollente e l'IA sceglie di passare improvvisamente il controllo all'umano. Tieni presente che più avanti tratterò anche l'altro aspetto, vale a dire il passaggio del controllo umano all'IA come una patata bollente.

Per prima cosa, considera cosa può succedere quando l'IA fa una patata bollente a un essere umano nel ciclo.

Mi riferirò all'umano come all'umano-in-the-loop perché sto dicendo che l'umano è già parte integrante dell'attività lavorativa in corso. Potremmo avere altri scenari in cui un essere umano che non è stato particolarmente coinvolto nell'attività, forse un estraneo all'intera faccenda, riceve la patata bollente dall'IA, quindi tieni presente che esistono altri sapori di questo ambiente.

Se ti stavo porgendo una patata bollente e volessi farlo in modo ragionevole, forse ti avviserei che sto per consegnarti le cose. Inoltre, proverei a farlo se credessi sinceramente che tu possiedi la patata bollente nel complesso sia meglio di me. Calcolerei mentalmente se dovresti averlo o se dovrei continuare con esso.

Immagina una partita di basket. Io e te siamo nella stessa squadra. Speriamo di lavorare insieme per cercare di vincere la partita. Mancano solo pochi secondi al cronometro e abbiamo un disperato bisogno di segnare altrimenti perderemo la partita. Mi metto in posizione per fare l'ultimo colpo. Dovrei farlo o dovrei passarti la palla e farti fare l'ultimo tiro?

Se sono un giocatore di basket migliore e ho maggiori possibilità di affondare il tiro, probabilmente dovrei tenere il basket e provare a fare il tiro. Se sei un giocatore di basket migliore di me, probabilmente dovrei passarti la palla e lasciarti fare il tiro. Altre considerazioni emergono in primo piano come chi di noi è in una posizione migliore in campo per tirare il tiro, inoltre se uno di noi è esausto poiché il gioco è quasi finito e potrebbe essere sfinito e non all'altezza le loro riprese. Eccetera.

Con tutti questi fattori nel bel mezzo del momento tormentato, devo decidere se tenere la palla o passarla a te.

Renditi conto che in questo scenario l'orologio è cruciale. Tu ed io siamo entrambi di fronte a una risposta estremamente tempestiva. L'intero gioco è ora in gioco. Una volta scaduto il tempo, o abbiamo vinto perché uno di noi ha fatto il tiro, o abbiamo perso perché non l'abbiamo affondato. Potrei forse essere l'eroe se affondo il canestro. Oppure potresti essere l'eroe se ti passo la palla e tu la affondi.

C'è anche il lato della capra o gli aspetti negativi di questo. Se tengo la palla e sbaglio il tiro, tutti potrebbero accusarmi di essere la capra o deludere l'intera squadra. Se invece ti passo la palla e tu sbagli il tiro, beh, diventi la capra. Questo potrebbe essere del tutto ingiusto nei tuoi confronti in quanto ti ho costretto a essere l'ultimo tiratore e a fare l'ultimo colpo.

Sapresti sicuramente che ti ho messo in quella posizione scoraggiante. E sebbene tutti possano vedermi fare questo, sono destinati a concentrarsi solo sull'ultima persona che ha avuto la palla. Potrei pattinare libero. Nessuno si ricorderebbe che ti ho passato la palla all'ultimo momento. Si sarebbero ricordati solo che avevi la palla e hai perso la partita perché non hai fatto il tiro.

Ok, allora ti passo la palla.

Perché l'ho fatto?

Non esiste un modo semplice per determinarlo.

Le mie vere intenzioni potrebbero essere che non volevo rimanere bloccato a fare la capra, quindi ho deciso di mettere tutta la pressione su di te. Quando mi è stato chiesto perché ho passato la palla, ho potuto affermare di averlo fatto perché pensavo che tu fossi un tiratore migliore di me (ma, facciamo finta che non ci credo affatto). Oppure pensavo che tu fossi in una posizione migliore di me (fingiamo che non lo pensassi nemmeno io). Nessuno avrebbe mai saputo che in realtà stavo solo cercando di evitare di rimanere bloccato con la patata bollente.

Dal punto di vista esterno delle cose, nessuno potrebbe facilmente discernere la mia vera ragione per passarti la palla. Forse l'ho fatto innocentemente perché credevo che tu fossi il giocatore migliore. Questo è un angolo. Forse l'ho fatto perché non volevo che tutti mi chiamassero perdente per aver forse sbagliato il tiro, quindi ti ho dato la palla e ho pensato che fosse un enorme sollievo per me. Che io tenessi davvero a te è una questione completamente diversa.

Ora siamo in grado di aggiungere alcuni ulteriori dettagli alla patata bollente relativa all'IA:

  • L'IA sceglie di dare il controllo all'umano nel ciclo all'ultimo momento
  • L'ultimo momento potrebbe essere già molto al di là di qualsiasi azione praticabile dall'uomo
  • L'essere umano nel ciclo ha il controllo, ma in modo un po' falso a causa dei tempi di consegna

Rimugina su questo per un momento.

Supponiamo che un sistema di intelligenza artificiale e un essere umano stiano lavorando insieme su un'attività in tempo reale che prevede l'esecuzione di una macchina su larga scala in una fabbrica. L'IA rileva che i macchinari stanno andando in tilt. Invece di continuare a mantenere il controllo, l'IA cede bruscamente il controllo all'umano. I macchinari in questa fabbrica stanno andando rapidamente verso il puro caos e non c'è più tempo per l'umano per intraprendere azioni correttive.

L'IA ha consegnato la patata bollente all'umano-in-the-loop e ha incastrato l'umano con la vera patata bollente in modo tale che le circostanze non siano più umanamente possibili da affrontare. Tag, lo sei, va la vecchia linea quando si gioca a giochi di tag da bambino. L'umano è, per così dire, etichettato con il pasticcio.

Proprio come il mio esempio sul gioco del basket.

Perché l'IA ha fatto il passaggio di consegne?

Bene, a differenza di quando un essere umano consegna bruscamente una palla da basket e poi fa qualche sfrenato gesto con la mano sul motivo per cui lo ha fatto, di solito possiamo esaminare la programmazione dell'IA e capire cosa ha portato l'IA a fare questo tipo di consegna di patate bollenti.

Uno sviluppatore di IA potrebbe aver deciso in anticipo che quando l'IA si trova in una situazione davvero difficile, l'IA dovrebbe procedere a dare il controllo all'umano nel ciclo. Questo sembra perfettamente sensato e ragionevole. L'umano potrebbe essere "il giocatore migliore" sul campo. Gli esseri umani possono usare le loro capacità cognitive per risolvere potenzialmente qualsiasi problema sia a portata di mano. L'IA ha forse raggiunto i limiti della sua programmazione e non c'è nient'altro di costruttivo che possa fare nella situazione.

Se l'IA avesse eseguito il passaggio di consegne con un minuto rimasto prima che il macchinario diventasse kablam, forse un minuto di preavviso è abbastanza lungo perché l'umano nel ciclo possa rettificare le cose. Supponiamo però che l'IA abbia effettuato il passaggio di consegne a tre secondi dalla fine. Pensi che un essere umano potrebbe reagire in quel lasso di tempo? Improbabile. In ogni caso, tanto per rendere le cose ancora meno cavillose, supponiamo che il passaggio all'umano-in-the-loop sia avvenuto con pochi nanosecondi rimasti (un nanosecondo è un miliardesimo di secondo, che in confronto un rapido battito di ciglia l'occhio è lento 300 millisecondi).

Potrebbe un essere umano nel ciclo reagire a sufficienza se l'IA ha consegnato la patata bollente con solo pochissimi secondi rimasti per intraprendere qualsiasi azione palese?

No.

Il trasferimento è più falso di quanto potrebbe sembrare altrimenti.

In realtà, il trasferimento non servirà a nulla quando si tratta della terribile situazione. L'IA ha spinto l'umano a diventare la capra.

Alcuni sviluppatori di intelligenza artificiale non ci pensano quando concepiscono la loro intelligenza artificiale. Loro (erroneamente) beatamente non tengono conto del fatto che il tempo è un fattore cruciale. Tutto quello che fanno è scegliere di programmare un passaggio di consegne quando le cose si fanno difficili. Quando non c'è più niente da fare per l'IA in modo costruttivo, lancia la palla al giocatore umano.

Gli sviluppatori di IA potrebbero non dedicare un pensiero devoto a questo al momento della codifica dell'IA, e quindi spesso falliscono due volte non riuscendo a eseguire test che lo portino alla luce. Tutto ciò che i loro test mostrano è che l'IA ha "diligentemente" fatto un passaggio di consegne quando sono stati raggiunti i limiti dell'IA. Voilà, si presume che l'IA sia buona e pronta all'uso. Il test non includeva un vero essere umano che era stato messo in quella posizione non invidiabile e impossibile. Non c'era un vero e proprio processo di test human-in-the-loop che avrebbe potuto protestare sul fatto che questo passaggio di un battito di ciglia all'ultimo momento, o addirittura oltre l'ultimo momento, gli ha fatto poco o nulla di buono.

Naturalmente, alcuni sviluppatori di intelligenza artificiale avranno astutamente considerato questo tipo di situazione, saggiamente.

Dopo aver rimuginato sull'enigma, procederanno comunque a programmare l'IA in modo che agisca in questo modo.

Come mai?

Perché non c'è nient'altro da fare, almeno nella loro mente. Quando tutto il resto fallisce, passa il controllo all'umano. Forse accadrà un miracolo. Il succo è che questo non è un problema per lo sviluppatore di intelligenza artificiale e stanno dando all'umano l'ultima possibilità di far fronte al pasticcio a portata di mano. Lo sviluppatore di intelligenza artificiale si lava le mani da qualunque cosa accada in seguito.

Voglio chiarire che gli sviluppatori di intelligenza artificiale non sono gli unici ideatori di questi progetti di patate calde. C'è una sfilza di altre parti interessate che vengono al tavolo per questo. Forse un analista di sistemi che ha fatto l'analisi delle specifiche e dei requisiti ha affermato che questo è ciò che dovrebbe fare l'IA. Gli sviluppatori di IA coinvolti hanno creato l'IA di conseguenza. Il project manager dell'IA potrebbe averlo ideato. I dirigenti e la direzione che sovrintendono allo sviluppo dell'IA potrebbero aver ideato questo.

Tutti durante l'intero ciclo di vita dello sviluppo dell'IA potrebbero aver portato avanti questo stesso progetto della patata bollente. Se qualcuno l'ha notato, non possiamo dirlo con certezza. Se l'avessero notato, quelli avrebbero potuto essere etichettati come oppositori e messi da parte. Altri potrebbero aver portato la questione alla loro attenzione, ma non ne compresero le ripercussioni. Sentivano che si trattava di una minuzia tecnica che non rientrava nel loro ambito.

Aggiungo a questo elenco informale di “ragioni” una possibilità molto più nefasta.

Una sindrome della patata bollente dell'IA a volte viene utilizzata intenzionalmente perché coloro che realizzano l'IA volevano avere la loro appassionata pretesa di negabilità plausibile.

Preparati per questa parte del racconto.

Nel caso dei macchinari di fabbrica che vanno in tilt, ci sarà sicuramente un sacco di dita puntate su chi è responsabile di quello che è successo. In termini di funzionamento dei macchinari, avevamo un sistema di intelligenza artificiale che lo faceva e un essere umano nel circuito che lo faceva. Questi sono i nostri due giocatori di basket, metaforicamente.

Il tempo si stava esaurendo e i macchinari erano sul punto di andare in tilt. Diciamo che io e te sappiamo che l'IA ha effettuato un passaggio di consegne all'umano-in-the-loop, facendolo con un tempo insufficiente per consentire all'umano di intraprendere qualsiasi azione sufficiente per correggere o evitare il disastro. Nessun altro si rende conto che questo è ciò che è successo.

L'azienda che produce l'IA può in ogni caso dichiarare immediatamente di non essere in colpa perché l'umano aveva il controllo. Secondo i loro record impeccabili, l'IA non aveva il controllo al momento del kaboom. L'umano era. Pertanto, chiaramente, è palesemente ovvio che la colpa è di un essere umano.

La società di intelligenza artificiale sta sostanzialmente mentendo quando fa questa affermazione schietta?

No, sembrano dire la verità.

Alla domanda se erano sicuri che l'IA non avesse il controllo, la società avrebbe proclamato ad alta voce e con orgoglio che l'IA non aveva affatto il controllo. Hanno documentato la prova di questa affermazione (supponendo che l'IA abbia tenuto un registro dell'incidente). In effetti, i dirigenti della società di intelligenza artificiale potrebbero alzare le sopracciglia disgustati dal fatto che qualcuno metterebbe in discussione la loro integrità su questo punto. Sarebbero disposti a giurare sul loro sacro giuramento che l'IA lo era non nel controllo. L'umano-in-the-loop aveva il controllo.

Confido che tu capisca quanto può essere fuorviante.

Sì, l'umano ha ricevuto il controllo. In teoria, l'umano aveva il controllo. L'IA non aveva più il controllo. Ma la mancanza di tempismo e notifica disponibili rende questa affermazione estremamente vuota.

La bellezza di questo, dal punto di vista del produttore di intelligenza artificiale, sarebbe che pochi potrebbero contestare le affermazioni offerte. Il produttore dell'IA potrebbe non rilasciare i registri dell'incidente. Ciò potrebbe rivelare la situazione truccata. I registri sono argomentati come proprietà intellettuale (IP) o comunque di natura proprietaria e confidenziale. L'azienda probabilmente sosterrebbe che se i registri fossero mostrati, ciò mostrerebbe la salsa segreta della loro IA e impoverirebbe la loro preziosa IP.

Immagina la difficile situazione del povero essere umano-in-the-loop. Sono sconcertati dal fatto che tutti li incolpino per aver lasciato che le cose sfuggono di mano. L'IA "ha fatto la cosa giusta" e ha ceduto il controllo all'umano. Questo potrebbe essere ciò che le specifiche dicevano di fare (di nuovo, però, le specifiche erano negligenti nel non prendere in considerazione i fattori di tempistica e fattibilità). I registri che non sono stati rilasciati ma che si dice siano blindati dal produttore dell'IA attestano il fatto assoluto che l'umano aveva ricevuto il controllo dall'IA.

Potresti dichiararlo come una pietosa schiacciata sull'umano sconcertato che quasi certamente si farà cadere.

Le probabilità sono che solo se questo dovesse andare in tribunale la realtà di ciò che è accaduto finirebbe per essere rivelata. Se gli scaltri beagle legali sono a conoscenza di questo tipo di concerto, cercherebbero di ottenere legalmente i registri. Avrebbero bisogno di un testimone esperto (cosa che avevo fatto di tanto in tanto) per decifrare i registri. I registri da soli potrebbero non essere sufficienti. I registri potrebbero essere falsificati o alterati, o appositamente ideati per non mostrare chiaramente i dettagli. Pertanto, potrebbe essere necessario approfondire anche il codice AI.

Nel frattempo, durante tutto questo agonizzante e lungo processo di scoperta legale, l'essere umano nel ciclo sembrerebbe davvero brutto. I media dipingerebbero la persona come irresponsabile, perderebbero la testa, non sarebbero stati diligenti e dovrebbero essere ritenuti pienamente responsabili. Forse per mesi o anni, durante questo processo, quella persona sarebbe ancora quella contro cui tutti hanno puntato il dito accusatore. Il fetore potrebbe non essere mai rimosso.

Tieni anche presente che questa stessa circostanza potrebbe facilmente ripetersi. E di nuovo. Supponendo che il creatore dell'IA non abbia cambiato l'IA, ogni volta che si verifica una situazione simile dell'ultimo minuto, l'IA farà quel trasferimento senza tempo. Si spera che queste situazioni non si verifichino frequentemente. Nelle rare occasioni in cui si verifica, l'umano-in-the-loop è ancora il conveniente ragazzo della caduta.

È un trucco diabolico.

Potresti voler insistere sul fatto che il creatore dell'IA non ha fatto nulla di sbagliato. Stanno dicendo la verità. L'IA ha rinunciato al controllo. L'umano è stato quindi considerato in controllo. Questi sono i fatti. Non ha senso contestarlo.

Sia che qualcuno sia saggio e faccia le domande difficili, oltre al fatto che il produttore di IA risponda a queste domande in modo diretto, questo è qualcosa che sembra accadere raramente.

Le domande includono:

  • Quando l'IA ha effettuato il passaggio di consegne all'essere umano nel ciclo?
  • Su quale base programmata l'IA ha effettuato il passaggio di consegne?
  • All'umano nel ciclo è stato concesso tempo sufficiente per assumere il controllo?
  • Come è stata progettata e ideata l'IA per questi dilemmi?
  • E così via.

In una certa misura, ecco perché AI Ethics and Ethical AI è un argomento così cruciale. I precetti di AI Ethics ci portano a rimanere vigili. I tecnologi dell'IA possono a volte interessarsi alla tecnologia, in particolare all'ottimizzazione dell'alta tecnologia. Non stanno necessariamente considerando le più ampie ramificazioni della società. Avere una mentalità etica dell'IA e farlo integralmente allo sviluppo e alla messa in campo dell'IA è fondamentale per produrre un'IA appropriata, inclusa (forse sorprendentemente o ironicamente) la valutazione di come l'etica dell'IA viene adottata dalle aziende.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. In effetti, avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società.

A questo punto di questa pesante discussione, scommetto che sei desideroso di alcuni esempi illustrativi aggiuntivi che potrebbero mostrare questo argomento. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sulla sindrome della patata bollente dell'IA e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e sindrome della patata bollente AI

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Spero che ciò fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Per i veicoli completamente autonomi potrebbe non esserci alcuna possibilità che si verifichi un passaggio di consegne tra l'IA e un essere umano, a causa della possibilità che non ci sia alcun essere umano nel ciclo per cominciare. L'aspirazione di molti dei produttori di automobili a guida autonoma di oggi è di rimuovere completamente il guidatore umano dal compito di guida. Il veicolo non conterrà nemmeno i controlli di guida accessibili alle persone. In tal caso, un conducente umano, se presente, non sarà in grado di partecipare all'attività di guida poiché non ha accesso a nessun controllo di guida.

Per alcuni veicoli completamente autonomi, alcuni progetti consentono ancora a un essere umano di essere in-the-loop, sebbene l'umano non debba essere disponibile o partecipare affatto al processo di guida. Pertanto, un essere umano può partecipare alla guida, se la persona lo desidera. In nessun momento, tuttavia, l'IA fa affidamento sull'essere umano per eseguire nessuno dei compiti di guida.

Nel caso dei veicoli semi-autonomi, c'è un rapporto di stretta collaborazione tra il conducente umano e l'IA. Per alcuni progetti, il guidatore umano può assumere completamente i controlli di guida e sostanzialmente impedire all'IA di partecipare alla guida. Se il guidatore umano desidera ripristinare l'IA nel ruolo di guida, può farlo, anche se questo a volte costringe l'umano a rinunciare ai controlli di guida.

Un'altra forma di operazione semi-autonoma comporterebbe la collaborazione tra guidatore umano e intelligenza artificiale. L'IA sta guidando e l'essere umano sta guidando. Stanno guidando insieme. L'IA potrebbe rimandare all'umano. L'umano potrebbe rinviare all'IA.

Ad un certo punto, il sistema di guida dell'IA potrebbe accertare computazionalmente che l'auto a guida autonoma si sta dirigendo verso una situazione insostenibile e che il veicolo autonomo si schianterà.

Per inciso, alcuni esperti stanno andando in giro sostenendo che le auto a guida autonoma non potranno essere danneggiate, il che è pura sciocchezza e una cosa oltraggiosa e sbagliata da dire, vedi la mia copertura su il link qui.

Continuando lo scenario di un'auto a guida autonoma che si dirige verso una collisione o un incidente automobilistico, il sistema di guida AI potrebbe essere programmato per consegnare sommariamente i controlli di guida al conducente umano. Se c'è tempo sufficiente a disposizione del guidatore umano per intraprendere un'azione evasiva, questa potrebbe davvero essere una cosa sensata e corretta da fare per l'IA.

Ma supponiamo che l'IA effettui il passaggio di consegne con una frazione di secondo dalla fine. Il tempo di reazione del guidatore umano non è neanche lontanamente abbastanza veloce da rispondere adeguatamente. Inoltre, se miracolosamente l'umano fosse abbastanza veloce, è probabile che non ci siano azioni evasive praticabili che possono essere intraprese con il tempo limitato rimanente prima dell'incidente. Questo è un doppio: (1) tempo insufficiente per il conducente umano per agire, (2) tempo insufficiente affinché, se l'azione fosse possibile da parte del conducente umano, l'azione potrebbe essere eseguita nel lasso di tempo insufficiente fornito.

Tutto sommato, questo è simile alla mia precedente discussione sulla situazione del cicalino del basket e sui macchinari della fabbrica che sono andati in tilt.

Aggiungiamo l'ingrediente nefasto a questo.

Una casa automobilistica o un'azienda tecnologica a guida autonoma non vuole essere etichettata con vari incidenti automobilistici che si sono verificati nella loro flotta. Il sistema di guida dell'IA è programmato per trasferire sempre il controllo al conducente umano, indipendentemente dal fatto che ci sia tempo sufficiente per il conducente umano per fare qualcosa per la situazione. Ogni volta che si verifica un incidente automobilistico di questo tipo, la casa automobilistica o l'azienda tecnologica per la guida autonoma è in grado di insistere apertamente sul fatto che il conducente umano fosse ai comandi, mentre l'IA no.

Il loro track record per i sistemi di guida AI sembra essere stellare.

Non una volta il sistema di guida dell'IA è "colpevole" per questi incidenti stradali. Sono sempre quei maledetti guidatori umani che non sembrano tenere gli occhi sulla strada. Potremmo tendere a ingoiare queste chiacchiere e credere che l'IA tutta precisa probabilmente non ha mai torto. Potremmo tendere a credere (poiché lo sappiamo per esperienza) che i conducenti umani siano sciatti e commettano tonnellate di errori di guida. La conclusione logica è che i conducenti umani devono essere i colpevoli e il sistema di guida dell'IA è del tutto innocente.

Prima che alcuni sostenitori della guida autonoma si arrabbino per questa caratterizzazione, riconosciamo assolutamente che il guidatore umano potrebbe benissimo essere in colpa e che avrebbero dovuto agire prima, come assumere i controlli di guida dall'IA. C'è anche la possibilità che il conducente umano possa aver fatto qualcosa di sostanziale quando l'IA ha consegnato i controlli di guida. Eccetera.

L'attenzione qui è stata sulle circostanze in cui l'IA era considerata l'autista del veicolo e poi bruscamente e con poca attenzione a ciò che un guidatore umano potrebbe essere in grado di fare, lancia la patata bollente all'autista umano. Questo è anche il motivo per cui così tanti sono preoccupati per il duplice ruolo di guida dei veicoli semi-autonomi. Si potrebbe dire che ci sono troppi piloti al volante. L'obiettivo, a quanto pare, sarebbe quello di risolvere la questione disponendo di veicoli completamente autonomi che non hanno bisogno di un essere umano al volante e l'IA è sempre alla guida del veicolo.

Questo solleva la questione alleata su cosa o chi è responsabile quando l'IA sta guidando, che ho affrontato molte volte nei miei articoli, come il link qui ed il link qui.

Conclusione

Dobbiamo stare attenti quando sentiamo o leggiamo di incidenti automobilistici che coinvolgono veicoli semi-autonomi. Diffida di coloro che cercano di ingannarci proclamando che il loro sistema di guida AI ha un record senza macchia. Lo stratagemma connivente del Sindrome della patata bollente AI potrebbe essere nel mix.

Per le aziende che cercano di essere astute su queste questioni, forse possiamo tenere vicino al nostro cuore la famosa frase di Abraham Lincoln: "Puoi ingannare tutte le persone alcune volte e alcune persone tutto il tempo, ma non puoi ingannare tutte le persone tutto il tempo.

Ho cercato di rivelare qui la magia dell'IA nascosta dietro lo schermo e a volte nascosta sotto il cofano, cosa che ho chiarito in modo che più persone no essere ingannato il più delle volte.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome- Being- Employed-by-ai-makers- apparentemente cercando di evitare-la-responsabilità-per-la-loro-vita-sistemi-autonomi/