L'IA etica spera ambiziosamente che l'IA impari da sola il comportamento etico, come nel caso dell'IA nelle auto a guida autonoma

Aristotele ha affermato che educare la mente senza educare il cuore non è affatto educazione.

Potresti interpretare questa osservazione perspicace per suggerire che l'apprendimento dell'etica e del comportamento morale è estremamente vitale per l'umanità. Nel classico dibattito tra natura e cultura, ci si deve chiedere quanto dei nostri costumi etici siano istintivamente nativi mentre quanto viene appreso nel corso dei nostri giorni di vita. I bambini piccoli sono attenti agli altri umani e presumibilmente raccolgono le loro basi etiche in base a ciò che vedono e sentono. Lo stesso si può dire degli adolescenti. Per gli adulti di mentalità aperta, anche loro continueranno ad adattarsi e a progredire nel loro pensiero etico come risultato dell'esperienza del mondo quotidiano.

Naturalmente, anche insegnare esplicitamente a qualcuno l'etica è parte del corso. Le persone sono obbligate a conoscere i modi etici frequentando lezioni sull'argomento o forse andando a eventi e pratiche di loro interesse. I valori etici possono essere chiaramente identificati e condivisi come mezzo per aiutare gli altri a formulare la propria struttura etica. Inoltre, l'etica potrebbe essere sottilmente nascosta all'interno di storie o altre modalità di istruzione che alla fine portano un messaggio su ciò in cui consiste il comportamento etico.

È così che gli esseri umani sembrano impregnare l'etica.

E l'Intelligenza Artificiale (AI)?

Mi rendo conto che una domanda del genere potrebbe sembrare strana. Certamente ci aspettiamo che gli esseri umani incorporino l'etica e camminino attraverso la vita con una parvenza di codice morale. È un fatto semplice e ovvio. D'altra parte, una macchina o un computer non sembrano rientrare nello stesso quadro di riferimento. La tua reazione istintiva potrebbe essere che è inverosimile o stravagante considerare l'IA come un'incarnazione di codici etici e morali.

Il meglio che sembrerebbe essere in grado di fare con l'IA è escogitarlo in modo che non si discosti dal comportamento etico. Gli sviluppatori di IA e coloro che utilizzano l'IA devono essere ritenuti responsabili di garantire che l'IA progettata e quando implementata sia già conforme ai precetti etici. Fuori dal cancello, per così dire, l'IA dovrebbe essere già incontaminata e pronta a partire come un espediente completamente eticamente corretto.

Avresti sicuramente ragione nel pensare che i sistemi di intelligenza artificiale dovrebbero effettivamente essere realizzati per adattarsi già completamente a una base etica. La società era piuttosto eccitata quando l'ultima ondata di sistemi di intelligenza artificiale è stata rilasciata per la prima volta e sembrava dimostrare che eravamo in un'era di AI in bene. L'IA aiuterebbe a risolvere molti dei problemi più difficili del mondo. I progressi tecnologici venivano sfruttati per integrare le capacità umane con strutture di tipo cognitivo, anche se permettetemi di sottolineare che non abbiamo ancora alcuna IA senziente e non sappiamo se sarà raggiunta l'IA senziente.

Il problema con la corsa alla rinfusa per portare l'IA nel mondo ha gradualmente rivelato il brutto ventre dell'IA noto come AI for Bad. Ci sono stati molti titoli sui sistemi di intelligenza artificiale che utilizzano il processo decisionale algoritmico (ADM) pieno di pregiudizi e disuguaglianze. Inoltre, gran parte dell'IA contemporanea soffre di una mancanza di trasparenza, tende ad essere inspiegabile in termini di spiegazione delle decisioni computazionali, mostra spesso una mancanza di equità e ha permesso ad alcuni di deviare la propria responsabilità umana puntando il dito contro l'IA.

Ho trattato ampiamente l'IA etica e l'etica dell'IA nei miei scritti, incluso il link qui ed il link qui, solo per citarne alcuni.

Come può esserci AI for Bad se prendiamo come costrutto dichiarato che l'IA dovrebbe essere realizzata dall'inizio per evitare azioni non etiche?

La risposta è molteplice.

In primo luogo, molti sviluppatori di intelligenza artificiale e aziende che utilizzano l'IA non hanno la minima idea dell'importanza di plasmare la loro intelligenza artificiale per rimanere all'interno dei confini etici. Il concetto non è affatto nel loro radar. Il fascino di fare soldi velocemente fa sì che alcuni portino avanti qualsiasi idea di IA selvaggia che desiderino produrre volontariamente. Non c'è bisogno di capire cose etiche. Basta costruire l'IA e avviarla.

In secondo luogo, ci sono quelli che creano IA che abbelliscono una totale consapevolezza delle ramificazioni etiche, ma minimizzano apertamente o in qualche modo ignorano le considerazioni sull'IA etica. Una prospettiva comune è il classico mantra tecnico di puntare a fallire velocemente e fallire spesso. Continua a ripetere fino a quando le cose, si spera, non si risolvano adeguatamente. Le possibilità di spremere qualsiasi incorporazione sistematica e ponderata dell'etica dell'IA in quegli sforzi di intelligenza artificiale a fuoco rapido sono purtroppo scarse. Discuto la necessità di conferire potere alla leadership verso l'IA etica a il link qui.

In terzo luogo, esiste molta oscurità su quali barriere etiche dovrebbero essere intrattenute quando si progetta l'IA. Certo, al giorno d'oggi ci sono molte linee guida sull'etica dell'IA, vedi la mia copertura su il link qui, sebbene questi pratici precetti teorici siano difficili da trasformare necessariamente in specifiche per un dato sistema di intelligenza artificiale in costruzione. Ho indicato che vedremo lentamente l'emergere di strumenti e metodologie per la creazione di intelligenza artificiale che includono pratiche di codifica dell'IA etica, contribuendo a colmare il divario tra gli aspetti astratti e le proverbiali sfaccettature della gomma incontra la strada.

In quarto luogo, secondo l'enfasi qui contenuta, esploriamo il caso interessato dell'IA che, anche se inizialmente composta entro confini etici, successivamente, mentre è in uso, si snoda oltre i parametri presunti eticamente codificati.

Dobbiamo disimballare quello.

Gran parte dell'IA di oggi fa uso di Machine Learning (ML) e Deep Learning (DL). Si tratta di tecniche e tecnologie di pattern matching computazionale. In generale, l'idea è che si raccolgano molti dati rilevanti per qualsiasi cosa l'IA dovrebbe essere in grado di fare, si alimentano quei dati nel pattern matcher di calcolo scelto e il pattern matching cerca matematicamente di trovare pattern utili. Nota che non c'è alcuna sensibilità da parte di questa IA (che, di nuovo, non esiste ancora). Né è coinvolto alcun ragionamento di buon senso. È tutta matematica e calcoli.

Potrebbe essere che i dati immessi nel ML/DL siano già intrisi di pregiudizi e disuguaglianze. In tal caso, le probabilità sono che la corrispondenza del modello computazionale si limiti a imitare le stesse inclinazioni. Se fornisci dati che favoriscono una razza rispetto a un'altra o favoriscono un genere rispetto all'altro, c'è una notevole possibilità che la corrispondenza del modello si attacchi a quello come modello scoperto.

Un grosso problema con questo tipo di blocco è che potremmo avere difficoltà a scoprire che i modelli si basano su quell'aspetto dei dati. La matematica spinosa e complessa può rendere piuttosto problematica l'emersione di tali schemi trovati. Anche testare l'IA non rivelerà necessariamente quelle tendenze, a seconda della gamma e della profondità dei test applicati.

Quindi, supponiamo che tu abbia costruito un sistema di intelligenza artificiale e fatto i compiti prima cercando di evitare di utilizzare dati che avevano pregiudizi preesistenti. Successivamente, una volta intrapresi il Machine Learning e il Deep Learning, hai testato i risultati per vedere se in qualche modo sono emersi pregiudizi o disuguaglianze. Supponiamo che tu non sia in grado di trovare tali inclinazioni spiacevoli.

Tutto sommato, ora è stato dato il via libera per andare avanti e mettere in uso l'IA. Le persone inizieranno a utilizzare l'IA e probabilmente presumeranno che sia eticamente corretta. Lo pensano anche gli sviluppatori. La società che schiera l'IA pensa questo. Andiamo via tutti.

Ecco cosa può succedere.

Forse è stato attivato un sentore di una distorsione che non è stata trovata nei dati originali e che non è stata rilevata durante i test dell'IA. Forse questo accade solo raramente. Potresti credere che finché è raro, tutto va bene. Dubito però che coloro che sono vulnerabili a tale pregiudizio siano disposti a vedere le cose in quel modo. Oserei dire che il sistema di IA e coloro che lo hanno formulato dovranno affrontare ripercussioni, sia nei tribunali legali che in quello aperto dell'opinione sociale.

Un'altra variazione è la proverbiale nozione di prendere un pollice e afferrare un miglio. Il sentore potrebbe inizialmente essere minuscolo. Durante l'uso dell'IA, l'IA potrebbe essere stata concepita per alterarsi man mano che le cose vanno avanti. Questo tipo di "apprendimento" o "autoapprendimento" può essere molto utile. Piuttosto che richiedere agli sviluppatori di IA umana di modificare e regolare continuamente il sistema di intelligenza artificiale, l'IA è costruita per farlo da sola. Nessun ritardo, nessuna manodopera costosa, ecc.

Lo svantaggio di questa pratica autoregolazione è che il sentore può diventare sempre più grande nell'ambito dell'utilizzo dell'IA. Mentre il pregiudizio avrebbe potuto essere in un angolo stretto, ora ha spazio per espandersi. L'IA non ha alcuna parvenza che questo sia "sbagliato" e si limita a estendere computazionalmente qualcosa che sembra funzionare.

Se questo ti fa rizzare i capelli in testa, dovrai sederti per la prossima variante.

Supponiamo che il pregiudizio non esistesse fin dall'inizio e abbiamo ogni ragionevole convinzione che l'IA sia completamente priva di pregiudizi. O siamo stati fortunati o forse ci siamo assicurati sistematicamente che non ci fossero distorsioni da nessuna parte nei dati e che nessuno fosse sorto attraverso la corrispondenza del modello computazionale. Nonostante quel sospiro di sollievo, l'IA può adattarsi durante l'uso. La porta di Pandora si apre e l'IA sceglie di gravitare computazionalmente verso i pregiudizi che si trovano durante qualsiasi cosa l'IA faccia.

Un nuovo pregiudizio viene inghiottito nell'IA e nessuno è particolarmente più saggio che sia successo. Sì, abbiamo creato un mostro, un vero Frankenstein.

Come si può prevenire o almeno segnalare questa emergenza?

Un approccio che sta prendendo piede consiste nell'integrare nell'IA una componente di raccolta etica. L'IA è costruita per includere elementi di IA etica. Questi elementi quindi guardano o monitorano il resto dell'IA mentre l'IA si sta adattando nel tempo. Quando l'IA sembra essere andata oltre i precetti etici programmati, l'IA etica cerca di incastrare quegli aggiustamenti o avvisa gli sviluppatori che qualcosa è andato storto.

Puoi provare a programmare questa capacità di supervisione dell'IA etica e sperare che prevalga mentre l'IA è in uso.

Un altro punto di vista alquanto controverso sarebbe l'utilizzo di Machine Learning e Deep Learning per addestrare gli aspetti dell'IA etica nel sistema di intelligenza artificiale.

Dire che cosa?

Sì, il concetto forse non ortodosso è che invece di un programmatore umano che codifica direttamente una serie di precetti etici dell'IA, l'IA è modellata per cercare di "impararli" invece. Ricordiamo che ho brevemente notato che l'uso di ML/DL in genere si basa sull'immissione di dati negli algoritmi e si verifica un abbinamento di modelli computazionali. La domanda da un milione di dollari è se possiamo usare lo stesso meccanismo per infondere valori etici in un sistema di intelligenza artificiale.

Suppongo che potresti paragonare questo alla mia discussione all'inizio di come gli esseri umani diventino consapevoli dei principi etici, anche se per favore non antropomorfizzare l'IA di oggi come paragonabile al pensiero umano (non lo è, e ripeterò l'esortazione tra breve). L'IA può essere programmata "innatamente" con i precetti dell'IA etica. Oppure l'IA potrebbe "imparare" i precetti etici dell'IA. Puoi fare entrambe le cose, ovviamente, che è qualcosa che ho trattato altrove, vedi il link qui.

Prenditi un momento per riflettere sul concetto apparentemente sorprendente che l'IA potrebbe "imparare" l'etica ed ergo presumibilmente rispettare comportamenti etici.

Questi ricercatori utilizzano un esempio di un sistema di intelligenza artificiale che calcola la temperatura desiderata in una casa per illustrare come questo può funzionare: "Prima ha 'osservato' il comportamento delle persone in varie famiglie per solo una settimana e ha tratto conclusioni sulle loro preferenze. Ha quindi utilizzato un sensore di rilevamento del movimento per determinare se c'era qualcuno in casa. Quando la casa era vuota, il termostato intelligente entrava in modalità di alto risparmio energetico; quando le persone erano a casa, il termostato regolava la temperatura in base alle loro preferenze. Questo termostato soddisfa chiaramente i due requisiti di un robot etico, anche se molto semplice. Valuta le preferenze delle persone e le impone sui controlli dell'impianto di riscaldamento e raffrescamento. Ci si può chiedere che cosa questo ha a che fare con i valori morali sociali. Questo termostato consente alle persone con valori diversi di avere le impostazioni di temperatura che preferiscono. I residenti della casa non hanno bisogno di ripristinare il termostato ogni giorno quando vanno e vengono. Questo semplice bot etico riduce anche l'impronta energetica totale della comunità” (secondo l'articolo di Amitai Etzioni e Oren Etzioni intitolato “AI Assisted Ethics” nel volume su Etica e tecnologia dell'informazione).

Prima di approfondire i colpi di scena dell'avere un'IA che "impara" il comportamento etico, vorrei dire qualcosa in più sullo stato dell'IA.

L'IA può essere costituita da questi possibili stati:

1. L'IA odierna non senziente

2. IA senziente di qualità umana (non l'abbiamo ancora)

3. IA senziente super intelligente (un tratto oltre il n. 2)

Mi concentrerò sullo stato esistente che è una semplice IA non senziente. Gran parte di ciò che potresti leggere sull'IA etica a volte copre l'IA senziente ed è quindi altamente speculativo. Dico che è speculativo perché nessuno può inchiodare la coda all'asino di ciò che sarà l'IA senziente. Ancora più al di là del regno dell'IA senziente di qualità umana c'è l'IA super-intelligente. Ci sono molte storie di fantascienza e scrupoli su come quei sapori dell'IA potrebbero decidere di schiavizzare l'umanità, o forse semplicemente spazzarci via tutti. Questo è noto come il rischio esistenziale dell'IA. A volte, il dilemma viene anche definito il rischio catastrofico dell'IA.

Alcuni sostengono che potremmo andare bene fintanto che manteniamo l'IA sulla vecchia IA non senziente che abbiamo oggi. Supponiamo di non poter raggiungere l'IA senziente. Immagina che, per quanto ci sforziamo di creare un'IA senziente, non riusciamo a farlo. Inoltre, supponiamo per amor di discussione che l'IA senziente non derivi da qualche misterioso processo spontaneo.

Non siamo quindi sicuri che questa IA di calibro inferiore, che è l'unico tipo immaginabile di IA possibile, sarà utilizzata?

Non proprio.

Praticamente, è probabile che sorgano gli stessi problemi generali. Non sto suggerendo che l'IA "pensi" a volerci distruggere. No, la normale IA non senziente è semplicemente collocata in posizioni di potere che ci fanno impantanare nell'autodistruzione. Ad esempio, mettiamo l'IA non senziente nelle armi di distruzione di massa. Queste armi autonome non sono in grado di pensare. Allo stesso tempo, gli esseri umani non sono tenuti completamente al passo. Di conseguenza, l'IA come forma di automazione autonoma finisce per causare inavvertitamente risultati catastrofici, sia per un comando umano in tal senso, sia per un bug o un errore, o per impiantare malvagità, o per auto-aggiustamenti che riducono le cose che brutto percorso, ecc.

Direi che il problema etico dell'IA esiste per tutti e tre gli stati stipulati dall'IA, vale a dire che abbiamo problemi etici dell'IA con l'IA semplice e vecchia non senziente e con l'IA senziente che è semplicemente a livello umano o l'IA estesa che raggiunge l'acclamato livello di superintelligenza.

Data questa dichiarazione che fa riflettere, possiamo sicuramente discutere l'entità e la difficoltà associate ai problemi etici a ciascuno dei rispettivi livelli di IA. Il punto di vista abituale è che la difficile situazione dell'etica dell'IA è meno insormontabile all'IA non senziente, più dura a livello di IA senziente uguale all'uomo e un vero grattacapo nella fase degli affari dell'IA superintelligente senziente.

Migliore diventa l'IA, peggiore diventa il problema dell'etica dell'IA.

Forse è una legge inviolabile della natura.

Tornando al focus sull'IA di oggi, cercare di fare in modo che l'IA "apprenda" comportamenti etici tramite il Machine Learning e il Deep Learning contemporanei è irto di preoccupazioni e problemi complicati. Supponiamo che l'IA non riesca a raccogliere i precetti etici desiderati? Come sapremo con certezza che ha vacillato nel farlo? Inoltre, altre parti di un sistema di intelligenza artificiale potrebbero potenzialmente scavalcare i costrutti etici raccolti? Aggiungi a questo che se l'IA si sta adeguando al volo, gli aggiustamenti potrebbero attenuare gli aspetti etici o inavvertitamente sopraffarli del tutto.

A peggiorare le cose, "l'apprendimento" potrebbe portare l'IA ad atterrare su comportamenti veramente non etici. Mentre pensavamo che stessimo facendo la cosa giusta spingendo l'IA a essere etica, si scopre che l'IA è invece scivolata nel pattern matching sugli aspetti non etici. Parlare di sparare al nostro piede, potrebbe assolutamente succedere.

A questo punto di questa discussione, scommetto che sei desideroso di alcuni ulteriori esempi del mondo reale che potrebbero evidenziare come l'intelligenza artificiale "l'apprendimento" dell'etica potrebbe applicarsi all'IA di oggi (a parte il gustoso teaser dell'esempio del termostato).

Sono contento che tu l'abbia chiesto.

C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sul fatto che l'IA sia in grado di "imparare" i precetti dell'IA etica e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle che l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non c'è ancora una vera auto a guida autonoma al Livello 5, che non sappiamo ancora se questo sarà possibile raggiungere, e nemmeno quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e vaccinazione etica dell'IA

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Confido che fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Ora siamo pronti a fare un tuffo profondo nelle auto a guida autonoma e nelle possibilità dell'IA etica che implica l'affermazione strabiliante che possiamo convincere l'IA a "imparare" sui comportamenti etici da sola.

Usiamo un esempio facilmente semplice. Un'auto a guida autonoma basata sull'intelligenza artificiale è in corso nelle strade del tuo quartiere e sembra guidare in sicurezza. All'inizio, hai dedicato un'attenzione speciale a ogni volta che sei riuscito a intravedere l'auto a guida autonoma. Il veicolo autonomo si è distinto per il suo rack di sensori elettronici che includeva videocamere, unità radar, dispositivi LIDAR e simili. Dopo molte settimane in cui l'auto a guida autonoma gira per la tua comunità, ora te ne accorgi a malapena. Per quanto ti riguarda, è solo un'altra macchina sulle strade pubbliche già trafficate.

Per non pensare che sia impossibile o non plausibile familiarizzare con le auto a guida autonoma, ho scritto spesso di come i luoghi che rientrano nell'ambito delle prove di auto a guida autonoma si siano gradualmente abituati a vedere i veicoli rinnovati, vedere la mia analisi a questo link qui. Molti dei locali alla fine sono passati dall'essere rapiti a bocca aperta a guardare a bocca aperta e ora emettendo un ampio sbadiglio di noia per assistere a quelle tortuose auto a guida autonoma.

Probabilmente il motivo principale in questo momento per cui potrebbero notare i veicoli autonomi è il fattore di irritazione ed esasperazione. I sistemi di guida basati sull'intelligenza artificiale assicurano che le auto rispettino tutti i limiti di velocità e le regole della strada. Per i frenetici conducenti umani nelle loro tradizionali auto a guida umana, a volte ti irriti quando sei bloccato dietro le auto a guida autonoma rigorosamente basate sull'intelligenza artificiale.

È qualcosa a cui tutti potremmo aver bisogno di abituarci, a torto oa ragione.

Torniamo al nostro racconto. Un giorno, supponiamo che un'auto a guida autonoma nella tua città stia guidando e si trovi in ​​una situazione in cui un pedone è in attesa di attraversare la strada. Si supponga che il pedone non abbia il diritto di precedenza di per sé. Un'auto a guida umana potrebbe oltrepassare il pedone ed essere del tutto legale nel farlo. Allo stesso modo, il sistema di guida AI è legalmente in grado di superare il pedone in attesa.

Decidere se fermarsi e lasciare che il pedone attraversi la strada è del tutto discrezionale per il conducente, indipendentemente dal fatto che si tratti di un conducente umano o di un sistema di guida AI.

Sono sicuro che hai incontrato questo tipo di situazione un numero innumerevole di volte. Forse hai fretta, quindi non ti fermi a far attraversare il pedonale. In un'altra occasione, hai tutto il tempo per arrivare a destinazione, quindi scegli di fermarti e consentire alla persona in attesa di attraversare la strada. Il tuo umore e le circostanze particolari determinano ciò che sceglierai di fare.

Niente in questo scenario sembra insolito o irritante.

Prima di esaminare il lato delle cose dell'IA, potresti essere interessato a sapere che questo particolare aspetto della discrezione che consente a un pedone di attraversare una strada è stato studiato da vicino. I ricercatori hanno identificato che a volte la scelta operata dall'autista può dipendere apparentemente da pregiudizi razziali o di genere. Un guidatore umano potrebbe valutare il pedone in attesa e scegliere di consentire alla persona di attraversare apparentemente in base ai pregiudizi intrinseci del conducente. Se il conducente si rende conto che lo stanno facendo è una questione di ricerca in corso. Vedi la mia copertura su questo link qui.

Ho preparato il terreno per la nostra esplorazione di ciò che un sistema di guida AI potrebbe fare nella situazione di attraversamento pedonale.

La programmazione convenzionale dell'IA potrebbe comportare che gli sviluppatori dell'IA decidano di far fermare sempre il sistema di guida dell'IA e lasciare che il pedone attraversi. Questa sembrerebbe la cosa eticamente corretta o civile da fare. L'auto a guida autonoma rimanda all'umano in attesa che vuole attraversare la strada.

Oserei dire, se tu fossi un passeggero all'interno di un'auto a guida autonoma e l'IA si fermasse sempre per tutti i pedoni discrezionali in attesa, potresti impazzire. Il tuo rapido viaggio al supermercato potrebbe richiedere molte volte più tempo per essere eseguito. Ricordiamo inoltre che non ci riferiamo ai pedoni che hanno il più legale diritto di passaggio da attraversare, poiché quei casi avrebbero presumibilmente già l'IA programmata per consentire sempre. Ci stiamo concentrando solo sulle circostanze discrezionali.

Ci sono altri aspetti negativi in ​​questa dichiarazione di fermarsi sempre per lasciare che i pedoni discrezionali attraversino la strada.

Coloro che producono e mettono in campo auto a guida autonoma basate sull'intelligenza artificiale vogliono che le persone ci guidino. L'idea è che disponendo di auto a guida autonoma, potremmo ridurre il numero di incidenti automobilistici annuali, che attualmente producono circa 40,000 decessi annuali e 2.5 milioni di feriti solo negli Stati Uniti, vedere la mia raccolta di statistiche su questo link qui. Oltre a questo venerato obiettivo sociale, le case automobilistiche e i produttori di tecnologia a guida autonoma sperano di fare soldi anche con le loro creazioni di intelligenza artificiale, naturalmente.

Ne parlo perché le persone potrebbero decidere di non guidare in auto a guida autonoma se il sistema di guida dell'IA fa cose simili inutilmente finiscono per ritardare i viaggi. Qualsiasi persona comune potrebbe pensare che scegliendo invece un guidatore umano il viaggio potrebbe essere più veloce, e ergo selezionando un'auto a guida autonoma con intelligenza artificiale per un viaggio potrebbe essere posizionato molto in basso nell'elenco delle loro scelte. Ciò a sua volta significherebbe che non avremmo la riduzione degli incidenti automobilistici cercata e anche che i produttori potrebbero potenzialmente trovare le loro merci non redditizie.

Data questa serie di argomenti, potresti essere influenzato dal pensare che l'IA non dovrebbe mai fermarsi quando si verifica un'istanza discrezionale di un pedone che vuole attraversare la strada. Basta programmare il sistema di guida dell'IA per fare tutto ciò che è strettamente legale. Se non c'è alcun obbligo legale per far attraversare un pedone, allora sfortuna per quel pedone in attesa. Forse la persona dovrebbe dirigersi verso un punto di passaggio che consenta una base legale per l'IA che ferma l'auto a guida autonoma.

Riesci a immaginare il clamore su questo?

Le persone nella tua città scoprono gradualmente che le auto a guida autonoma con intelligenza artificiale non consentiranno mai a un pedone discrezionale di attraversare. Quella maledetta IA irascibile! È come se l'IA stesse scherzando con gli umani. Un monello maleducato di una pessima automazione. Per finire, immagina che ci siano circostanze documentate di pedoni che hanno un disperato bisogno di attraversare e l'IA non si fermerebbe affatto.

Nel frattempo, i conducenti umani si fermavano volentieri per permettere a quelle persone "disperate" di attraversare la strada in sicurezza.

Come risultato di questo oltraggio, le auto a guida autonoma dell'IA non sono più benvenute nelle strade e nei vicoli della tua zona. I permessi che erano stati rilasciati dai dirigenti della città vengono revocati. Togliere i bruti ingrati dalle nostre strade è il clamore vocale.

Va bene, sembriamo essere tra un rock e un hard place. L'IA non dovrebbe sempre lasciare che il pedone discrezionale attraversi (non sempre fermarsi). L'IA non dovrebbe sempre impedire l'attraversamento di un pedone discrezionale (non passare sempre oltre). Cosa fare?

La risposta ovvia sarebbe programmare l'IA in modo che agisca in modo discrezionale.

Vi chiedo di contemplare l'ADM (processo decisionale algoritmico) in cui dovrebbe consistere. L'IA cercherà di rilevare la natura del pedone e utilizzerà le caratteristiche individuate come base per decidere se fermare o meno l'auto a guida autonoma? Forse qualcuno che sembra più vecchio è il modo di scegliere. Ma è in atto questa discriminazione in base all'età? E così via.

Forse il sistema di guida AI è programmato per fermarsi durante le ore diurne e non fermarsi mai durante la notte. La logica potrebbe essere che si presume più sicuro per i motociclisti nell'auto a guida autonoma che il veicolo autonomo si fermi durante il giorno ma non nelle ore più lugubre della sera.

Forse suona sensato. Parte del problema saranno le aspettative dei pedoni. Ecco cosa intendo. I pedoni vedono le auto a guida autonoma dell'IA fermarsi per incroci discrezionali, che avvengono alla luce del giorno. I pedoni non sanno quali criteri sta usando l'IA per decidere di fermarsi. L'ipotesi di alcuni pedoni è che l'IA si fermerà sempre (non rendendosi conto che la luce del giorno rispetto alla notte è il vero fattore determinante). Di conseguenza, quei pedoni che credono che l'auto a guida autonoma si fermerà sempre coglieranno l'occasione e inizieranno ad attraversare quando il sistema di guida AI non mira affatto a fermarsi (cosa che, l'IA probabilmente si fermerebbe se il pedone sta entrando in strada, anche se questo potrebbe essere rischioso e la fisica potrebbe impedire all'IA di fermare l'auto a guida autonoma per un tempo insufficiente per evitare di colpire il pedone apparentemente "errante").

Supponiamo che gli sviluppatori di intelligenza artificiale e le aziende che mettono insieme e mettono in campo le auto a guida autonoma nella tua città non siano sicuri di come aggiornare l'IA su questa materia.

Decidono di "addestrare" l'IA sui dati raccolti da tutto il locale. Si scopre che ci sono molte telecamere montate sulla città che hanno catturato l'andirivieni di auto in tutta la township. Questi dati mostrano molti casi di pedoni che cercano di attraversare la strada in modo discrezionale. Tutti i dati vengono inseriti in un sistema di Machine Learning e Deep Learning per ricavare ciò che è considerato consuetudine in quella giurisdizione.

Stiamo addestrando l'IA a fare ciò che i costumi etici locali mostrano da fare?

In altre parole, se una determinata città avesse una cultura locale più tendente a fermarsi e lasciare che i pedoni discrezionali attraversino, come evidenziato dalle azioni dei conducenti umani, il ML/DL potrebbe potenzialmente riprendere a livello computazionale questo schema. L'IA verrebbe quindi addestrata a fare lo stesso. All'altro estremo, se i conducenti umani si fermassero di rado, l'IA otterrebbe potenzialmente quella "lezione" dall'analisi computazionale dei dati. L'IA farà come fanno gli umani, più o meno.

L'affermazione è che i comportamenti etici degli esseri umani vengono catturati nei dati e che l'IA infonderà quegli stessi precetti etici mediante l'analisi computazionale. Un etico lo descriverebbe generalmente come un approccio comunitario all'etica. I valori condivisi della comunità si riflettono negli sforzi della comunità in generale.

Questa potrebbe sembrare una soluzione dandy.

Purtroppo ci sono molte insidie.

Un problema forse ovvio è che i conducenti umani potrebbero già esercitare una qualche forma di pregiudizi nella scelta di fermarsi o non fermarsi (come accennato in precedenza). L'IA sarà quindi un imitatore di questi pregiudizi. Vogliamo che sia così?

Considera un altro problema. Supponiamo che i conducenti umani non accettino prontamente come funzionano le auto a guida autonoma con intelligenza artificiale. Solo perché i conducenti umani erano, diciamo, disposti a fermarsi, questo potrebbe non essere altrettanto presumibile per le auto a guida autonoma. Potrebbe essere che i conducenti umani siano infastiditi dalle auto a guida autonoma dell'IA che continuano a fermarsi per i pedoni discrezionali, anche se lo stesso accade per mano di conducenti umani, ma ciò non sembra disturbare i conducenti umani.

Oltre a essere inquietante, puoi anche evocare la possibilità che i conducenti umani facciano inavvertitamente tamponare auto a guida autonoma. Se un guidatore umano non si aspettava che l'auto a guida autonoma si fermasse per un pedone, e se l'auto a guida umana si trova direttamente dietro l'auto a guida autonoma, può sorgere una terribile discrepanza di aspettative. Il sistema di guida AI ferma l'auto a guida autonoma. L'autista umano non aveva previsto questa azione. L'autista umano va a sbattere contro l'auto a guida autonoma. Ne conseguono lesioni e possibilmente decessi.

Ho sottolineato di proposito le possibilità di danni umani.

Il passaggio pedonale che attraversa la strada potrebbe sembrare a prima vista una domanda banale. Sembrerebbe che nessuno possa farsi male con il metodo scelto dall'IA per fermarsi o non fermarsi. Sbagliato! C'è la possibilità che il pedone venga investito. C'è la possibilità che un'auto a guida umana vada a sbattere contro l'auto a guida autonoma. Il conducente e i passeggeri dell'auto a guida umana possono farsi male. I motociclisti all'interno dell'auto a guida autonoma possono subire danni. Sono prontamente previste ulteriori permutazioni di possibili danni umani.

Conclusione

A proposito di danni umani, ti darò qualcos'altro per farti girare la mente su questo enigma dell'IA etica.

Una notizia ha riportato che un uomo stava guidando un'auto in un incrocio e aveva il via libera per farlo. Un'altra auto a guida umana ha scelto di passare con il semaforo rosso dell'incrocio e illegalmente e in modo non sicuro è entrata senza ostacoli all'incrocio, minacciando di colpire l'auto che procedeva legalmente.

L'autista ha detto ai giornalisti che doveva scegliere tra subire il colpo, oppure poteva virare la sua auto per evitare, si spera, di essere colpito, ma c'erano dei pedoni nelle vicinanze e l'azione di virata potrebbe mettere in pericolo quelle persone. Cosa faresti? Puoi scegliere di essere investito da questa macchina incombente e forse vivere per raccontare la storia. Oppure puoi tentare di evitare di essere colpito ma nel frattempo possibilmente correre giù per pedoni innocenti.

Gran parte della nostra guida quotidiana ha questo tipo di decisioni eticamente enormi e istantanee da prendere. Ne ho discusso a lungo, oltre a mettere in relazione queste decisioni di guida di vita o di morte al famoso o, per così dire, famigerato problema del carrello, vedere la mia elaborazione in il link qui.

Sostituisci il conducente umano in questo scenario con un sistema di guida AI.

Cosa vuoi che faccia l'IA?

Questa è una domanda sconcertante.

Un approccio consiste nel programmare l'IA in modo che esegua un'azione di guida puramente diretta, quindi senza nemmeno considerare computazionalmente altre opzioni come allontanarsi dal probabile incidente. Prevedo che i motociclisti su auto a guida autonoma saranno sconvolti nello scoprire che l'IA non è stata ideata per fare nient'altro che prendere il colpo. Puoi aspettarti cause legali e un putiferio.

Un altro approccio sarebbe provare a programmare l'IA per considerare le varie possibilità. Chi però può stabilire l'ADM che decide in che direzione andrebbe il sistema di guida dell'IA? Sembrerebbe che consentire agli sviluppatori di intelligenza artificiale di prendere decisioni così pesanti da soli sia irto di preoccupazioni abbondanti.

Potresti provare a far "imparare" l'IA dai dati sulla guida umana raccolti dalle situazioni di traffico quotidiane. Questo è simile al dilemma dell'attraversamento pedonale e all'idea suggerita in precedenza di utilizzare i dati assemblati per fare in modo che l'IA raccolga qualunque cosa sembrassero essere i costumi etici locali. Ci sono molti avvertimenti al riguardo, ad esempio se i modelli scoperti ML/DL sono appropriati o meno, ecc.

Avevo anche avvertito che esiste la possibilità che l'IA raccolga un comportamento forse non etico, a seconda dei costumi etici coinvolti. Ad esempio, supponiamo che l'IA sia in qualche modo atterrata su uno schema computazionale per mirare sempre ai pedoni ogni volta che un'altra macchina minacciava di colpire l'auto a guida autonoma.

Whoa, attenzione ai pedoni, diventerete bersagli già pronti.

È ora di chiudere la discussione per ora e di farlo con un incoraggiante pensiero finale.

Potresti essere consapevole del fatto che Isaac Asimov ha proposto le sue "Tre leggi della robotica" nel 1950 e siamo ancora oggi innamorati di quelle regole proclamate. Sebbene le regole sembrino essere facilmente rispettabili, come ad esempio che un sistema di intelligenza artificiale o un robot non deve danneggiare un essere umano e né consentire a un essere umano di subire danni, ci sono molte sfumature cruciali che lo rendono complesso ea volte insostenibile, vedi la mia analisi a il link qui.

In ogni caso, ecco qualcos'altro per cui Asimov è noto anche, anche se in misura minore: "Non lasciare mai che il tuo senso della morale ostacoli il fare ciò che è giusto".

Per l'IA etica che tutti speriamo di escogitare, dobbiamo tenere a mente che l'etica dell'IA imbevuta potrebbe non essere quella che ci aspettavamo e che in qualche modo l'IA dovrà comunque fare tutto ciò che è giusto. Asimov l'ha detto bene. Molto tempo prima, Aristotele sembrava pensare sentimenti abbastanza simili.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- il-caso-con-ai-in-auto-a-guida-autonoma/