L'etica dell'IA che suona campanelli d'allarme sullo spettro incombente dei pregiudizi dell'IA su vasta scala globale, alimentati soprattutto da sistemi incombenti completamente autonomi

Platone affermò notoriamente che una buona decisione si basa sulla conoscenza e non sui numeri.

Questa acuta intuizione sembra sorprendentemente preveggente sull'odierna Intelligenza Artificiale (AI).

Vedete, nonostante i titoli a tutto volume che attualmente proclamano che l'IA ha in qualche modo raggiunto la sensibilità e incarna la conoscenza e il ragionamento umani, tenete presente che questa iperbole dell'IA sopravvalutata è un'insidiosa prevaricazione poiché ci affidiamo ancora allo scricchiolio dei numeri nell'odierno processo decisionale dell'algoritmo (ADM ) come intrapreso dai sistemi di IA. Anche il decantato Machine Learning (ML) e Deep Learning (DL) consistono in pattern matching computazionale, il che significa che i numeri sono ancora al centro dell'uso esaltato di ML/DL.

Non sappiamo se l'IA che raggiunga la sensibilità sia possibile. Potrebbe essere, potrebbe non essere. Nessuno può dire con certezza come ciò possa sorgere. Alcuni credono che miglioreremo in modo incrementale i nostri sforzi di IA computazionale in modo tale che una forma di sensibilità si manifesti spontaneamente. Altri pensano che l'IA potrebbe entrare in una specie di supernova computazionale e raggiungere la senzienza praticamente da sola (tipicamente indicata come singolarità). Per ulteriori informazioni su queste teorie sul futuro dell'IA, vedere la mia copertura su il link qui.

Quindi, non prendiamoci in giro e crediamo falsamente che l'IA contemporanea sia in grado di pensare come gli umani. Suppongo che la domanda venga quindi in primo piano sull'osservazione di Platone sul fatto che possiamo avere buone decisioni basate sull'IA computazionale piuttosto che sull'IA senziente. Potresti essere sorpreso di sapere che affermerei che possiamo davvero avere buone decisioni prese dai sistemi di intelligenza artificiale di tutti i giorni.

L'altro lato della medaglia è che possiamo anche avere sistemi di intelligenza artificiale di tutti i giorni che prendono decisioni sbagliate. Decisioni marce. Decisioni piene di pregiudizi e disuguaglianze. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

La mia ampia copertura di AI Ethics e Ethical AI può essere trovata all'indirizzo questo link qui ed questo link qui, solo per citarne alcuni.

Per questa discussione qui di seguito, vorrei sollevare un aspetto particolarmente preoccupante dell'IA su cui coloro che si trovano nell'arena dell'etica dell'IA si lamentano giustamente e cercano di sensibilizzare in modo appropriato. La questione che fa riflettere e sconcertante è in realtà abbastanza semplice da sottolineare.

Eccolo: L'intelligenza artificiale ha il potenziale nel mondo reale di diffondere pregiudizi ricchi di intelligenza artificiale su scala globale allarmante.

E quando dico "su larga scala" questo significa in modo dimostrabile su vasta scala mondiale. Scala enorme. Scala che va fuori scala.

Prima di addentrarmi nel modo in cui avverrà questo ridimensionamento dei pregiudizi legati all'IA, assicuriamoci di avere tutti una parvenza di come l'IA possa incorporare pregiudizi e disuguaglianze indebiti. Ricordiamo ancora che questo non è di una varietà senziente. Questo è tutto di un calibro computazionale.

Potresti essere perplesso su come l'IA possa infondere gli stessi tipi di pregiudizi e disuguaglianze negative che fanno gli esseri umani. Tendiamo a pensare all'IA come completamente neutrale, imparziale, semplicemente una macchina che non ha l'influenza emotiva e il pensiero malvagio che potrebbero avere gli umani. Uno dei mezzi più comuni per cui l'IA cade nella cupezza dei pregiudizi e delle disuguaglianze si verifica quando si utilizzano Machine Learning e Deep Learning, in parte a causa dell'affidamento ai dati raccolti su come gli esseri umani prendono decisioni.

Concedimi un momento per elaborare.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza del modello computazionale di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. Il processo decisionale dell'algoritmo o ADM dell'IA assiomaticamente si carica di iniquità.

Non bene.

Questo ci porta alla questione dei pregiudizi ricchi di intelligenza artificiale quando su larga scala.

Per prima cosa, diamo un'occhiata a come i pregiudizi umani potrebbero creare disuguaglianze. Una società che fa mutui ipotecari decide di assumere un agente di mutui ipotecari. L'agente dovrebbe esaminare le richieste dei consumatori che vogliono ottenere un mutuo per la casa. Dopo aver valutato una domanda, l'agente decide se concedere il prestito o negarlo. Vai tranquillo.

Per motivi di discussione, immaginiamo che un agente di prestito umano possa analizzare 8 prestiti al giorno, impiegando circa un'ora per revisione. In una settimana lavorativa di cinque giorni, l'agente effettua circa 40 revisioni del prestito. Su base annuale, l'agente esegue in genere circa 2,000 revisioni del prestito, concedendo o ricevendo un po'.

La società vuole aumentare il volume delle revisioni dei prestiti, quindi l'azienda assume 100 agenti di prestito aggiuntivi. Supponiamo che abbiano tutti più o meno la stessa produttività e che questo implichi che ora possiamo gestire circa 200,000 prestiti all'anno (a un tasso di 2,000 revisioni di prestiti all'anno per agente). Sembra che abbiamo davvero accelerato l'elaborazione delle richieste di prestito.

Si scopre che l'azienda escogita un sistema di intelligenza artificiale che può essenzialmente eseguire le stesse revisioni dei prestiti degli agenti umani. L'IA è in esecuzione su server di computer nel cloud. Tramite l'infrastruttura cloud, l'azienda può aggiungere prontamente più potenza di calcolo per soddisfare qualsiasi volume di revisioni dei prestiti che potrebbero essere necessarie.

Con la configurazione AI esistente, possono eseguire 1,000 revisioni del prestito all'ora. Questo può anche accadere 24×7. Non sono necessarie ferie per l'IA. Nessuna pausa pranzo. L'IA funziona 9 ore su XNUMX senza schiamazzare per il sovraccarico di lavoro. Diremo che a quel ritmo approssimativo, l'IA può elaborare quasi XNUMX milioni di richieste di prestito all'anno.

Si noti che siamo passati dall'avere 100 agenti umani in grado di fare 200,000 prestiti all'anno e siamo passati molte volte al numero molto elevato di 9 milioni di revisioni all'anno tramite il sistema di intelligenza artificiale. Abbiamo notevolmente aumentato l'elaborazione delle nostre richieste di prestito. Nessun dubbio a riguardo.

Preparati per il kicker che forse ti farà cadere dalla sedia.

Supponiamo che alcuni dei nostri agenti umani stiano prendendo le loro decisioni di prestito sulla base di pregiudizi spiacevoli. Forse alcuni stanno attribuendo ai fattori razziali un ruolo chiave nella decisione sul prestito. Forse alcuni usano il genere. Altri usano l'età. E così via.

Delle 200,000 revisioni annuali dei prestiti, quante sono state fatte sotto lo sguardo sbagliato di pregiudizi e disuguaglianze negative? Forse il 10% che corrisponde a circa 20,000 richieste di prestito. Peggio ancora, supponiamo che si tratti del 50% delle richieste di prestito, nel qual caso ci sono 100,000 casi annuali piuttosto preoccupanti di decisioni di prestito decise in modo errato.

Questo è male. Ma dobbiamo ancora considerare una possibilità ancora più spaventosa.

Supponiamo che l'IA abbia un pregiudizio nascosto che consiste in fattori come razza, sesso, età e simili. Se il 10% delle analisi annuali dei prestiti è soggetto a questa sgradevolezza, abbiamo 900,000 richieste di prestito che vengono gestite in modo improprio. È molto di più di quello che gli agenti umani potrebbero fare, principalmente a causa degli aspetti di volume. Quei 100 agenti, se tutti stavano facendo una revisione iniqua, potrebbero farlo al massimo sulle 200,000 revisioni annuali dei prestiti. L'IA potrebbe fare lo stesso su una scala molto ampia delle 9,000,000 di revisioni annuali.

Yikes!

Questo è veramente un pregiudizio intriso di intelligenza artificiale su una scala enorme.

Quando i pregiudizi spiacevoli vengono sepolti all'interno di un sistema di intelligenza artificiale, lo stesso ridimensionamento che sembrava vantaggioso viene ora ribaltato e diventa un risultato di ridimensionamento mostruosamente seducente (e inquietante). Da un lato, l'IA può arrivare in modo vantaggioso a gestire più persone che richiedono prestiti per la casa. In apparenza, sembra tremendo AI in bene. Dovremmo darci una pacca sulla spalla per aver presumibilmente ampliato le possibilità che gli esseri umani ottengano i prestiti necessari. Nel frattempo, se l'IA ha dei pregiudizi incorporati, il ridimensionamento sarà un risultato tremendamente marcio e ci ritroveremo deplorevolmente impantanati in AI for Bad, su scala davvero massiccia.

La proverbiale spada a doppio taglio.

L'intelligenza artificiale può aumentare radicalmente l'accesso al processo decisionale per coloro che cercano i servizi e i prodotti desiderati. Niente più collo di bottiglia del lavoro vincolato dall'uomo. Eccezionale! L'altro lato della spada è che se l'IA contiene cattiveria come disuguaglianze nascoste, lo stesso massiccio ridimensionamento promulgherà quel comportamento spiacevole su una scala inimmaginabile. Esasperante, ingiusto, vergognoso e non possiamo permettere che la società cada in un abisso così brutto.

Chiunque sia stato perplesso sul motivo per cui dobbiamo sminuire l'importanza dell'etica dell'IA dovrebbe ora rendersi conto che il fenomeno del ridimensionamento dell'IA è una ragione dannatamente importante per perseguire l'IA etica. Prendiamoci un momento per considerare brevemente alcuni dei precetti chiave dell'IA etica per illustrare quello che dovrebbe essere un obiettivo vitale per chiunque crei, metta in campo o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, anche con metodologie, fonti di dati, procedure di progettazione e documentazione trasparenti e verificabili.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata sul fatto che la codifica dell'IA debba essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'IA e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Tieni presente che ci vuole un villaggio per ideare e mettere in campo l'IA. Per questo l'intero villaggio deve stare attento all'etica dell'IA.

Come funziona il ridimensionamento dei bias con intelligenza artificiale

Ora che ho capito che l'IA può contenere pregiudizi, siamo pronti a esaminare alcuni dei motivi per cui il ridimensionamento dell'IA è così invadente.

Considera questo elenco chiave di volta di dieci ragioni sottostanti:

  1. Facilmente replicabile
  2. Costo minimo di scalabilità
  3. Aborrentemente coerente
  4. Mancanza di autoriflessione
  5. Cieca obbedienza
  6. Non inclina la mano
  7. Destinatario ignaro
  8. Tende a non stimolare la provocazione
  9. Falsa aura di correttezza
  10. Difficile da confutare

Esplorerò brevemente ciascuno di questi punti cruciali.

Quando si tenta di aumentare con il lavoro umano, è probabile che farlo sarà enormemente complicato. Devi trovare e assumere le persone. Devi addestrarli a fare il lavoro. Devi pagarli e tenere conto dei desideri e dei bisogni umani. Confronta questo con un sistema di intelligenza artificiale. Lo sviluppi e lo metti in uso. Oltre a una certa quantità di manutenzione continua dell'IA, puoi sederti e lasciarla elaborare all'infinito.

Ciò significa che l'IA è facilmente replicabile. Puoi aggiungere più potenza di calcolo in base all'attività e al volume che potrebbero essere richiesti (non stai assumendo o licenziando). L'uso globale avviene con la semplice pressione di un pulsante e viene raggiunto dalla disponibilità mondiale di Internet. L'aumento è un costo minimo rispetto a fare lo stesso con il lavoro umano.

Il lavoro umano è notoriamente incoerente. Quando hai grandi squadre, hai una vera scatola di cioccolatini in quanto non sai mai cosa potresti avere tra le mani. È probabile che il sistema di intelligenza artificiale sia altamente coerente. Ripete le stesse attività più e più volte, ogni volta essendo essenzialmente la stessa dell'ultima.

Normalmente, apprezzeremmo la coerenza dell'IA. Se gli esseri umani sono inclini ai pregiudizi, avremo sempre una parte del nostro lavoro umano che va fuori strada. L'IA, se puramente imparziale nella sua costruzione e nei suoi sforzi computazionali, sarebbe di gran lunga più coerente. Il problema, tuttavia, è che se l'IA ha pregiudizi nascosti, la coerenza ora è dolorosamente ripugnante. Le probabilità sono che il comportamento distorto venga costantemente eseguito, ancora e ancora.

Si spera che gli esseri umani abbiano qualche sentore di autoriflessione e forse si sorprendano a prendere decisioni distorte. Non sto dicendo che tutti lo farebbero. Inoltre, non sto dicendo che coloro che si beccano da soli raddrizzeranno necessariamente i loro torti. In ogni caso, almeno alcuni umani a volte si correggevano.

È improbabile che l'IA abbia una qualsiasi forma di autoriflessione computazionale. Ciò significa che l'IA continua a fare quello che sta facendo. Apparentemente non ci sarebbero possibilità che l'IA rilevi che sta andando in conflitto con l'equità. Detto questo, ho descritto alcuni sforzi per affrontare questo problema, come la creazione di componenti per l'etica dell'IA all'interno dell'IA (vedi il link qui) e ideando un'IA che monitori altre IA per discernere le attività di IA non etiche (vedi il link qui).

Mancando qualsiasi tipo di auto-riflessione, è probabile che anche l'IA abbia un'obbedienza sostanzialmente cieca a qualsiasi cosa le sia stato ordinato di fare. Gli umani potrebbero non essere così obbedienti. È probabile che alcuni umani che stanno svolgendo un compito si chiedano se forse sono stati guidati nel territorio dell'iniquità. Tenderebbero a rifiutare comandi non etici o forse a seguire la strada dell'informatore (vedi la mia copertura su questo link qui). Non aspettarti che l'IA contemporanea di tutti i giorni metta in discussione in qualche modo la sua programmazione.

Passiamo poi a coloro che utilizzano l'IA. Se stavi cercando un mutuo per la casa e hai parlato con un essere umano, potresti essere in allerta sul fatto che l'umano ti stia dando una scossa equa. Quando si utilizza un sistema di intelligenza artificiale, la maggior parte delle persone sembra essere meno sospettosa. Spesso presumono che l'IA sia equa e, ergo, non si arrabbiano così rapidamente. L'IA sembra cullare le persone in una trance "è solo una macchina". Inoltre, può essere difficile provare a protestare contro l'IA. Al contrario, protestare contro il modo in cui sei stato trattato da un agente umano è molto più facile e molto più comunemente accettato e considerato come fattibile.

Tutto sommato, l'IA che è intrisa di pregiudizi ha un vantaggio disonorevole sugli esseri umani intrisi di pregiudizi, in particolare in termini di essere in grado di fare in modo che l'IA dispieghi massicciamente quei pregiudizi su scala gigantesca, senza essere facilmente scoperti o avere consumatori rendersi conto di ciò che sta accadendo in modo inquietante.

A questo punto di questa discussione, scommetto che sei desideroso di alcuni esempi aggiuntivi che potrebbero mostrare l'enigma dei pregiudizi ricchi di intelligenza artificiale su larga scala.

Sono contento che tu l'abbia chiesto.

C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sui pregiudizi legati all'intelligenza artificiale su larga scala e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle che l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non c'è ancora una vera auto a guida autonoma al Livello 5, che non sappiamo ancora se questo sarà possibile raggiungere, e nemmeno quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e pregiudizi dell'IA su larga scala

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Confido che fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Ora siamo pronti per fare un tuffo profondo nelle auto a guida autonoma e nelle possibilità dell'IA etica che implicano l'esplorazione di pregiudizi legati all'IA che vengono promulgati su larga scala.

Usiamo un esempio facilmente semplice. Un'auto a guida autonoma basata sull'intelligenza artificiale è in corso nelle strade del tuo quartiere e sembra guidare in sicurezza. All'inizio, hai dedicato un'attenzione speciale a ogni volta che sei riuscito a intravedere l'auto a guida autonoma. Il veicolo autonomo si è distinto per il suo rack di sensori elettronici che includeva videocamere, unità radar, dispositivi LIDAR e simili. Dopo molte settimane in cui l'auto a guida autonoma gira per la tua comunità, ora te ne accorgi a malapena. Per quanto ti riguarda, è solo un'altra macchina sulle strade pubbliche già trafficate.

Per non pensare che sia impossibile o non plausibile familiarizzare con le auto a guida autonoma, ho scritto spesso di come i luoghi che rientrano nell'ambito delle prove di auto a guida autonoma si siano gradualmente abituati a vedere i veicoli rinnovati, vedere la mia analisi a questo link qui. Molti dei locali alla fine sono passati dall'essere rapiti a bocca aperta a guardare a bocca aperta e ora emettendo un ampio sbadiglio di noia per assistere a quelle tortuose auto a guida autonoma.

Probabilmente il motivo principale in questo momento per cui potrebbero notare i veicoli autonomi è il fattore di irritazione ed esasperazione. I sistemi di guida basati sull'intelligenza artificiale assicurano che le auto rispettino tutti i limiti di velocità e le regole della strada. Per i frenetici conducenti umani nelle loro tradizionali auto a guida umana, a volte ti irriti quando sei bloccato dietro le auto a guida autonoma rigorosamente basate sull'intelligenza artificiale.

È qualcosa a cui tutti potremmo aver bisogno di abituarci, a torto oa ragione.

Torniamo al nostro racconto.

Si scopre che iniziano a sorgere due preoccupazioni sconvenienti sulle auto a guida autonoma basate sull'intelligenza artificiale, altrimenti innocue e generalmente benvenute, in particolare:

un. Il punto in cui l'IA sta vagando per le auto a guida autonoma per raccogliere le corse incombeva come una preoccupazione vocale

b. Il modo in cui l'IA sta trattando i pedoni in attesa che non hanno il diritto di precedenza stava emergendo come una questione urgente

All'inizio, l'IA girava per le auto a guida autonoma in tutta la città. Chiunque volesse richiedere un passaggio nell'auto a guida autonoma aveva essenzialmente le stesse possibilità di chiamarne uno. A poco a poco, l'IA iniziò a mantenere le auto a guida autonoma in roaming in una sola sezione della città. Questa sezione è stata una fonte di guadagno maggiore e il sistema di intelligenza artificiale era stato programmato per cercare di massimizzare i ricavi come parte dell'utilizzo nella comunità.

I membri della comunità nelle parti povere della città avevano meno probabilità di poter ottenere un passaggio da un'auto a guida autonoma. Questo perché le auto a guida autonoma erano più lontane e vagavano nella parte più redditizia del locale. Quando una richiesta arrivava da una parte lontana della città, qualsiasi richiesta da una posizione più vicina che era probabilmente nella parte "stimata" della città avrebbe avuto una priorità più alta. Alla fine, la disponibilità di avere un'auto a guida autonoma in qualsiasi luogo diverso dalla parte più ricca della città era quasi impossibile, e questo era esasperante per coloro che vivevano in quelle aree ormai prive di risorse.

Si potrebbe affermare che l'IA è praticamente atterrata su una forma di discriminazione per procura (spesso indicata anche come discriminazione indiretta). L'IA non era programmata per evitare quei quartieri più poveri. Invece, ha "imparato" a farlo attraverso l'uso del ML/DL.

Il fatto è che i conducenti umani del ridesharing erano noti per fare la stessa cosa, anche se non necessariamente esclusivamente a causa dell'angolo di guadagno. C'erano alcuni dei conducenti umani che condividevano il viaggio che avevano un pregiudizio spiacevole nel far salire i motociclisti in alcune parti della città. Questo era un fenomeno alquanto noto e la città aveva messo in atto un approccio di monitoraggio per catturare i conducenti umani mentre lo facevano. I conducenti umani potrebbero finire nei guai per l'esecuzione di pratiche di selezione sgradevoli.

Si presumeva che l'IA non sarebbe mai caduta in quello stesso tipo di sabbie mobili. Non è stato istituito alcun monitoraggio specializzato per tenere traccia di dove stessero andando le auto a guida autonoma basate sull'intelligenza artificiale. Solo dopo che i membri della comunità hanno iniziato a lamentarsi, i dirigenti della città si sono resi conto di cosa stava succedendo. Per ulteriori informazioni su questi tipi di problemi a livello cittadino che i veicoli autonomi e le auto a guida autonoma presenteranno, vedere la mia copertura all'indirizzo questo link qui e che descrive uno studio condotto da Harvard di cui sono coautore sull'argomento.

Questo esempio degli aspetti del roaming delle auto a guida autonoma basate sull'intelligenza artificiale illustra la precedente indicazione che possono esserci situazioni che coinvolgono esseri umani con pregiudizi spiacevoli, per i quali vengono messi in atto controlli, e che l'IA che sostituisce quei conducenti umani viene lasciata invariata. libero. Sfortunatamente, l'IA può quindi impantanarsi in modo incrementale in pregiudizi simili e farlo senza sufficienti guardrail in atto.

Ciò mostra anche i pregiudizi legati all'intelligenza artificiale su vasta scala.

Nel caso dei conducenti umani, potremmo averne alcuni qua o là che esercitavano una qualche forma di iniquità. Per il sistema di guida dell'IA, di solito è una di queste IA unificata per un'intera flotta di auto a guida autonoma. Pertanto, avremmo potuto iniziare con diciamo cinquanta auto a guida autonoma in città (tutte gestite dallo stesso codice AI) e gradualmente aumentate fino a diciamo 500 auto a guida autonoma (tutte gestite dallo stesso codice AI). Poiché tutte queste cinquecento auto a guida autonoma sono gestite dalla stessa IA, sono di conseguenza tutte soggette agli stessi pregiudizi e disuguaglianze derivate incorporati nell'IA.

Il ridimensionamento ci fa male in questo senso.

Un secondo esempio riguarda l'IA che determina se fermarsi per i pedoni in attesa che non hanno la precedenza per attraversare una strada.

Hai senza dubbio guidato e incontrato pedoni che stavano aspettando di attraversare la strada e tuttavia non avevano la precedenza per farlo. Ciò significava che avevi discrezione se fermarti e lasciarli attraversare. Potresti procedere senza lasciarli attraversare ed essere comunque pienamente conforme alle regole di guida legali per farlo.

Gli studi su come i conducenti umani decidono di fermarsi o non fermarsi per tali pedoni hanno suggerito che a volte i conducenti umani fanno la scelta sulla base di pregiudizi spiacevoli. Un guidatore umano potrebbe guardare il pedone e scegliere di non fermarsi, anche se si sarebbe fermato se il pedone avesse avuto un aspetto diverso, ad esempio in base alla razza o al sesso. L'ho esaminato a il link qui.

Immagina che le auto a guida autonoma basate sull'intelligenza artificiale siano programmate per affrontare la questione se fermarsi o meno per i pedoni che non hanno il diritto di precedenza. Ecco come gli sviluppatori di intelligenza artificiale hanno deciso di programmare questa attività. Hanno raccolto i dati dalle videocamere del paese che sono dislocate in giro per la città. I dati mostrano i conducenti umani che si fermano per i pedoni che non hanno la precedenza e i conducenti umani che non si fermano. È tutto raccolto in un grande set di dati.

Utilizzando Machine Learning e Deep Learning, i dati vengono modellati in modo computazionale. Il sistema di guida AI utilizza quindi questo modello per decidere quando fermarsi o non fermarsi. In generale, l'idea è che qualunque sia l'usanza locale, questo è il modo in cui l'IA dirigerà l'auto a guida autonoma.

Con sorpresa dei leader della città e dei residenti, l'IA stava evidentemente scegliendo di fermarsi o meno in base all'aspetto del pedone, inclusa la razza e il sesso. I sensori dell'auto a guida autonoma scannerizzerebbero il pedone in attesa, alimenterebbero questi dati nel modello ML/DL e il modello emetterebbe all'IA se fermarsi o continuare. Purtroppo, la città aveva già molti pregiudizi per i conducenti umani a questo proposito e ora l'IA imitava lo stesso.

Questo esempio illustra che un sistema di intelligenza artificiale potrebbe semplicemente duplicare i pregiudizi già preesistenti degli umani. Inoltre, lo fa su larga scala. A qualsiasi pilota umano a volte potrebbe essere stato insegnato a fare questa sconveniente forma di selezione o forse scelto personalmente per farlo, ma è probabile che la maggior parte dei conducenti umani probabilmente non lo stia facendo in massa.

In netto contrasto, è probabile che il sistema di guida dell'IA utilizzato per guidare le auto a guida autonoma esegua in modo aberrante, in modo coerente e sicuro, il pregiudizio derivato.

Conclusione

Esistono molti modi per cercare di evitare di escogitare un'IA che abbia pregiudizi spiacevoli o che nel tempo raccolga pregiudizi. Per quanto possibile, l'idea è di cogliere i problemi prima di passare alla marcia alta e aumentare per il ridimensionamento. Si spera che i pregiudizi non escano dalla porta, per così dire.

Supponiamo però che in un modo o nell'altro sorgeranno pregiudizi nell'IA. Una volta che sei stato distribuito su vasta scala con l'IA, non puoi semplicemente fare una di quelle nozioni tecniche spesso proclamate "spara e dimentica". Devi essere diligentemente aggiornato su ciò che l'IA sta facendo e cercare di rilevare eventuali pregiudizi spiacevoli che devono essere corretti.

Come sottolineato in precedenza, un approccio consiste nel garantire che gli sviluppatori di IA siano consapevoli dell'etica dell'IA e quindi li spingano a essere all'erta per programmare l'IA per evitare questi problemi. Un'altra strada consiste nel fare in modo che l'IA si automonitiri da sola per comportamenti non etici e/o avere un altro pezzo di IA che monitori altri sistemi di IA per comportamenti potenzialmente non etici. Ho trattato numerose altre potenziali soluzioni nei miei scritti.

Un ultimo pensiero per ora. Avendo iniziato questa discussione con una citazione di Platone, potrebbe essere opportuno chiudere il discorso con l'ennesima astuta espressione di Platone.

Platone ha affermato che non c'è nulla di male nel ripetere una cosa buona.

La facilità di andare su larga scala con l'IA è certamente un mezzo praticabile per raggiungere un'aspirazione così ottimista quando l'IA è del AI in bene varietà. Ci godiamo nel ripetere una cosa buona. Quando l'IA è il AI for Bad e pieni di pregiudizi e ingiustizie spiacevoli, potremmo appoggiarci alle osservazioni di Platone e dire che c'è molto male nel ripetere una cosa negativa.

Ascoltiamo attentamente le sagge parole di Platone e progettiamo la nostra IA di conseguenza.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- su scala globale-alimentata-soprattutto-attraverso-incombenti-sistemi-completamente autonomi/