L'etica dell'IA afferma che l'IA dovrebbe essere utilizzata soprattutto quando i pregiudizi umani sono abbondanti

Gli esseri umani devono conoscere i propri limiti.

Potresti ricordare la famosa frase sulla conoscenza dei nostri limiti pronunciata in modo grintoso dal personaggio Dirty Harry nel film del 1973 intitolato Magnum Force (secondo le parole pronunciate dall'attore Clint Eastwood nel suo memorabile ruolo dell'ispettore Harry Callahan). L'idea generale è che a volte tendiamo a trascurare i nostri limiti e ad entrare di conseguenza nell'acqua calda. Che sia dovuto all'arroganza, all'essere egocentrico o semplicemente cieco alle nostre capacità, il precetto di essere consapevoli e tener conto esplicitamente delle nostre inclinazioni e carenze è abbondantemente sensato e utile.

Aggiungiamo una nuova svolta al saggio consiglio.

L'Intelligenza Artificiale (AI) ha imparato a conoscerne i limiti.

Cosa intendo con quella variante del venerato tormentone?

Si scopre che la corsa iniziale per utilizzare l'IA moderna come un risolutore di speranza dei problemi del mondo è stata macchiata e del tutto confusa dalla consapevolezza che l'IA di oggi ha alcuni limiti piuttosto gravi. Siamo passati dai titoli edificanti di AI in bene e ci siamo trovati sempre più impantanati AI for Bad. Vedete, molti sistemi di intelligenza artificiale sono stati sviluppati e messi in campo con tutti i tipi di pregiudizi razziali e di genere spiacevoli e una miriade di altre disuguaglianze così spaventose.

Per la mia copertura ampia e continua di AI Ethics e Ethical AI, vedere il link qui ed il link qui, solo per citarne alcuni.

I pregiudizi scoperti in questi sistemi di intelligenza artificiale non sono del tipo, diciamo così, "intenzionale" che attribuiremmo al comportamento umano. Dico questo per sottolineare che l'IA di oggi non è senziente. Nonostante quei titoli a tutto volume che suggeriscono il contrario, non c'è IA da nessuna parte che si avvicini anche alla senzienza. Inoltre, non sappiamo come inserire l'IA nella fascia della senzienza, inoltre nessuno può dire con certezza se raggiungeremo mai la sensibilità dell'IA. Forse un giorno accadrà, o forse no.

Quindi, il mio punto è che non possiamo assegnare un'intenzione in particolare al tipo di IA che attualmente possediamo. Detto questo, possiamo assegnare abbondantemente l'intenzione a coloro che stanno creando sistemi di intelligenza artificiale. Alcuni sviluppatori di intelligenza artificiale non sono consapevoli del fatto di aver ideato un sistema di intelligenza artificiale che contiene pregiudizi sgradevoli e forse illegali. Nel frattempo, altri sviluppatori di intelligenza artificiale si rendono conto che stanno infondendo pregiudizi nei loro sistemi di intelligenza artificiale, potenzialmente facendolo in modo intenzionale.

In ogni caso, il risultato è comunque sconveniente e probabilmente illegale.

Sono in corso sforzi strepitosi per promulgare i principi dell'etica dell'IA che illumineranno gli sviluppatori di intelligenza artificiale e forniranno una guida adeguata per evitare di incorporare pregiudizi nei loro sistemi di intelligenza artificiale. Questo aiuterà in due modi. Innanzitutto, coloro che creano IA non avranno più la scusa pronta che semplicemente non erano consapevoli di quali precetti dovrebbero essere seguiti. In secondo luogo, coloro che deviano dalle condizioni dell'IA etica verranno catturati più facilmente e mostrati come evitano ciò che erano stati avvertiti sia di fare che di non fare.

Prendiamoci un momento per considerare brevemente alcuni dei precetti chiave dell'IA etica per illustrare ciò a cui i costruttori di IA dovrebbero pensare e intraprendere rigorosamente da una posizione di etica dell'IA.

Come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, anche con metodologie, fonti di dati, procedure di progettazione e documentazione trasparenti e verificabili.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata sul fatto che la codifica dell'IA debba essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'IA e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Tieni presente che ci vuole un villaggio per ideare e mettere in campo l'IA. Per questo l'intero villaggio deve stare attento all'etica dell'IA.

Ad ogni modo, ora che ho capito che l'IA può contenere pregiudizi, possiamo forse essere tutti d'accordo su questi due fatti apparenti:

1. Gli esseri umani possono avere numerosi pregiudizi negativi e possono agire di conseguenza

2. L'IA può avere numerosi pregiudizi negativi e può agire in base a tali pregiudizi

Sono in qualche modo detestato dall'impilare gli umani contro l'IA in quel contesto poiché potrebbe in qualche modo implicare che l'IA abbia capacità senzienti alla pari degli umani. Non è certo così. Tornerò momentaneamente alle crescenti preoccupazioni sull'antropomorfizzazione dell'IA un po' più avanti in questa discussione.

Cosa c'è di peggio, gli esseri umani che mostrano pregiudizi spiacevoli o l'IA che lo fa?

Oserei dire che la domanda pone una di quelle scelte austere. È il proverbiale minore di due mali, si potrebbe sostenere. Vorremmo che gli esseri umani non incarnassero pregiudizi spiacevoli. Vorremmo inoltre che, anche se gli esseri umani hanno pregiudizi spiacevoli, non agiscano in base a quei pregiudizi. Lo stesso si potrebbe giustamente dire dell'IA. Vorremmo che l'IA non incorporasse pregiudizi spiacevoli e che anche se ci fossero tali pregiudizi internamente codificati che l'IA almeno non agisse su di essi.

I desideri però non corrono necessariamente nel mondo (per la mia analisi della crescente e inquietante parvenza dei cosiddetti Soddisfazione dei desideri dell'IA dalla società in generale, vedi il link qui).

Ok, ovviamente vogliamo che gli umani conoscano i loro limiti. È importante riconoscere quando si hanno pregiudizi spiacevoli. C'è uguale importanza nel cercare di evitare che quei pregiudizi spiacevoli vengano infusi nelle tue azioni e decisioni. Le aziende oggi stanno provando tutti i tipi di approcci per evitare che i propri dipendenti cadano nelle terribili insidie ​​dei pregiudizi spiacevoli. Ai dipendenti viene impartita una formazione specializzata su come svolgere il proprio lavoro in modo etico. I processi sono modellati attorno ai dipendenti per avvisarli quando sembrano esibire costumi non etici. E così via.

Un altro mezzo per far fronte agli esseri umani e ai loro pregiudizi spiacevoli sarebbe automatizzare il lavoro basato sull'uomo. Sì, rimuovi semplicemente l'umano dal loop. Non permettere a un essere umano di svolgere un compito decisionale e presumibilmente non hai più preoccupazioni persistenti sull'atteggiamento umano verso eventuali pregiudizi spiacevoli. Non c'è un essere umano coinvolto e quindi il problema dei potenziali pregiudizi umani sembra essere risolto.

Lo sollevo perché stiamo assistendo a un graduale e massiccio spostamento verso l'utilizzo dell'IA in un modo basato su algoritmi decisionali (ADM). Se riesci a sostituire un lavoratore umano con l'IA, è probabile che ne scaturiranno molti vantaggi. Come già accennato, non ti preoccuperai più dei pregiudizi umani di quel lavoratore umano (quello che non sta più facendo quel lavoro). È probabile che l'IA sia complessivamente meno costosa rispetto a un orizzonte temporale a lungo termine. Fai a meno di tutte le altre difficoltà assortite che vengono in parte con i lavoratori umani. Eccetera.

Una proposta che sta guadagnando terreno sembra essere questa: Quando cerchi di decidere dove posizionare al meglio l'IA, guarda prima alle impostazioni che già comportano pregiudizi umani spiacevoli da parte dei tuoi dipendenti e per i quali tali pregiudizi stanno sottoquotando o altrimenti complicano eccessivamente particolari compiti decisionali.

La conclusione è che sembrerebbe prudente ottenere il massimo in termini di investimento nell'IA puntando direttamente a compiti decisionali umani altamente esposti che sono difficili da controllare da una prospettiva di infusione di pregiudizi sfavorevoli. Rimuovere i lavoratori umani in quel ruolo. Sostituiscili con l'IA. Il presupposto è che l'IA non avrebbe pregiudizi così spiacevoli. Pertanto, puoi avere la tua torta e mangiarla anche tu, vale a dire, ottenere i compiti decisionali intrapresi e farlo meno lo spettro etico e legale di pregiudizi spiacevoli.

Quando lo scarichi, il ROI (ritorno sull'investimento) renderebbe probabilmente l'adozione dell'IA una scelta banale.

Ecco come si svolge di solito.

Guarda in tutta la tua azienda e cerca di identificare le attività decisionali che influiscono sui clienti. Di questi compiti, quali hanno maggiori probabilità di essere influenzati in modo inappropriato se i lavoratori incarnano pregiudizi spiacevoli? Se hai già provato a frenare quei pregiudizi, forse lasci che le cose stiano così com'è. D'altra parte, se i pregiudizi continuano a riapparire e lo sforzo per eliminarli è oneroso, prendi in considerazione l'idea di lasciar cadere alcune IA pertinenti in quel ruolo. Non tenere i lavoratori nel mix poiché potrebbero scavalcare l'IA o respingere l'IA nell'abisso dei pregiudizi spiacevoli. Inoltre, assicurati che l'IA sia in grado di svolgere l'attività in modo competente e di aver sufficientemente catturato gli aspetti decisionali necessari per svolgere il lavoro.

Sciacquare e ripetere.

Mi rendo conto che sembra un'idea semplice, anche se mi rendo conto che ci sono molti modi in cui la sostituzione dei lavoratori umani con l'IA può facilmente andare storta. Molte aziende erano ansiose di intraprendere tali azioni e non hanno considerato consapevolmente come farlo. Di conseguenza, spesso facevano un pasticcio molto peggiore di quello con cui avevano le mani all'inizio.

Voglio chiarire e accentuare che l'IA non è una panacea.

A proposito, c'è un enorme intoppo sulla pulizia di apparentemente buttare fuori i decisori di parte umana con la presunta IA imparziale. L'inconveniente è che potresti semplicemente sostituire una serie di pregiudizi spiacevoli con un'altra. Secondo l'indicazione precedente, l'IA può contenere pregiudizi spiacevoli e può agire in base a tali pregiudizi. Dare una sfacciata supposizione che sostituire gli esseri umani prevenuti con un'IA imparziale non sia tutto ciò che sembra.

In breve, ecco l'accordo quando si esamina la questione rigorosamente dai fattori di distorsione:

  • L'IA non ha pregiudizi e, ergo, l'ADM basato sull'IA è utile da implementare
  • L'IA ha gli stessi pregiudizi spiacevoli degli umani che vengono sostituiti e quindi l'ADM basato sull'IA è preoccupante
  • L'IA introduce nuovi pregiudizi negativi oltre a quelli degli umani sostituiti e probabilmente peggiorerà le cose di conseguenza
  • L'IA all'inizio sembra a posto e poi gradualmente vacilla in pregiudizi spiacevoli
  • Altro

Possiamo spacchettare brevemente queste possibilità.

Il primo è la versione idealizzata di ciò che potrebbe accadere. L'IA non ha pregiudizi. Metti in atto l'IA e fa il lavoro in modo superbo. Buon per te! Ovviamente, si spera che tu abbia anche gestito in modo abile lo spostamento di lavoratori umani a causa dell'inclusione dell'IA.

Nel secondo caso, metti in atto l'IA e scopri che l'IA sta esibendo gli stessi pregiudizi negativi che avevano i lavoratori umani. Come può essere? Un mezzo comune per cadere in questa trappola è utilizzare Machine Learning (ML) e Deep Learning (DL) sulla base dei dati raccolti su come gli esseri umani nel ruolo stavano prendendo le loro decisioni in precedenza.

Mi permetta un momento di spiegare.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno svolto il lavoro per anni e anni hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza del modello computazionale di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione in sé.

Inoltre, anche gli sviluppatori di IA potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Tutto sommato, potresti tornare al punto di partenza. Gli stessi pregiudizi spiacevoli degli esseri umani sono ora rispecchiati dal punto di vista computazionale nel sistema di intelligenza artificiale. Non hai sradicato i pregiudizi.

Peggio ancora, potresti essere meno propenso a renderti conto che l'IA ha dei pregiudizi. Nel caso degli umani, normalmente potresti stare in guardia sul fatto che gli umani abbiano pregiudizi spiacevoli. Questa è un'aspettativa di base. L'uso dell'IA può indurre i leader a credere che l'automazione abbia completamente rimosso qualsiasi tipo di pregiudizio umano. Si stanno così preparando per essersi sparati a un piede. Si sono sbarazzati degli umani con pregiudizi apparentemente noti, sostituiti da un'IA che si pensava non avesse tali pregiudizi, eppure ora hanno utilizzato l'IA piena degli stessi pregiudizi già noti.

Questo può rendere le cose davvero strabiche. Potresti aver rimosso altri guardrail utilizzati con i lavoratori umani che sono stati istituiti per rilevare e prevenire l'emergere di quei pregiudizi umani già previsti. L'IA ora ha libero sfogo. Niente è a posto per prenderlo prima di agire. L'IA potrebbe quindi iniziare a condurti lungo un sentiero cupo di vasto accumulo di azioni distorte.

E sei nella posizione goffa e forse responsabile che una volta conoscevi dei pregiudizi e ora hai permesso a quei pregiudizi di provocare il caos. Forse una cosa è non aver mai incontrato pregiudizi così spiacevoli e poi all'improvviso l'IA li fa scattare. Potresti provare a scusarlo con il tipo di distrattore "chi avrebbe indovinato" (non molto convincente, forse). Ma per aver ora impostato un'IA che sta facendo le stesse azioni spiacevoli e distorte di prima, beh, le tue scuse stanno diventando più sottili e deboli.

Una svolta su questo comporta che l'IA esibisca pregiudizi spiacevoli che non erano stati incontrati in precedenza quando gli umani stavano svolgendo il compito. Si potrebbe dire che questo è forse più difficile da prevenire poiché consiste in "nuovi" pregiudizi che l'azienda non era stata in precedenza alla ricerca. Alla fine, però, le scuse potrebbero non darti molto sollievo. Se il sistema di intelligenza artificiale si è avventurato in un territorio sia non etico che illegale, la tua oca potrebbe essere cucinata.

Un altro aspetto da tenere a mente è che l'IA potrebbe iniziare bene e poi farsi strada in pregiudizi spiacevoli. Ciò è particolarmente probabile quando l'uso di Machine Learning o Deep Learning avviene su base continuativa per mantenere l'IA aggiornata. Indipendentemente dal fatto che ML/DL funzioni in tempo reale o esegua periodicamente aggiornamenti, l'attenzione dovrebbe essere se l'IA sta eventualmente ingerendo dati che ora contengono pregiudizi e che in precedenza non erano presenti.

Per i leader che pensano di ottenere un pranzo gratis agitando una bacchetta magica per sostituire i lavoratori umani prevenuti con l'IA, si aspettano un risveglio molto brusco. Vedi la mia discussione sull'importanza di conferire potere ai leader con i precetti dell'etica dell'IA su il link qui.

A questo punto di questa discussione, scommetto che sei desideroso di alcuni esempi del mondo reale che potrebbero mostrare l'enigma di sostituire (o meno) i pregiudizi umani con pregiudizi basati sull'IA.

Sono contento che tu l'abbia chiesto.

C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sui pregiudizi spiacevoli nell'IA e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle che l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non c'è ancora una vera auto a guida autonoma al Livello 5, che non sappiamo ancora se questo sarà possibile raggiungere, e nemmeno quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e intelligenza artificiale con pregiudizi spiacevoli

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Confido che fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Ora siamo pronti per fare un tuffo profondo nelle auto a guida autonoma e nelle possibilità dell'IA etica che implicano l'esplorazione dell'IA e pregiudizi spiacevoli.

Usiamo un esempio facilmente semplice. Un'auto a guida autonoma basata sull'intelligenza artificiale è in corso nelle strade del tuo quartiere e sembra guidare in sicurezza. All'inizio, hai dedicato un'attenzione speciale a ogni volta che sei riuscito a intravedere l'auto a guida autonoma. Il veicolo autonomo si è distinto per il suo rack di sensori elettronici che includeva videocamere, unità radar, dispositivi LIDAR e simili. Dopo molte settimane in cui l'auto a guida autonoma gira per la tua comunità, ora te ne accorgi a malapena. Per quanto ti riguarda, è solo un'altra macchina sulle strade pubbliche già trafficate.

Per non pensare che sia impossibile o non plausibile familiarizzare con le auto a guida autonoma, ho scritto spesso di come i luoghi che rientrano nell'ambito delle prove di auto a guida autonoma si siano gradualmente abituati a vedere i veicoli rinnovati, vedere la mia analisi a questo link qui. Molti dei locali alla fine sono passati dall'essere rapiti a bocca aperta a guardare a bocca aperta e ora emettendo un ampio sbadiglio di noia per assistere a quelle tortuose auto a guida autonoma.

Probabilmente il motivo principale in questo momento per cui potrebbero notare i veicoli autonomi è il fattore di irritazione ed esasperazione. I sistemi di guida basati sull'intelligenza artificiale assicurano che le auto rispettino tutti i limiti di velocità e le regole della strada. Per i frenetici conducenti umani nelle loro tradizionali auto a guida umana, a volte ti irriti quando sei bloccato dietro le auto a guida autonoma rigorosamente basate sull'intelligenza artificiale.

È qualcosa a cui tutti potremmo aver bisogno di abituarci, a torto oa ragione.

Torniamo al nostro racconto.

Si scopre che iniziano a sorgere due preoccupazioni sconvenienti sulle auto a guida autonoma basate sull'intelligenza artificiale, altrimenti innocue e generalmente benvenute, in particolare:

un. Il punto in cui l'intelligenza artificiale vaga per le auto a guida autonoma per raccogliere le corse è diventata una preoccupazione ansiosa nella comunità in generale

b. Anche il modo in cui l'IA sta trattando i pedoni in attesa che non hanno il diritto di precedenza è un problema in aumento

All'inizio, l'IA girava per le auto a guida autonoma in tutta la città. Chiunque volesse richiedere un passaggio nell'auto a guida autonoma aveva essenzialmente le stesse possibilità di chiamarne uno. A poco a poco, l'IA iniziò a mantenere le auto a guida autonoma in roaming in una sola sezione della città. Questa sezione è stata una fonte di guadagno maggiore e il sistema di intelligenza artificiale era stato programmato per cercare di massimizzare i ricavi come parte dell'utilizzo nella comunità.

I membri della comunità nelle parti povere della città avevano meno probabilità di poter ottenere un passaggio da un'auto a guida autonoma. Questo perché le auto a guida autonoma erano più lontane e vagavano nella parte più redditizia del locale. Quando una richiesta arrivava da una parte lontana della città, qualsiasi richiesta da una posizione più vicina che era probabilmente nella parte "stimata" della città avrebbe avuto una priorità più alta. Alla fine, la disponibilità di avere un'auto a guida autonoma in qualsiasi luogo diverso dalla parte più ricca della città era quasi impossibile, e questo era esasperante per coloro che vivevano in quelle aree ormai prive di risorse.

Si potrebbe affermare che l'IA è praticamente atterrata su una forma di discriminazione per procura (spesso indicata anche come discriminazione indiretta). L'IA non era programmata per evitare quei quartieri più poveri. Invece, ha "imparato" a farlo attraverso l'uso del ML/DL.

Il fatto è che i conducenti umani del ridesharing erano noti per fare la stessa cosa, anche se non necessariamente esclusivamente a causa dell'angolo di guadagno. C'erano alcuni dei conducenti umani che condividevano il viaggio che avevano un pregiudizio spiacevole nel far salire i motociclisti in alcune parti della città. Questo era un fenomeno alquanto noto e la città aveva messo in atto un approccio di monitoraggio per catturare i conducenti umani mentre lo facevano. I conducenti umani potrebbero finire nei guai per l'esecuzione di pratiche di selezione sgradevoli.

Si presumeva che l'IA non sarebbe mai caduta in quello stesso tipo di sabbie mobili. Non è stato istituito alcun monitoraggio specializzato per tenere traccia di dove stessero andando le auto a guida autonoma basate sull'intelligenza artificiale. Solo dopo che i membri della comunità hanno iniziato a lamentarsi, i dirigenti della città si sono resi conto di cosa stava succedendo. Per ulteriori informazioni su questi tipi di problemi a livello cittadino che i veicoli autonomi e le auto a guida autonoma presenteranno, vedere la mia copertura all'indirizzo questo link qui e che descrive uno studio condotto da Harvard di cui sono coautore sull'argomento.

Questo esempio degli aspetti del roaming delle auto a guida autonoma basate sull'intelligenza artificiale illustra la precedente indicazione che possono esserci situazioni che coinvolgono esseri umani con pregiudizi spiacevoli, per i quali vengono messi in atto controlli, e che l'IA che sostituisce quei conducenti umani viene lasciata invariata. libero. Sfortunatamente, l'IA può quindi impantanarsi in modo incrementale in pregiudizi simili e farlo senza sufficienti guardrail in atto.

Un secondo esempio riguarda l'IA che determina se fermarsi per i pedoni in attesa che non hanno la precedenza per attraversare una strada.

Hai senza dubbio guidato e incontrato pedoni che stavano aspettando di attraversare la strada e tuttavia non avevano la precedenza per farlo. Ciò significava che avevi discrezione se fermarti e lasciarli attraversare. Potresti procedere senza lasciarli attraversare ed essere comunque pienamente conforme alle regole di guida legali per farlo.

Gli studi su come i conducenti umani decidono di fermarsi o non fermarsi per tali pedoni hanno suggerito che a volte i conducenti umani fanno la scelta sulla base di pregiudizi spiacevoli. Un guidatore umano potrebbe guardare il pedone e scegliere di non fermarsi, anche se si sarebbe fermato se il pedone avesse avuto un aspetto diverso, ad esempio in base alla razza o al sesso. L'ho esaminato a il link qui.

Immagina che le auto a guida autonoma basate sull'intelligenza artificiale siano programmate per affrontare la questione se fermarsi o meno per i pedoni che non hanno il diritto di precedenza. Ecco come gli sviluppatori di intelligenza artificiale hanno deciso di programmare questa attività. Hanno raccolto i dati dalle videocamere del paese che sono dislocate in giro per la città. I dati mostrano i conducenti umani che si fermano per i pedoni che non hanno la precedenza e i conducenti umani che non si fermano. È tutto raccolto in un grande set di dati.

Utilizzando Machine Learning e Deep Learning, i dati vengono modellati in modo computazionale. Il sistema di guida AI utilizza quindi questo modello per decidere quando fermarsi o non fermarsi. In generale, l'idea è che qualunque sia l'usanza locale, questo è il modo in cui l'IA dirigerà l'auto a guida autonoma.

Con sorpresa dei leader della città e dei residenti, l'IA stava evidentemente scegliendo di fermarsi o meno in base all'aspetto del pedone, inclusa la razza e il sesso. I sensori dell'auto a guida autonoma scannerizzerebbero il pedone in attesa, alimenterebbero questi dati nel modello ML/DL e il modello emetterebbe all'IA se fermarsi o continuare. Purtroppo, la città aveva già molti pregiudizi per i conducenti umani a questo proposito e ora l'IA imitava lo stesso.

La buona notizia è che questo solleva un problema di cui quasi nessuno prima conosceva l'esistenza. La cattiva notizia è che, dal momento che l'IA è stata sorpresa a farlo, ha avuto la maggior parte della colpa. Questo esempio illustra che un sistema di intelligenza artificiale potrebbe semplicemente duplicare i pregiudizi già preesistenti degli umani.

Conclusione

Esistono molti modi per cercare di evitare di escogitare un'IA che o fuori dal cancello abbia pregiudizi spiacevoli o che nel tempo raccolga pregiudizi. Un approccio consiste nel garantire che gli sviluppatori di IA siano consapevoli di ciò che sta accadendo e quindi tenerli all'erta per programmare l'IA per evitare la questione. Un'altra strada consiste nel fare in modo che l'IA si automonitiri per comportamenti non etici (vedi la mia discussione su il link qui) e/o avere un altro pezzo di intelligenza artificiale che monitora altri sistemi di intelligenza artificiale per comportamenti potenzialmente non etici (l'ho trattato su il link qui).

Per ricapitolare, dobbiamo renderci conto che gli esseri umani possono avere pregiudizi spiacevoli e che in qualche modo hanno bisogno di conoscere i propri limiti. Allo stesso modo, l'IA può avere pregiudizi spiacevoli e in qualche modo dobbiamo conoscere i loro limiti.

Per quelli di voi che stanno abbracciando avidamente AI Ethics, vorrei concludere proprio ora con un'altra famosa frase che tutti dovrebbero già conoscere. Vale a dire, continua a utilizzare e condividere l'importanza dell'IA etica. E così facendo, direi sfacciatamente questo: "Vai avanti, rendi la mia giornata".

Fonte: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-specially-deployed-when-human-biases-are-aplenty/