Lezioni sull'etica e sui sistemi autonomi dell'IA raccolte da quel recente volo dell'Alaska Airlines in cui il pilota e il copilota non erano d'accordo prima di decollare e hanno deciso bruscamente di tornare al terminal e prendere strade separate

Le compagnie aeree sono state nelle notizie un po' ultimamente.

Siamo nella crisi estiva dei voli. I passeggeri stanchi e frustrati si trovano ad affrontare ogni tipo di interruzione del volo e contorsioni negli orari delle compagnie aeree. I voli vengono cancellati inaspettatamente. I voli sono in ritardo. I passeggeri fumano. Sfortunatamente ci sono stati molti casi di passeggeri che hanno permesso a queste vessazioni di esplodere e abbiamo visto purtroppo troppi video virali di scontri testa a testa e talvolta pugni violenti.

Più raramente veniamo a conoscenza di controversie tra pilota e copilota che potrebbero verificarsi mentre si è nella cabina di pilotaggio.

Questa è una vera sorpresa.

In effetti, siamo naturalmente sorpresi nel pensare che un pilota e un copilota avrebbero una parvenza di serio disaccordo durante qualsiasi fase di un volo. Se il disaccordo riguarda quale marca di caffè sia la migliore, la nostra ipotesi è che ciò non si intrometterebbe nello sforzo di lavoro che comporta il pilotaggio dell'aereo. I due si sarebbero semplicemente scrollati di dosso la loro mancanza di faccia a faccia su un argomento apparentemente irrilevante per il volo. Il loro comportamento professionale e l'addestramento dei piloti di lunga data avrebbero preso il sopravvento e avrebbero riportato la loro attenzione sui dettagli del volo.

Considera però quando a disaccordo professionale interviene.

Condividerò brevemente con voi una notizia ampiamente pubblicata su un recente caso di qualcosa accaduto durante un volo negli Stati Uniti in relazione a un presunto disaccordo professionale nella cabina di pilotaggio.

Questo viene principalmente citato qui in modo da poter esplorare un argomento correlato che è di grande importanza per l'avvento dell'Intelligenza Artificiale (AI). Vedete, può esserci una forma di disaccordo, per così dire professionale, non solo tra gli esseri umani in un disaccordo da uomo a uomo, ma possiamo anche avere qualcosa di simile che si verifica tra l'adozione dell'IA ed ergo risultanti disaccordi professionali tra uomo e intelligenza artificiale . Sorgono tutti i tipi di considerazioni sull'etica dell'IA. Per la mia copertura ampia e continua di questioni relative all'etica dell'IA e all'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Preparati per una storia affascinante.

Come riportato di recente nelle notizie, un caso di "disaccordo professionale" sarebbe sorto durante un volo dell'Alaska Airline che andava da Washington a San Francisco. Secondo le notizie, il volo si era allontanato dal gate e aspettava sull'asfalto il permesso di rullare e prendere il volo. Era in corso una tempesta che ha causato un ritardo del volo di oltre un'ora e mezza. Si scopre che l'aereo alla fine si è girato e si è diretto al cancello, cosa che alcuni passeggeri avrebbero potuto normalmente presumere fosse semplicemente una precauzione di sicurezza legata alla tempesta.

Secondo vari tweet, sembra che il pilota e il copilota abbiano avuto una sorta di faida fuori vista durante il loro tempo nella cabina di pilotaggio e in qualche modo siano giunti alla conclusione che l'approccio più prudente sarebbe stato quello di pulire il volo e tornare al terminal . I tweet suggerivano che il capitano e il primo ufficiale apparentemente non potevano andare d'accordo tra loro. La compagnia aerea ha successivamente rilasciato una dichiarazione in cui si affermava che la situazione era sfortunata (la situazione non era stata esplicitamente dichiarata o spiegata di per sé), i due ufficiali di volo sono stati valutati dalla direzione e ritenuti idonei a volare, gli equipaggi sono stati scambiati e il volo ha finito per essere effettuato e in seguito raggiunse San Francisco.

In un certo senso, se in effetti il ​​pilota e il copilota avessero avuto un disaccordo professionale, ad esempio se l'aereo fosse adeguatamente pronto per prendere il volo o se il rischio di volare attraverso una tempesta fosse entro un raggio di sicurezza adeguato, quei passeggeri dovrebbero essere sollevati e grato che l'aereo sia stato riportato al gate. Meglio prevenire che curare. Avere un ritardo aggiuntivo vale la presunta riduzione dei rischi associati a un viaggio aereo considerato accidentato o avverso.

Alcune persone potrebbero essere sorprese che possa sorgere un tale disaccordo professionale.

Forse abbiamo la falsa impressione che tutto ciò che accade nell'abitacolo sia del tutto preciso e ben sceneggiato. Ogni forma di discrezione umana è stata apparentemente estratta dal processo. Sulla base di grafici precisi e accuratamente calcolati, un volo può procedere o non lo è. Non ci può essere alcun disaccordo quando si pensa che l'intero kit e il cabodle siano basati su un calcolo inconfutabile di fatti e cifre.

Questa non è tutta la verità della questione. Certo, c'è una sfilza di protocolli e tutti i tipi di controlli e contrappesi, ma questo non spreme ogni briciolo di giudizio umano. Piloti e copiloti esercitano ancora il giudizio umano. Fortunatamente, questo giudizio umano è affinato da anni di volo. Le probabilità sono che un pilota e un copilota in un aereo passeggeri commerciale abbiano un'esperienza di volo precedente e sfruttino prontamente i loro molti anni di ragionamento e giudizio approfonditi associati all'essere ai comandi di volo.

Dato il ruolo notevole del giudizio umano, potremmo logicamente anticipare che un pilota e un copilota a volte avranno disaccordi professionali. Il più delle volte presumibilmente c'è molto poco disaccordo. Il pilota e il copilota per i voli di tutti i giorni rischiano di essere ben allineati la preponderanza del tempo. Solo quando uno scenario di volo potrebbe andare al di fuori dei limiti convenzionali ci si aspetterebbe un attrito più teso.

Se c'è una forte differenza di opinione tra i due, oserei dire che vogliamo che se ne occupino.

Immagina una situazione in cui il pilota vuole procedere stridentemente ma il copilota percepisce che i rischi sono troppo alti. Il semplice fatto che il copilota si inchini davanti al pilota sembrerebbe indesiderabile. Il copilota è un controllo e un bilanciamento di ciò che un pilota potrebbe pensare di fare. Per coloro che vogliono che un copilota stia zitto e agisca solo senza pensare a qualunque cosa il pilota decreti, beh, non è una grande rassicurazione. Un copilota non è semplicemente un "pilota" di riserva che entra in scena solo quando il pilota è completamente incapace. Questa è una comprensione sbagliata del valore di avere un pilota e un copilota nella cabina di pilotaggio.

C'è l'altro angolo di questo.

Considera il caso di un pilota che non crede che un volo debba procedere e nel frattempo il copilota è entusiasta di alzarsi in aria. Cosa poi? Secondo la gerarchia prevista, il pilota dovrebbe convenzionalmente prevalere sul copilota. Il ruolo designato di essere il responsabile principale rende il pilota il maggiore di ciò che altrimenti è in qualche modo uguale. Normalmente, il pilota ha una maggiore stagionatura complessiva del tempo di volo rispetto al copilota e, ergo, il copilota dovrebbe gerarchicamente rinviare ai desideri del pilota (quando entro limiti ragionevoli).

In ogni caso, penso che siamo tutti d'accordo sul fatto che scegliere di non volare sia una scelta sicuramente meno rischiosa rispetto a decidere di volare. Una volta che l'aereo è in aria, i livelli di rischio diventano enormi rispetto all'essere su qualsiasi normale terreno stabile. Un consueto volo commerciale che rientri semplicemente in taxi al terminal senza essere decollato sarebbe una soluzione abbastanza amichevole a qualsiasi acceso dibattito aspro sull'entrare in volo.

Cambiamo marcia e usiamo questa notizia audace per uno scopo completamente diverso ma riconoscibile.

Stiamo gradualmente avendo tra noi una prevalenza di sistemi autonomi basati sull'intelligenza artificiale. A volte l'IA gestisce lo spettacolo, per così dire. L'IA fa tutto, dalla A alla Z, e potremmo interpretarla come un'IA completamente autonoma o quasi. In altri casi, possiamo avere un'IA che interagisce con e in una certa misura è programmata per fare affidamento sull'avere un essere umano nel ciclo.

Vorrei concentrarmi sulla questione di un sistema autonomo o semi-autonomo basato sull'intelligenza artificiale che fin dall'inizio ha un essere umano nel giro. L'IA e l'umano sono intenzionalmente messi insieme e si suppone che lavorino in tandem l'uno con l'altro. Sono coorti nell'esecuzione di un particolare compito a portata di mano. L'IA da sola non dovrebbe agire in base al compito. L'IA deve interagire con l'uomo nel ciclo designato.

Sollevo questa caratterizzazione per differenziare dalle situazioni in cui l'essere umano nel ciclo è considerato un aspetto opzionale. In sostanza, l'IA ha libero sfogo. Se l'IA sceglie di utilizzare l'umano, così sia. Non è necessario che l'IA debba entrare in contatto con la base o lavorare mano nella mano con l'umano designato. Le analisi che sto per riferire sono certamente pertinenti a questo genere di analisi opzionale disposizione dell'interazione, ma non è ciò a cui sto specificatamente guidando in questa particolare discussione.

Ok, quindi abbiamo una sorta di compito su cui un essere umano e un'IA lavoreranno insieme, inseparabilmente l'uno dall'altro. In senso astratto, abbiamo un essere umano seduto su un sedile e un sistema di intelligenza artificiale seduto nell'altro sedile di accompagnamento. Lo dico in modo sfacciato perché non stiamo limitando questa discussione a un robot, ad esempio, che potrebbe effettivamente essere seduto su un sedile. Alludo metaforicamente all'idea che l'IA sia da qualche parte partecipando al compito e così anche l'umano. Fisicamente, la loro ubicazione non è particolarmente vitale per la discussione.

Potresti non essere sicuro di quando potrebbe verificarsi una tale circostanza.

Vai tranquillo.

Più avanti parlerò dell'avvento dei veicoli autonomi e delle auto a guida autonoma. A determinati livelli di autonomia, l'IA e l'umano dovrebbero lavorare insieme. L'IA potrebbe guidare l'auto e richiedere che l'umano assuma i controlli di guida. L'umano potrebbe essere alla guida dell'auto e attivare l'IA per assumere i controlli. Si stanno alternando ai comandi di guida.

Inoltre, alcuni progetti prevedono che l'IA sia essenzialmente sempre attiva (o, a meno che non sia disattivata), in modo tale che l'IA sia sempre pronta. Inoltre, l'IA potrebbe intervenire direttamente, anche senza che l'essere umano lo chieda, a seconda della situazione che si sta verificando. Supponiamo per esempio che l'uomo sembri essersi addormentato al volante. Poiché l'umano non può apparentemente attivare l'IA (perché la persona sta dormendo), l'IA potrebbe essere programmata per assumere i controlli dall'umano.

Alcuni progetti portano l'IA e gli esseri umani in un approccio di guida duale. L'IA sta guidando e l'essere umano sta guidando. Oppure, se preferisci, l'umano sta guidando e anche l'IA sta guidando. Ognuno di loro guida il veicolo. Lo paragono a quelle auto appositamente attrezzate che forse hai usato durante l'addestramento del conducente e c'erano due serie di comandi di guida nel veicolo, uno per lo studente conducente e uno per l'istruttore di guida.

Questo è solo un esempio di un ambiente in cui l'IA e gli esseri umani potrebbero lavorare insieme a un'attività. Esistono tutti i tipi di possibilità. Altri tipi di veicoli autonomi potrebbero essere ideati in modo simile, come aeroplani, droni, sommergibili, navi di superficie, treni e così via. Non dobbiamo considerare solo le impostazioni veicolari e di trasporto. Immagina il dominio medico e gli interventi chirurgici eseguiti congiuntamente da un medico e da un sistema di intelligenza artificiale. L'elenco è infinito.

Mi viene quasi voglia di riferirmi alla classica barzelletta strepitosa su un essere umano e un'IA che entrano insieme in un bar. È una bella risata per chi è appassionato di intelligenza artificiale.

Seriamente, torniamo al focus di un essere umano e di un sistema di intelligenza artificiale che stanno lavorando insieme su un determinato compito. In primo luogo, voglio evitare di antropomorfizzare l'IA, che è qualcosa che sottolineerò in tutto. L'IA non è senziente. Per favore, tienilo a mente.

Ecco qualcosa su cui rimuginare: Un essere umano designato sarà sempre in completo accordo con un'IA co-team?

Per qualsiasi compito complesso, sembrerebbe improbabile che l'umano e l'IA siano completamente e sempre completamente in sintonia. L'umano in alcune occasioni potrebbe non essere d'accordo con l'IA. Possiamo portare questa ipotesi fino alla banca.

Vorrei che consideraste anche questa possibilità forse sorprendente: L'IA sarà sempre in completo accordo con un essere umano designato?

Ancora una volta, per qualsiasi compito complesso, sembrerebbe abbastanza concepibile che l'IA non sia d'accordo con gli umani in alcune occasioni. Se sei già incline all'idea che l'IA debba sempre essere sbagliata mentre gli umani devono sempre avere ragione, sarebbe saggio ripensare a quella conclusione affrettata. Immagina un'auto con un essere umano e un'intelligenza artificiale alla guida del veicolo semi-autonomo. L'umano si dirige verso un muro di mattoni. Come mai? Non lo sappiamo, forse l'umano è ubriaco o si è addormentato, ma sappiamo che sbattere contro un muro di mattoni non è una buona idea, a parità di condizioni. L'IA potrebbe rilevare l'imminente calamità e cercare di allontanarsi dalla barriera imminente.

Tutto sommato, avremo la chiara possibilità che l'IA e l'umano siano in disaccordo tra loro. L'altro modo per dire la stessa cosa è che gli esseri umani e l'IA sono in disaccordo tra loro. Nota che non voglio che il sequenziamento di IA-e-umano contro umano-e-IA suggerisca qualcosa sulla direzione o sulla plausibilità del disaccordo.

I due lavoratori, uno umano e uno che è l'IA, sono in disaccordo tra loro.

Potremmo in anticipo dichiarare che ogni volta che si verifica un disaccordo tra una data IA e un dato essere umano, proclamiamo in anticipo che l'umano prevale sull'IA. Detto questo, il mio esempio illustrativo sull'auto che si sta dirigendo contro un muro di mattoni sembrerebbe dissuaderci dal fatto che l'umano avrà sempre necessariamente ragione.

Potremmo, al contrario, optare per dichiarare in anticipo che ogni volta che sorge un disaccordo, avremo stabilito in anticipo che l'IA ha ragione e l'umano ha torto. Anche questa non è una disposizione sensatamente generalizzabile. Immagina un'auto in cui l'IA ha un errore o un bug del software incorporato e l'IA sta cercando di guidare il veicolo fuori strada e in un fosso. Supponendo che tutto il resto sia uguale, l'umano dovrebbe essere in grado di superare questa azione di guida dell'IA e impedire al veicolo di atterrare nel burrone.

Facciamo un breve riassunto di questo:

  • Un essere umano nel ciclo sarà sempre in completo accordo con l'IA? Risposta: No.
  • L'IA sarà sempre completamente d'accordo con un essere umano? Risposta: Non.
  • Un essere umano nel ciclo avrà sempre ragione rispetto all'IA? Risposta: Non necessariamente.
  • L'IA sarà sempre giusta rispetto all'uomo nel ciclo? Risposta: Non necessariamente.

Puoi certamente impostare l'IA per essere considerata di default come la parte "sbagliata" o più debole e quindi rimandare sempre all'umano ogni volta che appare un disaccordo. Allo stesso modo, puoi impostare l'IA in modo che presuppone che l'IA sia considerata "giusta" ogni volta che un essere umano è in disaccordo con l'IA. Voglio chiarire che possiamo farlo in modo programmatico se lo desideriamo. Sto affermando però che in generale, questo non sarà sempre il caso. Ci sono sicuramente contesti in cui non sappiamo in anticipo se l'IA è "giusta" o l'umano ha "giusto" in termini di optare per l'uno o l'altro su un disaccordo relativo a un determinato compito.

Ti ho condotto a una domanda molto importante e molto complicata.

Cosa dovremmo fare quando si verifica un disaccordo professionale tra l'umano-in-the-loop e l'IA (o, in modo equivalente, possiamo definirlo come tra l'IA e l'uomo-in-the-loop)?

Non cercare di schivare la domanda.

Alcuni potrebbero obiettare che ciò non accadrebbe mai, ma come ho spiegato nel mio esempio sull'auto, potrebbe sicuramente accadere. Alcuni potrebbero obiettare che un essere umano è ovviamente superiore e deve essere il vincitore di qualsiasi disaccordo. Il mio esempio dell'auto e del muro di mattoni lo abbatte. Ci sono sostenitori dell'IA che potrebbero insistere sul fatto che l'IA deve essere la vincitrice, a causa del apparentemente superamento delle emozioni umane e del pensiero sfrenato di quegli umani dal pensiero sfocato a casaccio. Ancora una volta, l'altro mio esempio in cui l'auto si dirige verso il fosso mina questa affermazione.

Nel mondo reale, l'IA e gli umani non saranno d'accordo, anche quando i due vengono intenzionalmente portati in una situazione di squadra per svolgere un compito insieme. Succederà. Non possiamo mettere la testa sotto la sabbia e fingere che non accada.

Abbiamo visto che gli umani che pilotavano l'aereo erano apparentemente in disaccordo. Per fortuna, hanno deciso di non essere d'accordo, così sembra. Hanno riportato l'aereo al terminal. Hanno trovato un mezzo per affrontare il disaccordo. La risoluzione del loro disaccordo ha funzionato bene, rispetto a se forse erano andati a pugni nell'abitacolo o forse erano volati in aria e continuavano a combattere tra loro. Questo è uno scenario doloroso che è insostenibile e possiamo essere grati che non si sia verificato.

Consentitemi di fornire il mio elenco dei vari modi in cui potrebbero essere risolti i disaccordi tra AI e Human-in-the-loop (o Human-in-the-loop e AI):

  • L'intelligenza artificiale e l'essere umano che hanno collaborato risolvono le cose (amichevolmente o meno)
  • L'uomo prevale sull'IA, per impostazione predefinita
  • L'IA prevale sull'umano, per impostazione predefinita
  • Per impostazione predefinita, prevale qualche altra risoluzione fissa predeterminata
  • L'essere umano di terze parti è collegato e la loro indicazione prevale sulle parti
  • L'IA di terze parti è in loop e la sua indicazione prevale sulle parti
  • L'essere umano di terze parti sostituisce l'essere umano esistente, le cose procedono da capo
  • L'IA di terze parti sostituisce l'IA esistente, le cose procedono da capo
  • L'essere umano di terze parti sostituisce l'IA esistente, le cose procedono da capo (ora da uomo a uomo)
  • L'IA di terze parti sostituisce l'umano esistente, le cose procedono da capo (ora AI-to-AI)
  • Altro

Quelli sono abbondantemente degni di essere spacchettati.

Prima di approfondire un po' di carne e patate sulle considerazioni selvagge e lanose alla base di come affrontare l'IA e i disaccordi umani, esponiamo alcuni fondamenti aggiuntivi su argomenti profondamente essenziali. Dobbiamo fare un breve tuffo nell'etica dell'IA e in particolare nell'avvento del Machine Learning (ML) e del Deep Learning (DL).

Potresti essere vagamente consapevole del fatto che una delle voci più forti in questi giorni nel campo dell'IA e anche al di fuori del campo dell'IA consiste nel chiedere a gran voce una maggiore parvenza di IA etica. Diamo un'occhiata a cosa significa fare riferimento a AI Ethics e Ethical AI. Inoltre, esploreremo cosa intendo quando parlo di Machine Learning e Deep Learning.

Un particolare segmento o porzione dell'etica dell'intelligenza artificiale che ha ricevuto molta attenzione da parte dei media è costituito dall'intelligenza artificiale che mostra pregiudizi e disuguaglianze spiacevoli. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tra un momento, condividerò con voi alcuni principi generali alla base dell'etica dell'IA. Ci sono molti di questi tipi di elenchi che fluttuano qua e là. Si potrebbe dire che non esiste ancora un unico elenco di attrattive universali e di concorrenza. Questa è la sfortunata notizia. La buona notizia è che almeno ci sono elenchi di etica dell'IA prontamente disponibili e tendono ad essere abbastanza simili. Tutto sommato, questo suggerisce che attraverso una sorta di convergenza ragionata stiamo trovando la nostra strada verso una comunanza generale di ciò in cui consiste l'etica dell'IA.

Innanzitutto, esaminiamo brevemente alcuni dei precetti generali dell'IA etica per illustrare ciò che dovrebbe essere una considerazione vitale per chiunque crei, utilizzi o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, comprese metodologie trasparenti e verificabili, fonti di dati, procedure e documentazione di progettazione.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Assicuriamoci anche di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Torniamo al nostro focus sui disaccordi tra l'IA e un essere umano.

In precedenza ho indicato che queste sono alcune delle strategie di risoluzione dei disaccordi:

  • L'intelligenza artificiale e l'essere umano che hanno collaborato risolvono le cose (amichevolmente o meno)
  • L'uomo prevale sull'IA, per impostazione predefinita
  • L'IA prevale sull'umano, per impostazione predefinita
  • Per impostazione predefinita, prevale qualche altra risoluzione fissa predeterminata
  • L'essere umano di terze parti è collegato e la loro indicazione prevale sulle parti
  • L'IA di terze parti è in loop e la sua indicazione prevale sulle parti
  • L'essere umano di terze parti sostituisce l'essere umano esistente, le cose procedono da capo
  • L'IA di terze parti sostituisce l'IA esistente, le cose procedono da capo
  • L'essere umano di terze parti sostituisce l'IA esistente, le cose procedono da capo (ora da uomo a uomo)
  • L'IA di terze parti sostituisce l'umano esistente, le cose procedono da capo (ora AI-to-AI)
  • Altro

È ora di disimballare questi.

Innanzitutto, considera che questo è tutto professionale disaccordi.

Un disaccordo professionale è vagamente definito come un disaccordo associato a un compito correlato al lavoro.

Ad esempio, un disaccordo che sorge tra un pilota e un copilota sull'opportunità di procedere con un volo che sta affrontando una tempesta potrebbe ragionevolmente essere etichettato come un disaccordo professionale. Al contrario, un veemente disaccordo su quale marca di caffè il pilota sostiene rispetto al marchio che il copilota preferisce è prontamente classificato come un disaccordo non professionale in questo particolare contesto.

Naturalmente, se un disaccordo non professionale si insinua in un disaccordo professionale, alla fine potremmo essere interessati al disaccordo non professionale come presunta fonte o scintilla per quello professionale. Immagina che un pilota e un copilota discutino aspramente su quale marca di caffè sia la migliore, che poi purtroppo si riversa in preoccupazioni specifiche del volo (gioco di parole!), Come ad esempio se decollare o meno.

In secondo luogo, dobbiamo tenere a mente l'entità del disaccordo professionale.

Forse il pilota e il copilota o in lieve disaccordo sul procedere al volo. Non sono ai ferri corti e si limitano a contemplare i pro ei contro del decollo. Questo non è il calibro o l'entità di un disaccordo professionale che di solito prendiamo in considerazione qui. Il fatto è che potrebbe essere che il disaccordo professionale sia transitorio ed entrambe le parti elaborino una risoluzione cordialmente o almeno tempestivamente. In generale, il fulcro del disaccordo professionale all'interno dell'ambito di applicazione sono quelli che sono apparentemente intrattabili e le due parti rimangono costantemente in disaccordo.

Terzo, di solito deve esserci qualcosa di serio in gioco perché queste linee guida entrino in gioco.

Scegliere di volare o meno è una decisione decisamente di vita o di morte se il volo è a rischio a causa di una tempesta o se l'aereo è considerato non del tutto preparato per tale viaggio. Questa è una cosa seria. Possiamo ancora applicare le linee guida ai disaccordi professionali meno impattanti, anche se potrebbe essere più fastidioso di quanto non valga la pena.

Ok, le nostre considerazioni sono che:

  • Il disaccordo è principalmente orientato alla professionalità piuttosto che su qualcosa di non professionale
  • Il disaccordo è di natura persistente e non semplicemente transitorio o comunque prontamente risolto
  • Il disaccordo predice gravi conseguenze e di solito ha un esito di grande impatto
  • Le parti sono ai ferri corti e sembrano intrattabili

Diamo ora un'occhiata più da vicino a ciascuna delle mie linee guida o approcci suggeriti su come affrontare tali disaccordi professionali.

L'intelligenza artificiale e l'essere umano che hanno collaborato risolvono le cose (amichevolmente o meno)

Inizio l'elenco con la semplice possibilità che l'IA e l'essere umano nel ciclo siano in grado di risolvere il disaccordo professionale tra di loro. Sembra che forse l'istanza dei due umani, il pilota e il copilota, illustri questo tipo di circostanza. In qualche modo hanno deciso di tornare al terminal e prendere strade separate. Potrebbe essere che un sistema di intelligenza artificiale e un essere umano siano in grado di escogitare un approccio risolutivo generalmente soddisfacente per entrambe le parti e la questione sia quindi conclusa in modo soddisfacente.

L'uomo prevale sull'IA, per impostazione predefinita

Quando si imposta l'IA, potremmo programmare una regola che dice che l'essere umano nel ciclo prevarrà sempre ogni volta che sorge un disaccordo professionale. Questa sarebbe l'impostazione predefinita codificata in modo esplicito. Potremmo anche consentire una qualche forma di esclusione, per ogni evenienza, anche se la regola permanente sarà che l'umano prevale.

L'IA prevale sull'umano, per impostazione predefinita

Quando si imposta l'IA, potremmo programmare una regola che dice che l'IA prevarrà sempre sull'essere umano nel ciclo ogni volta che sorge un disaccordo professionale. Questa è l'impostazione predefinita codificata in modo esplicito. Potremmo anche consentire una qualche forma di override, per ogni evenienza, anche se la regola permanente sarà che l'IA prevale.

Per impostazione predefinita, prevale qualche altra risoluzione fissa predeterminata

Quando impostiamo l'IA, potremmo programmare una regola che dice che qualche altra risoluzione fissa predeterminata prevarrà ogni volta che sorge un disaccordo professionale con l'essere umano nel ciclo. L'essere umano nel ciclo non prevale per impostazione predefinita. L'IA non prevale per impostazione predefinita. C'è qualche altra risoluzione preidentificata. Ad esempio, forse c'è il lancio di una moneta che servirà a decidere quale delle due parti è considerata la strada giusta da intraprendere. Ciò sembrerebbe ovviamente piuttosto arbitrario; quindi un altro approccio di esempio sarebbe che si attiva una regola specializzata che calcola un valore basato sugli input delle due parti e arriva a un risultato come spareggio.

L'essere umano di terze parti è collegato e la loro indicazione prevale sulle parti

In caso di disaccordo professionale, una regola potrebbe essere che una terza parte che è un essere umano venga invocata e inserita nell'ambiente per prendere una decisione sulla risoluzione del disaccordo. L'IA è programmata per rinviare a qualunque cosa decida l'umano di terze parti. L'umano già nell'umano-in-the-loop è stato istruito in anticipo che se si verifica una situazione del genere, anche loro devono rinviare all'umano di terze parti. Per inciso, puoi probabilmente anticipare che l'umano-in-the-loop potrebbe avere angoscia per aver aderito a qualunque cosa decida l'umano di terze parti se la decisione non è d'accordo con la postura dell'umano-in-the-loop.

L'IA di terze parti è in loop e la sua indicazione prevale sulle parti

In caso di disaccordo professionale, una regola potrebbe essere che una terza parte che è un sistema di intelligenza artificiale diverso venga invocata e inserita nell'ambiente per prendere una decisione sulla risoluzione del disaccordo. L'IA originale è programmata per rinviare a qualsiasi decisione dell'IA di terze parti. L'umano già nell'umano-in-the-loop è stato istruito in anticipo che se si verifica una situazione del genere, anche loro devono rinviare all'IA di terze parti. Per inciso, puoi probabilmente anticipare che l'umano nel ciclo potrebbe avere angoscia per l'adesione a qualsiasi cosa decida l'IA di terze parti se la decisione non è d'accordo con la posizione dell'uomo nel ciclo.

L'essere umano di terze parti sostituisce l'essere umano esistente, le cose procedono da capo

In caso di disaccordo professionale, l'essere umano nel ciclo viene sostituito da una terza parte che è un essere umano e che d'ora in poi diventa l'uomo nel ciclo. L'umano che era l'umano originale per l'attività non è più considerato parte dell'attività in questione. È un aspetto aperto su ciò che altrimenti traspare con l'ormai sostituito human-in-the-loop, ma diciamo che di sicuro non hanno più alcun ruolo permanente nel compito lavorativo.

L'IA di terze parti sostituisce l'IA esistente, le cose procedono da capo

In caso di disaccordo professionale, l'IA viene sostituita da un'IA di terze parti e questa diventa d'ora in poi l'IA utilizzata per l'attività lavorativa in questione. L'IA originariamente utilizzata per l'attività non è più considerata parte dell'attività in questione. È un aspetto aperto su ciò che altrimenti traspare con l'IA ora sostituita, ma stiamo dicendo che di sicuro l'IA non ha più alcun ruolo permanente nel compito di lavoro.

L'essere umano di terze parti sostituisce l'IA esistente, le cose procedono da capo (ora da uomo a uomo)

In caso di disaccordo professionale, l'IA viene sostituita da un essere umano di terze parti per il quale quella persona ora diventa la parte considerata co-team che verrà utilizzata per l'attività lavorativa in questione. L'IA originariamente utilizzata per l'attività non è più considerata parte dell'attività in questione. È un aspetto aperto su ciò che altrimenti traspare con l'IA ora sostituita, ma stiamo dicendo che di sicuro l'IA non ha più alcun ruolo permanente nel compito di lavoro. In breve, questo ora diventa un compito da uomo a uomo svolto da due parti.

L'IA di terze parti sostituisce l'umano esistente, le cose procedono da capo (ora AI-to-AI)

In caso di disaccordo professionale, l'umano-in-the-loop viene sostituito da un'IA di terze parti e questa AI diventa d'ora in poi il riempimento per il precedente human-in-the-loop. L'umano che era l'umano originale per l'attività non è più considerato parte dell'attività in questione. È un aspetto aperto su ciò che altrimenti traspare con l'ormai sostituito human-in-the-loop, ma diciamo che di sicuro non hanno più alcun ruolo permanente nel compito lavorativo. In breve, questo ora diventa un AI-to-AI a due parti per eseguire l'attività.

Altro

Altre variazioni possono essere escogitate per far fronte a un disaccordo professionale, ma abbiamo trattato qui alcune delle chiavi di volta.

Come possiamo decidere quale di questi approcci sarà quello giusto per una data situazione?

Un'ampia varietà di problemi va a fare una tale scelta. Ci sono considerazioni tecnologiche. Ci sono considerazioni commerciali. Ci sono considerazioni legali ed etiche.

In una certa misura, ecco perché AI Ethics and Ethical AI è un argomento così cruciale. I precetti di AI Ethics ci portano a rimanere vigili. I tecnologi dell'IA possono a volte interessarsi alla tecnologia, in particolare all'ottimizzazione dell'alta tecnologia. Non stanno necessariamente considerando le più ampie ramificazioni della società. Avere una mentalità etica dell'IA e farlo integralmente allo sviluppo e alla messa in campo dell'IA è fondamentale per produrre un'IA appropriata, inclusa (forse sorprendentemente o ironicamente) la valutazione di come l'etica dell'IA viene adottata dalle aziende.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. In effetti, avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società.

A questo punto di questa pesante discussione, scommetto che sei desideroso di alcuni esempi illustrativi che potrebbero mostrare questo argomento. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sulle risoluzioni del disaccordo tra intelligenza artificiale e umani e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e disaccordo AI-Versus-Human

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Spero che ciò fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Per i veicoli completamente autonomi potrebbe non esserci alcuna possibilità di un disaccordo professionale tra un essere umano e l'IA a causa della possibilità che non ci sia alcun essere umano nel ciclo per cominciare. L'aspirazione di molti dei produttori di automobili a guida autonoma di oggi è di rimuovere completamente il guidatore umano dal compito di guida. Il veicolo non conterrà nemmeno i controlli di guida accessibili alle persone. In tal caso, un conducente umano, se presente, non sarà in grado di partecipare all'attività di guida poiché non ha accesso a nessun controllo di guida.

Per alcuni veicoli completamente autonomi, alcuni progetti consentono ancora a un essere umano di essere in-the-loop, sebbene l'umano non debba essere disponibile o partecipare affatto al processo di guida. Pertanto, un essere umano può partecipare alla guida, se la persona lo desidera. In nessun momento, tuttavia, l'IA fa affidamento sull'essere umano per eseguire nessuno dei compiti di guida.

Nel caso dei veicoli semi-autonomi, c'è un rapporto di stretta collaborazione tra il conducente umano e l'IA. Il conducente umano può assumere completamente i controlli di guida e sostanzialmente impedire all'IA di partecipare alla guida. Se il guidatore umano desidera ripristinare l'IA nel ruolo di guida, può farlo, anche se questo a volte costringe l'umano a rinunciare ai controlli di guida.

Un'altra forma di operazione semi-autonoma comporterebbe la collaborazione tra guidatore umano e intelligenza artificiale. L'IA sta guidando e l'essere umano sta guidando. Stanno guidando insieme. L'IA potrebbe rimandare all'umano. L'umano potrebbe rinviare all'IA.

Ad un certo punto, il sistema di guida dell'IA e il guidatore umano nel circuito potrebbero raggiungere un punto di "disaccordo professionale" per quanto riguarda il compito di guida a portata di mano.

Per illustrare come alcune delle suddette regole per affrontare un disaccordo professionale possano essere difficili da implementare, si consideri l'istanza di invocare una terza parte umana per entrare nella questione e pronunciare una decisione per risolvere la questione irrisolta.

Supponiamo che una casa automobilistica o un'azienda tecnologica a guida autonoma abbia disposto che gli operatori umani remoti abbiano accesso ai controlli di guida dei veicoli all'interno della loro flotta. L'operatore umano è seduto in un ufficio lontano o in un ambiente simile. Tramite un sistema informatico, sono in grado di visualizzare la scena di guida accedendo alle telecamere e ad altri dispositivi sensori caricati sull'auto a guida autonoma. Per loro, è quasi come giocare a un videogioco online, anche se, ovviamente, le circostanze della vita reale hanno conseguenze potenzialmente disastrose.

Un sistema di intelligenza artificiale e un guidatore umano all'interno dell'auto stanno guidando un veicolo semi-autonomo lungo una lunga autostrada. All'improvviso, l'IA vuole sterzare in un fosso. Il guidatore umano non vuole farlo. I due stanno litigando sui comandi di guida.

Come verrà risolto?

Avremmo forse potuto stabilire in anticipo che l'umano vince sempre. Supponiamo però che abbiamo deciso di non farlo.

Avremmo potuto stabilire in anticipo che l'IA vince sempre. Supponiamo che abbiamo deciso di non farlo. Tutto sommato, non abbiamo adottato nessuna di queste regole, a parte il fatto che abbiamo deciso di consentire a una terza parte umana di intervenire e risolvere un disaccordo professionale di qualsiasi natura sostanziale.

In questo caso d'uso, l'IA e il conducente umano al volante stanno lottando per i controlli di guida. Questo è diciamo trasmesso all'operatore umano remoto (il nostro essere umano di terze parti). L'operatore umano remoto esamina ciò che sta accadendo e decide di allontanarsi dal fosso, apparentemente scongiurando ciò che l'IA stava cercando di fare. Allo stesso tempo, supponiamo che l'operatore umano a distanza sterzi nel traffico in arrivo, cosa che forse né l'IA né il conducente umano all'interno dell'auto avevano voluto fare.

Il punto è che il modo in cui questa regola è stata implementata è che l'operatore umano di terze parti è in grado di ignorare completamente sia l'IA che l'uomo nel ciclo. Non è certo se questo produrrà un buon risultato.

Userò questo esempio per evidenziare alcune intuizioni aggiuntive su questi argomenti.

Non si può presumere sfacciatamente che solo perché una di queste regole è stata messa in atto, l'esito del disaccordo risolto sia necessariamente un buon risultato garantito. Potrebbe non essere. Non c'è nessun tipo di ferrea regola sempre giusta che può essere selezionata.

Successivamente, alcune di queste regole potrebbero non essere attuabili in modo fattibile.

Si consideri l'esempio dell'operatore umano remoto che interviene quando l'IA e il conducente umano stanno litigando per i controlli di guida. Potrebbero volerci molti secondi prima che l'operatore umano remoto capisca cosa sta succedendo. A quel punto, il veicolo potrebbe essere già finito nel fosso o avere qualche altro esito negativo. Inoltre, supponiamo che la posizione del veicolo precluda l'accesso remoto, ad esempio trovandosi in un luogo in cui non è presente alcuna connettività elettronica di rete. O forse le funzionalità di rete del veicolo non funzionano in quel particolare momento.

Come puoi vedere, la regola potrebbe sembrare dandy sulla carta, anche se mettere in pratica la regola potrebbe essere un approccio molto difficile o altamente casuale. Guarda la mia copertura critica sull'operatore remoto di veicoli autonomi e auto a guida autonoma su il link qui.

Vorrei affrontare brevemente un altro argomento correlato che tratterò in modo più approfondito in una prossima analisi.

Una delle preoccupazioni crescenti sui veicoli autonomi e sulle auto a guida autonoma semiautonome è la cosiddetta Sindrome della patata bollente.

Ecco l'accordo.

Un sistema di guida AI e un essere umano stanno guidando insieme. Sorge una terribile situazione. L'IA è stata programmata per abbandonare il compito di guida e consegnare le cose all'umano quando si verifica un momento terribile. Questo sembra forse “sensato” in quanto sembriamo invocare la regola sull'essere umano il “vincitore” predefinito in ogni potenziale disaccordo professionale.

Ma l'abbandono dell'IA potrebbe essere per scopi più nefasti o considerati insidiosi. Potrebbe essere che la casa automobilistica o l'azienda tecnologica a guida autonoma non vogliano che la loro intelligenza artificiale sia considerata la "parte in colpa" quando si verifica un incidente d'auto. Per evitare apparentemente di rimanere bloccati in quel modo, l'IA passa bruscamente i controlli all'umano. Voilà, l'umano è ora presumibilmente completamente responsabile del veicolo.

Il kicker è che supponiamo che l'IA esegua questo trasferimento con, diciamo, un secondo rimasto prima che si verifichi un crash.

L'umano avrebbe davvero del tempo a disposizione per evitare l'incidente?

Probabilmente no.

Supponiamo che l'IA esegua il trasferimento con pochi millisecondi o nanosecondi rimasti. Oserei dire che l'essere umano ha praticamente zero possibilità di fare qualcosa per evitare l'incidente.

Dal punto di vista della casa automobilistica o dell'azienda automobilistica a guida autonoma, possono provare a comportarsi come se le loro mani fossero pulite quando si verifica un incidente automobilistico del genere. L'auto era guidata da un essere umano. L'IA non stava guidando l'auto. L'unica conclusione "logica" sembrerebbe essere che l'umano deve essere in colpa e l'IA deve essere completamente irreprensibile.

È un coccio.

Ne parlerò più approfonditamente in un prossimo articolo.

Conclusione

Si verificheranno disaccordi professionali.

È difficile immaginare un compito complesso che abbia due parti che svolgono insieme il compito e per il quale non ci sarebbero mai disaccordi professionali che potrebbero sorgere. Questo sembra un paese fantastico o almeno una grande rarità.

Oggi abbiamo moltissimi casi di disaccordo professionale da uomo a uomo, per i quali su base giornaliera le risoluzioni vengono risolte in modo pacifico e sensato in un modo o nell'altro. In effetti, spesso creiamo situazioni intenzionalmente per favorire e far emergere disaccordi professionali. Si potrebbe obiettare che questo mette in mostra la famosa saggezza che a volte due teste sono meglio di una.

Man mano che l'intelligenza artificiale diventa più prevalente, avremo molti esecutori di attività a due parti da IA ​​a uomo o da uomo a IA e ci saranno disaccordi professionali che accadrà. L'approccio pigro è quello di rimandare sempre all'umano. Questo potrebbe non essere l'approccio più adatto. L'IA potrebbe essere la scelta migliore. Oppure una delle altre regole di cui sopra potrebbe essere un approccio più corretto.

C'è quella linea saggia spesso ripetuta che tutti dovremmo generalmente essere in grado di accettare di non essere d'accordo, anche se quando si arriva al filo, a volte un disaccordo deve essere risolto inequivocabilmente, altrimenti la questione in corso porterà a indicibili calamità. Non possiamo semplicemente lasciare che un disaccordo languisca sulla vite. Il tempo potrebbe essere essenziale e le vite potrebbero essere in gioco.

C'è un chiaro requisito per alcuni mezzi prudenti per risolvere i disaccordi anche se non necessariamente in modo gradevole, anche quando l'IA e un essere umano nel ciclo non vedono negli occhi né da byte a byte.

Confido che non sarai in disaccordo con questa affermazione del tutto gradevole.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- il-pilota-e-co-pilota-non erano d'accordo-prima-di-decollare-e-improvvisamente-hanno-scelto-di-tornare-in-taxi-al-terminal-e-andare-per-vie-separate/