L'etica dell'IA e la ricerca della consapevolezza di sé nell'IA

Sei consapevole di te stesso?

Scommetto che tu credi di esserlo.

Il fatto è che, presumibilmente, pochi di noi sono particolarmente consapevoli di sé. C'è una gamma o un grado di autoconsapevolezza e tutti noi presumibilmente variamo nel modo in cui siamo astutamente consapevoli di noi stessi. Potresti pensare di essere completamente consapevole di te stesso e di esserlo solo marginalmente. Potresti essere poco consapevole di te stesso e renderti conto che è il tuo stato mentale.

Nel frattempo, nella parte più alta dello spettro, potresti credere di essere completamente consapevole di te stesso e in effetti lo sei francamente tanto quanto vengono. Buon per te.

A proposito, a che serve essere estremamente consapevoli di sé?

Secondo una ricerca pubblicata nel Harvard Business Review (HBR) di Tasha Eurich, secondo quanto riferito sei in grado di prendere decisioni migliori, sei più fiducioso nelle tue decisioni, sei più forte nelle tue capacità di comunicazione e più efficace in generale (per articolo intitolato "What Self-Awareness Real Is (and How coltivarlo)." Il fattore bonus è che si dice che coloro che hanno una stridente autocoscienza siano meno inclini a imbrogliare, rubare o mentire. In questo senso, c'è una doppia possibilità di evitare di essere un mascalzone o un truffatore, insieme a sforzandoti di essere un essere umano migliore e di abbellire i tuoi simili.

Tutto questo discorso sull'autocoscienza solleva una domanda alquanto ovvia, vale a dire, cosa denota effettivamente la frase autoconsapevolezza. Puoi facilmente trovare tonnellate di varie definizioni e interpretazioni sul complesso e, per così dire, costrutto pastoso che implica l'autocoscienza. Alcuni semplificherebbero le cose suggerendo che la consapevolezza di sé consiste nel monitorare te stesso, sapendo cosa stai facendo. Sei profondamente consapevole dei tuoi pensieri e delle tue azioni.

Presumibilmente, quando non è consapevole di sé, una persona non si renderebbe conto di cosa sta facendo, né perché, e non sarebbe nemmeno consapevole di ciò che le altre persone hanno da dire su di loro. Sono sicuro che hai incontrato persone così.

Alcune persone sembrano camminare su questa terra senza avere la più pallida idea di cosa stiano facendo, e non hanno nemmeno una parvenza di ciò che gli altri dicono di loro. Immagino che potresti sostenere che sono come un toro che carica a testa in giù in una delicata boutique di prodotti fragili. Di solito tendiamo a credere che il toro non sappia cosa sta facendo e rimanga ignaro dei punti di vista degli altri a meno che quegli altri non cerchino di manovrare fisicamente o rinchiudere la creatura all'oscuro.

Si dice che la consapevolezza di sé possa essere in qualche modo ricorsiva.

Permettetemi di abbozzare un esempio per illustrare questa ricorsione. Stai guardando un video di gatti piuttosto avvincente sul tuo smartphone (lo fanno tutti, a quanto pare). Alcune persone non avrebbero altri pensieri apparenti oltre alle meravigliose buffonate commoventi di quei cari gatti. Nel frattempo, chiunque abbia un minimo di autocoscienza, è consapevole che sta guardando un video di gatti. Potrebbero anche essere consapevoli del fatto che gli altri intorno a loro notano che stanno guardando un video di gatti.

Nota che puoi essere consapevole di te stesso ed essere comunque immerso in una per così dire una particolare attività primaria. L'attività principale in questo caso è guardare il video del gatto. In secondo luogo, e simultaneamente, puoi portare il pensiero che stai effettivamente guardando un video di gatti. Sei anche in grado di portare il pensiero che gli altri ti stanno osservando mentre stai guardando il video del gatto del tutto divertente. Non devi necessariamente interrompere un'attività, come interrompere la visione del video del gatto, per poi contemplare separatamente che stai (o stavi) guardando un video del gatto. Questi pensieri possono apparentemente verificarsi in parallelo tra loro.

A volte, la nostra autocoscienza potrebbe però scacciarci o almeno interrompere un'attività mentale primaria. Forse, mentre pensi alla tua visione del video del gatto, la tua mente si esaurisce parzialmente perché si sta sforzando di concentrarsi esclusivamente sul video stesso. Scegli quindi di riavvolgere il video per rivisitare la parte che hai visto ma che eri mentalmente distratto dal comprendere completamente. L'autocoscienza ha disturbato la tua attività mentale primaria.

Ok, ora siamo pronti per l'insorgere degli aspetti ricorsivi.

Sei pronto?

Stai guardando un video di gatti. La tua autoconsapevolezza ti sta informando che stai guardando un video di gatti e che gli altri ti stanno guardando mentre stai guardando il video. Questo è lo status quo.

Successivamente fai un ulteriore salto mentale. Inizi a pensare alla tua autocoscienza. Sei consapevole che stai coinvolgendo la tua autoconsapevolezza. Ecco come va: sto pensando troppo alla mia visione del video del gatto, ti chiedi disperatamente? Questo è un altro livello di autocoscienza. Classificazione dell'autoconsapevolezza in cima all'altra autocoscienza.

C'è un vecchio detto che dice che sono le tartarughe fino in fondo. Per i fenomeni di autocoscienza potresti essere:

  • Non consapevole di te stesso
  • Autoconsapevolezza di te stesso
  • Autoconsapevolezza della tua autocoscienza di te stesso
  • Autoconsapevole del tuo essere autoconsapevole della tua autoconsapevolezza di te stesso
  • Ad Infinitum (cioè, e così via)

Forse ti sarai reso conto che prima stavo sottolineando in modo sottile che sembrano esserci due categorie principali di autocoscienza. Una teoria particolare postula che abbiamo una sorta di autocoscienza interna che si concentra sui nostri stati interni, e abbiamo anche un'autoconsapevolezza esterna che aiuta a misurare le percezioni su di noi di coloro che ci circondano che ci stanno osservando.

Secondo l'articolo di HBR, ecco una rapida rappresentazione dei due tipi teorizzati di autocoscienza: "Il primo, che abbiamo soprannominato autocoscienza interna, rappresenta quanto chiaramente vediamo i nostri valori, passioni, aspirazioni, adattamento al nostro ambiente, reazioni (inclusi pensieri, sentimenti, comportamenti, punti di forza e debolezze) e impatto sugli altri. E intanto l'altro è: “La seconda categoria, autocoscienza esterna, significa capire come le altre persone ci vedono, in termini di quegli stessi fattori sopra elencati. La nostra ricerca mostra che le persone che sanno come le vedono gli altri sono più abili nel mostrare empatia e nel prendere le prospettive degli altri”.

Una pratica matrice due per due o quattro quadrati può essere derivata affermando che sia l'autocoscienza interna che quella esterna vanno da alta a bassa e puoi accoppiare le due categorie l'una contro l'altra. La ricerca HBR indica che si dice che tu sia uno di questi quattro archetipi di autoconsapevolezza:

  • Introspector: bassa autoconsapevolezza esterna + alta autoconsapevolezza interna
  • Cercatore: bassa autoconsapevolezza esterna + bassa autoconsapevolezza interna
  • Per favore: alta autoconsapevolezza esterna + bassa autoconsapevolezza interna
  • Consapevole: Elevata Autoconsapevolezza Esterna + Elevata Autoconsapevolezza Interna

L'apice sarebbe l'archetipo "Consapevole" che consiste nell'essere al gradino più alto dell'essere consapevole di sé esternamente e allo stesso modo al vertice dell'essere consapevole di sé internamente. Per chiarire, non raggiungi questa posizione decantata in modo necessariamente permanente. Puoi scivolare avanti e indietro tra l'essere alto e basso, tra i regni dell'autocoscienza interna ed esterna. Può dipendere dall'ora del giorno, dalla situazione in cui ti trovi e da una serie di altri fattori salienti.

Ora che abbiamo affrontato affabilmente alcuni elementi fondamentali sull'autocoscienza, possiamo cercare di legare questo al tema dei comportamenti etici.

La solita affermazione sull'essere consapevoli di sé è che è più probabile che tu sia al di sopra quando sei consapevole di te stesso. Ciò significa, come già indicato, che sei meno incline a comportamenti etici avversi come rubare, imbrogliare e mentire. La logica di questa tendenza è che l'attività della tua autocoscienza ti farebbe capire che il tuo comportamento è sgradevole o non etico. Non solo ti sorprendi mentre viri in acque fangose ​​e non etiche, ma sei anche incline a tornare indietro e sulla terraferma (la santità del territorio etico), per così dire.

La tua autocoscienza ti aiuta ad esercitare l'autocontrollo.

Un contrasto sarebbe presumibilmente quando c'è poca o nessuna consapevolezza di sé, il che suggerisce che qualcuno forse è ignaro della propria tendenza a comportamenti non etici. Si potrebbe sostenere che una persona così inconsapevole potrebbe non rendersi conto che si sta comportando in modo negativo. Simile al toro nel negozio di prodotti fragili, fino a quando qualcosa di più apertamente cattura la loro attenzione, è improbabile che si autoregolano.

Non tutti accettano questo, tra l'altro. Alcuni sosterrebbero che l'autocoscienza può essere facilmente applicata all'essere non etici come essere etici. Ad esempio, un malfattore potrebbe essere completamente consapevole di sé e apprezzare il fatto che stia commettendo la trasgressione. La loro autocoscienza li spinge persino più stridentemente verso atti sempre più grandi di cattiva condotta nefasta.

C'è più nuvolosità su questo di quanto potrebbe apparire direttamente all'occhio. Supponiamo che qualcuno sia profondamente consapevole di sé, ma non sia consapevole dei costumi etici di una determinata società o cultura. In questo modo, non hanno alcuna guida etica, nonostante il fatto dichiarato che sono autocoscienti. Oppure, se vuoi, forse la persona conosce i precetti etici e non crede che si applichino ad essi. Si considerano unici o al di fuori dei limiti del pensiero etico convenzionale.

Gira e gira.

La consapevolezza di sé potrebbe essere interpretata come un'arma a doppio taglio orientata all'etica, alcuni sottolineano con fervore.

Per il momento, andiamo con la versione della faccia felice che consiste nell'autocoscienza in generale che ci guida o spinge verso comportamenti etici. A parità di tutto il resto, faremo l'assurdo sfacciato che maggiore è la consapevolezza di sé, maggiore sarà l'inclinazione etica. Sembra sicuramente piacevole e stimolante augurarlo così.

Cambiamo marcia e portiamo l'Intelligenza Artificiale (AI) nel quadro.

Siamo a un punto in questa discussione per collegare tutti i grovigli del procedimento con il fiorente regno dell'IA etica, comunemente noto anche come l'etica dell'IA. Per la mia copertura continua ed estesa dell'etica dell'IA, vedere il link qui ed il link qui, solo per citarne alcuni.

La nozione di IA etica implica l'intreccio del campo dell'etica e del comportamento etico con l'avvento dell'IA. Hai sicuramente visto titoli che hanno sollevato campanelli d'allarme sull'IA piena di iniquità e vari pregiudizi. Ad esempio, si teme che i sistemi di riconoscimento facciale basati sull'intelligenza artificiale possano a volte mostrare discriminazione razziale e di genere, in genere a causa del modo in cui le strutture di Machine Learning (ML) e Deep Learning (DL) sottostanti sono state addestrate e messe in campo (vedi la mia analisi a questo link qui).

Per cercare di fermare o almeno mitigare la corsa alla rinfusa verso AI for Bad, costituito da sistemi di IA che sono inavvertitamente oa volte intenzionalmente modellati per agire male, vi è stata una recente urgenza di applicare i precetti etici allo sviluppo e all'uso dell'IA. L'obiettivo serio è fornire una guida etica agli sviluppatori di intelligenza artificiale, oltre alle aziende che costruiscono o mettono in campo l'IA e a quelle che dipendono dalle applicazioni di intelligenza artificiale. Come esempio dell'elaborazione e dell'adozione dei principi dell'IA etica, vedere la mia copertura all'indirizzo il link qui.

Concediti un momento di riflessione per considerare queste tre domande estremamente cruciali:

  • Possiamo convincere gli sviluppatori di IA ad abbracciare i principi dell'IA etica e a mettere in pratica tali linee guida?
  • Possiamo convincere le aziende che realizzano o mettono in campo l'IA a fare lo stesso?
  • Possiamo convincere coloro che usano l'IA ad essere allo stesso modo consapevoli delle sfaccettature dell'IA etica?

Lo direi senza vergogna, è un compito arduo.

L'emozione di creare IA può sopraffare qualsiasi accenno di attenzione verso l'etica dell'IA. Bene, non solo il brivido, ma anche il guadagno è parte integrante di questa equazione. Potresti essere sorpreso di sapere che alcuni nel regno dell'IA sono propensi a dire che si occuperanno della "roba" dell'IA etica una volta che avranno portato i loro sistemi di IA fuori dalla porta. Questo è il tipico mantra tecnico di assicurarsi di fallire velocemente e fallire spesso finché non lo fai bene (si spera di farlo bene).

Naturalmente, coloro che sommariamente stanno spingendo un'IA eticamente dubbia sul pubblico in generale stanno lasciando il cavallo fuori dalla stalla. La loro idea tesa proclamata è che il AI for Bad verrà riparato dopo che è stato utilizzato quotidianamente, il che è dannoso in ritardo poiché il cavallo sta già galoppando in modo arbitrario. Si possono fare dei danni. C'è anche la maggiore possibilità che nulla venga riparato o regolato mentre l'IA è in uso. Una scusa frequente è che giocherellare con l'IA in quel frangente potrebbe peggiorare ulteriormente le cose in termini di processo decisionale algoritmico (ADM) già non etico che va completamente fuori di testa.

Cosa si può fare per ottenere l'utilità e la vitalità di avere l'IA etica come una luce brillante e guida nelle menti di coloro che stanno costruendo l'IA, mettendo in campo l'IA e usando l'IA?

Risposta: Autocoscienza.

Sì, l'idea è che se le persone fossero più consapevoli di come usano o interagiscono con l'IA, ciò potrebbe aumentare la loro propensione a volere che l'IA etica sia la norma. Lo stesso si potrebbe dire degli sviluppatori di intelligenza artificiale e delle società legate ai sistemi di intelligenza artificiale. Se fossero più consapevoli di ciò che stanno facendo, forse abbraccerebbero maggiormente l'etica dell'IA.

Parte della logica, come già stabilito, è che l'autoconsapevolezza offre una tendenza ad essere una persona eticamente migliore e anche a evitare di essere una persona eticamente scadente. Se riusciamo a mantenere viva questa premessa, ciò implica che gli sviluppatori di IA più inclini all'autocoscienza saranno ergo inclini a comportamenti etici e quindi inclini a produrre un'IA eticamente sana.

È un ponte troppo lontano per te?

Alcuni direbbero che l'indiretto è un po' troppo. L'esorbitante catena di collegamenti tra l'autocoscienza, l'essere eticamente virtuosi e l'applicazione di precetti etici all'IA è forse difficile da digerire. Una controargomentazione è che non potrebbe far male provare.

Gli scettici direbbero che uno sviluppatore di intelligenza artificiale potrebbe essere consapevole di sé e possibilmente avere una mentalità più etica, ma non necessariamente salterà verso l'applicazione di quell'accampamento mentale ai costumi dell'IA etica. La risposta a tale scrupolo è che se siamo in grado di pubblicizzare e rendere popolare le questioni relative all'IA etica, la connessione altrimenti apparentemente tenue diventerà più ovvia, prevista e forse diventerà il modo standard di fare le cose quando si tratta di creare l'IA.

Ora aggiungerò una svolta a questa saga. La svolta potrebbe farti girare la testa. Assicurati di essere ben seduto e preparato per ciò che sto per indicare.

Alcuni sottolineano che dovremmo integrare l'IA etica direttamente nell'IA stessa.

Potresti essere sconcertato da quella dichiarazione. Disimballiamolo.

Un programmatore potrebbe creare un sistema di intelligenza artificiale e farlo con la propria autocoscienza di programmazione nel tentativo di impedire che l'IA incarni pregiudizi e iniquità. Piuttosto che limitarsi a dedicarsi alla programmazione, lo sviluppatore si guarda alle spalle per chiedersi se l'approccio che stanno intraprendendo si tradurrà nella necessaria assenza di elementi avversi nell'IA.

Ottimo, abbiamo uno sviluppatore di intelligenza artificiale che sembra essere sufficientemente consapevole di sé, ha cercato di abbracciare comportamenti etici e ha visto la luce per includere precetti etici mentre realizzano il loro sistema di intelligenza artificiale.

Ottieni una vittoria per l'IA etica!

Tutto bene, anche se qui c'è qualcosa che può trasparire in seguito. L'IA viene messa in campo e utilizzata quotidianamente. Parte dell'IA includeva un componente per poter "imparare" al volo. Ciò significa che l'IA può adattarsi in base a nuovi dati e altri aspetti della programmazione originale. Per inciso, questo non implica che l'IA sia senziente. Non abbiamo IA senziente. Ignora quei titoli stupidi che dicono che lo facciamo. Nessuno può dire se avremo un'IA senziente, e nessuno può prevedere a sufficienza quando, se mai, accadrà.

Tornando alla nostra storia, l'IA è stata ideata appositamente per migliorare se stessa mentre era in corso. Una nozione abbastanza utile. Piuttosto che i programmatori devono apportare continuamente miglioramenti, consentono al programma di intelligenza artificiale di farlo da solo (Whoa, è che stai lavorando da solo?).

Durante il tempo in cui l'IA centimetro per centimetro si adatta, si scopre che varie sordide iniquità e pregiudizi si stanno insinuando nel sistema dell'IA a causa dei suoi stessi atti di alterazione. Mentre il programmatore originariamente teneva fuori quegli aspetti squallidi, ora stanno formulando a causa dell'adattamento dell'IA al volo. Purtroppo, questo può accadere in un modo così sottile dietro le quinte che nessuno è più saggio. Coloro che prima avrebbero potuto dare il via libera all'IA dopo i test iniziali esaurienti, ora sono ciecamente inconsapevoli che l'IA ha imboccato il sentiero marcio di AI for Bad.

Un mezzo per prevenire o almeno catturare questa emergenza indesiderabile sarebbe quello di integrare nell'IA una sorta di doppio controllo dell'IA etica. Un componente all'interno dell'IA è programmato per osservare il comportamento dell'IA e rilevare se l'ADM non etico sta iniziando a emergere. In tal caso, il componente potrebbe inviare un avviso agli sviluppatori di intelligenza artificiale o farlo a un'azienda che esegue il sistema di intelligenza artificiale.

Una versione più avanzata di questo componente potrebbe tentare di riparare l'IA. Si tratterebbe di un adeguamento degli adeguamenti, riconducendo gli aspetti non etici che emergono nei propri parametri etici. Puoi immaginare che questo tipo di programmazione sia complicato. C'è la possibilità che possa andare fuori strada, forse trasformandosi da non etico a profondamente non etico. C'è anche la possibilità che un falso positivo faccia scattare il componente in azione e magari incasinare le cose di conseguenza.

Ad ogni modo, senza impantanarci su come funzionerebbe questo doppio controllo, faremo una dichiarazione audace al riguardo. Potresti suggerire che, in qualche modo, si dice che l'IA sia consapevole di sé.

Yikes, quelle sono parole combattive per molti.

La convinzione prevalente di quasi tutti è che l'IA di oggi non sia consapevole di sé. Punto, punto. Fino a quando non raggiungiamo l'IA senziente, che non sappiamo se o quando accadrà, non esiste alcun tipo di IA che sia autoconsapevole. Non almeno nel significato di autocoscienza orientata all'uomo. Non suggerire nemmeno che possa succedere.

Sono certamente d'accordo sul fatto che dobbiamo stare attenti all'antropomorfizzazione dell'IA. Dirò di più su questa preoccupazione tra un momento.

Nel frattempo, se per amor di discussione sarai disposto a usare la fase di "autoconsapevolezza" in modo sciocco, credo che tu possa facilmente capire perché si potrebbe dire che l'IA si attiene alla nozione generale di auto-autostima consapevolezza. Abbiamo una parte dell'IA che monitora il resto dell'IA, tenendo d'occhio ciò che il resto dell'IA sta facendo. Quando il resto dell'IA inizia a esagerare, la parte di monitoraggio cerca di rilevarlo. Inoltre, la parte di monitoraggio dell'IA o il doppio controllo potrebbero riportare il resto dell'IA nelle corsie corrette.

Non sembra un po' come l'atto di guardare quei video di gatti e avere l'autocoscienza che stavi facendo così?

C'è un suono familiare.

Possiamo estenderlo ancora di più. Il componente del doppio controllo dell'IA non è solo programmato per osservare il comportamento del resto dell'IA, ma rileva anche il comportamento di coloro che stanno utilizzando l'IA. Come si comportano gli utenti quando utilizzano l'IA? Supponiamo che alcuni utenti esprimano indignazione per il fatto che l'IA sembra discriminarli. Il doppio controllo dell'IA potrebbe essere in grado di cogliere questo, usandolo come un'altra bandiera rossa sul fatto che il resto dell'IA si smarrisca.

Questo fa emergere le categorizzazioni dell'autoconsapevolezza interna e dell'autoconsapevolezza esterna.

Il doppio controllo dell'IA sta scansionando internamente ed esternamente per capire se il resto dell'IA si è diretto in mari preoccupanti. Il rilevamento solleverà una bandiera o causerà l'esecuzione di un'autocorrezione.

Aggiungiamo un'altra estensione un po' sbalorditiva. Costruiamo un altro doppio controllo AI che ha lo scopo di ricontrollare il doppio controllo AI di base. Perchè così? Bene, supponiamo che il doppio controllo dell'IA sembri vacillare o non riesca a fare il suo lavoro. Il doppio controllo AI del doppio controllo cercherebbe di rilevare questo malfunzionamento e intraprendere le azioni necessarie di conseguenza. Benvenuti nella natura ricorsiva dell'autocoscienza, alcuni potrebbero dichiarare con orgoglio, come mostrato in un sistema di intelligenza artificiale computazionale.

Per quelli di voi che sono già al limite della questione, l'ultimo commento, per ora, è che potremmo provare a suggerire che se rendete i sistemi di intelligenza artificiale "autoconsapevoli", allora potenzialmente graviteranno verso un comportamento etico. Lo stanno facendo su base senziente? Decisamente, no. Lo fanno su base computazionale? Sì, anche se dobbiamo essere chiari sul fatto che non è dello stesso calibro di quello del comportamento umano.

Se ti senti a disagio per il fatto che la nozione di autocoscienza sia stata erroneamente distorta per farla rientrare in uno schema computazionale, i tuoi dubbi su questo sono ben noti. Un'altra questione aperta è se dovremmo porre fine agli sforzi in corso di IA che sfruttano l'idea. Potresti sostenere in modo convincente che almeno sembra guidarci verso un risultato migliore di ciò che probabilmente farà l'IA. Dobbiamo però tenere gli occhi ben aperti mentre questo accade.

Immagino che dovremo vedere come andrà a finire. Torna su questo tra cinque anni, dieci anni e cinquant'anni e vedi se il tuo pensiero è cambiato sulla questione controversa.

Mi rendo conto che questo è stato un esame alquanto inebriante dell'argomento e potresti desiderare ardentemente alcuni esempi quotidiani. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sul fatto che l'IA abbia una parvenza di "consapevolezza di sé" e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle che l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non c'è ancora una vera auto a guida autonoma al Livello 5, che non sappiamo ancora se questo sarà possibile raggiungere, e nemmeno quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e intelligenza artificiale con la cosiddetta autoconsapevolezza

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Confido che fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Ora siamo pronti per fare un tuffo profondo nelle auto a guida autonoma e nelle questioni etiche dell'IA che implicano l'inquietante idea che l'IA abbia una sorta di autocoscienza, se vuoi.

Usiamo un esempio facilmente semplice. Un'auto a guida autonoma basata sull'intelligenza artificiale è in corso nelle strade del tuo quartiere e sembra guidare in sicurezza. All'inizio, hai dedicato un'attenzione speciale a ogni volta che sei riuscito a intravedere l'auto a guida autonoma. Il veicolo autonomo si è distinto per il suo rack di sensori elettronici che includeva videocamere, unità radar, dispositivi LIDAR e simili. Dopo molte settimane in cui l'auto a guida autonoma gira per la tua comunità, ora te ne accorgi a malapena. Per quanto ti riguarda, è solo un'altra macchina sulle strade pubbliche già trafficate.

Per non pensare che sia impossibile o non plausibile familiarizzare con le auto a guida autonoma, ho scritto spesso di come i luoghi che rientrano nell'ambito delle prove di auto a guida autonoma si siano gradualmente abituati a vedere i veicoli rinnovati, vedere la mia analisi a questo link qui. Molti dei locali alla fine sono passati dall'essere rapiti a bocca aperta a guardare a bocca aperta e ora emettendo un ampio sbadiglio di noia per assistere a quelle tortuose auto a guida autonoma.

Probabilmente il motivo principale in questo momento per cui potrebbero notare i veicoli autonomi è il fattore di irritazione ed esasperazione. I sistemi di guida basati sull'intelligenza artificiale assicurano che le auto rispettino tutti i limiti di velocità e le regole della strada. Per i frenetici conducenti umani nelle loro tradizionali auto a guida umana, a volte ti irriti quando sei bloccato dietro le auto a guida autonoma rigorosamente basate sull'intelligenza artificiale.

È qualcosa a cui tutti potremmo aver bisogno di abituarci, a torto oa ragione.

Torniamo al nostro racconto. Un giorno, supponiamo che un'auto a guida autonoma nella tua città si avvicini a un segnale di stop e non sembri rallentare. Cielo, sembra che il sistema di guida dell'IA farà sì che l'auto a guida autonoma superi il segnale di stop. Immagina se un pedone o un ciclista si trovasse da qualche parte nelle vicinanze e venisse colto alla sprovvista dal fatto che l'auto a guida autonoma non si sarebbe fermata come si deve. Vergognoso. Pericoloso!

E, illegale.

Consideriamo ora un componente AI nel sistema di guida AI che agisce come uno stile di doppio controllo autocosciente.

Ci prenderemo un momento per approfondire i dettagli di ciò che sta accadendo all'interno del sistema di guida AI. Si scopre che le telecamere montate sul veicolo autonomo hanno rilevato quello che sembrava forse un segnale di stop, anche se in questo caso un albero troppo cresciuto oscura abbondantemente il segnale di stop. Il sistema di Machine Learning e Deep Learning, originariamente addestrato sui segnali di stop, è stato ideato su schemi principalmente di segnali di stop completi, generalmente liberi. Dopo aver esaminato computazionalmente le immagini video, è stata assegnata una bassa probabilità che esistesse un segnale di stop in quel punto particolare (come ulteriore complicazione e ulteriore spiegazione, si trattava di un segnale di stop appena pubblicato che non appariva sulle mappe digitali preparate in precedenza che il su cui si basava il sistema di guida AI).

Tutto sommato, il sistema di guida dell'IA ha determinato computazionalmente di procedere come se il segnale di stop fosse inesistente o forse un segnale di altro tipo che forse somigliava a un segnale di stop (questo può accadere e accade con una certa frequenza).

Ma, per fortuna, il doppio controllo autocosciente dell'IA stava monitorando le attività del sistema di guida dell'IA. Dopo aver esaminato computazionalmente i dati e la valutazione da parte del resto dell'IA, questo componente ha scelto di ignorare il normale corso del procedimento e ha invece ordinato al sistema di guida dell'IA di fermarsi adeguatamente.

Nessuno è rimasto ferito e non è sorto alcun atto illegale.

Si potrebbe dire che il doppio controllo autoconsapevole dell'IA ha agito come se fosse un agente legale incorporato, cercando di garantire che il sistema di guida dell'IA rispettasse la legge (in questo caso, un segnale di stop). Naturalmente, anche la sicurezza era fondamentale.

Si spera che quell'esempio mostri come potrebbe funzionare il doppio controllo autoconsapevole dell'IA concepito.

Possiamo quindi considerare brevemente un esempio di IA etica più prominente che illustra come il doppio controllo autocosciente dell'IA potrebbe fornire una funzionalità incorporata orientata all'intelligenza artificiale.

In primo luogo, come sfondo, una delle preoccupazioni che sono state espresse sull'avvento delle auto a guida autonoma basate sull'intelligenza artificiale è che potrebbero finire per essere utilizzate in un modo discriminatorio alquanto involontario. Ecco come. Supponiamo che quelle auto a guida autonoma siano impostate per cercare di massimizzare il loro potenziale di guadagno, il che ha decisamente senso per coloro che gestiscono una flotta di auto a guida autonoma disponibili in condivisione di corse. Il proprietario della flotta vorrebbe avere un'operazione redditizia.

Potrebbe essere che in una determinata città, le auto a guida autonoma in roaming inizino gradualmente a servire alcune parti della comunità e non altre aree. Lo fanno per un obiettivo di guadagno, in quanto le aree più povere potrebbero non produrre entrate come le parti più ricche del luogo. Questa non è un'aspirazione esplicita di servire alcune aree e non di servire altre. Invece, si pone organicamente quanto all'IA delle auto a guida autonoma "capisce" computazionalmente che c'è più denaro da guadagnare concentrandosi sulle aree geograficamente più pagate. Ho discusso di questa preoccupazione etica della società nella mia colonna, ad esempio su il link qui.

Si supponga di aver aggiunto un doppio controllo autoconsapevole dell'IA ai sistemi di guida dell'IA. Dopo un po', la componente AI rileva in modo computazionale uno schema di dove si muovono le auto a guida autonoma. In particolare, in alcune aree ma non in altre. Basato sull'essere stato codificato con alcuni precetti dell'IA etica, il doppio controllo autocosciente dell'IA inizia a guidare le auto a guida autonoma verso altre parti della città che altrimenti sarebbero state trascurate.

Questo illustra la nozione di autoconsapevolezza dell'IA e lo fa in combinazione con l'elemento dell'IA etica.

Un altro esempio di questo tipo potrebbe fornire informazioni sul fatto che questa considerazione sull'IA etica può anche essere una ramificazione della vita o della morte piuttosto seria e che fa riflettere.

Prendi in considerazione un notiziario su un recente incidente d'auto. Secondo quanto riferito, un guidatore umano stava arrivando a un incrocio trafficato e aveva il semaforo verde per procedere dritto. Un altro guidatore è passato oltre un semaforo rosso ed è entrato nell'incrocio quando non avrebbero dovuto farlo. L'autista con il semaforo verde si è reso conto all'ultimo momento che quest'altra macchina stava per sbattere violentemente contro la sua auto.

Secondo questo guidatore in pericolo, ha calcolato consapevolmente che o sarebbe stato investito dall'altra macchina, oppure avrebbe potuto sterzare per cercare di evitare l'intruso. Il problema con la deviazione era che c'erano pedoni nelle vicinanze che sarebbero stati in pericolo.

Quale scelta faresti?

Puoi prepararti a essere colpito e sperare che il danno non ti mutili o non ti uccida. D'altra parte, puoi virare radicalmente, ma mettere in grave pericolo e possibilmente danneggiare o uccidere i pedoni vicini. Questo è un problema difficile, che comprende il giudizio morale, ed è completamente intriso di implicazioni etiche (e legali).

C'è un dilemma etico generico che copre questo tipo di dilemma, notoriamente o forse famigerato chiamato il problema del carrello, vedere la mia ampia copertura su questo link qui. Si scopre che si tratta di un esperimento mentale eticamente stimolante che risale ai primi anni del 1900. In quanto tale, l'argomento è in circolazione da un po' di tempo e, più recentemente, è stato generalmente associato all'avvento dell'IA e delle auto a guida autonoma.

Sostituisci il conducente umano con un sistema di guida AI integrato in un'auto a guida autonoma.

Immagina quindi che un'auto a guida autonoma IA stia entrando in un incrocio e che i sensori del veicolo autonomo rilevino improvvisamente un'auto guidata da un essere umano che arriva pericolosamente direttamente attraverso un semaforo rosso e punta all'auto senza conducente. Si supponga che l'auto a guida autonoma abbia dei passeggeri all'interno del veicolo.

Cosa vuoi che faccia l'IA?

Se il sistema di guida dell'IA decide di procedere in avanti e farsi scagliare dentro (probabilmente danneggiando o forse uccidendo i passeggeri all'interno del veicolo), o vuoi che il sistema di guida dell'IA prenda una possibilità e viri lontano, anche se l'azione di virata prende il veicolo autonomo pericolosamente verso i pedoni vicini e potrebbe danneggiarli o ucciderli.

Molti dei produttori di IA di auto a guida autonoma stanno adottando un approccio diretto a queste difficili situazioni di intelligenza artificiale etica. In generale, l'IA, come attualmente programmata, si limiterebbe semplicemente ad avanzare e verrebbe speronata violentemente dall'altra macchina. L'IA non era programmata per cercare altre manovre evasive.

Ho predetto ripetutamente che questa posizione di non vedere il male, non sentire il male, dei produttori di auto a guida autonoma con intelligenza artificiale alla fine si avvicinerà e li morderà (la mia analisi è a il link qui). Puoi aspettarti cause legali che coinvolgono incidenti stradali che cercheranno di scoprire cosa è stata programmata per fare l'IA. L'azienda o gli sviluppatori di IA o l'operatore della flotta che hanno sviluppato e messo in campo l'IA sono stati negligenti o responsabili per ciò che l'IA ha fatto o non ha fatto? Puoi anche anticipare che una tempesta di fuoco a livello pubblico di consapevolezza dell'IA etica si svilupperà una volta che si verificheranno questi tipi di casi.

In questo dilemma dell'IA etica si inserisce il nostro decantato doppio controllo dell'intelligenza artificiale orientato all'etica. Forse questa speciale componente dell'IA potrebbe essere coinvolta in questo tipo di circostanze. La parte sta monitorando il resto del sistema di guida AI e lo stato dell'auto a guida autonoma. Quando si verifica un momento terribile come questo, il componente AI funge da risolutore di problemi del carrello e offre ciò che il sistema di guida AI dovrebbe fare.

Non è una cosa facile da programmare, te lo assicuro.

Conclusione

Condividerò con voi l'ultimo pensiero per ora su questo argomento.

Probabilmente lo troverai intrigante.

Conosci il prova dello specchio?

È abbastanza noto nello studio dell'autocoscienza. Altri nomi per la questione sono il test di auto-riconoscimento dello specchio, il test del punto rosso, il test del rossetto e le relative formulazioni. La tecnica e l'approccio sono stati inizialmente elaborati nei primi anni '1970 per valutare l'autocoscienza degli animali. Gli animali che secondo quanto riferito hanno superato con successo il test includono scimmie, alcuni tipi di elefanti, delfini, gazze e alcuni altri. Gli animali che sono stati testati e, secondo quanto riferito, non hanno superato il test includono panda giganti, leoni marini, ecc.

Ecco l'accordo.

Quando un animale si vede allo specchio, l'animale si rende conto che l'immagine mostrata è di se stesso o pensa che sia un altro animale?

Presumibilmente, l'animale riconosce visivamente la propria specie, avendone visti altri del suo genere, e potrebbe quindi pensare che l'animale mostrato allo specchio sia un cugino o forse un concorrente bellicoso (soprattutto se l'animale ringhia all'immagine speculare, che in il turno sembra ringhiare contro di loro). Forse hai visto il tuo gatto di casa o il tuo amato cane fare lo stesso quando si vede per la prima volta in uno specchio domestico.

In ogni caso, assumiamo che un animale selvatico non si sia mai visto prima. Ebbene, questo non è necessariamente vero, dal momento che forse l'animale ha intravisto se stesso in una calma pozza d'acqua o attraverso una formazione rocciosa lucente. Ma quelle sono considerate possibilità meno probabili.

Ok, vogliamo in qualche modo valutare se un animale è in grado di capire che in realtà è l'animale mostrato allo specchio. Rifletti su quell'atto apparentemente semplice. Gli esseri umani capiscono in giovane età che esistono e che la loro esistenza è dimostrata vedendosi allo specchio. Diventano autocoscienti di se stessi. In teoria, potresti non renderti conto di essere te stesso, finché non ti vedi allo specchio.

Forse gli animali non sono in grado di diventare cognitivamente autocoscienti allo stesso modo. Potrebbe essere che un animale si veda allo specchio e creda perennemente di essere un altro animale. Non importa quante volte si vede, penserebbe comunque che questo è un animale diverso da se stesso.

La parte del trucco di questo viene in gioco. Facciamo un segno sull'animale. Questo segno deve essere visibile solo quando l'animale si vede allo specchio. Se l'animale può girare o girare e vedere il segno su se stesso (direttamente), ciò rovina l'esperimento. Inoltre, l'animale non può sentire, annusare o rilevare in altro modo il segno. Ancora una volta, se lo facessero, rovinerebbe l'esperimento. L'animale non può sapere che gli abbiamo messo il segno, poiché ciò indicherebbe alla bestia che c'è qualcosa lì.

Vogliamo restringere le cose in modo tale che l'unica ragione possibile per cui il segno è rilevabile sia guardando se stesso allo specchio.

Ah, ora il test è pronto. L'animale viene posto davanti a uno specchio o si avvicina ad esso. Se l'animale tenta successivamente di toccare o scavare il segno, potremmo ragionevolmente concludere che l'unico modo in cui ciò accadrebbe è se l'animale si rendesse conto che il segno era su se stesso. Pochissime specie animali sono state in grado di superare con successo questo test.

C'è una sfilza di critiche sul test. Se un tester umano si trova nelle vicinanze, potrebbe rivelare cose fissando il segno, il che potrebbe far spazzolare l'animale o toccarlo. Un'altra possibilità è che l'animale creda ancora che un altro animale sia mostrato allo specchio, ma è dello stesso tipo, e quindi l'animale si chiede se anche lui ha un segno come quello sull'altro animale.

E così via.

Sono sicuro che sei felice di sapere questo e d'ora in poi capirai perché c'è un punto o qualche segno strano su un animale che altrimenti non avrebbe un tale segno. Chissà, potrebbe aver recentemente terminato un esperimento di prova dello specchio. Congratulazioni con l'animale, in tutta sicurezza, per essere stato un generoso partecipante.

Che cosa ha a che fare con le auto a guida autonoma basate sull'intelligenza artificiale?

Ti piacerà questa parte.

Un'auto a guida autonoma sta percorrendo una lunga autostrada. Il sistema di guida AI utilizza sensori per rilevare altro traffico. Questa è un'autostrada a due corsie con traffico in direzione nord in una corsia e in direzione sud nell'altra corsia. A volte, auto e camion cercheranno di sorpassarsi, entrando nella corsia opposta e poi tornando nella loro corretta corsia di marcia.

Hai visto questo, l'hai fatto senza dubbio.

Scommetto che questo aspetto successivo è successo anche a te. Davanti all'auto a guida autonoma c'è una di quelle autocisterne di notevoli dimensioni. È fatto di metallo lucido. Lucido e pulito come un fischio. Quando sali dietro a un camion del genere, puoi vedere l'immagine speculare della tua auto attraverso la parte posteriore dell'autocisterna. Se hai visto questo, sai quanto può essere ipnotizzante. Eccoti, tu e la tua auto, riflessa nel riflesso speculare del retro dell'autocisterna.

Siediti per la svolta pazzesca.

Un'auto a guida autonoma arriva dietro l'autocisterna. Le telecamere rilevano l'immagine di un'auto che viene mostrata nel riflesso speculare. Whoa, valuta l'IA, quella è un'auto? Sta arrivando all'auto a guida autonoma? Man mano che l'auto a guida autonoma si avvicina sempre di più all'autocisterna, l'auto sembra avvicinarsi sempre di più.

Yikes, l'IA potrebbe calcolare computazionalmente che questa è una situazione pericolosa e l'IA dovrebbe intraprendere un'azione evasiva da questo pazzo veicolo canaglia. Vedi, l'IA non si è riconosciuta allo specchio. Ha fallito il test dello specchio.

Cosa fare? Forse il doppio controllo autocosciente dell'IA entra nella questione e rassicura il resto del sistema di guida dell'IA che è solo un riflesso innocuo. Pericolo evitato. Il mondo è salvato. Superato con successo il test AI Mirror!

Con una conclusione ironica, potremmo anche suggerire che a volte l'IA è più intelligente o almeno più consapevole di sé di un orso medio (sebbene, a merito degli orsi, di solito se la cavano bene nel test dello specchio, spesso avendo ottenuto abituati al loro riflesso nelle pozze d'acqua).

Correzione, forse l'IA può essere più consapevole di sé stessa di panda giganti e leoni marini, ma non dirlo agli animali, potrebbero essere tentati di distruggere o colpire i sistemi di intelligenza artificiale. Non lo vogliamo, vero?

Fonte: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/