L'etica dell'intelligenza artificiale è diffidente sul peggioramento dell'asimmetria dell'intelligenza artificiale tra gli esseri umani che ottengono l'estremità corta del bastone

A volte sei dalla parte sbagliata del bastone.

Quel colloquialismo può essere applicato alla nozione di asimmetria.

Sì, parlerò di asimmetria. Come probabilmente hai incontrato in questo mondo sottosopra in cui viviamo, ci sono occasioni in cui potresti ritrovarti ad avere meno conoscenze su una questione che è relativamente importante per te. Questo è formalmente indicato come Asimmetria informativa.

La chiave è che hai meno conoscenze o informazioni di quelle che potresti desiderare di avere, in più hai decisamente meno dell'altra parte coinvolta nella questione. Sei in netto svantaggio rispetto all'altra parte. Sanno qualcosa che tu non sai. Possono sfruttare ciò che sanno, soprattutto in termini di ciò che non conosci, e avere il sopravvento in qualsiasi deliberazione o trattativa ruvida con te.

Bene, c'è un nuovo ragazzo in città, noto come Asimmetria dell'IA.

Quest'ultimo tormentone si riferisce alla possibilità che tu vada contro qualcuno che è armato di IA, mentre tu non sei così armato.

Hanno l'IA dalla loro parte, mentre tu hai, beh, solo tu. Le cose sono sbilenche. Sei in un presunto svantaggio. L'altro lato sarà in grado di correre in cerchio intorno a te grazie all'aumento dell'IA. Questo potrebbe essere all'interno del famoso detto che tutto è lecito in amore e in guerra (un proverbio di vecchia data coniato Eufuè di John Lyly, 1578), sebbene le dinamiche e i pericoli dell'asimmetria dell'IA sollevino problematiche problematiche di IA etica. Per la mia copertura continua ed estesa dell'etica dell'IA e dell'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Prima di entrare nel regno dell'intelligenza artificiale e nelle sue abbondanti complessità relative all'asimmetria dell'intelligenza artificiale, esploriamo prima la versione normale di tutti i giorni della semplice vecchia asimmetria dell'informazione. Questo preparerà il terreno per entrare nel proverbiale AI new kid sul blocco.

Un racconto breve e volutamente illuminante potrebbe stuzzicare l'appetito.

L'altro giorno ho avuto una gomma a terra mentre ero in viaggio e stavo cercando rapidamente di trovare un sostituto adatto che potesse essere prontamente installato immediatamente. Usando il mio smartphone, ho cercato online nei negozi di pneumatici nelle vicinanze per capire la distanza che dovevo percorrere con il mio pneumatico run-flat e se dei negozi erano aperti. Inoltre, ho fatto una rapida valutazione delle recensioni dei clienti online e ho cercato di raccogliere qualcosa di utile su da quanto tempo erano in attività e altri fattori che potessero mostrare il loro valore.

Dopo aver chiamato uno dei negozi di pneumatici, l'impiegato mi ha dato un preventivo arioso per il costo del pneumatico e la sua installazione. La gomma non era esattamente quella che avevo in mente, ma l'impiegato mi ha assicurato che sarebbero stati l'unico negozio della zona che avrebbe potuto fare subito il lavoro. Secondo l'impiegato, nessuno degli altri negozi di pneumatici nelle vicinanze non avrebbe pneumatici di questo tipo in magazzino e ci vorrebbe almeno un giorno perché quei concorrenti ottengano uno pneumatico adatto da qualche magazzino semi-distante.

Ero nel mezzo di un'asimmetria informativa.

L'impiegato ha affermato di sapere di più sullo stato locale dei negozi di pneumatici e in particolare sul tipo di pneumatico di cui avevo bisogno. Mi trovavo in una zona che stavo solo attraversando e non avevo alcuna conoscenza diretta dei gommisti di quella particolare area geografica. Per quanto ne sapevo, l'impiegato era perfetto e mi stava dando la pura verità.

Ma l'impiegato lo faceva?

Forse sì forse no.

Potrebbe essere che l'impiegato credesse sinceramente a tutto ciò che mi veniva trasmesso. Per l'impiegato, questa era la verità. O forse l'impiegato stava in qualche modo snaturando la verità. Era possibile che ciò che veniva detto potesse essere vero, anche se il modo in cui veniva rappresentato implicava che fosse la verità assoluta e inconfutabile. Naturalmente, potrebbe anche essere stato un completo calvario e l'impiegato stava semplicemente pagando uno scellino per il negozio di pneumatici per raccogliere i miei affari. Potrebbe essere stata in gioco una commissione succosa?

Oserei dire che a nessuno piace essere in una posizione così perdente.

La posta in gioco della situazione è un fattore vitale per quanto conta un'asimmetria informativa. Se la domanda in questione è di natura di vita o di morte, essere nella cuccia e fare affidamento sull'altra parte per ciò che sanno o affermano di sapere è una posizione abbozzata e altamente indesiderabile in cui trovarsi. Quando la posta in gioco è bassa , come ordinare la cena in un ristorante e il cameriere ti dice che il piatto di pesce è divino, ma non ci hai mai mangiato prima e sei poco informato, puoi assecondare questo minimo di asimmetria informativa senza troppa angoscia (io supponiamo anche che stai anche scommettendo che il server non rischierebbe di dare consigli aspri e di perdere una mancia decente).

Tornando alla storia del pneumatico usurato (un gioco di parole!), Non avrei avuto modo istantaneo di capire se l'impiegato mi stava dando spunti affidabili e informativi. Ti starai chiedendo cosa è successo. Ho deciso di chiamare molti degli altri negozi di pneumatici nelle vicinanze.

Sei pronto per quello che ho scoperto?

Tutti gli altri negozi di pneumatici avevano in magazzino la mia gomma desiderata e non avrebbero provato a convincermi a prendere una gomma diversa (come ha cercato di fare il primo impiegato). Potrebbero anche portare a termine il lavoro nello stesso lasso di tempo del primo negozio di pneumatici che forse ho chiamato. Più o meno allo stesso prezzo.

Un gradito sospiro di sollievo si è tirato da parte mia, ve lo assicuro.

Ironia della sorte, nella legge della sfortuna di Murphy, il primo posto che ho contattato è stato l'unico che sembrava essere fuori a pranzo, per così dire. Sono contento di aver cercato di ottenere maggiori informazioni. Ciò ha ridotto il divario di asimmetria informativa. Mi sono applaudito per essere rimasto fedele alle mie pistole e non essere entrato nel primo posto in cui ho chiamato.

Detto questo, l'ottenimento di ulteriori informazioni comportava un certo costo. Ho fatto circa quattro chiamate, ciascuna delle quali ha impiegato dai quindici ai venti minuti per essere pienamente soddisfatte. In questo senso, ho impiegato circa un'ora e mezza mentre cercavo solo dove prendere la mia macchina. Se avessi portato immediatamente la mia macchina al primo posto, la nuova gomma sarebbe quasi stata sulla mia macchina a quel punto. D'altra parte, quasi certamente, in seguito, mi sarei pentito della rapida decisione che ho preso mentre ero in un vile vincolo di asimmetria informativa.

A volte devi stringere i denti e prendere la temuta asimmetria informativa come si presenta. Speri solo che qualunque decisione prendi, sarà abbastanza buona. Potrebbe non essere una decisione "perfetta" e in seguito potresti pentirti della scelta fatta. L'altro punto di vista è che potresti provare a rafforzare la tua parte dell'equazione dell'informazione, anche se questo non è necessariamente gratuito e potrebbe anche masticare tempo prezioso, a seconda che il tempo amato sia essenziale.

Ora che sei senza dubbio confortato nel sapere che la mia macchina funziona bene con il suo pneumatico nuovo di zecca e corretto, posso passare all'emergere dell'Asimmetria AI.

Considera una storia di dolore AI.

Stai cercando di ottenere un mutuo per la casa. Esiste un analizzatore di richieste di mutuo online utilizzato da una determinata banca. Il sistema online utilizza le odierne capacità avanzate di intelligenza artificiale. Non c'è bisogno di parlare con un agente di concessione di prestiti umani. L'IA fa tutto.

Il sistema di intelligenza artificiale ti guida attraverso una serie di richieste. Compili diligentemente i moduli e rispondi al sistema di intelligenza artificiale. Questa IA è molto loquace. Mentre in passato potresti aver utilizzato un sistema di moduli basato su computer convenzionale, questa variante di intelligenza artificiale è più simile all'interazione con un agente umano. Non del tutto, ma abbastanza da farti quasi credere che un essere umano fosse dall'altra parte di questa attività.

Dopo aver fatto del tuo meglio per "discutere" la tua richiesta con questa AI, alla fine, ti informa che purtroppo la richiesta di prestito non è stata approvata. Ti viene in mente che l'IA sembra scusarsi, come se l'IA volesse approvare il prestito, ma quegli umani meschini che sovrintendono alla banca non lasceranno che l'IA lo faccia. Per la mia copertura di quanto siano fuorvianti questi tipi di presunte scuse dell'IA, vedi il link qui.

Non hai idea del motivo per cui sei stato rifiutato. L'IA non offre alcuna spiegazione. Forse l'IA ha commesso un errore o ha sbagliato i suoi calcoli. Peggio ancora, supponiamo che l'IA abbia utilizzato alcune considerazioni altamente discutibili come la tua razza o il sesso quando ha deciso il prestito. Tutto quello che sai è che sembra che tu abbia perso tempo e che nel frattempo hai anche consegnato un sacco di dati privati ​​all'IA e alla banca. La loro IA ti ha battuto.

Questo sarebbe etichettato come un esempio di asimmetria AI.

Eri tu contro la banca. La banca era armata di AI. Non eri ugualmente armato. Avevi il tuo ingegno e la tua scuola di saggezza sui colpi duri, ma nessuna intelligenza artificiale risiedeva nella tua tasca posteriore. Mente contro una macchina. Purtroppo, la macchina ha vinto in questo caso.

Cosa stai per fare?

In primo luogo, dobbiamo renderci conto a livello sociale che questa asimmetria dell'IA sta crescendo e sta diventando quasi onnipresente. Gli esseri umani stanno incontrando l'IA in tutti i sistemi con cui interagiamo quotidianamente. A volte l'IA è l'unico elemento con cui interagiamo, come in questo esempio sulla richiesta di prestito. In altri casi, un essere umano potrebbe essere nel circuito che fa affidamento sull'intelligenza artificiale per aiutarlo a svolgere un determinato servizio. Per il prestito, potrebbe essere che la banca ti farebbe parlare con un agente umano invece di interagire con l'IA, ma per il quale l'agente umano sta utilizzando un sistema informatico per accedere all'IA che guida l'agente umano durante il processo di richiesta di prestito (e hai quasi sempre la certezza che l'agente umano agisca come se fosse imprigionato dovendo rigorosamente fare tutto ciò che l'IA "dice loro di fare").

Ad ogni modo, l'IA è ancora nel mix.

In secondo luogo, dobbiamo cercare di garantire che l'asimmetria dell'intelligenza artificiale venga eseguita almeno su una base etica dell'intelligenza artificiale.

Consentitemi di spiegare questa osservazione apparentemente strana. Vedete, se possiamo essere in qualche modo certi che l'IA agisce in modo eticamente corretto, potremmo avere un po' di conforto sull'asimmetria in gioco. Su una base in qualche modo analoga ma anche vaga, potresti dire che se la mia interazione con il primo commesso di un negozio di pneumatici avesse messo in atto e applicate alcune linee guida etiche stridenti, forse non mi sarebbe stata raccontata la storia che mi è stata raccontata, o almeno avrei forse non avrei dovuto cercare subito di scoprire se mi veniva raccontata una favola.

Tra poco spiegherò di più sull'etica dell'IA.

Terzo, dovremmo cercare modi per ridurre l'asimmetria dell'IA. Se avessi un'IA che era dalla tua parte, sforzandoti di essere il tuo allenatore o protettore, potresti essere in grado di usare quell'IA per fare dei contrattacchi con l'altra IA con cui stai andando testa a testa. Come si suol dire, a volte ha molto senso combattere il fuoco con il fuoco.

Prima di entrare in un altro po' di carne e patate sulle considerazioni selvagge e lanose alla base dell'asimmetria dell'IA, stabiliamo alcuni fondamenti aggiuntivi su argomenti profondamente essenziali. Dobbiamo fare un breve tuffo nell'etica dell'IA e in particolare nell'avvento del Machine Learning (ML) e del Deep Learning (DL).

Potresti essere vagamente consapevole del fatto che una delle voci più forti in questi giorni nel campo dell'IA e anche al di fuori del campo dell'IA consiste nel chiedere a gran voce una maggiore parvenza di IA etica. Diamo un'occhiata a cosa significa fare riferimento a AI Ethics e Ethical AI. Inoltre, esploreremo cosa intendo quando parlo di Machine Learning e Deep Learning.

Un particolare segmento o porzione dell'etica dell'intelligenza artificiale che ha ricevuto molta attenzione da parte dei media è costituito dall'intelligenza artificiale che mostra pregiudizi e disuguaglianze spiacevoli. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tra un momento, condividerò con voi alcuni principi generali alla base dell'etica dell'IA. Ci sono molti di questi tipi di elenchi che fluttuano qua e là. Si potrebbe dire che non esiste ancora un unico elenco di attrattive universali e di concorrenza. Questa è la sfortunata notizia. La buona notizia è che almeno ci sono elenchi di etica dell'IA prontamente disponibili e tendono ad essere abbastanza simili. Tutto sommato, questo suggerisce che attraverso una sorta di convergenza ragionata stiamo trovando la nostra strada verso una comunanza generale di ciò in cui consiste l'etica dell'IA.

Innanzitutto, esaminiamo brevemente alcuni dei precetti generali dell'IA etica per illustrare ciò che dovrebbe essere una considerazione vitale per chiunque crei, utilizzi o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, comprese metodologie trasparenti e verificabili, fonti di dati, procedure e documentazione di progettazione.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Assicuriamoci anche di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Torniamo al nostro focus sull'Asimmetria AI.

Un breve riepilogo dei miei tre consigli identificati sopra menzionati è questo:

1) Diventa consapevole che l'asimmetria AI esiste e sta crescendo

2) Cercare di garantire che l'asimmetria dell'IA sia limitata dall'etica dell'IA

3) Cerca di combattere l'asimmetria dell'IA armandoti con l'IA

Daremo un'occhiata più da vicino all'ultimo punto di combattere il fuoco con il fuoco.

Immagina che quando cerchi di ottenere un prestito, hai un'intelligenza artificiale che lavora dalla tua parte. Questa potrebbe essere un'app basata sull'intelligenza artificiale sul tuo smartphone progettata per ottenere prestiti. Non è un'app di una delle banche e invece è concepita in modo indipendente per agire per tuo conto. Ho descritto in dettaglio questo tipo di app nel mio libro sui robot angelo custode basati sull'intelligenza artificiale, vedi il link qui.

Dopo aver richiesto un prestito, potresti fare riferimento a questa app mentre vieni guidato attraverso il processo di richiesta dall'altra IA. Questi due sistemi di intelligenza artificiale sono distinti e completamente separati l'uno dall'altro. L'IA sul tuo smartphone è stata "addestrata" per conoscere tutti i trucchi utilizzati dall'altra IA. Pertanto, le risposte che inserisci nell'IA della banca si baseranno su ciò che la tua IA ti sta consigliando.

Un'altra variante consiste nella tua IA che risponde alle domande poste dall'altra IA. Per quanto le altre IA possono accertare, sei tu che stai inserendo le risposte. Potresti invece semplicemente guardare mentre le interazioni hanno luogo tra i due sistemi di intelligenza artificiale in battaglia. Ciò ti consente di vedere cosa offre la tua IA. Inoltre, puoi potenzialmente modificare la tua IA a seconda che tu sia soddisfatto di ciò che la tua IA sta facendo per tuo conto.

Ho previsto che gradualmente ci armeremo tutti con l'IA che sarà dalla nostra parte in queste situazioni di asimmetria dell'IA.

Consideriamo come andrà a finire.

Questi sono gli impatti fondamentali sulla condizione di asimmetria AI che avevo delineato:

  • Appiattimento dell'asimmetria dell'IA a tuo favore (portandoti in alto, sperando di raggiungere livelli uguali)
  • Stimolare un'asimmetria dell'IA a tuo favore (portandoti in vantaggio quando già sono uguali)
  • Potenziare un'asimmetria AI a tuo favore straordinario (guadagnando un vantaggio più ampio quando già in vantaggio)
  • Sottoquotazione involontaria dell'asimmetria dell'IA a tuo sfavore (quando avevi un vantaggio preesistente e l'IA ti ha inavvertitamente tirato giù)

È ora di fare un tuffo in queste intriganti possibilità.

Appiattire l'asimmetria dell'IA a tuo favore

Appiattire l'asimmetria dell'IA è la considerazione più ovvia e più spesso discussa, vale a dire che ti armerai di IA per cercare di andare in punta di piedi con l'IA utilizzata dall'altra parte nella questione in questione. L'impostazione dell'asimmetria AI è iniziata con te in netto svantaggio. Non avevi l'IA nel tuo angolo. Eri nella parte bassa delle cose. L'altra parte aveva l'IA ed erano su un terreno più alto.

Quindi, ti sei saggiamente armato di un'IA che mirerebbe a mettere te e l'altra IA in condizioni di parità.

Una sfumatura importante e forse sorprendente da tenere a mente è che non sarà sempre il caso che i sistemi di intelligenza artificiale utilizzati si equilibrino l'uno contro l'altro in modo uniforme. Potresti armarti di un'IA che è, per così dire, meno potente dell'IA utilizzata dall'altra parte. In tal caso, hai aumentato la tua posizione al ribasso, per fortuna, anche se ora non sei del tutto uguale all'altro lato e alla sua IA.

Ecco perché mi riferisco a questo come appiattimento dell'asimmetria AI. Potresti essere in grado di ridurre il divario, anche se non colmare completamente il divario. L'obiettivo finale sarebbe usare l'IA dalla tua parte che ti porterà a una postura completamente uguale. Il fatto è che questo potrebbe o non potrebbe essere fattibile. L'altra parte potrebbe plausibilmente avere dell'IA davvero costosa e stai cercando di competere con la versione parsimoniosa dell'IA da mercato mamme e pop.

Non tutta l'IA è la stessa.

Stimolare un'asimmetria dell'IA a tuo favore

Questa circostanza non è qualcosa di molto discusso oggi, in parte perché è raro in questo momento. Un giorno, questo sarà all'ordine del giorno. L'idea è che supponiamo che tu sia senza IA e tuttavia su un piano di parità con la parte che ha l'IA.

Buon per te.

Gli umani hanno il loro ingegno su di loro.

Ma potresti voler ottenere un vantaggio rispetto all'altra parte. Armarti di IA ti porta su un terreno più elevato. Ora hai il tuo ingegno e la tua fidata IA in mano. Hai ottenuto un vantaggio che presumibilmente prevarrà sull'IA dell'altra parte.

Potenziare un'asimmetria dell'IA a tuo favore straordinario

Usando una logica simile come aspetto di stimolare un'asimmetria AI per tuo conto, supponi di essere già al di sopra delle capacità dell'altra parte che sta usando l'IA. Ergo, non stai partendo da una posizione uguale. Per fortuna sei già in cima.

Potresti comunque voler assicurarti un vantaggio ancora maggiore. Pertanto, ti armi di IA. Questo porta la testa e le spalle sopra l'altro lato.

Riduzione involontaria dell'asimmetria dell'IA a tuo sfavore

Dubito che tu voglia sentire parlare di questa possibilità. Per favore, renditi conto che avere a che fare con l'IA non è solo rose e torte gelato.

Potrebbe essere che quando ti armi con l'IA, in realtà ti tagli. Se eri già inferiore all'IA dell'altro lato, ora sei in un buco più profondo. Se eri alla pari, ora sei in svantaggio. Se eri sopra l'altro lato, ora sei uguale o inferiore.

Come è potuto succedere?

Potresti essere scioccato nel pensare che l'IA che adotti ti porterà fuori strada. Questo potrebbe facilmente verificarsi. Solo perché hai l'IA nel tuo angolo non significa che sia utile. Potresti utilizzare l'IA e fornisce consigli che non ritieni necessariamente appropriati, ma decidi comunque di seguirla. La tua logica all'epoca era che dal momento che ti sei dato il disturbo di ottenere l'IA, avresti potuto anche fare affidamento su di essa.

L'IA che stai utilizzando potrebbe essere difettosa. Oppure potrebbe essere mal concepito. Ci sono una serie di ragioni per cui l'IA potrebbe darti consigli traballanti. Coloro che accettano ciecamente tutto ciò che l'IA dice di fare sono destinati a trovarsi in un mondo di dolore. Ho coperto tali situazioni difficili nella mia colonna, come ad esempio il link qui.

La linea di fondo è che non c'è assolutamente alcuna garanzia che solo perché ti armi di IA vincerai al gioco AI Asymmetry.

Potresti arrivare a condizioni di parità. Potresti ottenere un vantaggio. E, purtroppo, devi essere cauto poiché potrebbe essere che sprofondi a livelli bassi quando sei armato di IA.

In una certa misura, ecco perché AI Ethics and Ethical AI è un argomento così cruciale. I precetti di AI Ethics ci portano a rimanere vigili. I tecnologi dell'IA possono a volte interessarsi alla tecnologia, in particolare all'ottimizzazione dell'alta tecnologia. Non stanno necessariamente considerando le più ampie ramificazioni della società. Avere una mentalità etica dell'IA e farlo integralmente per lo sviluppo e la messa in campo dell'IA è vitale per produrre un'IA appropriata.

Oltre a impiegare l'etica dell'IA, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve almeno come un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. In effetti, avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società. Vedi ad esempio la mia copertura su il link qui ed il link qui.

A questo punto di questa pesante discussione, scommetto che sei desideroso di alcuni esempi illustrativi che potrebbero mostrare questo argomento. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sull'asimmetria dell'intelligenza artificiale e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e asimmetria dell'IA

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Spero che ciò fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Descriviamo uno scenario che mostra l'asimmetria dell'IA.

Contempla la questione apparentemente irrilevante di dove le auto a guida autonoma si sposteranno per prelevare i passeggeri. Questo sembra un argomento abbondantemente innocuo.

In un primo momento, supponiamo che le auto a guida autonoma agiranno in roaming per intere città. Chiunque voglia richiedere un passaggio in un'auto a guida autonoma ha essenzialmente le stesse possibilità di chiamarne uno. A poco a poco, l'IA inizia a mantenere principalmente le auto a guida autonoma in roaming in una sola sezione della città. Questa sezione è una fonte di denaro più grande e l'IA è stata programmata per provarci massimizzare ricavi come parte dell'utilizzo nella comunità in generale (questo sottolinea la mentalità alla base dell'ottimizzazione, vale a dire concentrarsi su una sola metrica particolare e trascurare altri fattori cruciali nel processo).

I membri della comunità nelle parti povere della città risultano essere meno propensi a farsi un giro da un'auto a guida autonoma. Questo perché le auto a guida autonoma erano più lontane e vagavano nella parte più redditizia della città. Quando una richiesta arriva da una parte lontana della città, qualsiasi altra richiesta da una posizione più vicina avrà una priorità maggiore. Alla fine, la disponibilità di avere un'auto a guida autonoma in qualsiasi luogo diverso dalla parte più ricca della città è quasi impossibile, e questo è esasperante per coloro che vivevano in quelle aree ormai prive di risorse.

Escono i decantati sogni di mobilità per tutti che le auto a guida autonoma dovrebbero dare vita.

Si potrebbe affermare che l'IA è sbarcata del tutto su una forma di distorsione statistica e computazionale, simile a una forma di discriminazione per procura (spesso indicata anche come discriminazione indiretta). Renditi conto che l'IA non è stata programmata per evitare quei quartieri più poveri. Cerchiamo di essere chiari su questo in questo caso. No, è stato invece ideato per ottimizzare semplicemente le entrate, un obiettivo apparentemente accettabile, ma ciò è stato fatto senza che gli sviluppatori di IA pensassero ad altre potenziali ramificazioni. Tale ottimizzazione, a sua volta, inconsapevolmente e inevitabilmente ha portato a un risultato indesiderabile.

Se avessero incluso le considerazioni sull'etica dell'intelligenza artificiale come parte della loro mentalità di ottimizzazione, avrebbero potuto rendersi conto in anticipo che, a meno che non avessero creato l'IA per far fronte a questo tipo di sovradimensionamento su una sola metrica, avrebbero potuto evitare risultati così cupi. Per ulteriori informazioni su questi tipi di problemi che potrebbero incorrere nell'adozione diffusa di veicoli autonomi e auto a guida autonoma, vedere la mia copertura all'indirizzo questo link qui, descrivendo uno studio condotto da Harvard di cui sono coautore su questi argomenti.

In ogni caso, supponiamo che il cavallo sia già fuori dalla stalla e che la situazione non sia immediatamente suscettibile di soluzioni generali.

Cosa potrebbero fare coloro che vogliono usare quelle auto a guida autonoma?

L'approccio più evidente sarebbe quello di lavorare con i leader della comunità per convincere la casa automobilistica o l'azienda tecnologica a guida autonoma a riconsiderare il modo in cui hanno impostato l'IA. Forse fare pressione su qualsiasi licenza o permesso che sia stato concesso per il dispiegamento di quelle auto a guida autonoma in quella città o paese. Questi sono probabilmente mezzi praticabili per apportare cambiamenti positivi, anche se potrebbe volerci del tempo prima che questi sforzi diano i loro frutti.

Un altro angolo sarebbe quello di armarsi di intelligenza artificiale.

Immagina che qualcuno abbia abilmente ideato un'app basata sull'intelligenza artificiale che funzioni sul tuo smartphone e si occupi dell'intelligenza artificiale della casa automobilistica o dell'operatore della flotta che riceve richieste di corse. Potrebbe essere che l'IA che stai utilizzando sfrutti elementi chiave dell'altra IA in modo tale che alla tua richiesta di un'auto a guida autonoma venga data maggiore priorità. Nota che non sto suggerendo che stia accadendo qualcosa di illegale, ma invece che l'IA dalla tua parte è stata sviluppata sulla base di "caratteristiche" scoperte o persino scappatoie nell'altra IA.

Conclusione

La storia della lotta sfacciata contro l'IA dell'operatore della flotta di auto a guida autonoma armata di IA solleva ulteriori controversie e considerazioni sull'etica dell'IA.

Per esempio:

  • Se una persona può utilizzare l'IA per dare loro un vantaggio rispetto a un'IA di qualche altro sistema, fino a che punto può arrivare questo in termini di possibilmente attraversare i confini dell'etica dell'IA (convinco le auto a guida autonoma a venire da me e dai miei amici, ad esclusione di tutti gli altri)?
  • Inoltre, c'è una parvenza di considerazione dell'etica dell'IA secondo cui se qualcuno sa o è armato di IA per combattere con altre IA, le persone rimanenti che non hanno quell'IA di bilanciamento dovrebbero essere in qualche modo allertate sull'IA ed essere in grado di armarsi anche di conseguenza?

Alla fine, tutto questo ci sta portando in un futuro che sembra inquietante, costituito da una corsa agli armamenti dell'IA. Chi avrà l'IA di cui ha bisogno per spostarsi e sopravvivere e chi no? Ci sarà sempre un'altra IA che arriva e fa nascere la necessità di un'IA controbilanciata?

Carl Sagan, il venerato scienziato, ha fornito questa saggia saggezza sulle corse agli armamenti particolarmente catastrofiche: "La corsa agli armamenti nucleari è come due nemici giurati in piedi nella benzina, uno con tre fiammiferi, l'altro con cinque".

Dobbiamo puntare con decisione a mantenere i piedi asciutti e la testa chiara quando si tratta di una corsa agli armamenti dell'IA sempre incombente.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- del bastone/