Etica dell'IA e legge sull'IA che chiariscono cosa in realtà è un'IA affidabile

La fiducia è tutto, così dicono.

Il noto filosofo Lao Tzu ha affermato che coloro che non si fidano abbastanza non avranno fiducia. Ernest Hemingway, uno stimato romanziere, ha affermato che il modo migliore per scoprire se ci si può fidare di qualcuno è fidarsi di loro.

Nel frattempo, sembra che la fiducia sia preziosa e fragile. La fiducia che si ha può crollare come un castello di carte o esplodere all'improvviso come un palloncino scoppiato.

L'antico tragico greco Sofocle affermava che la fiducia muore ma la sfiducia fiorisce. Il filosofo e matematico francese Descartes sosteneva che è prudente non fidarsi mai del tutto di coloro che ci hanno ingannato nemmeno una volta. Lo straordinario investitore miliardario Warren Buffett ha esortato che ci vogliono vent'anni per costruire una reputazione affidabile e cinque minuti per rovinarla.

Potresti essere sorpreso di sapere che tutti questi punti di vista diversi e opinioni provocatorie sulla fiducia sono cruciali per l'avvento dell'Intelligenza Artificiale (AI).

Sì, c'è qualcosa di acutamente chiamato IA affidabile che continua a ricevere un sacco di attenzioni in questi giorni, compresi i richiami strazianti dall'interno del campo dell'IA e anche chiassosi sfoghi da parte di coloro al di fuori del regno dell'IA. L'idea generale implica se la società sarà o meno disposta a riporre fiducia in sistemi come l'IA.

Presumibilmente, se la società non vuole o non può fidarsi dell'IA, è probabile che i sistemi di intelligenza artificiale non riescano a ottenere trazione. L'IA come la conosciamo attualmente verrà messa da parte e raccoglierà semplicemente polvere. Incredibilmente, l'IA potrebbe finire nel mucchio di spazzatura, relegata storicamente a nient'altro che un esperimento high-tech disperatamente provato ma fallito in modo spettacolare. Qualsiasi tentativo di rinvigorire l'IA potrebbe potenzialmente affrontare una tremenda battaglia in salita e essere fermato da ogni sorta di obiezioni e proteste a titolo definitivo. Apparentemente, a causa della mancanza di fiducia nell'IA.

Quale dovrebbe essere, dobbiamo fidarci dell'IA o non dobbiamo fidarci dell'IA?

In sostanza, avremo davvero un'IA affidabile?

Queste sono domande precedenti e irrisolte. Disimballiamolo.

Etica dell'IA e lotta per un'IA affidabile

La convinzione di molti all'interno dell'IA è che gli sviluppatori di sistemi di intelligenza artificiale possano ottenere fiducia nell'IA ideando in modo appropriato un'IA affidabile. L'essenza è che non puoi sperare di guadagnare fiducia se l'IA non è apparentemente affidabile all'inizio. Creando sistemi di intelligenza artificiale in un modo che sia percepito come affidabile, c'è una solida possibilità che le persone accettino l'IA e adottino usi dell'IA.

Uno scrupolo che già assilla questa considerazione affidabile sull'IA è che potremmo già essere in a deficit di fiducia pubblica quando si tratta di IA. Si potrebbe dire che l'IA che abbiamo già visto ha scavato un buco e ha sminuito la fiducia in quantità enormi. Pertanto, piuttosto che partire da una base sufficiente di affidabilità, l'IA dovrà uscire sorprendentemente dal deficit, cercando ogni grammo di fiducia in più che sarà necessario per convincere le persone che l'IA è effettivamente affidabile.

In questa sfida arrivano AI Ethics e AI Law.

L'etica dell'IA e la legge sull'intelligenza artificiale stanno lottando duramente per cercare di capire cosa sarà necessario per rendere affidabile l'IA. Alcuni suggeriscono che esiste una formula o leggi ferree che porteranno l'IA nei cieli affidabili. Altri indicano che ci vorrà un duro lavoro e un'adesione coerente e inesorabile all'etica dell'IA e ai principi della legge sull'intelligenza artificiale per ottenere la decantata fiducia della società.

L'enigma contemporaneo sulla fiducia nell'IA non è particolarmente nuovo di per sé.

Puoi facilmente tornare alla fine degli anni '1990 e tracciare l'emergere di un ricercato desiderio di "informatica affidabile" di quei giorni. Questo è stato uno sforzo dell'industria tecnologica su larga scala per discernere se i computer in tutto e per tutto potevano essere realizzati in un modo che sarebbe stato interpretato come affidabile dalla società.

Le domande chiave consistevano in:

  • L'hardware del computer potrebbe essere realizzato in modo tale da essere affidabile?
  • Il software potrebbe essere creato in modo tale da essere affidabile?
  • Potremmo mettere in atto computer in rete globali che siano affidabili?
  • E così via.

Il sentimento prevalente allora e che continua ancora oggi è che l'informatica affidabile rimanga un tipo di Santo Graal che purtroppo non è ancora del tutto alla nostra portata (come notato in un articolo intitolato "IA affidabile" nel Comunicazioni dell'ACM). Si potrebbe sostenere in modo convincente che l'IA è ancora un altro componente dell'envelopment dell'affidabilità informatica, ma l'IA rende la ricerca della fiducia ancora più impegnativa e incerta. L'intelligenza artificiale è diventata il potenziale spoiler nella lotta per ottenere un'informatica affidabile. Forse l'anello più debole della catena, per così dire.

Diamo una rapida occhiata al motivo per cui l'IA ha sollevato il nostro problema di essere meno che affidabile. Inoltre, esploreremo i principi dell'etica dell'IA che si spera aiutino a sostenere la fiducia percepita già semi-sommersa (o la sfiducia ribollente) dell'IA di oggi. Per la mia copertura continua ed estesa dell'etica dell'IA, vedere il link qui ed il link qui, solo per citarne alcuni.

Un particolare segmento o porzione dell'etica dell'intelligenza artificiale che ha ricevuto molta attenzione da parte dei media è costituito dall'intelligenza artificiale che mostra pregiudizi e disuguaglianze spiacevoli. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tra un momento, condividerò con voi alcuni principi generali alla base dell'etica dell'IA. Ci sono molti di questi tipi di elenchi che fluttuano qua e là. Si potrebbe dire che non esiste ancora un unico elenco di attrattive universali e di concorrenza. Questa è la sfortunata notizia. La buona notizia è che almeno ci sono elenchi di etica dell'IA prontamente disponibili e tendono ad essere abbastanza simili. Tutto sommato, questo suggerisce che attraverso una sorta di convergenza ragionata stiamo trovando la nostra strada verso una comunanza generale di ciò in cui consiste l'etica dell'IA.

Innanzitutto, esaminiamo brevemente alcuni dei precetti generali dell'IA etica per illustrare ciò che dovrebbe essere una considerazione vitale per chiunque crei, utilizzi o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, comprese metodologie trasparenti e verificabili, fonti di dati, procedure e documentazione di progettazione.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Assicuriamoci anche di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Colleghiamo questo alla domanda sull'IA affidabile

Certamente non sembreremmo disposti a fidarci dell'IA che mostra pregiudizi negativi e azioni discriminatorie. La nostra convinzione, in tal caso, sarebbe che tale IA non è decisamente affidabile, quindi tenderemmo a diffidare attivamente dell'IA. Senza esagerare con un confronto antropomorfo (dirò di più sull'antropomorfizzazione dell'IA tra un momento), anche un essere umano che mostrava pregiudizi sfavorevoli sarebbe soggetto a valutazione come non particolarmente affidabile.

Scavare nella fiducia e nell'affidabilità

Forse dovremmo dare un'occhiata a cosa intendiamo quando affermiamo che ci fidiamo o non ci fidiamo di qualcuno o qualcosa. Innanzitutto, considera diverse definizioni di fiducia del dizionario di tutti i giorni.

Esempi di cosa significa fiducia in termini di definizione sono:

  • Affidamento sicuro al carattere, alle capacità, alla forza o alla verità di qualcuno o qualcosa (Dizionario online Merriam-Webster).
  • Affidarsi all'integrità, alla forza, all'abilità, alla sicurezza, ecc., di una persona o di una cosa (Dictionary.com)
  • Convinzione ferma nell'affidabilità, verità, capacità o forza di qualcuno o qualcosa (Dizionario online delle lingue di Oxford).

Vorrei sottolineare che tutte queste definizioni si riferiscono a "qualcuno" e allo stesso modo si riferiscono a "qualcosa" come potenzialmente degno di fiducia. Ciò è notevole poiché alcuni potrebbero insistere sul fatto che ci fidiamo solo degli esseri umani e che l'atto di fidarsi è riservato esclusivamente all'umanità come nostro obiettivo di affidabilità. Non così. Puoi fidarti del tuo tostapane da cucina. Se sembra fare il tuo toast in modo affidabile e funziona regolarmente per farlo, puoi sicuramente avere una parvenza di fiducia sul fatto che il tostapane sia effettivamente affidabile.

Nella stessa linea di pensiero, l'IA può anche essere oggetto del nostro punto di vista della fiducia. Le probabilità sono che la fiducia associata all'IA sarà molto più complicata di un banale tostapane. Un tostapane di solito può fare solo una manciata di azioni. È probabile che un sistema di intelligenza artificiale sia molto più complesso e sembri funzionare in modo meno trasparente. La nostra capacità di valutare e accertare l'affidabilità dell'IA è destinata a essere molto più difficile e a presentare sfide distinte.

Oltre ad essere solo più complesso, si dice che un tipico sistema di intelligenza artificiale non sia deterministico e potenzialmente autoregolante o autoregolante. Possiamo esplorare brevemente questa nozione.

Una macchina deterministica tende a fare le stesse cose più e più volte, in modo prevedibile e con un modello chiaramente distinguibile di come sta operando. Si potrebbe dire che un tostapane comune brinda più o meno allo stesso modo e ha controlli di tostatura che moderano la tostatura, tutti generalmente prevedibili dalla persona che usa il tostapane. Al contrario, i complessi sistemi di intelligenza artificiale sono spesso concepiti per essere non deterministici, il che significa che potrebbero fare cose molto diverse oltre a quanto ci si potrebbe altrimenti aspettare. Ciò potrebbe in parte anche essere ulteriormente amplificato se l'IA viene scritta per auto-regolarsi, un aspetto che può consentire vantaggiosamente all'IA di migliorare nel caso di ML/DL, sebbene possa anche causare inquietudine l'IA o entrare nei ranghi della malvagità dell'IA. Potresti non sapere cosa ti ha colpito, per così dire, dato che sei stato colto completamente alla sprovvista dalle azioni dell'IA.

Cosa potremmo fare per cercare di avvicinare l'IA all'affidabilità?

Un approccio consiste nel cercare di garantire che coloro che costruiscono e mettono in campo l'IA rispettino una serie di precetti di etica dell'IA. Come menzionato da questi ricercatori di intelligenza artificiale: “La fiducia è un atteggiamento secondo cui un agente si comporterà come previsto e su cui si può fare affidamento per raggiungere il suo obiettivo. La fiducia si interrompe dopo un errore o un'incomprensione tra l'agente e l'individuo fiducioso. Lo stato psicologico di fiducia nell'IA è una proprietà emergente di un sistema complesso, che di solito coinvolge molti cicli di progettazione, formazione, implementazione, misurazione delle prestazioni, regolamentazione, riprogettazione e riqualificazione” (indicato nella Comunicazioni dell'ACM, "Trust, Regulation, and Human-in-the-Loop AI Within the European Region" di Stuart Middleton, Emmanuel Letouze, Ali Hossaini e Adriane Chapman, aprile 2022).

Il succo è che se riusciamo a convincere gli sviluppatori di IA a rispettare l'IA etica, si spera che finiscano per produrre un'IA affidabile. Va tutto bene, ma sembra alquanto impraticabile nel mondo reale, anche se è assolutamente un percorso che vale la pena perseguire.

Ecco cosa intendo.

Supponiamo che uno sforzo diligente sia intrapreso dagli sviluppatori di IA che realizzano un sistema di intelligenza artificiale per uno scopo che generalmente chiameremo X. Si assicurano attentamente che l'IA rispetti i precetti di trasparenza dell'etica dell'IA. Garantiscono accuratamente che la privacy sia adeguatamente integrata nell'IA. Per quasi tutti i soliti principi di etica dell'IA, i costruttori di IA assicurano in modo esaustivo che l'IA soddisfi il precetto dato.

Ora dovresti fidarti di quell'IA?

Permettimi di aiutarti a filtrare i tuoi pensieri su quella domanda a risposta aperta.

Si scopre che i criminali informatici sono riusciti a infiltrarsi nell'IA e a convincere di nascosto l'IA a eseguire X e tuttavia anche a fornire ai cyber hacker tutti i dati che l'IA sta raccogliendo. Così facendo, questi malfattori stanno insidiosamente minando il precetto della privacy. Sei beatamente inconsapevole che questo sta accadendo sotto il cofano dell'IA.

Con quell'informazione aggiunta, ti farò di nuovo la stessa domanda.

Ti fidi di quell'IA?

Oserei dire che la maggior parte delle persone dichiarerebbe subito di sì non fidati di questa particolare IA. Potrebbero essersi fidati prima. Ora scelgono di non considerare più affidabile l'IA.

Alcuni spunti chiave basati su questo semplice esempio meritano di essere presi in considerazione:

  • Dinamica della fiducia. Anche le migliori intenzioni di coprire tutte le basi per garantire che l'etica dell'IA sia integrata in un sistema di intelligenza artificiale non sono una garanzia di ciò che l'IA potrebbe rivelarsi o diventare. Una volta che l'IA è stata utilizzata, gli estranei possono potenzialmente minare gli accumuli di IA etica.
  • Sminuire la fiducia dall'interno. L'atto di minare l'affidabilità non deve necessariamente essere esterno. Un insider che sta effettuando una manutenzione regolare del sistema di intelligenza artificiale potrebbe sbagliare e indebolire l'IA rendendola meno affidabile. Questo sviluppatore di intelligenza artificiale potrebbe essere all'oscuro di ciò che ha creato.
  • Compromessi involontari della fiducia. Un'IA autoregolante o autoregolante potrebbe a un certo punto adattarsi e virare nel territorio inaffidabile. Forse l'IA tenta di rafforzare la trasparenza dell'IA e tuttavia compromette simultaneamente e in modo inappropriato gli aspetti della privacy.
  • Dispersione di fiducia. Cercare di raggiungere tutti i principi dell'etica dell'IA con lo stesso massimo grado di affidabilità di solito non è facilmente praticabile poiché spesso hanno scopi incrociati o hanno altri potenziali conflitti intrinseci. È una prospettiva piuttosto idealizzata credere che tutti i precetti dell'IA etica siano allineati in modo sognante e tutti raggiungibili in un certo grado egualmente massimizzabile.
  • La fiducia può essere costosa da raggiungere. Il costo per cercare di ottenere una parvenza di prim'ordine di IA affidabile intraprendendo i vari passaggi ampi ed esaustivi e rispettando la litania dei principi di etica dell'IA sarà relativamente alto. Si può facilmente sostenere che il costo sarebbe proibitivo in termini di utilizzo di alcuni sistemi di intelligenza artificiale che altrimenti avrebbero un valore importante per la società, anche se l'IA fosse, per così dire, meno che ideale per un desiderio di affidabilità.
  • E così via.

Non interpretare erroneamente le osservazioni precedenti per suggerire che dovremmo in qualche modo evitare lo sforzo di costruire a fondo e mettere in campo un'IA affidabile. Butteresti via sommariamente il bambino con l'acqua sporca, per così dire. L'interpretazione corretta è che abbiamo bisogno di svolgere quelle attività di fiducia per portare l'IA in una considerazione affidabile, eppure questo da solo non è un toccasana o un proiettile d'argento.

Percorsi su più fronti verso un'IA affidabile

Esistono altri importanti modi su più fronti per lottare verso un'IA affidabile.

Ad esempio, come ho già spiegato nei miei articoli, una miriade di nuove leggi e regolamenti emergenti riguardanti l'IA mira a guidare i produttori di IA verso l'ideazione di un'IA affidabile, vedi il link qui ed il link qui.

Questi guardrail legali sono cruciali come mezzo generale per assicurarsi che coloro che escogitano l'IA siano ritenuti pienamente responsabili della loro IA. Senza tali potenziali rimedi legali e sanzioni legali, è probabile che coloro che spingono alla rinfusa l'IA nel mercato continueranno a farlo con poca o nessuna seria considerazione per il raggiungimento di un'IA affidabile. Potrei aggiungere in particolare che se tali leggi e regolamenti sono concepiti in modo inadeguato o implementati in modo inadeguato, potrebbero purtroppo minare la ricerca di un'IA affidabile, forse ironicamente e stranamente promuovendo un'IA inaffidabile rispetto a un'IA affidabile (vedi le mie discussioni nella colonna per ulteriori spiegazioni).

Sono stato anche un convinto sostenitore di ciò che ho ardentemente chiamato Robot angelo custode dell'IA (vedi la mia copertura su il link qui). Questo è un metodo o un approccio imminente per cercare di combattere il fuoco con il fuoco, vale a dire l'utilizzo dell'IA per aiutarci a trattare con altre IA che potrebbero o meno essere affidabili.

In primo luogo, sarà utile un contesto in background.

Supponiamo che tu stia optando per fare affidamento su un sistema di intelligenza artificiale di cui non sei sicuro della sua affidabilità. Una preoccupazione chiave potrebbe essere che sei solo nei tuoi tentativi di scoprire se l'IA deve essere attendibile o meno. L'IA è potenzialmente computazionalmente più veloce di te e può trarre vantaggio da te. Hai bisogno di qualcuno o qualcosa dalla tua parte che ti aiuti.

Una prospettiva è che ci dovrebbe sempre essere un essere umano nel ciclo che servirà ad aiutarti mentre stai facendo uso di un sistema di intelligenza artificiale. Questa però è una soluzione problematica. Se l'IA funziona in tempo reale, cosa di cui parleremo momentaneamente quando si tratta dell'avvento delle auto a guida autonoma basate sull'IA, avere un essere umano nel circuito potrebbe non essere sufficiente. L'IA potrebbe agire in tempo reale e nel momento in cui un essere umano designato entra nel circuito per capire se l'IA funziona correttamente, potrebbe essersi già verificato un risultato catastrofico.

Per inciso, questo solleva un altro fattore sulla fiducia. Di solito assegniamo un livello di fiducia in base al contesto o alla circostanza che stiamo affrontando. Potresti fidarti completamente che tuo figlio o tua figlia siano fedeli a te, ma se stai facendo un'escursione e decidi di affidarti al bambino per dirti se è sicuro calpestare il bordo di una scogliera, penso che saresti saggio per valutare se il bambino può fornire quel tipo di consiglio di vita o di morte. Il bambino potrebbe farlo con serietà e sincerità e, tuttavia, non essere in grado di fornire adeguatamente tali consigli.

La stessa nozione è associata alla fiducia quando si parla di IA. Un sistema di intelligenza artificiale che stai utilizzando per giocare a dama o scacchi probabilmente non è coinvolto in alcuna deliberazione di vita o di morte. Puoi essere più a tuo agio con il tuo incarico di fiducia. Un'auto a guida autonoma basata sull'intelligenza artificiale che percorre un'autostrada ad alta velocità richiede un livello di fiducia molto più faticoso. Il minimo inconveniente del sistema di guida dell'IA potrebbe portare direttamente alla tua morte e alla morte di altri.

In un'intervista pubblicata di Beena Ammanath, Direttore Esecutivo del Global Deloitte AI Institute e autrice del libro IA affidabile, un'enfasi simile sulla considerazione delle sfaccettature contestuali di dove entra in gioco l'affidabilità dell'IA: "Se stai costruendo una soluzione di intelligenza artificiale che esegue la diagnosi del paziente, l'equità e il pregiudizio sono estremamente importanti. Ma se stai costruendo un algoritmo che prevede il guasto del motore a reazione, l'equità e il pregiudizio non sono così importanti. L'IA affidabile è davvero una struttura per iniziare a pensare alle dimensioni della fiducia all'interno della tua organizzazione” (VentureBeat, 22 marzo 2022).

Quando si discute di un'IA affidabile, è possibile interpretare questo argomento in molti modi.

Per esempio, IA affidabile è qualcosa che tutti noi consideriamo un obiettivo desiderabile e ambizioso, vale a dire che dovremmo essere desiderosi di ideare e promulgare un'IA affidabile. C'è un altro uso dello slogan. Un uso alquanto alternativo è quello IA affidabile è uno stato di condizione o misurazione, tale che qualcuno potrebbe affermare di aver realizzato un sistema di intelligenza artificiale che è un'istanza di intelligenza artificiale affidabile. Puoi anche usare la frase IA affidabile per suggerire un metodo o un approccio che può essere utilizzato per raggiungere l'affidabilità dell'IA. Eccetera.

In una nota correlata, confido che ti rendi conto che non tutta l'IA è la stessa e che dobbiamo essere consapevoli di non fare affermazioni generali su tutta l'IA. È probabile che un particolare sistema di IA sia significativamente diverso da un altro sistema di IA. Uno di questi sistemi di intelligenza artificiale potrebbe essere altamente affidabile, mentre l'altro potrebbe essere marginalmente affidabile. Sii cauto nel presumere in qualche modo che l'IA sia un monolite che è del tutto affidabile o del tutto inaffidabile.

Questo non è semplicemente il caso.

Vorrei quindi illustrare brevemente alcune delle mie ricerche in corso sull'IA affidabile che potresti trovare di interesse, coprendo il ruolo emergente di Robot angelo custode dell'IA.

Ecco come va.

Saresti armato con un sistema di intelligenza artificiale (un robot angelo custode dell'IA) ideato per misurare l'affidabilità di qualche altro sistema di intelligenza artificiale. Il robot angelo custode AI ha come obiettivo fondamentale la tua sicurezza. Pensa a questo come se avessi i mezzi per monitorare l'IA su cui fai affidamento avendo un sistema di intelligenza artificiale diverso nella tua vera tasca, magari in esecuzione sul tuo smartphone o altri dispositivi simili. Il tuo proverbiale guardiano dell'IA può calcolare sulla base che lo fa anche l'IA su cui fai affidamento, lavorando a velocità elevate e calcolando la situazione a portata di mano in tempo reale, molto più velocemente di quanto potrebbe fare un essere umano nel ciclo.

A prima vista potresti pensare che l'IA su cui fai già affidamento dovrebbe averne un po' interno Guardrail AI che fanno lo stesso di questo bot angelo custode dell'IA che calcola separatamente. Sì, sarebbe certamente desiderato. Una preoccupazione è che i guardrail dell'IA integrati in un sistema di IA potrebbero essere integralmente e pregiudizialmente allineati con l'IA di per sé, quindi il presunto guardrail dell'IA non è più in grado in un certo senso di verificare o convalidare in modo indipendente l'IA.

L'idea contrastante è che il tuo bot angelo custode dell'IA sia un meccanismo di intelligenza artificiale indipendente o di terze parti che è distinto dall'IA su cui fai affidamento. Si trova al di fuori dell'altra IA, rimanendo dedicato a te e non dedicato all'IA monitorata o valutata.

Un mezzo diretto per pensare a questo può essere espresso attraverso le seguenti affermazioni semplificate simili a equazioni. Potremmo dire che "P" desidera potenzialmente fidarsi di "R" per svolgere un particolare compito "X":

Questo sarebbe il seguente quando sono coinvolte solo le persone:

  • La persona P si affida alla persona R per svolgere il compito X.

Quando scegliamo di affidarci all'IA, la dichiarazione si rimodella in questo modo:

  • La persona P si fida dell'istanza AI-R per eseguire l'attività X.

Possiamo aggiungere il robot angelo custode AI dicendo questo:

  • La persona P si fida dell'istanza AI-R per svolgere l'attività X come monitorata dall'istanza del robot dell'angelo custode AI-Z

Il robot angelo custode dell'IA sta valutando instancabilmente e senza sosta l'IA su cui fai affidamento. In quanto tale, il tuo pratico tutore dell'IA potrebbe avvisarti che la fiducia di quest'altra IA non è giustificata. Oppure, il custode dell'IA potrebbe interagire elettronicamente con l'altra IA per cercare di garantire che qualsiasi variazione rispetto all'essere affidabile venga rapidamente corretta, e così via (vedi la mia copertura su tali dettagli all'indirizzo il link qui).

La metafora del Trusty Trust Reservoir

Dal momento che stiamo discutendo di vari livelli di fiducia, potresti trovare utile una metafora utile sull'affidabilità concependo la fiducia come un tipo di riserva.

Hai una certa fiducia per una particolare persona o cosa in una particolare circostanza in un determinato momento. Il livello della fiducia aumenterà o diminuirà, a seconda di cos'altro accade in relazione a quella particolare persona o cosa. La fiducia potrebbe essere a un livello zero quando non hai alcuna fiducia per la persona o la cosa. La fiducia potrebbe essere negativa quando ti avventuri ad avere sfiducia nei confronti di quella persona o cosa.

Nel caso dei sistemi di intelligenza artificiale, il tuo serbatoio di fiducia per la particolare IA su cui fai affidamento in una particolare circostanza aumenterà o diminuirà a seconda della tua valutazione dell'affidabilità dell'IA. A volte, potresti essere ben consapevole di questo diverso livello di fiducia sull'IA, mentre in altri casi potresti essere meno consapevole e maggiormente per la sensazione di esprimere giudizi sull'affidabilità.

I modi di cui abbiamo discusso qui i mezzi per aumentare i livelli di fiducia per l'IA includono:

  • Adesione all'etica dell'IA. Se l'IA su cui fai affidamento è stata concepita cercando di aderire ai precetti etici dell'IA, presumibilmente useresti questa comprensione per aumentare il livello del tuo serbatoio di fiducia per quel particolare sistema di IA. Come nota a margine, è anche possibile che tu possa generalizzare ad altri sistemi di intelligenza artificiale per quanto riguarda la loro affidabilità, allo stesso modo, anche se a volte questa può essere una forma fuorviante di ciò che chiamo La diffusione dell'aura di fiducia dell'IA (sii ​​cauto nel farlo!).
  • Usa un Human-In-The-Loop. Se l'IA ha un essere umano nel ciclo, potresti aumentare positivamente la tua fiducia percepita nell'IA.
  • Stabilire leggi e regolamenti. Se ci sono leggi e regolamenti associati a questo particolare tipo di IA, potresti anche aumentare il tuo livello di fiducia.
  • Impiega un robot angelo custode AI. Se hai un robot angelo custode AI pronto, anche questo aumenterà ulteriormente il tuo livello di fiducia.

Come accennato in precedenza, la fiducia può essere piuttosto fragile e andare in pezzi in un istante (cioè, il serbatoio di fiducia scarica rapidamente e improvvisamente tutta la fiducia accumulata).

Immagina di essere all'interno di un'auto a guida autonoma basata sull'intelligenza artificiale e la guida dell'IA fa improvvisamente una svolta a destra radicale, facendo stridere le ruote e quasi costringendo il veicolo autonomo a un pericoloso ribaltamento. Cosa accadrebbe al tuo livello di fiducia? Sembrerebbe che anche se in precedenza avessi tenuto l'IA a un livello di fiducia elevato, ridurresti drasticamente e bruscamente il tuo livello di fiducia, in modo sensato.

A questo punto di questa pesante discussione, scommetto che desideri ulteriori esempi illustrativi che potrebbero mostrare la natura e la portata di un'IA affidabile. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sulla ricerca di un'IA affidabile e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e intelligenza artificiale affidabile

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Confido che fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Ora siamo pronti per fare un tuffo profondo nelle auto a guida autonoma e nell'IA affidabile.

La fiducia è tutto, specialmente nel caso delle auto a guida autonoma basate sull'intelligenza artificiale.

La società sembra guardare con cautela all'emergere delle auto a guida autonoma. Da un lato, c'è una grande speranza che l'avvento di vere auto a guida autonoma riduca in modo dimostrabile il numero di decessi annuali legati alle auto. Solo negli Stati Uniti ci sono circa 40,000 morti all'anno e circa 2.5 milioni di feriti a causa di incidenti stradali, vedi la mia raccolta di statistiche su il link qui. Gli esseri umani bevono e guidano. Gli esseri umani guidano mentre sono distratti. Il compito di guidare un'auto sembra consistere nel riuscire a concentrarsi in modo ripetitivo e infallibile sulla guida ed evitare di finire in incidenti stradali. Pertanto, potremmo sperare sognante che i sistemi di guida dell'IA guideranno le auto a guida autonoma in modo ripetitivo e infallibile. È possibile interpretare le auto a guida autonoma come un'alternativa, consistente nel ridurre il volume delle vittime e dei feriti in incidenti stradali, oltre a rendere potenzialmente disponibile la mobilità su una base molto più ampia e accessibile.

Ma la preoccupazione nel frattempo incombe sulle percezioni della società in merito al fatto che le auto a guida autonoma saranno abbastanza sicure da essere in generale sulle nostre strade pubbliche.

Se anche un'auto a guida autonoma subisce un incidente o una collisione che porta a un singolo decesso o lesioni gravi, è probabile che la fiducia odierna in qualche modo accumulata nei confronti di quelle auto senza conducente basate sull'intelligenza artificiale diminuirà precipitosamente. Lo abbiamo visto accadere quando si è verificato l'ormai famigerato incidente in Arizona che ha coinvolto un'auto in qualche modo (non proprio) a guida autonoma che si è imbattuta e ha ucciso un pedone (vedi la mia copertura su questo link qui).

Alcuni esperti sottolineano che è ingiusto e inappropriato basare la fiducia delle auto a guida autonoma con intelligenza artificiale sul fatto che solo uno di questi incidenti o collisioni che producono morte potrebbe minare le prove su strade pubbliche già relativamente prive di incidenti. Inoltre, su una base ulteriormente ingiusta, le probabilità sono che, indipendentemente dal particolare marchio di auto a guida autonoma o modello di intelligenza artificiale, per caso venga coinvolto in un incidente doloroso, la società indubbiamente incolperebbe tutti i marchi di auto a guida autonoma.

La totalità delle auto a guida autonoma potrebbe essere sommariamente diffamata e l'industria nel suo insieme potrebbe subire un enorme contraccolpo che porta alla possibile chiusura di tutte le prove su strada pubblica.

Un contributo a un tale contraccolpo si trova nei proclami senza senso da parte di apertamente sostenitori delle auto a guida autonoma secondo cui tutte le auto senza conducente saranno irreparabili. Questa idea di essere irrefrenabile non è solo del tutto sbagliata (vedi il link qui), sta insidiosamente preparando l'industria automobilistica a guida autonoma per una serie di aspettative totalmente fuori controllo. Queste dichiarazioni stravaganti e irraggiungibili che ci saranno zero morti a causa delle auto a guida autonoma stanno alimentando l'idea sbagliata che qualsiasi incidente d'auto senza conducente sia un segno sicuro che l'intero kit e il kaboodle sono inutili.

C'è una netta tristezza nel rendersi conto che il progresso verso le auto a guida autonoma e l'accumulo graduale di fiducia della società potrebbero essere spazzati via in un istante. Sarà una vera e propria vetrina sulla fragilità della fiducia.

Conclusione

Molte case automobilistiche e aziende tecnologiche a guida autonoma si attengono generalmente ai principi dell'etica dell'IA, facendo così per cercare di costruire e mettere in campo un'IA affidabile in termini di auto a guida autonoma basate sull'IA sicure e affidabili. Si prega di rendersi conto che alcune di queste aziende sono più forti e più devote ai precetti dell'IA etica rispetto ad altre. Ci sono anche occasionali startup marginali o neofite legate all'auto a guida autonoma che sembrano mettere da parte gran parte dei capisaldi dell'etica dell'intelligenza artificiale (vedi la mia recensione su il link qui).

Su altri fronti, nuove leggi e regolamenti in materia di auto a guida autonoma sono state gradualmente inserite nei libri legali. Se hanno i denti necessari per sostenerli è una questione diversa, così come se l'applicazione di tali leggi viene presa sul serio o trascurata (vedi le mie colonne per analisi su questo).

C'è anche l'angolo high-tech in questo. Ho previsto che vedremo gradualmente varianti dei robot angelo custode dell'IA che verranno alla ribalta nell'arena dei veicoli autonomi e delle auto a guida autonoma. Non ci siamo ancora. Questo diventerà più diffuso una volta che la popolarità delle auto a guida autonoma diventerà più diffusa.

Quest'ultimo punto fa emergere un famoso verso sulla fiducia che senza dubbio conosci già a memoria.

Fidarsi ma verificare.

Possiamo permetterci di estendere la nostra fiducia, magari generosamente. Nel frattempo, dovremmo anche guardare come un falco per assicurarci che la fiducia che generiamo sia verificata sia dalle parole che dai fatti. Mettiamo un po' di fiducia nell'IA, ma verifichiamo all'infinito che stiamo riponendo la nostra fiducia in modo appropriato e con gli occhi ben aperti.

Puoi fidarti di me su questo.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/