Etica dell'IA scettica sull'istituzione di cosiddette leggi sull'IA con bandiera rossa per richiamare algoritmi distorti nei sistemi di intelligenza artificiale autonomi

Parliamo delle leggi sulla bandiera rossa.

Sicuramente sai che la nozione di Red Flag Laws è stata ampiamente trattata nelle notizie ultimamente. I titoli che trattano l'argomento sono in abbondanza. Le passioni e gli appassionati dibattiti su tali questioni sono al primo posto nella mente come una preoccupazione per la società e comportano le leggi sulle armi della bandiera rossa attuali e in rapida ascesa.

Oserei dire però che potresti non avere familiarità con altre leggi sulla bandiera rossa emanate alla fine del 1800 relative ai veicoli a motore e ai precursori delle automobili moderne di tutti i giorni di oggi. Sì, è vero, le leggi della bandiera rossa risalgono alla storia, sebbene coprano altri argomenti rispetto all'attenzione contemporanea di oggi. Questi sono in genere indicati come leggi sul traffico con bandiera rossa.

Queste leggi ormai centenarie e del tutto defunte richiedevano che qualsiasi carrozza motorizzata o motore azionato a vapore dovesse in quel momento avere un adulto che precedesse il veicolo e portasse una bandiera rossa a scopo di avvertimento. L'idea era che il bestiame potesse essere allarmato da quegli aggeggi rumorosi e irascibili che sfrecciavano lentamente e in modo non uniforme lungo le strade sterrate o marginalmente asfaltate, quindi avere qualcuno che camminava davanti all'espediente mentre sventolava vigorosamente una bandiera rossa poteva, si spera, evitare l'insorgere di calamità. Nel caso ve lo stiate chiedendo, ferrovie e treni erano considerati esclusi dalle stesse leggi in quanto erano veicoli integralmente vincolati alle rotaie e avevano altre leggi che coprivano le loro azioni.

Immagina di dover sventolare bandiere rosse oggi come requisito per ogni auto sulle nostre strade pubbliche.

Ad esempio, un normale automobilista che scende per la strada del tuo quartiere dovrebbe assicurarsi che un adulto che sventola una bandiera rossa sia presente e sfila davanti all'auto in movimento. Questo dovrebbe avvenire per ogni singolo veicolo che passa per la tua strada. Forse le persone diventerebbero lavoratori con bandiera rossa che ingaggiano automobilisti di passaggio che altrimenti non avrebbero un amico o un parente che potrebbe andare davanti a loro e fare l'azione di sventolando prevista.

Al giorno d'oggi tendiamo ad associare lo sventolare della bandiera rossa relativo alle autostrade con i cantieri stradali. Quando ti avvicini a una strada scavata, i lavoratori terranno in alto una bandiera rossa per attirare la tua attenzione. Questo ti dice di rallentare e stare in allerta. Potrebbe esserci un bulldozer che si intrometterà nel tuo percorso. Un buco gigante potrebbe essere più avanti e dovrai aggirarlo con cautela.

Ma torniamo all'uso delle bandiere rosse nel 1800.

Che ci crediate o no, lo sbandieratore rosso avrebbe dovuto essere almeno un ottavo di miglio più avanti rispetto alla macchina motorizzata in arrivo. Sembra una distanza piuttosto lunga. Si suppone però che ciò avesse molto senso a quei tempi. I rumori sorprendenti del motore e forse la semplice vista del veicolo potrebbero essere sufficienti per innervosire gli animali. Alcune delle leggi della bandiera rossa di quell'epoca richiedevano anche che una luce rossa brillante fosse tenuta in alto durante la notte in modo che un avvertimento precauzionale rosso visivamente evidente potesse essere visto da una distanza oscurata.

In generale, penso sia corretto affermare che noi come società tendiamo ad associare una bandiera rossa come una sorta di segnale o segnaletica che qualcosa è potenzialmente sbagliato o almeno necessita della nostra devota attenzione.

Preparati per una piccola svolta su questo fenomeno della bandiera rossa.

C'è una contesa in corso secondo cui dovremmo richiedere disposizioni di bandiera rossa quando si tratta di Intelligenza Artificiale (AI).

È un concetto un po' sorprendente e sorprendente che fa scervellare molti. Potresti essere perplesso su come o perché dovrebbero esserci i cosiddetti Leggi sull'IA della bandiera rossa. Si prega di notare che lo sto etichettando come Red Flag AI Laws per differenziare la questione dalle Red Flag Traffic Law (come quelle della fine del 1800) e anche per distinguerle dalle altre leggi Red Flag Gun di oggi più diffuse.

Abbiamo davvero bisogno di leggi sull'IA di Red Flag che siano distintamente ed esclusivamente orientate alle questioni dell'IA?

Coloro che sono favorevoli all'approccio proposto insisterebbero sul fatto che abbiamo assolutamente bisogno di disposizioni legali che aiutino a reprimere l'IA che contiene pregiudizi indebiti e agisce in modo discriminatorio. In questo momento, la costruzione e il dispiegamento dell'IA sono simili a una circostanza del selvaggio West in cui tutto va bene. Gli sforzi per frenare una cattiva IA dipendono attualmente dalla formulazione e dall'adozione delle linee guida dell'etica dell'IA. Per la mia copertura continua ed estesa dell'etica dell'IA e dell'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Le leggi che racchiudono una cattiva intelligenza artificiale vengono lentamente ideate e promulgate, vedi la mia copertura a il link qui. Alcuni temono che i legislatori non stiano andando abbastanza veloci. Sembra che le porte di inondazione per consentire la promozione di un'IA distorta nel mondo siano ampiamente aperte in questo momento. La stretta di mano dice che quando le nuove leggi arriveranno sui libri, il genio malvagio sarà già fuori dalla bottiglia.

Non così in fretta, vanno le controargomentazioni. Le preoccupazioni sono che se le leggi vengono messe in atto troppo rapidamente, uccideremo l'oca d'oro, per così dire, per cui gli sforzi dell'IA si esauriranno e non otterremo i vantaggi sociali dei nuovi sistemi di IA. Gli sviluppatori di intelligenza artificiale e le aziende che desiderano utilizzare l'IA potrebbero spaventarsi se una serie bizantina di nuove leggi che disciplinano l'IA venissero improvvisamente messe in atto a livello federale, statale e locale, per non parlare delle leggi internazionali relative all'IA che stanno anch'esse avanzando.

In questa faccenda disordinata arriva la richiesta di leggi sull'IA di Red Flag.

Prima di entrare in un altro po' di carne e patate sulle considerazioni selvagge e lanose alla base della prevista legge sull'IA della bandiera rossa, stabiliamo alcuni fondamenti aggiuntivi su argomenti profondamente essenziali. Dobbiamo fare un breve tuffo nell'etica dell'IA e in particolare nell'avvento del Machine Learning (ML) e del Deep Learning (DL).

Potresti essere vagamente consapevole del fatto che una delle voci più forti in questi giorni nel campo dell'IA e anche al di fuori del campo dell'IA consiste nel chiedere a gran voce una maggiore parvenza di IA etica. Diamo un'occhiata a cosa significa fare riferimento a AI Ethics e Ethical AI. Inoltre, esploreremo cosa intendo quando parlo di Machine Learning e Deep Learning.

Un particolare segmento o porzione dell'etica dell'intelligenza artificiale che ha ricevuto molta attenzione da parte dei media è costituito dall'intelligenza artificiale che mostra pregiudizi e disuguaglianze spiacevoli. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tra un momento, condividerò con voi alcuni principi generali alla base dell'etica dell'IA. Ci sono molti di questi tipi di elenchi che fluttuano qua e là. Si potrebbe dire che non esiste ancora un unico elenco di attrattive universali e di concorrenza. Questa è la sfortunata notizia. La buona notizia è che almeno ci sono elenchi di etica dell'IA prontamente disponibili e tendono ad essere abbastanza simili. Tutto sommato, questo suggerisce che attraverso una sorta di convergenza ragionata stiamo trovando la nostra strada verso una comunanza generale di ciò in cui consiste l'etica dell'IA.

Innanzitutto, esaminiamo brevemente alcuni dei precetti generali dell'IA etica per illustrare ciò che dovrebbe essere una considerazione vitale per chiunque crei, utilizzi o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, comprese metodologie trasparenti e verificabili, fonti di dati, procedure e documentazione di progettazione.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'IA e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Assicuriamoci anche di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Torniamo al nostro focus sulle leggi sull'IA di Red Flag.

Il concetto di fondo è che le persone sarebbero in grado di alzare una bandiera rossa ogni volta che ritenessero che un sistema di intelligenza artificiale operasse in modo indebitamente parziale o discriminatorio. Non alzeresti una bandiera fisica di per sé, e invece utilizzeresti semplicemente alcuni mezzi elettronici per far conoscere le tue preoccupazioni. La parte della bandiera rossa dello schema o dell'approccio è più una metafora che un'incarnazione fisica.

Fai finta di fare domanda per un mutuo per la casa. Scegli di utilizzare un servizio di online banking per richiedere un prestito. Dopo aver inserito alcuni dati personali, si attende momentaneamente che il sistema di intelligenza artificiale utilizzato decida se si è meritevoli di prestito o meno. L'IA ti dice che sei stato rifiutato per il prestito. Dopo aver richiesto una spiegazione del motivo per cui sei stato rifiutato, la narrativa testuale sembra suggerirti che l'IA stesse utilizzando fattori di parte indebiti come parte dell'algoritmo decisionale.

È ora di alzare una bandiera rossa sull'IA.

Dove sventolerà esattamente questa bandiera rossa?

È una domanda da un milione di dollari.

Un punto di vista è che dovremmo creare un database a livello nazionale che consenta alle persone di contrassegnare le loro bandiere rosse rilevanti per l'IA. Alcuni dicono che questo dovrebbe essere regolato dal governo federale. Le agenzie federali sarebbero responsabili dell'esame delle bandiere rosse e di venire in aiuto del pubblico in generale sulla veridicità e di affrontare presumibilmente la "cattiva IA" che ha alimentato la bandiera rossa che riporta i conteggi.

Il Congresso avrebbe apparentemente stabilito una legge nazionale sull'IA con bandiera rossa. La legge indicherebbe cos'è una bandiera rossa pertinente all'IA. La legge descriverebbe come vengono sollevate queste bandiere rosse brontolanti dell'IA. E così via. Potrebbe anche essere il caso che i singoli stati possano anche scegliere di elaborare le proprie leggi sull'IA della bandiera rossa. Forse lo fanno al posto di un'iniziativa nazionale, o lo fanno per amplificare particolari particolarmente attraenti per il loro stato specifico.

I critici di un programma di intelligenza artificiale della bandiera rossa federale o sostenuto dal governo sosterrebbero che questo è qualcosa che l'industria privata può fare e non abbiamo bisogno che il Grande Fratello venga alla ribalta. L'industria potrebbe creare un repository online in cui le persone possono registrare segnali di allarme sui sistemi di intelligenza artificiale. Un'azione di autocontrollo da parte dell'industria affronterebbe sufficientemente questi problemi.

Uno scrupolo riguardo al presunto approccio industriale è che sembra puzza di clientelismo. Le aziende sarebbero disposte a rispettare alcuni database di Red Flag AI gestiti privatamente? Molte aziende potrebbero ignorare le bandiere rosse contrassegnate sulla loro IA. Non ci sarebbero denti aguzzi per convincere le aziende ad affrontare le bandiere rosse introdotte.

Ehi, i fautori dell'approccio del settore privato suonano male, questo sarebbe simile al servizio nazionale di Yelp. I consumatori potrebbero guardare le bandiere rosse e decidere da soli se vogliono fare affari con aziende che hanno accumulato una serie di bandiere rosse orientate all'intelligenza artificiale. Una banca che sta ricevendo tonnellate di bandiere rosse sulla propria intelligenza artificiale dovrebbe prestare attenzione e rinnovare i propri sistemi di intelligenza artificiale, quindi la logica è, altrimenti i consumatori eviterebbero l'azienda come la peste.

Se l'intero approccio è intrapreso dal governo o dall'industria è solo la punta dell'iceberg su questioni spinose che devono affrontare il postulato proposto delle leggi sull'IA di Red Flag.

Mettiti nei panni di un'azienda che ha sviluppato o sta utilizzando l'IA. Potrebbe essere che i consumatori alzino bandiere rosse anche se non esiste una base praticabile per farlo. Se le persone potessero pubblicare liberamente una bandiera rossa sull'IA, potrebbero essere tentate di farlo per capriccio, o forse per vendetta contro un'azienda che altrimenti non ha fatto nulla di male nei confronti del consumatore.

In breve, potrebbero esserci molte bandiere rosse false positive sull'IA.

Un'altra considerazione è l'enorme dimensione o grandezza delle bandiere rosse risultanti. Potrebbero facilmente essere sollevate milioni e milioni di bandiere rosse. Chi seguirà tutte quelle bandiere rosse? Quale sarebbe il costo per farlo? Chi pagherà per gli sforzi di follow-up della bandiera rossa? Eccetera.

Se dovessi dire che chiunque registri o segnali una bandiera rossa sull'IA deve pagare una quota, sei entrato in un regno oscuro e insidioso. La preoccupazione sarebbe che solo i ricchi possano permettersi di alzare bandiere rosse. Ciò a sua volta implica che i poveri non sarebbero in grado di partecipare equamente alle attività di bandiera rossa e sostanzialmente non avrebbero luogo per avvertire sull'IA avversa.

Solo un'altra svolta in più per ora, vale a dire che questo tipo di leggi o linee guida sulla bandiera rossa sull'IA sembra essere dopo il fatto piuttosto che servire come avvertimento in anticipo.

Tornando alle leggi sulla circolazione della bandiera rossa, l'enfasi sull'uso di una bandiera rossa era per evitare di avere una calamità per cominciare. Lo sbandieratore rosso avrebbe dovuto essere molto più avanti dell'auto in arrivo. Essendo davanti al veicolo, il bestiame sarebbe stato allertato e coloro che lo custodivano saprebbero che dovrebbero prendere precauzioni a causa della fonte di disturbo che arriverà presto.

Se le persone sono solo in grado di alzare una bandiera rossa sull'IA che apparentemente ha già danneggiato o violato i loro diritti, il proverbiale cavallo è già fuori dalla stalla. Tutto ciò che sembrerebbe ottenere è che, si spera, altre persone in arrivo ora sappiano di diffidare di quel sistema di intelligenza artificiale. Nel frattempo, la persona presumibilmente offesa ha già sofferto.

Alcuni suggeriscono che forse potremmo consentire alle persone di alzare bandiere rosse sull'IA che loro sospettare potrebbero essere di parte, anche se non hanno utilizzato l'IA e non sono stati direttamente influenzati dall'IA. Pertanto, la bandiera rossa viene sventolata prima che il danno sia fatto.

Ehilà, va la replica, trasformerai davvero le bandiere rosse che affrontano l'IA in un affare del tutto ingestibile e caotico. Se qualcuno per qualsiasi motivo può alzare una bandiera rossa su un sistema di intelligenza artificiale, nonostante non abbia fatto nulla con quell'IA, verrai inondato di bandiere rosse. Peggio ancora, non sarai in grado di distinguere il grano dalla pula. L'intero approccio della bandiera rossa crollerà sotto il suo stesso peso, abbattendo la bontà dell'idea consentendo ai relitti e alla marmaglia di affondare l'intera nave.

Vertiginoso e sconcertante.

A questo punto di questa pesante discussione, scommetto che sei desideroso di alcuni esempi illustrativi che potrebbero mostrare questo argomento. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sulle leggi sull'IA di Red Flag e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e leggi sull'IA con bandiera rossa

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Spero che ciò fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Descriviamo uno scenario che potrebbe sfruttare una legge sull'IA con bandiera rossa.

Sali su un'auto a guida autonoma basata sull'intelligenza artificiale e desideri che il veicolo autonomo ti porti al tuo negozio di alimentari locale. Durante il viaggio relativamente breve, l'IA prende un percorso che ti sembra un po' sbagliato. Piuttosto che seguire la strada più diretta, l'IA naviga in strade fuori mano, il che fa sì che il tempo di guida sia più alto di quanto potrebbe essere normalmente.

Che cosa sta succedendo?

Supponendo che tu stia pagando per l'uso dell'auto a guida autonoma, potresti sospettare che l'IA sia stata programmata per percorrere un percorso più lungo per cercare di aumentare la tariffa o il costo del viaggio. Chiunque abbia mai preso un taxi convenzionale a guida umana conosce l'inganno che può verificarsi per ottenere più impasto sul contatore. Ovviamente, con le persone che hanno il GPS sui loro smartphone mentre guidano in un taxi o equivalente, puoi facilmente catturare un conducente umano che sembra prendere di nascosto percorsi inutilmente lunghi.

Si scopre che hai un'altra preoccupazione sulla scelta del percorso, qualcosa che ti rode davvero.

Supponiamo che il percorso sia stato fatto per evitare alcune parti della città a causa di sfaccettature razziali. Ci sono casi documentati di conducenti umani che sono stati sorpresi a fare questo tipo di scelte, vedi la mia discussione su il link qui. Forse l'IA è stata programmata in senso contrario.

Decidi di alzare bandiera rossa.

Assumiamo per amor di discussione che sia stata emanata una legge sull'IA con bandiera rossa che copre la tua giurisdizione. Potrebbe essere il diritto locale, il diritto statale, il diritto federale o internazionale. Per un'analisi di cui sono coautore con l'Autonomous Vehicle Policy Initiative (AVPI) di Harvard sulla crescente importanza della leadership locale quando le comunità adottano l'uso di auto a guida autonoma, cfr. il link qui.

Quindi, vai online su un database di Red Flag AI. Nel database degli incidenti, inserisci le informazioni sul viaggio in auto a guida autonoma. Ciò include la data e l'ora del viaggio di guida, insieme alla marca e al modello dell'auto a guida autonoma. Quindi si entra nella rotta di navigazione che sembrava sospetta e si sta suggerendo o forse affermando apertamente che l'IA è stata concepita con intenzioni e capacità parziali o discriminatorie.

Dovremmo speculare sugli altri dettagli della legge sull'IA della bandiera rossa su ciò che accadrà dopo in questo particolare scenario. In teoria, ci sarebbe una disposizione per qualcuno di rivedere la bandiera rossa. Presumibilmente cercherebbero di convincere la casa automobilistica o l'azienda tecnologica a guida autonoma a spiegare il loro punto di vista sulla bandiera rossa registrata. Quante altre bandiere rosse simili sono state registrate? Quali risultati hanno prodotto quelle bandiere rosse?

E così via sarebbe andata.

Conclusione

Assurdo, esortano alcuni scettici.

Non abbiamo bisogno delle leggi sull'IA della bandiera rossa, si esercitano severamente. Fare qualsiasi cosa del genere rovinerà il lavoro quando si tratta del ritmo e del progresso dell'IA. Qualsiasi legge del genere sarebbe ingombrante. Creeresti un problema che non risolve un problema. Ci sono altri modi per affrontare l'IA che sono cattivi. Non afferrare ciecamente le cannucce per far fronte a un'IA distorta.

Cambiando marcia, sappiamo tutti che i toreri usano mantelli rossi per attirare apparentemente l'attenzione del toro arrabbiato. Sebbene il rosso sia il colore che più associamo a questa pratica, potresti essere sorpreso di sapere che gli scienziati affermano che i tori non percepiscono il colore rosso della muleta (sono daltonici al rosso). Lo spettacolo popolare MythBusters ha fatto un esame abbastanza divertente di questo argomento. Il movimento della mantella è l'elemento chiave piuttosto che il colore scelto.

Per coloro che mettono da parte la necessità delle leggi sull'IA di Red Flag, una domanda riconvenzionale è che abbiamo bisogno di qualcosa di una natura ondulatoria drammatica e inconfondibile per assicurarci che gli sviluppatori di IA e le aziende che implementano l'IA si tengano alla larga da un'IA distorta o cattiva. Se non fosse per una bandiera rossa, forse un mantello svolazzante o praticamente qualsiasi tipo di approccio di allerta potrebbe essere nel regno della debita considerazione.

Sappiamo per certo che esiste una cattiva IA e che molta più cattiva IA si dirigerà nella nostra direzione. Trovare modi per proteggerci dall'IA avversa è fondamentale. Allo stesso modo, è altrettanto importante impostare dei guardrail per cercare di impedire che una cattiva IA si intrometta nel mondo.

Ernest Hemingway ha affermato che nessuno vive mai la propria vita fino in fondo tranne i toreri. Dobbiamo assicurarci che gli esseri umani possano vivere la loro vita fino in fondo, nonostante qualunque male o follia dell'IA ci venga promulgata.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-cosiddetto-red-flag-ai-laws-for-calling-out- algoritmi distorti nei sistemi di intelligenza artificiale/