Analisi dell'etica dell'IA e della legge sull'IA Modi chiave per implementare la Carta dei diritti dell'IA rilasciata di recente, incluso e sorprendentemente utilizzando l'IA a titolo definitivo

Non c'è dubbio che abbiamo bisogno di progetti nella nostra vita quotidiana.

Se hai intenzione di costruire quella tua casa dei sogni a lungo immaginata, sarebbe saggio prima mettere insieme un progetto utilizzabile.

Un progetto mostra in modo tangibile e documentato qualsiasi prospettiva visionaria con gli occhi spalancati potrebbe essere bloccata nella tua testa. Coloro che saranno chiamati a costruire la tua amata fattoria potranno fare riferimento al progetto e definire i dettagli su come portare a termine il lavoro. I progetti sono utili. L'assenza di un progetto è destinata a essere problematica per affrontare qualsiasi tipo di lavoro o progetto complesso.

Trasferiamo questo tributo in qualche modo sentimentale ma genuino ai progetti nel regno dell'intelligenza artificiale (AI).

Quelli di voi che sono sostanzialmente interessati all'IA potrebbero essere vagamente consapevoli che un importante orientamento politico cianografia è stato recentemente rilasciato negli Stati Uniti e riguarda in modo dimostrabile il futuro dell'IA. Conosciuto informalmente come il Carta dei diritti dell'IA, il titolo ufficiale del proclamato white paper è "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" ed è prontamente disponibile online.

Il documento è il risultato di uno sforzo durato un anno e di uno studio attento da parte dell'Office of Science and Technology Policy (OSTP). L'OSTP è un'entità federale fondata a metà degli anni '1970 e serve a fornire consulenza al presidente americano e all'ufficio esecutivo degli Stati Uniti su vari aspetti tecnologici, scientifici e ingegneristici di importanza nazionale. In questo senso, puoi dire che questa Carta dei diritti dell'IA è un documento approvato e approvato dall'attuale Casa Bianca degli Stati Uniti.

L'AI Bill of Rights descrive il diritti umani che l'umanità dovrebbe avere rispetto all'avvento dell'IA nella nostra vita quotidiana. Sottolineo questo punto importante perché alcune persone all'inizio erano perplesse sul fatto che forse si trattasse di una sorta di riconoscimento dell'intelligenza artificiale come persona giuridica e che questa fosse una litania di diritti per l'IA senziente e i robot umanoidi. No, non ci siamo ancora. Come vedrai tra poco, non siamo affatto vicini all'IA senziente, nonostante i titoli dei banner che sembrano dirci il contrario.

Ok, quindi abbiamo bisogno di un progetto che espliciti i diritti umani nell'era dell'IA?

Sì, sicuramente lo facciamo.

Dovresti quasi essere rinchiuso in una grotta ed essere assente dall'accesso a Internet per non sapere che l'IA sta già invadendo sempre più i nostri diritti. La recente era dell'IA era inizialmente considerata come tale AI in bene, il che significa che potremmo usare l'IA per il miglioramento dell'umanità. Sulla scia di AI in bene è arrivata la consapevolezza che anche noi siamo immersi AI for Bad. Ciò include l'IA che è concepita o auto-alterata per essere discriminatoria e fa scelte computazionali che infondono pregiudizi indebiti. A volte l'IA è costruita in questo modo, mentre in altri casi vira in quel territorio spiacevole.

Per la mia copertura e analisi continua e ampia della legge sull'IA, dell'etica dell'IA e di altre tendenze tecnologiche e sociali chiave dell'IA, vedere il link qui ed il link qui, solo per citarne alcuni.

Disimballaggio della Carta dei diritti dell'IA

In precedenza ho discusso della Carta dei diritti dell'IA e farò un breve riepilogo qui.

Per inciso, se desideri conoscere i miei vantaggi e svantaggi in profondità della Carta dei diritti AI recentemente rilasciata, ho dettagliato la mia analisi in un post su avvocato, Vedere il link qui. avvocato è un notevole sito online di notizie e commenti legali, ampiamente conosciuto come un premiato servizio di notizie legali alimentato da un team globale di giornalisti studenti di giurisprudenza, editori, commentatori, corrispondenti e sviluppatori di contenuti, e ha sede presso la University of Pittsburgh School of Law a Pittsburgh, dove ha avuto inizio oltre 25 anni fa. Un saluto al team eccezionale e laborioso di avvocato.

Nella Carta dei diritti AI, ci sono cinque categorie chiave di volta:

  • Sistemi sicuri ed efficaci
  • Protezioni contro la discriminazione algoritmica
  • Privacy dei dati
  • Avviso e spiegazione
  • Alternative umane, considerazione e ripiego

Si noti che non li ho numerati da uno a cinque poiché ciò potrebbe implicare che si trovino in una sequenza particolare o che uno dei diritti sia apparentemente più importante dell'altro. Daremo per scontato che siano ciascuno dei propri meriti. In un certo senso sono tutti ugualmente meritori.

Come breve indicazione di cosa consistono ciascuno, ecco un estratto dal white paper ufficiale:

  • Sistemi sicuri ed efficaci: “Dovresti essere protetto da sistemi pericolosi o inefficaci. I sistemi automatizzati dovrebbero essere sviluppati con la consultazione di diverse comunità, parti interessate ed esperti di dominio per identificare preoccupazioni, rischi e potenziali impatti del sistema".
  • Protezioni dalla discriminazione algoritmica: “Non dovresti subire discriminazioni da parte di algoritmi e i sistemi dovrebbero essere usati e progettati in modo equo. La discriminazione algoritmica si verifica quando i sistemi automatizzati contribuiscono a un trattamento diverso ingiustificato o influiscono sfavorendo le persone in base a razza, colore, etnia, sesso (inclusi gravidanza, parto e condizioni mediche correlate, identità di genere, stato intersessuale e orientamento sessuale), religione, età , origine nazionale, disabilità, stato di veterano, informazioni genetiche o qualsiasi altra classificazione protetta dalla legge”.
  • Privacy dei dati: "Dovresti essere protetto dalle pratiche abusive dei dati tramite protezioni integrate e dovresti avere un'autorità su come vengono utilizzati i dati su di te. Dovresti essere protetto dalle violazioni della privacy attraverso scelte progettuali che garantiscano che tali protezioni siano incluse per impostazione predefinita, inclusa la garanzia che la raccolta dei dati sia conforme alle aspettative ragionevoli e che vengano raccolti solo i dati strettamente necessari per il contesto specifico".
  • Avviso e spiegazione: “Dovresti sapere che viene utilizzato un sistema automatizzato e capire come e perché contribuisce a risultati che hanno un impatto su di te. Progettisti, sviluppatori e implementatori di sistemi automatizzati dovrebbero fornire documentazione in linguaggio semplice generalmente accessibile che includa descrizioni chiare del funzionamento generale del sistema e del ruolo svolto dall'automazione, notare che tali sistemi sono in uso, l'individuo o l'organizzazione responsabile del sistema e spiegazioni di risultati chiari, tempestivi e accessibili”.
  • Alternative umane, considerazione e fallback: “Dovresti essere in grado di rinunciare, se del caso, e avere accesso a una persona in grado di considerare e risolvere rapidamente i problemi che incontri. Dovresti essere in grado di rinunciare ai sistemi automatizzati a favore di un'alternativa umana, ove appropriato".

In generale, questi sono aspetti dei diritti dell'umanità che sono stati banditi per un po' di tempo nel contesto dell'etica dell'IA e della legge sull'intelligenza artificiale, vedere la mia copertura come in il link qui. Il libro bianco apparentemente non tira fuori magicamente un coniglio da un cappello riguardo a qualche diritto appena scoperto o portato alla luce che finora non è stato chiarito in un contesto dell'era dell'IA.

Va bene.

Si potrebbe affermare che la loro compilazione in un'unica raccolta ben confezionata e formalizzata fornisce un servizio vitale. Inoltre, essendo unto come acclamato Carta dei diritti dell'IA, ciò pone ulteriormente l'intera questione apertamente e abilmente nella coscienza della sfera pubblica. Unisce una pletora esistente di discussioni disparate in un insieme unico che ora può essere strombazzato e trasmesso a tutti i tipi di parti interessate.

Consentitemi di offrire questo elenco di reazioni favorevoli all'annunciata Carta dei diritti AI:

  • Fornisce una raccolta essenziale di principi chiave
  • Serve come modello o base su cui costruire
  • Agisce come un invito all'azione vocale
  • Stimola l'interesse e dimostra che si tratta di considerazioni serie
  • Riunisce una moltitudine di discussioni disparate
  • Attiva e contribuisce agli sforzi di adozione dell'IA etica
  • Indubbiamente alimenterà l'istituzione delle leggi sull'IA
  • Altro

Dobbiamo anche considerare le reazioni tutt'altro che favorevoli, tenendo conto che c'è ancora molto lavoro da fare e che questo è solo l'inizio di un lungo viaggio sulla strada ardua del governo dell'IA.

In quanto tali, le critiche alquanto dure o per così dire costruttive fatte alla Carta dei diritti dell'IA includono:

  • Non legalmente vincolante e del tutto non vincolante
  • Solo consultivo e non considerato politica governativa
  • Meno completo rispetto ad altri lavori pubblicati
  • Consiste principalmente di concetti ampi e manca di dettagli di implementazione
  • Sarà difficile trasformarsi in effettive leggi pratiche praticabili
  • Apparentemente in silenzio sulla questione incombente di vietare l'IA in alcuni contesti
  • Riconosce marginalmente i vantaggi dell'utilizzo di un'intelligenza artificiale ben concepita
  • Altro

Forse il commento acre più importante è incentrato sul fatto che questa Carta dei diritti dell'IA non è legalmente applicabile e quindi non ha acqua quando si tratta di stabilire pali chiari. Alcuni hanno affermato che, sebbene il Libro bianco sia utile e incoraggiante, manca decisamente di denti. Si interrogano su cosa può venire da un presunto insieme di precetti ingegnosi dai denti cavi.

Affronterò quelle osservazioni pungenti tra un momento.

Nel frattempo, il white paper afferma abbondantemente i limiti di ciò che questa Carta dei diritti dell'IA comporta:

  • “Il progetto per una Carta dei diritti dell'IA non è vincolante e non costituisce la politica del governo degli Stati Uniti. Non sostituisce, modifica o dirige un'interpretazione di qualsiasi statuto, regolamento, politica o strumento internazionale esistente. Non costituisce una guida vincolante per il pubblico o per gli enti federali e pertanto non richiede il rispetto dei principi qui descritti. Inoltre, non è determinante quale sarà la posizione del governo degli Stati Uniti in qualsiasi negoziato internazionale. L'adozione di questi principi potrebbe non soddisfare i requisiti di statuti, regolamenti, politiche o strumenti internazionali esistenti o i requisiti delle agenzie federali che li applicano. Questi principi non intendono e non vietano o limitano alcuna attività lecita di un'agenzia governativa, comprese le forze dell'ordine, la sicurezza nazionale o le attività di intelligence” (secondo il white paper).

Per coloro che si sono affrettati a minare la Carta dei diritti dell'IA in quanto legalmente non vincolante, facciamo un piccolo esperimento mentale su quell'accusa pungente. Supponiamo che il Libro bianco sia stato rilasciato e abbia tutta la forza della legge. Oserei dire che il risultato sarebbe alquanto catastrofico, almeno per il grado di risposte sia legali che sociali alla proclamazione.

I legislatori sarebbero stati d'accordo sul fatto che lo sforzo non avesse intrapreso i processi normativi e le procedure legali per mettere insieme tali leggi. Le aziende sarebbero infuriate, giustamente, da vedere nuove leggi che emergono senza una sufficiente notifica e consapevolezza di quali siano quelle leggi. Ne deriverebbero ogni sorta di costernazione e di indignazione.

Non è un buon modo per gravitare verso il rafforzamento dei diritti dell'umanità in un'era di intelligenza artificiale.

Ricordiamo che in precedenza avevo iniziato questa discussione sollevando il valore e la vitalità dei progetti.

Immagina che qualcuno abbia saltato la fase di creazione dei progetti e si sia lanciato immediatamente nella costruzione della casa dei tuoi sogni. Come pensi che sarebbe la casa? Sembra una scommessa giusta che la casa non corrisponda particolarmente a ciò che avevi nella tua mente. La fattoria risultante potrebbe essere un vero disastro.

Il succo è che abbiamo bisogno di progetti e ora ne abbiamo uno per andare avanti nel capire leggi giudiziose sull'IA e potenziare l'adozione dell'IA etica.

Vorrei quindi affrontare i modi in cui questo progetto per la Carta dei diritti dell'IA può essere trasformato in una casa, per così dire. Come utilizzeremo il progetto? Quali sono i prossimi passi adatti? Questo progetto può essere sufficiente o ha bisogno di più carne sulle ossa?

Prima di entrare in queste questioni pesanti, vorrei prima assicurarmi che siamo tutti sulla stessa pagina sulla natura dell'IA e in cosa consiste lo stato di oggi.

Mettere le cose in chiaro sull'IA di oggi

Vorrei fare una dichiarazione estremamente enfatica.

Sei pronto?

Non c'è nessuna IA oggi che sia senziente.

Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente in qualche modo sorgerà miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente sull'IA senziente, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Suggerirei caldamente di mantenere le cose con i piedi per terra e di considerare l'odierna IA computazionale non senziente.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

Fai molta attenzione all'antropomorfizzazione dell'IA di oggi.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di IA potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Tutto ciò ha implicazioni notevolmente significative sull'etica dell'IA e offre una pratica finestra sulle lezioni apprese (anche prima che tutte le lezioni accadano) quando si tratta di cercare di legiferare sull'IA.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. Avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società.

Nelle colonne precedenti, ho trattato i vari sforzi nazionali e internazionali per elaborare e emanare leggi che regolano l'IA, vedi il link qui, Per esempio. Ho anche trattato i vari principi e linee guida dell'etica dell'intelligenza artificiale che varie nazioni hanno identificato e adottato, incluso ad esempio lo sforzo delle Nazioni Unite come il set dell'etica dell'intelligenza artificiale dell'UNESCO che quasi 200 paesi hanno adottato, vedi il link qui.

Ecco un utile elenco chiave di volta dei criteri o delle caratteristiche dell'IA etica relativi ai sistemi di intelligenza artificiale che ho precedentemente esplorato da vicino:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Questi principi di etica dell'intelligenza artificiale dovrebbero essere utilizzati seriamente dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e persino quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale.

Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come sottolineato in precedenza qui, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Ora che ho gettato una base utile, siamo pronti per approfondire ulteriormente la Carta dei diritti dell'IA.

Quattro modi essenziali per implementare la Carta dei diritti AI

Qualcuno ti porge un progetto e ti dice di metterti al lavoro.

Cosa fai?

Nel caso della Carta dei diritti AI come modello, considera questi quattro passaggi essenziali per andare avanti:

  • Servire come input per la formulazione di leggi sull'IA: Usa il progetto per aiutare a formulare leggi sull'IA, facendolo si spera su una base allineata a livello federale, statale e locale (forse aiutando anche gli sforzi legali internazionali sull'IA).
  • Aiuto per ottenere un'adozione più ampia dell'etica dell'IA: Utilizzare il progetto per promuovere le formulazioni dell'etica dell'IA (a volte denominate "leggi non vincolanti" rispetto a "leggi dure" giuridicamente vincolanti), così facendo per ispirare e guidare le aziende, gli individui, gli enti governativi e altri collegi elettorali verso un'etica migliore e più coerente Risultati dell'IA.
  • Modella le attività di sviluppo dell'IA: Utilizzare il progetto per stimolare la creazione di metodologie di sviluppo dell'IA e aspetti di formazione, facendo così per cercare di convincere gli sviluppatori dell'IA e coloro che mettono in campo o impiegano l'IA ad essere più consapevoli di come ideare l'IA seguendo le linee dei precetti di etica dell'IA desiderabili e in previsione dell'imminente adozione di leggi sull'IA.
  • Motivare l'avvento dell'IA per aiutare a controllare l'IA: Usa il progetto per ideare l'IA che verrà utilizzata per cercare di fungere da controllo e bilanciamento contro altre IA che potrebbero virare nel territorio insidioso. Questo è uno di quei punti di vista macroscopici in base ai quali possiamo usare proprio ciò che troviamo apparentemente preoccupante anche per aiutarci (per ironia della sorte, si potrebbe dire) a proteggerci.

Ho discusso ciascuno di questi quattro passaggi sopra menzionati durante i miei post in colonna.

Per questa discussione, vorrei concentrarmi sul quarto passaggio elencato, vale a dire che l'IA Bill of Rights può fungere da motivatore verso l'avvento dell'IA per aiutare a controllare l'IA. Questo è un passo in qualche modo scioccante o sorprendente per molti che non sono ancora entrati completamente in questo regno di avanzamento dell'IA.

Mi permetta di elaborare.

Una semplice analogia dovrebbe fare il trucco. Oggigiorno siamo tutti abituati alle violazioni della sicurezza informatica e alle intrusioni degli hacker. Quasi ogni giorno sentiamo parlare o siamo colpiti da qualche ultima scappatoia nei nostri computer che consentirà a malvagi malfattori di impossessarsi dei nostri dati o posizionare un vile ransomware sui nostri laptop.

Un mezzo per combattere questi spregevoli tentativi consiste nell'usare un software specializzato che tenti di prevenire tali effrazioni. Quasi sicuramente hai un pacchetto software antivirus sul tuo computer a casa o al lavoro. Probabilmente c'è qualcosa di simile sul tuo smartphone, indipendentemente dal fatto che ti rendi conto che è lì o meno.

Il punto è che a volte è necessario combattere il fuoco con il fuoco (vedi la mia copertura su questo, ad esempio su il link qui ed il link qui).

Nel caso dell'IA che atterra nel regno dei verboten di AI for Bad, possiamo cercare di utilizzare AI in bene che contrasta con quel malizioso AI for Bad. Questa non è ovviamente una cura miracolosa. Come sapete, c'è una continua mossa del gatto e del topo tra i malfattori che cercano di entrare nei nostri computer e i progressi compiuti nelle protezioni della sicurezza informatica. È un gioco quasi infinito.

Possiamo usare l'IA per provare a gestire l'IA che ha imboccato un sentiero proibito. Farlo aiuterà. Non sarà particolarmente un proiettile d'argento poiché l'IA avversa presa di mira sarà quasi certamente escogitata per evitare tali protezioni. Questo sarà il continuo gatto e topo dell'IA contro l'IA.

In ogni caso, l'IA che utilizziamo per proteggerci fornirà una certa protezione contro una cattiva IA. Pertanto, abbiamo indubbiamente bisogno di escogitare un'IA in grado di salvaguardarci o proteggerci. E dovremmo anche cercare di creare l'IA di protezione in modo che si adatti all'adeguamento dell'IA cattiva. Ci sarà una feroce parvenza di gatto e topo alla velocità della luce.

Non tutti apprezzano questo ampliamento del ruolo dell'IA.

Coloro che già percepiscono l'IA come un conglomerato amorfo omogeneo, avrebbero la pelle d'oca e gli incubi a questa finta mossa AI-versus-AI. Se proviamo a mettere fuoco contro fuoco, forse stiamo semplicemente facendo un fuoco ancora più grande. L'IA diventerà un enorme falò, che non controlliamo più e opterà per schiavizzare l'umanità o cancellarci dal pianeta. Quando si tratta di discutere l'IA come un rischio esistenziale, di solito siamo portati a credere che tutta l'IA si unirà, vedi la mia discussione su questi problemi all'indirizzo il link qui. Vedete, ci è stato detto che ogni pezzo di IA si afferrerà ai suoi fratelli, l'IA, e diventerà una grande famiglia unitaria di signore supremo.

Questo è lo scenario terribile e decisamente inquietante dell'IA senziente come mafia senza soluzione di continuità tutto per uno e uno per tutti.

Sebbene tu sia libero di fare congetture del genere riguardo al fatto che un giorno ciò possa accadere, ti assicuro che per ora l'IA che abbiamo oggi consiste in carichi di disparati programmi di IA disconnessi che non hanno un modo particolare di cospirare tra loro.

Detto questo, sono sicuro che coloro che credono con fervore nelle teorie del complotto dell'IA insisteranno sul fatto che l'ho detto apposta per nascondere la verità. Ah! Forse vengo ripagato dall'IA di oggi che sta già pianificando la grande acquisizione del controllo dell'IA (sì sire, farò il bagno nelle ricchezze una volta che i signori dell'IA avranno governato). Oppure, e certamente non sono favorevole a quest'altro punto di vista, forse sono ciecamente inconsapevole di come l'IA stia segretamente complottando alle nostre spalle. Immagino che dovremo aspettare e vedere se faccio parte del colpo di stato dell'IA o un abietto idiota dell'IA (ahi, che fa male).

Tornando alle considerazioni terrene, esploriamo brevemente come l'IA contemporanea può essere utilizzata per aiutare l'attuazione della Carta dei diritti dell'IA. Mi riferirò convenientemente e sommariamente a questo come buona IA.

Utilizzeremo le cinque chiavi di volta incorporate nella Carta dei diritti dell'IA:

  • Buona IA per la promozione Sistemi sicuri ed efficaci: Ogni volta che si è soggetti o si utilizza un sistema di intelligenza artificiale, l'IA buona cerca di capire se l'IA utilizzata non è sicura o inefficace. Dopo tale rilevamento, l'IA buona potrebbe avvisarti o intraprendere altre azioni, incluso il blocco dell'IA cattiva.
  • Buona IA per fornire Protezioni dalla discriminazione algoritmica: Durante l'utilizzo di un sistema di intelligenza artificiale che potrebbe contenere algoritmi discriminatori, il buona IA tenta di accertare se ci sono protezioni inadeguate per te e cerca di determinare se esistono effettivamente distorsioni indebite nell'IA utilizzata. L'IA buona potrebbe informarti e anche potenzialmente segnalare automaticamente l'altra IA a varie autorità, come potrebbe essere previsto dalle leggi sull'IA e dai requisiti legali.
  • Buona IA per la conservazione Privacy dei dati: Questo tipo di buona intelligenza artificiale cerca di proteggerti dalle invasioni della privacy dei dati. Quando un'altra IA sta cercando di richiedere dati che forse non sono realmente necessari a te, l'IA buona ti renderà consapevole dell'azione superata. L'IA buona può anche potenzialmente mascherare i tuoi dati in un modo che, dopo essere stato inviato all'altra IA, manterrà i tuoi diritti alla privacy dei dati. Eccetera.
  • Buona IA per stabilire Avviso e spiegazione: È probabile che tutti incontreremo sistemi di intelligenza artificiale che sono gravemente carenti nel fornire notifiche adeguate e appropriate e che purtroppo non riescono a mostrare una spiegazione adeguata per le loro azioni. Una buona IA può provare a interpretare o interrogare l'altra IA, così facendo per identificare potenzialmente notifiche e spiegazioni che avrebbero dovuto essere fornite. Anche se ciò non è fattibile in un dato caso, l'IA buona ti avviserà almeno delle carenze dell'altra IA e possibilmente segnalerà l'IA alle autorità designate in base alle leggi e ai requisiti legali stipulati sull'IA.
  • Buona IA per l'offerta Alternative umane, considerazione e fallback: Supponiamo che tu stia utilizzando un sistema di intelligenza artificiale e che l'IA non sia apparentemente all'altezza del compito in questione. Potresti non renderti conto che le cose stanno andando male, o potresti essere un po' diffidente e incerto su cosa fare riguardo alla situazione. In tal caso, l'IA buona esaminerebbe silenziosamente ciò che l'altra IA sta facendo e potrebbe avvisarti di preoccupazioni vitali su quell'IA. Ti verrà quindi richiesto di richiedere un'alternativa umana all'IA (o l'IA buona potrebbe farlo per tuo conto).

Per capire ulteriormente come questo tipo di buona IA può essere sviluppato e messo in campo, vedi il mio libro sull'IA popolare e molto apprezzato (onorato di dire che è stato notato come una "Top Ten") su quelli che generalmente mi riferivo agli angeli custodi dell'IA, vedi il link qui.

Conclusione

So cosa stai pensando. Se abbiamo un'IA buona ideata per proteggerci, supponiamo che l'IA buona venga corrotta per diventare un'IA cattiva. Il famoso o famigerato tormentone latino sembra del tutto pertinente a questa possibilità: Quis custodiet ipsos custodes?

La frase è attribuita al poeta romano Giovenale e la si ritrova nella sua opera intitolata satire, e può essere liberamente tradotto nel significato di chi custodirà o guarderà le guardie stesse. Molti film e programmi TV come Star Trek hanno sfruttato questa linea ripetutamente.

Questo è sicuramente perché è un ottimo punto.

Abbastanza sicuro, qualsiasi legge sull'IA che viene emanata dovrà comprendere sia l'IA cattiva che anche l'IA buona che va male. Ecco perché sarà fondamentale scrivere leggi sull'IA sensate e complete. I legislatori che cercano semplicemente di lanciare un legalese casuale contro il muro e sperano che rimanga nel rispetto delle leggi sull'IA si ritroveranno a mancare profondamente l'obiettivo.

Non ne abbiamo bisogno.

Non abbiamo né il tempo né possiamo sostenere le spese della società per far fronte a leggi sull'intelligenza artificiale concepite in modo inadeguato. Ho sottolineato che purtroppo a volte stiamo assistendo a nuove leggi relative all'IA che sono mal composte e piene di ogni sorta di malattie legali, vedi ad esempio la mia analisi di sondaggio della legge sulla revisione dei bias dell'IA di New York City (NYC) presso il link qui.

Assicuriamoci di utilizzare in modo appropriato il progetto della Carta dei diritti dell'IA che ora abbiamo in mano per quanto riguarda l'IA. Se ignoriamo il progetto, abbiamo perso di aver intensificato il nostro gioco. Se implementiamo in modo errato il progetto, vergogniamoci per aver usurpato una base utile.

Lo stimato poeta romano Giovenale ha detto un'altra cosa su cui possiamo fare leva in questa circostanza: Anima sana in corpo sano.

In generale, questo si traduce nell'affermazione che sarebbe prudente avere sia una mente sana o sana che un corpo sano o sano. Questo ci permette di sopportare qualsiasi tipo di fatica, secondo Giovenale, e sarà sicuramente l'unica strada per una vita di pace o di virtù.

È tempo per noi di usare una mente sana e un corpo sano per assicurarci che stiamo assicurando all'umanità che i nostri diritti umani siano preservati e solidamente fortificati nel mondo emergente dell'IA onnipresente ea volte spiacevole. Questo è un valido consiglio dei romani a cui dovremmo attenerci nella fretta di oggi in un'epoca alla rinfusa dell'IA e un futuro decisamente pieno di IA buona e cattiva.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- carta-dei-diritti-che-include-e-sorprendentemente-usando-ai-apertamente/