L'impianto del ragionamento legale nell'IA potrebbe raggiungere in modo intelligente l'allineamento del valore umano secondo l'etica dell'IA e la legge sull'IA

Nell'articolo di oggi, intreccerò una miriade di argomenti relativi all'intelligenza artificiale apparentemente disparati in un unico tessuto ben intessuto.

Sei pronto?

Immagina di utilizzare un'app basata sull'intelligenza artificiale che ti aiuta mentre intraprendi una sorta di attività significativa. Forse la questione è finanziaria o potrebbe essere correlata alla salute. L'essenza è che dipendi dall'intelligenza artificiale per fare la cosa giusta e comportarti in modo presunto sano e salvo.

Supponiamo che l'IA viri in un territorio non etico.

Potresti non rendertene conto che l'IA lo sta facendo.

Ad esempio, l'intelligenza artificiale potrebbe fare affidamento su fattori discriminatori potenzialmente nascosti come la razza o il genere, anche se potresti non avere alcun mezzo praticabile per discernere l'uso sconveniente. Eccoti lì, tutto solo, a ottenere la punta corta del bastone tramite un'intelligenza artificiale che è stata ideata fin dall'inizio in modo problematico o è riuscita a sterzare verso un pericolo etico rischioso e borderline (dirò di più su questo in un attimo).

Cosa puoi fare o cosa si può fare per l'IA che sceglie di seguire un percorso non etico?

Oltre a provare a costruire in anticipo l'intelligenza artificiale in modo che non compia questo tipo di azione insidiosa, ho anche spiegato in precedenza che c'è un interesse crescente nell'incorporare un Controllo etico dell'IA componente nella fiorente palude di altrimenti Wild West, i sistemi di intelligenza artificiale vengono lanciati sul mercato. L'idea è che per cercare di impedire a un'app infusa di intelligenza artificiale di andare oltre le dimensioni etiche, potremmo utilizzare un'intelligenza artificiale aggiuntiva per fare un controllo e un equilibrio. Questa IA aggiunta potrebbe essere al di fuori dell'app AI mirata o potrebbe essere un componente incorporato o impiantato direttamente nell'IA su cui vogliamo fare un doppio controllo.

Come ho affermato prima, vedi il link qui: “Una tendenza emergente di recente consiste nel cercare di costruire barriere etiche nell'intelligenza artificiale che cattureranno mentre il resto di un sistema di intelligenza artificiale inizia ad andare oltre i confini etici preimpostati. In un certo senso, l'obiettivo è utilizzare l'IA stessa per evitare di andare eticamente male. Si potrebbe dire che miriamo a far guarire l'IA da sola" (Lance Eliot, "Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI From Acting Up", Forbes, 28 marzo 2022).

Potresti anche trovare di rilevante interesse il mio libro su Robot guardiani AI, a volte indicato come angelo custode, che copre le basi tecniche di questo sistema di doppia verifica integrato all'interno dell'IA all'avanguardia, cfr. il link qui.

La linea di fondo è che la tua pancetta potrebbe fortunatamente essere salvata dall'uso di un elemento di misurazione dell'etica di doppio controllo dell'IA incorporato che è stato ideato e impiantato in un'app AI che stai utilizzando. Ma sarà un guardiano sufficiente per assicurarsi davvero che l'IA non ti irrigidisca del tutto e non si avventuri anche in un terreno più pericoloso?

Vedi, l'app AI potrebbe funzionare apparentemente illegale atti.

Una cosa è avere un'intelligenza artificiale che vada in un'area grigia di ciò che consideriamo comportamenti etici o non etici. Un comportamento altrettanto sconcertante e un probabile peggioramento della preoccupazione comportano un'intelligenza artificiale che per così dire salta lo squalo e scende nell'oscurità scadente di atti assolutamente illegali.

L'intelligenza artificiale illegale è cattiva. Consentire all'IA illegale di rimanere incustodita è un male. Alcuni giuristi sono apertamente preoccupati che l'avvento e la pervasività dell'intelligenza artificiale stiano gradualmente e terribilmente minando la nostra parvenza di Stato di diritto, vedi la mia analisi su il link qui.

Aspetta un secondo, potresti dire.

Potresti essere tentato di pensare che lo farebbero gli sviluppatori di intelligenza artificiale mai programmare la loro intelligenza artificiale per andare contro la legge. Inimmaginabile. Solo i cattivi malvagi lo farebbero (che, tra l'altro, tengono presente che ci sono quelli che stanno intenzionalmente ideando e usando l'IA per scopi malvagi, un'area di crescente interesse per i criminali e altri che desiderano usare l'IA per attività nefande).

Siamo spiacenti, ma è un pio desiderio presumere che tutti gli sviluppatori di IA non malvagi si assicureranno rigorosamente che la loro IA sia pienamente rispettosa della legge. Potrebbe essere che l'intelligenza artificiale si autoregola e si avventuri in attività illegali. Naturalmente, c'è anche la possibilità che gli sviluppatori di IA volessero che l'IA agisse illegalmente o che non fossero a conoscenza di ciò che costituiva atti illegali rispetto a quelli legali quando stavano creando l'IA (sì, questo è del tutto possibile, vale a dire che un Il team di intelligenza artificiale all-tech a testa in giù può ignorare gli imbrogli legali della loro intelligenza artificiale, il che non è scusabile e tuttavia accade con una frequenza allarmante).

Cosa si può fare a riguardo?

Ancora una volta, oltre a cercare di garantire che l'IA out-the-gate sia ferrea e legale, un ulteriore approccio per guadagnare vapore prevede l'incorporamento o l'impianto di un componente AI che esegua un doppio controllo legale per il resto dell'app AI. Seduta in silenzio e spesso non annunciata, questa IA aggiunta sta osservando il resto dell'IA per cercare di discernere se l'IA diventerà canaglia o almeno supererà i limiti delle restrizioni legali o normative imposte.

Ora abbiamo quindi due tipi di doppio controllo AI che sono potenzialmente incorporati in un'app AI:

  • Doppio controllore di etica AI: In tempo reale, questo componente o componente aggiuntivo AI valuta il resto dell'IA per i comportamenti etici e non etici che l'IA esibisce
  • Doppio controllore legale AI: In tempo reale, questo componente o componente aggiuntivo AI valuta il resto dell'IA per garantire di rimanere all'interno delle chiavi di volta legali e per rilevare attività illegali emergenti da parte dell'IA

Per chiarire, queste sono concezioni relativamente nuove e in quanto tali l'IA che stai usando oggi potrebbe trovarsi in una qualsiasi di queste condizioni attuali:

  • AI che non include affatto i doppi controlli
  • AI che ha un doppio controllore di Etica AI incluso ma nessun altro doppio controllore
  • AI che include un doppio controllore legale AI ma nessun altro doppio controllore
  • AI che ha sia un doppio controllore AI Ethics che un doppio controllore AI Legal
  • Altro

Ci sono alcuni aspetti decisamente complicati nell'avere sia il doppio controllore di AI Ethics che il doppio controllore di AI Legal che lavorano fianco a fianco in un'app AI come fratello e sorella affini. Questo è un tipo di dualismo che può essere più difficile da coordinare di quanto si possa supporre (penso che sappiamo tutti che fratelli e sorelle possono avere i legami più stretti, anche se di tanto in tanto possono anche litigare come i coglioni e avere vigorose opposizioni visualizzazioni).

Ho discusso a lungo di questo tipo di arduo dualismo: “Un dualismo trascurato si sta verificando in AI for Social Good che comporta la mancanza di comprendere sia il ruolo dell'agenzia morale artificiale sia il ragionamento legale artificiale nei sistemi avanzati di AI. Gli sforzi dei ricercatori di intelligenza artificiale e degli sviluppatori di intelligenza artificiale hanno avuto la tendenza a concentrarsi su come creare e incorporare agenti morali artificiali per guidare il processo decisionale morale quando un sistema di intelligenza artificiale opera sul campo, ma non si sono anche concentrati e accoppiati all'uso di capacità di ragionamento legale artificiale , che è ugualmente necessario per solidi risultati morali e legali” (Lance Eliot, “The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good”, Harvard University CRCS Annual Conference 2020, Centro di Harvard per la ricerca e la società di calcolo)

Se desideri approfondire il motivo per cui potrebbe esserci tensione tra un doppio controllore etico AI e un doppio controllore legale AI, potresti trovare questa notevole citazione di dignità concettuale sconvolgente: "La legge può consentire un atto particolare, anche se quell'atto è immorale; e la legge può proibire un atto, anche se tale atto è moralmente ammissibile, o anche moralmente richiesto” (Shelly Kagan, I limiti della moralità, 1998).

Spostiamo leggermente la nostra attenzione e vediamo come questi doppi controlli si inseriscono in un altro argomento di intelligenza artificiale altamente esaminato, vale a dire AI responsabile o una considerazione concertata dell'allineamento dei valori umani e dell'intelligenza artificiale.

L'idea generale è che vogliamo un'IA che si attenga ai valori umani appropriati e desiderabili. Alcuni si riferiscono a questo come AI responsabile. Altri discutono allo stesso modo IA responsabile, IA affidabilee Allineamento AI, che toccano tutti lo stesso principio cardine. Per la mia discussione su questi importanti temi, cfr il link qui ed il link qui, solo per citarne alcuni.

Come possiamo allineare l'IA ai valori umani?

Come suggerito in precedenza, ci auguriamo che gli sviluppatori di intelligenza artificiale siano consapevoli di sviluppare un'IA che raggiunga l'adesione all'IA responsabile. Purtroppo, potrebbero non farlo, secondo le ragioni precedentemente chiarite. Inoltre, potrebbero tentare di farlo, eppure l'IA finisce per autoregolarsi oltre il regno saliente dei comportamenti etici o forse in acque illegali.

Va bene, allora dobbiamo considerare i nostri pratici doppi controlli da dandy come un mezzo per sostenere questi rischi ed esposizioni. L'uso di un doppio controllore di etica dell'IA ben congegnato può aiutare materialmente ad allineare l'IA con i valori umani. Allo stesso modo, l'uso di un doppio controllo legale dell'IA ben congegnato può aiutare in modo sostanziale ad allineare l'IA ai valori umani.

Pertanto, un mezzo cruciale e non ancora ben noto per cercare di arrivare a Responsible AI, Trustworthy AI, Accountable AI, AI Alignment, ecc. Doppio controllore legale AI che funzionerebbe instancabilmente come doppio controllo sull'IA in cui sono incorporati.

In questa discussione, vorrei entrare un po' più in dettaglio sulla natura e sui costrutti dei doppi controlli legali dell'IA che potrebbero essere incorporati nell'IA. Per fare ciò, potrebbe essere utile condividere con te alcuni retroscena aggiuntivi sull'argomento generale di IA e diritto.

Per un esame senza fronzoli di come l'intelligenza artificiale e la legge si mescolano l'una con l'altra, vedere la mia discussione su il link qui. Nel mio sguardo perspicace al IA e diritto accoppiamento, fornisco questa semplice concezione di due modi principali per mettere in relazione l'IA e la legge:

  • (1) Legge applicata all'IA: La formulazione, l'emanazione e l'applicazione delle leggi applicate alla regolamentazione o alla governance dell'Intelligenza Artificiale nella nostra società
  • (2) AI-applicato alla legge: Tecnologia di intelligenza artificiale ideata e applicata alla legge, incluso il ragionamento legale basato sull'intelligenza artificiale (AILR) infuso nelle app high-tech di LegalTech per svolgere attività di avvocato in modo autonomo o semi-autonomo

Il primo punto di vista elencato consiste nel considerare come le leggi esistenti e nuove governeranno l'IA. La seconda prospettiva elencata ha a che fare con l'applicazione dell'IA alla legge.

Quest'ultima categoria di solito implica l'impiego del ragionamento legale basato sull'intelligenza artificiale (AILR) in vari strumenti online utilizzati dagli avvocati. Ad esempio, l'intelligenza artificiale potrebbe far parte di un pacchetto di gestione del ciclo di vita del contratto (CLM) che aiuta gli avvocati identificando il linguaggio contrattuale che sarà utile per la stesura di nuovi contratti o potrebbe rilevare contratti che hanno un linguaggio legalmente ambiguo che consente contrattempi o scappatoie legali (per il mio sguardo ai cosiddetti "odori di legge" che possono essere individuati dall'intelligenza artificiale, cfr il link qui).

Avremo inevitabilmente l'intelligenza artificiale applicata alla legge che diventa disponibile per l'uso da parte del pubblico in generale e che non richiede che un avvocato sia al corrente. In questo momento, a causa di varie restrizioni, tra cui l'UPL (Unauthorized Practical of Law), rendere disponibili app di consulenza legale basate sull'intelligenza artificiale è una questione spinosa e controversa, vedi la mia discussione su il link qui.

Ho citato questa introduzione su AI & Law per sottolineare che un altro uso strumentale dell'IA applicata alla legge sarebbe la creazione di controllori legali AI.

Sì, lo stesso tipo di abilità tecnologica coinvolta nell'applicazione dell'IA alla legge è in grado di fungere da doppio dovere utilizzando l'IA per fungere da doppio controllore legale dell'IA incorporato o impiantato. Il doppio controllore AI Legal è un componente che deve essere esperto in aspetti legali. Quando il resto dell'app AI sta eseguendo varie azioni, il doppio controllore AI Legal sta valutando se l'app AI lo sta facendo legalmente e entro limiti legali.

Un componente di doppio controllo AI Legal non deve necessariamente coprire l'intera gamma di tutto ciò che c'è da sapere sulla legge. A seconda della natura dell'app AI per quanto riguarda lo scopo e le azioni dell'IA in generale, il doppio controllore AI Legal può essere molto più ristretto in termini di competenza legale che contiene.

Ho identificato un quadro utile per mostrare come l'intelligenza artificiale nel dominio legale spazia attraverso una serie di capacità autonome, note come livelli di autonomia (LoA). Per una panoramica vedere il mio Forbes pubblicazione della colonna del 21 novembre 2022, "Il caso convincente e completo senza fronzoli sul motivo per cui gli avvocati devono conoscere l'IA e la legge" su il link qui, e per una descrizione tecnica dettagliata vedere il mio articolo di ricerca approfondito nel Rivista di diritto computazionale del MIT del 7 dicembre 2021, cfr il link qui.

Il quadro chiarisce cinque livelli di IA utilizzati negli sforzi legali:

  • Livello 0: nessuna automazione per il lavoro legale basato sull'intelligenza artificiale
  • Livello 1: semplice automazione dell'assistenza per il lavoro legale basato sull'intelligenza artificiale
  • Livello 2: automazione avanzata dell'assistenza per il lavoro legale basato sull'intelligenza artificiale
  • Livello 3: automazione semi-autonoma per il lavoro legale basato sull'intelligenza artificiale
  • Livello 4: Dominio autonomo per il lavoro legale basato sull'intelligenza artificiale
  • Livello 5: completamente autonomo per il lavoro legale basato sull'intelligenza artificiale

Li descrivo brevemente qui di seguito.

Il livello 0 è considerato il livello senza automazione. Il ragionamento legale e gli incarichi legali sono svolti tramite metodi manuali e avvengono principalmente tramite approcci cartacei.

Il livello 1 consiste in una semplice automazione dell'assistenza per il ragionamento legale dell'IA. Esempi di questa categoria includerebbero l'uso dell'elaborazione quotidiana di testi basata su computer, l'uso di fogli di calcolo basati su computer di uso quotidiano, l'accesso a documenti legali online archiviati e recuperati elettronicamente e così via.

Il livello 2 consiste nell'automazione dell'assistenza avanzata per il ragionamento legale dell'IA. Esempi di questa categoria includerebbero l'uso del rudimentale Natural Language Processing (NLP) in stile query, elementi semplicistici di Machine Learning (ML), strumenti di analisi statistica per previsioni di casi legali, ecc.

Il livello 3 consiste nell'automazione semi-autonoma per il ragionamento legale dell'IA. Esempi di questa categoria includerebbero l'uso di sistemi avanzati basati sulla conoscenza (KBS) per il ragionamento legale, l'uso di Machine Learning e Deep Learning (ML/DL) per il ragionamento legale, PNL avanzata e così via.

Il livello 4 è costituito da sistemi basati su computer autonomi di dominio per il ragionamento legale dell'IA. Questo livello riutilizza la nozione concettuale di Operational Design Domains (ODD), utilizzata per le auto a guida autonoma, ma applicata al dominio legale. I domini giuridici possono essere classificati per aree funzionali, come diritto di famiglia, diritto immobiliare, diritto fallimentare, diritto ambientale, diritto tributario, ecc.

Il livello 5 consiste in sistemi basati su computer completamente autonomi per il ragionamento legale dell'IA. In un certo senso, il livello 5 è il superinsieme del livello 4 in termini di inclusione di tutti i possibili domini legali. Per favore, renditi conto che questo è un compito piuttosto arduo.

Puoi concepire questi livelli di autonomia alla pari con gli usi simili quando parli di auto a guida autonoma e veicoli autonomi (anch'essi basati sullo standard SAE ufficiale, vedi la mia copertura su il link qui). Non disponiamo ancora di auto a guida autonoma di livello 5 SAE. Stiamo entrando nelle auto a guida autonoma di livello 4 SAE. La maggior parte delle auto convenzionali è al livello SAE 2, mentre alcune delle auto più recenti stanno raggiungendo il livello SAE 3.

Nel dominio legale, non abbiamo ancora AILR di livello 5. Stiamo toccando un certo livello 4, anche se in ODD estremamente ristretti. Il livello 3 sta iniziando a vedere la luce del giorno, mentre il pilastro di AILR oggi è principalmente al livello 2.

Un recente articolo di ricerca sull'intelligenza artificiale applicata alla legge ha ipotizzato una tipizzazione nota come La legge informa il codice. Il ricercatore afferma questo: “Uno degli obiettivi primari del La legge informa il codice programma è insegnare all'IA a seguire lo spirito della legge” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Giornale nordoccidentale di tecnologia e proprietà intellettuale, Volume 20, di prossima pubblicazione). Ci sono alcune considerazioni essenziali che il La legge informa il codice mantra viene fuori e ti guiderò attraverso molti di quei precetti chiave di volta.

Prima di approfondire l'argomento, vorrei innanzitutto gettare alcune basi essenziali sull'IA e in particolare sull'etica dell'IA e sulla legge sull'IA, facendo in modo che la discussione sia contestualmente ragionevole.

La crescente consapevolezza dell'IA etica e anche della legge sull'IA

La recente era dell'IA era inizialmente considerata come tale AI in bene, il che significa che potremmo usare l'IA per il miglioramento dell'umanità. Sulla scia di AI in bene è arrivata la consapevolezza che anche noi siamo immersi AI for Bad. Ciò include l'IA che è concepita o auto-alterata per essere discriminatoria e fa scelte computazionali che infondono pregiudizi indebiti. A volte l'IA è costruita in questo modo, mentre in altri casi vira in quel territorio spiacevole.

Voglio essere assolutamente certo che siamo sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente sull'IA senziente, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Suggerirei caldamente di mantenere le cose con i piedi per terra e di considerare l'odierna IA computazionale non senziente.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

Fai molta attenzione all'antropomorfizzazione dell'IA di oggi.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di IA potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Tutto ciò ha implicazioni notevolmente significative sull'etica dell'IA e offre una pratica finestra sulle lezioni apprese (anche prima che tutte le lezioni accadano) quando si tratta di cercare di legiferare sull'IA.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. Avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società.

Nelle colonne precedenti, ho trattato i vari sforzi nazionali e internazionali per elaborare e emanare leggi che regolano l'IA, vedi il link qui, Per esempio. Ho anche trattato i vari principi e linee guida dell'etica dell'intelligenza artificiale che varie nazioni hanno identificato e adottato, incluso ad esempio lo sforzo delle Nazioni Unite come il set dell'etica dell'intelligenza artificiale dell'UNESCO che quasi 200 paesi hanno adottato, vedi il link qui.

Ecco un utile elenco chiave di volta dei criteri o delle caratteristiche dell'IA etica relativi ai sistemi di intelligenza artificiale che ho precedentemente esplorato da vicino:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Questi principi di etica dell'intelligenza artificiale dovrebbero essere utilizzati seriamente dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e persino quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale.

Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come sottolineato in precedenza qui, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Recentemente ho anche esaminato il Carta dei diritti dell'IA che è il titolo ufficiale del documento ufficiale del governo degli Stati Uniti intitolato "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" che è stato il risultato di uno sforzo durato un anno dall'Office of Science and Technology Policy (OSTP ). L'OSTP è un'entità federale che serve a consigliare il Presidente americano e l'Ufficio Esecutivo degli Stati Uniti su vari aspetti tecnologici, scientifici e ingegneristici di importanza nazionale. In questo senso, puoi dire che questa Carta dei diritti dell'IA è un documento approvato e approvato dall'attuale Casa Bianca degli Stati Uniti.

Nella Carta dei diritti AI, ci sono cinque categorie chiave di volta:

  • Sistemi sicuri ed efficaci
  • Protezioni contro la discriminazione algoritmica
  • Privacy dei dati
  • Avviso e spiegazione
  • Alternative umane, considerazione e ripiego

Ho esaminato attentamente quei precetti, vedete il link qui.

Ora che ho gettato una base utile su questi argomenti correlati di etica dell'IA e diritto dell'IA, siamo pronti per passare all'argomento inebriante dei doppi controlli legali dell'IA e del regno di La legge informa il codice.

Doppie pedine legali AI incorporate nell'IA per l'allineamento del valore umano

a volte mi riferisco a Doppio controllore legale AI tramite un acronimo di AI-LDC. Questo è un po' visivamente stridente per coloro che non hanno familiarità con l'acronimo. In quanto tale, non userò questo particolare acronimo in questa discussione, ma volevo menzionarvelo come avvertimento.

Per svelare alcune delle complessità dei doppi controlli legali di AI, affrontiamo questi punti principali:

  • Uso dei doppi controlli legali dell'IA come meccanismo di allineamento dei valori umani dell'IA
  • Un'intelligenza artificiale più espansiva richiederà corrispondentemente doppi controlli legali di intelligenza artificiale più robusti
  • I doppi controllori legali di AI emanano la legge e in particolare non stanno facendo la legge (presumibilmente)
  • Delicato equilibrio tra AI L'incarnazione legale della legge come regole rispetto agli standard
  • Richiedere la prova del budino quando si tratta di rispettare la legge da parte dell'IA

A causa dei limiti di spazio, per ora tratterò solo questi cinque punti, anche se vi prego di essere all'erta per un'ulteriore copertura nella mia colonna che copre considerazioni aggiuntive e ugualmente degne di nota su queste questioni in rapida evoluzione e in movimento.

In questo momento, allaccia la cintura di sicurezza e preparati per un viaggio corroborante.

  • Uso dei doppi controlli legali dell'IA come meccanismo di allineamento dei valori umani dell'IA

Esistono numerosi modi per cercare di raggiungere un allineamento armonioso tra intelligenza artificiale e valori umani.

Come accennato in precedenza, possiamo produrre e promulgare i precetti dell'etica dell'IA e cercare di convincere gli sviluppatori di intelligenza artificiale e coloro che mettono in campo e gestiscono l'IA a rispettare tali pietre miliari. Sfortunatamente, questo da solo non farà il trucco. Hai alcuni ideatori che inevitabilmente non capiranno il messaggio. Hai alcuni espedienti che ostenteranno l'intelligenza artificiale etica e tenteranno di aggirare i principi prescritti un po 'sciocchi. E così via.

L'uso di approcci di "soft law" che implicano l'etica dell'IA deve essere quasi inesorabilmente associato a percorsi di "hard law" come l'approvazione di leggi e regolamenti che invieranno un forte segnale a tutti coloro che creano o utilizzano l'IA. Il lungo braccio della legge potrebbe venire a prenderti se non stai sfruttando giudiziosamente l'intelligenza artificiale. Il rumore delle porte della prigione che sbattevano poteva attirare un'attenzione acuta.

Un grosso problema però è che a volte la porta della stalla ha già lasciato uscire i cavalli. Un'intelligenza artificiale messa in campo produrrà potenzialmente ogni sorta di atti illegali e continuerà a farlo fino a quando non solo non verrà catturata, ma anche quando alcune forze dell'ordine finalmente si faranno avanti per ostacolare il flusso di azioni illegali. Tutto ciò può richiedere tempo. Nel frattempo, gli esseri umani vengono danneggiati in un modo o nell'altro.

In questa incursione arriva il doppio controllo di AI Legal.

Risiedendo all'interno di un'app AI, il doppio controllo AI Legal è in grado di rilevare immediatamente quando l'IA sembra essere in contrasto con la legge. Il doppio controllore AI Legal potrebbe fermare l'IA sul suo cammino. Oppure il componente potrebbe allertare gli esseri umani in merito alle attività illecite individuate, facendolo in modo tempestivo che potrebbe spingere i sorveglianti ad azioni correttive urgenti. C'è anche la considerata registrazione formalizzata che il componente potrebbe creare, fornendo una parvenza tangibile di una pista di controllo ai fini della codifica delle azioni avverse dell'IA.

Si dice che le nostre leggi siano una forma di conglomerato multi-agente tale che le leggi sono inevitabilmente un misto di ciò che la società ha cercato di stabilire come equilibrio tra le probabili visioni contrastanti di comportamenti sociali corretti e impropri. Un doppio controllore legale AI basato sulle nostre leggi incarna quindi quella miscela.

In particolare, questo è più che programmare un elenco di norme giuridiche definitive. Le leggi tendono ad essere più malleabili e si sforzano di raggiungere standard generali, piuttosto che specificare le più minute regole microscopiche. Le complessità sono abbondanti.

Tornando al documento di ricerca precedentemente citato, ecco come queste considerazioni possono essere viste anche per quanto riguarda il perseguimento dell'allineamento AI: “La legge, la filosofia applicata dell'allineamento multi-agente, soddisfa in modo univoco questi criteri. L'allineamento è un problema perché non possiamo ex ante specificare regole che dirigono in modo completo e dimostrabile un buon comportamento dell'IA. Allo stesso modo, le parti di un contratto legale non possono prevedere ogni evenienza del loro rapporto e i legislatori non possono prevedere le circostanze specifiche in cui verranno applicate le loro leggi. Ecco perché gran parte del diritto è una costellazione di standard” (ibid).

Incarnare la legge in un doppio controllore di AI Legal è molto più impegnativo di quanto si possa pensare a prima vista.

Man mano che l'IA avanza, dovremo sfruttare tali progressi di conseguenza. Si scopre che ciò che è buono per l'oca è anche buono per il papero. Quelli di noi che fanno progressi nell'IA applicata alla legge stanno spingendo i limiti sull'IA e indubbiamente forgiando nuovi progressi che alla fine possono alimentare del tutto il progresso dell'IA.

  • Un'intelligenza artificiale più espansiva richiederà corrispondentemente doppi controlli legali di intelligenza artificiale più robusti

Una mossa del gatto e del topo affronta questo argomento.

È probabile che, man mano che l'IA avanza ulteriormente, qualsiasi componente di doppio controllo legale dell'IA troverà le cose sempre più difficili da affrontare. Ad esempio, un'app di intelligenza artificiale che viene esaminata potrebbe avere modi super subdoli di nuova concezione per nascondere le azioni illegali che l'IA sta intraprendendo. Anche se l'IA non sta prendendo una strada subdola, la complessità complessiva dell'IA potrebbe da sola essere un ostacolo scoraggiante per cercare di far valutare il doppio controllore legale dell'IA.

Ecco come questo diventa particolarmente significativo.

Supponiamo che uno sviluppatore di intelligenza artificiale o un'azienda che utilizza l'intelligenza artificiale proclami che esiste un doppio controllore legale dell'IA che è stato incorporato nell'app basata sull'intelligenza artificiale. Voilà, ora sembrano essersi lavati le mani da ogni ulteriore preoccupazione. Il doppio controllo di AI Legal si occuperà di tutto.

Non è così.

Il doppio controllore AI Legal potrebbe non essere sufficiente per la natura dell'app AI coinvolta. C'è anche la possibilità che il doppio controllo AI Legal diventi obsoleto, magari non essendo aggiornato con le ultime leggi relative all'app AI. Si possono prevedere una serie di motivi per cui la semplice presenza di un doppio controllore legale AI non sarà un proiettile d'argento.

Considera queste intuizioni della ricerca citata in precedenza: “Man mano che lo stato dell'arte per l'IA avanza, possiamo fissare livelli iterativamente più alti di capacità di comprensione legale dimostrate. Se uno sviluppatore afferma che il proprio sistema dispone di capacità avanzate per le attività, deve dimostrare una comprensione legale e capacità di ragionamento legali e di ragionamento avanzate dell'intelligenza artificiale, che non hanno praticamente limiti di difficoltà quando si considera la palude di leggi e regolamenti nel tempo, nei precedenti e nella giurisdizione ” (ibidem).

  • I doppi controllori legali di AI emanano la legge e in particolare non stanno facendo la legge (presumibilmente)

Sono sicuro che alcuni di voi sono sbalorditi all'idea di avere questi doppi controllori di AI Legal.

Una preoccupazione spesso espressa è che apparentemente consentiremo all'IA di decidere le nostre leggi per noi. Buon Dio, potresti pensare, qualche pezzo di automazione supererà l'umanità. Quei dannati doppi controllori legali dell'intelligenza artificiale incorporati diventeranno i re predefiniti delle nostre leggi. Qualunque cosa facciano forse sarà ciò che la legge sembra essere.

Gli esseri umani saranno governati dall'intelligenza artificiale.

E questi doppi controlli di AI Legal sono il pendio scivoloso che ci porta lì.

Una controargomentazione è che tali discorsi sono roba da teorie del complotto. Stai postulando selvaggiamente e ti stai facendo girare la testa. La realtà è che questi doppi controllori di AI Legal non sono senzienti, non conquisteranno il pianeta e il clamore sul loro rischio esistenziale è chiaramente assurdo e immensamente sopravvalutato.

Tutto sommato, rimanendo con una postura calma e ragionata, dobbiamo essere consapevoli del fatto che i doppi controlli legali di AI servono a riflettere adeguatamente la legge e non per progettazione e né per caso andare oltre per in qualche modo fallire nel venerato regno del fare legge. Mettendo da parte le estrapolazioni della sensibilità, possiamo certamente concordare sul fatto che esiste una preoccupazione reale e urgente che il doppio controllore di AI Legal possa finire per travisare la vera natura di una data legge.

A sua volta, si potrebbe affermare che quindi quella particolare legge “travisata” viene essenzialmente riformulata poiché non significa più adeguatamente ciò che era inteso dalla legge stessa. Confido che tu possa francamente vedere come questa sia una considerazione sottile ma significativa. In qualsiasi momento, il doppio controllore legale dell'IA potrebbe, su base virtuale, creare o dovremmo dire "allucinare" nuove leggi semplicemente in base al modo in cui la componente AI interpreta la legge come originariamente dichiarata o incorporata nell'IA (per la mia copertura della cosiddetta IA allucinazioni, Vedere il link qui).

La cura su questo deve essere esercitata stridentemente.

Su questo argomento, il suddetto studio di ricerca offre questo pensiero parallelo in termini di tentativo di evitare di oltrepassare quella linea sacra: “Non miriamo a che l'IA abbia la legittimità per fare legge, stabilire un precedente legale o far rispettare la legge. In effetti, ciò minerebbe il nostro approccio (e dovremmo investire uno sforzo significativo per prevenirlo). Piuttosto, l'obiettivo più ambizioso del Law Informing Code è quello di codificare computazionalmente e incorporare la generalizzabilità dei concetti e degli standard legali esistenti nelle prestazioni AI convalidate” (ibid).

  • Delicato equilibrio tra AI L'incarnazione legale della legge come regole rispetto agli standard

Le leggi sono disordinate.

Per quasi tutte le leggi sui libri, c'è probabilmente una moltitudine di interpretazioni su ciò che la legge stabilisce nella pratica reale. Nel gergo del campo dell'IA, ci riferiamo alle leggi come semanticamente ambigue. Questo è ciò che rende lo sviluppo dell'IA applicato alla legge una sfida così entusiasmante e allo stesso tempo irritante. A differenza del preciso scricchiolio di numeri che potresti vedere per esempio applicazioni di IA orientate alla finanza, il desiderio di incarnare le nostre leggi nell'IA implica affrontare uno tsunami di ambiguità semantiche.

Nel libro della mia fondazione sui fondamenti dell'AI Legal Reasoning (AILR), discuto di come i precedenti tentativi di codificare semplicemente le leggi in un insieme di regole limitate non ci abbiano portato così lontano come vorremmo andare nel dominio legale (vedi il link qui). L'AILR di oggi deve comprendere un'integrazione tra l'uso delle regole e quelli che potrebbero essere definiti gli standard generali che la legge rappresenta.

Questo importante equilibrio può essere espresso in questo modo: "In pratica, la maggior parte delle disposizioni legali si colloca da qualche parte in uno spettro tra regola pura e standard puro, e la teoria giuridica può aiutare a stimare la giusta combinazione di" regola "e" norma " quando si specificano gli obiettivi dei sistemi di IA” (ibid).

  • Richiedere la prova del budino quando si tratta di rispettare la legge da parte dell'IA

Volere qualcosa è diverso da avere qualcosa.

Quel briciolo di saggezza emerge quando si offre che, sebbene potremmo voler avere i doppi controlli legali di AI, abbiamo abbondantemente bisogno di assicurarci che funzionino e funzionino correttamente. Nota che questo presenta un altro ostacolo duro ed estenuante. Ho trattato in precedenza gli ultimi progressi e le sfide nella verifica e nella convalida dell'IA, vedi il link qui.

Come osservato nel documento di ricerca: “Per colmare il divario, prima che i modelli di intelligenza artificiale vengano implementati in capacità sempre più agentiche, ad esempio veicoli completamente autonomi sulle strade principali, la parte che si occupa dell'implementazione dovrebbe dimostrare la comprensione del sistema degli obiettivi umani, delle politiche e degli standard legali. Una procedura di validazione potrebbe illustrare la 'comprensione' da parte dell'IA del 'significato' dei concetti giuridici” (ibid).

Conclusione

Ti esorto a prendere in considerazione la possibilità di unirti a me in questa nobile ricerca per costruire e mettere in campo i doppi controllori legali dell'IA. Abbiamo bisogno di più attenzione e risorse dedicate a questa virtuosa ricerca.

Ciò fornisce anche il doppio dovere, come accennato in precedenza, verso il raggiungimento dell'AI Legal Reasoning (AILR) che può essere utilizzato per aiutare gli avvocati e potenzialmente utilizzato direttamente dal pubblico in generale. In effetti, alcuni sostengono con veemenza che l'unico mezzo praticabile per arrivare a un senso più pieno di accesso alla giustizia (A2J) sarà attraverso la creazione di un'intelligenza artificiale che incarni le capacità legali e sia accessibile a tutti.

Un ultimo punto veloce per ora.

La discussione finora ha sottolineato che il doppio controllore legale dell'IA sarebbe incorporato o impiantato nell'IA. Questo è davvero l'obiettivo principale di coloro che ricercano e intraprendono questo regno emergente.

Ecco una domanda su cui vale la pena riflettere.

Indossa il tuo berretto pensante.

Perché non utilizzare i doppi controlli di AI Legal in tutti i software?

Il succo è che piuttosto che utilizzare esclusivamente i doppi controlli legali dell'IA nell'IA, forse dovremmo ampliare il nostro punto di vista. Tutti i tipi di software possono perdersi legalmente. L'intelligenza artificiale ha certamente ottenuto la parte del leone dell'attenzione a causa dei modi in cui l'IA viene solitamente utilizzata, come prendere decisioni strazianti che hanno un impatto sugli esseri umani nella loro vita quotidiana. Tuttavia, potresti facilmente sostenere che ci sono molti sistemi non IA che fanno lo stesso.

In sostanza, non dovremmo permettere a nessun software di avere un giro gratuito per evitare o scongiurare la legge.

Ricordiamo anche in precedenza che ho menzionato le due categorie di combinazione di AI e legge. In questa sede ci siamo concentrati sull'uso dell'IA applicato alla legge. Dall'altro lato della medaglia c'è l'applicazione della legge all'IA. Supponiamo di emanare leggi che richiedano l'uso dei doppi controllori di AI Legal.

Ciò potrebbe inizialmente essere limitato ai sistemi di intelligenza artificiale, in particolare quelli classificati come particolarmente ad alto rischio. A poco a poco, lo stesso requisito di controllo doppio di AI Legal potrebbe essere esteso anche a software non AI. Ancora una volta, niente corse gratuite.

Mentre rimugini su questa considerazione di cui sopra, ravviverò le cose come un teaser di chiusura. Se cercheremo di richiedere i doppi controllori di AI Legal, potremmo anche fare lo stesso con i doppi controllori di AI Ethics. L'uso di un doppio controllore AI Legal è solo metà della storia, e non possiamo trascurare o dimenticare anche le preoccupazioni di AI Ethics.

Terminerò questo discorso sbarazzino con una delle mie citazioni preferite. Secondo le sagge parole di Earl Warren, il famoso giurista che ha servito come capo della giustizia degli Stati Uniti: "Nella vita civile, la legge galleggia in un mare di etica".

Potrebbe essere meglio utilizzare avidamente quei doppi controllori legali dell'IA in erba e ribollenti e i doppi controllori dell'etica dell'IA se vogliamo mantenere la testa al di sopra di mari agitati potenzialmente incombenti dall'IA acida e dai sistemi non-IA che mettono in pericolo la nostra sicurezza .

Potrebbero essere il giubbotto di salvataggio dell'umanità.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- e-ai-legge/