L'etica dell'IA e la debacle incombente quando la legge di New York City che richiede audit per i pregiudizi dell'IA entra in gioco

A volte le migliori intenzioni sono purtroppo deluse da una grave mancanza di attenzione ai dettagli.

Un ottimo esempio di questa saggia saggezza è degno di essere esplorato.

In particolare, diamo un'occhiata da vicino a una nuova legge a New York City sull'Intelligenza Artificiale (AI) che entrerà in vigore il 1 gennaio 2023. Potresti facilmente vincere una scommessa considerevole che sorgeranno ogni sorta di confusione, costernazione e problemi una volta entrata in vigore la legge. Sebbene i problemi non siano di progettazione, si verificheranno indubbiamente come risultato di una progettazione scadente o almeno di una stipulazione insufficiente di dettagli necessari che avrebbero dovuto e avrebbero potuto essere facilmente ideati ed esplicitamente dichiarati.

Mi riferisco a una legge locale approvata l'anno scorso l'11 dicembre 2021, nella venerata città di New York, la cui entrata in vigore è prevista per l'inizio del 2023. Attualmente mancano solo pochi mesi al grande risveglio che questa nuova legge si muoverà. Vorrei poter dire che l'ambiziosa legge farà perfettamente ciò che dovrebbe fare, vale a dire affrontare i potenziali pregiudizi dell'IA nel campo delle decisioni occupazionali. Ahimè, sebbene l'intenzione sia lodevole, ti guiderò attraverso le lacune, le omissioni e la mancanza di specificità aperte che indeboliranno questa legge e faranno impazzire i datori di lavoro mentre cercano di far fronte alle ripercussioni non intenzionali ma piuttosto avverse della stessa.

Si potrebbe dire che questo è il classico problema di portare avanti un piano semicotto. Una massima venerata attribuita a Dwight Eisenhower era che un piano non è nulla mentre la pianificazione è tutto. In breve, questa particolare legge fornirà un vivido esempio di come i legislatori a volte possono non essere all'altezza non riuscendo a riflettere prima le indicazioni necessarie affinché la legge raggiunga i suoi lodevoli fini e possa essere adottata in modi sicuramente ragionevoli e prudenti.

Una debacle attende.

Le scuse sono già in fila.

Alcuni esperti hanno affermato che non puoi mai specificare completamente una legge e devi vederla in azione per sapere quali aspetti della legge devono essere modificati (un truismo generale che viene distorto in modo sproporzionato in questo caso). Inoltre, sostengono accanitamente che questo è particolarmente vero quando si tratta della novità emergente delle leggi relative all'IA. Diamine, esortano, l'IA è una magia high-tech di cui non sappiamo molto come legislatori, quindi, la logica è che avere qualcosa inserito nelle pagine legali è meglio che non avere nulla lì.

In apparenza, questo suona sicuramente persuasivo. Scava più a fondo e ti rendi conto che è potenzialmente sciocca, incluso e in particolare nel caso di questa legge specifica. Questa legge potrebbe essere prontamente stipulata in modo più abile e giudizioso. Non abbiamo bisogno di pozioni magiche. Non abbiamo bisogno di aspettare fino a quando non sorgano caos. Nel momento in cui la legge è stata elaborata, si sarebbe potuto stabilire il giusto tipo di formulazione e dettagli.

Assicuriamoci anche che l'idea sconveniente e fluttuante che gli aspetti dell'adozione non possano essere indovinati in anticipo sia dolorosamente assurda. È un gesto legale mumbo-jumbo del tipo più vacuo. Ci sono molte considerazioni già note sulla gestione dei pregiudizi dell'IA e sulla conduzione di audit dell'IA che avrebbero potuto essere prontamente inseriti in questa legge. Lo stesso si può dire per qualsiasi altra giurisdizione che contempli l'istituzione di una tale legge. Non lasciarti ingannare dal fatto che dobbiamo solo ricorrere a lanciare ciecamente un dardo legale nel vento selvaggio e soffrire angoscia. Un pizzico di pensiero legale combinato con un'adeguata comprensione dell'IA è già fattibile e non è necessario aggrapparsi esclusivamente alle cannucce.

Potrei aggiungere, c'è ancora tempo per rimediare. Il tempo scorre ancora. Potrebbe essere possibile svegliarsi prima che i campanelli d'allarme inizino a suonare. La consulenza necessaria può essere ricavata e resa nota. Il tempo è poco, quindi a questo deve essere data la debita priorità.

In ogni caso, assicurati di cogliere l'enfasi qui.

Consentitemi di chiarire con fervore che una tale legge sui pregiudizi dell'IA ha valore. Ti spiego il perché momentaneamente. Descriverò anche quali problemi ci sono con questa nuova legge che molti direbbero essere la prima in assoluto ad essere inserita nei libri legali (esistono altre variazioni, forse non proprio come questa però).

In effetti, puoi aspettarti che leggi simili entreranno gradualmente in vigore in tutto il paese. Una preoccupazione notevole è che se questo tentativo di fare la prima mossa a New York City va male, potrebbe indurre il resto del paese a diffidare dell'emanazione di tali leggi. Non è la lezione giusta da imparare. La lezione corretta è che se hai intenzione di scrivere una legge del genere, fallo in modo sensato e con la dovuta considerazione.

Le leggi gettate sui libri contabili senza un'adeguata verifica possono essere piuttosto sconvolgenti e creare ogni sorta di difficoltà a valle. In questo senso delle cose, per favore non gettare via il bambino con l'acqua sporca (un vecchio detto, probabilmente dovrebbe essere ritirato). Il succo è che tali leggi possono essere genuinamente produttive e protettive se correttamente composte.

Questo in particolare purtroppo non lo farà fuori dal cancello.

Tutti i tipi di guida in preda al panico sono destinati a venire dagli attori e dagli esecutori della legge. Segna i tuoi calendari per la fine di gennaio e fino a febbraio del 2023 per assistere alla corsa che segue. Puntare il dito sarà immensamente intenso.

Nessuno sta particolarmente gracchiando in questo momento perché la legge non è ancora arrivata sulla testa dei datori di lavoro che verranno eliminati dalla nuova legge. Immagina che si tratti di una sorta di terremoto, metaforicamente parlando, che si verificherà nelle prime settimane del 2023. Pochi si stanno preparando per il terremoto. Molti non sanno nemmeno che il terremoto è già in calendario. Detto questo, una volta che si verificherà il terremoto, molte aziende molto stupite e scioccate si chiederanno cosa è successo e perché è dovuto accadere il pasticcio.

Tutto ciò ha implicazioni notevolmente significative sull'etica dell'IA e offre una pratica finestra sulle lezioni apprese (anche prima che tutte le lezioni accadano) quando si tratta di cercare di legiferare sull'IA. Per la mia copertura continua ed estesa dell'etica dell'IA, l'IA etica, insieme alla legge sull'IA, tra gli aspetti legali della governance dell'IA, sono disponibili all'indirizzo il link qui ed il link qui, solo per citarne alcuni.

Questa storia legale di guai si riferisce alle preoccupazioni emergenti in passato sull'IA di oggi e in particolare sull'uso di Machine Learning (ML) e Deep Learning (DL) come forma di tecnologia e su come viene utilizzata. Vedete, ci sono usi di ML/DL che tendono a implicare che l'IA venga antropomorfizzata dal pubblico in generale, credendo o scegliendo di presumere che l'ML/DL sia un'IA senziente o vicina (non lo è). Inoltre, ML/DL può contenere aspetti della corrispondenza dei modelli computazionali che sono indesiderabili o addirittura impropri o illegali dal punto di vista etico o legale.

Potrebbe essere utile chiarire prima cosa intendo quando mi riferisco all'IA in generale e fornire anche una breve panoramica di Machine Learning e Deep Learning. C'è molta confusione su cosa significhi l'Intelligenza Artificiale. Vorrei anche presentarvi i precetti di AI Ethics, che saranno particolarmente parte integrante del resto di questo discorso.

Affermare il record sull'IA

Assicuriamoci di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente.

Non abbiamo questo.

Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente in qualche modo sorgerà miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come The Singularity, vedi la mia copertura su il link qui).

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning e Deep Learning, che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

Parte del problema è la nostra tendenza ad antropomorfizzare i computer e soprattutto l'IA. Quando un sistema informatico o un'intelligenza artificiale sembra agire in modi che associamo al comportamento umano, c'è un bisogno quasi schiacciante di attribuire qualità umane al sistema. È una trappola mentale comune che può afferrare anche lo scettico più intransigente sulle possibilità di raggiungere la sensibilità.

In una certa misura, ecco perché AI Ethics and Ethical AI è un argomento così cruciale.

I precetti di AI Ethics ci portano a rimanere vigili. I tecnologi dell'IA possono a volte interessarsi alla tecnologia, in particolare all'ottimizzazione dell'alta tecnologia. Non stanno necessariamente considerando le più ampie ramificazioni della società. Avere una mentalità etica dell'IA e farlo integralmente allo sviluppo e alla messa in campo dell'IA è fondamentale per produrre un'IA appropriata, inclusa la valutazione di come l'etica dell'IA viene adottata dalle aziende.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. Avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società. Vedi ad esempio la mia copertura su il link qui.

Nelle colonne precedenti, ho trattato i vari sforzi nazionali e internazionali per elaborare e emanare leggi che regolano l'IA, vedi il link qui, Per esempio. Ho anche trattato i vari principi e linee guida dell'etica dell'intelligenza artificiale che varie nazioni hanno identificato e adottato, incluso ad esempio lo sforzo delle Nazioni Unite come il set dell'etica dell'intelligenza artificiale dell'UNESCO che quasi 200 paesi hanno adottato, vedi il link qui.

Ecco un utile elenco chiave di volta dei criteri o delle caratteristiche dell'IA etica relativi ai sistemi di intelligenza artificiale che ho precedentemente esplorato da vicino:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Questi principi di etica dell'intelligenza artificiale dovrebbero essere utilizzati seriamente dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e persino quelli che alla fine mettono in campo e svolgono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come sottolineato in precedenza qui, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Manteniamo le cose con i piedi per terra e concentriamoci sull'IA computazionale non senziente di oggi.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Credo di aver ora posto le basi per discutere a sufficienza del ruolo dell'IA all'interno della rubrica dell'abbandono tranquillo.

AI che viene utilizzata nel processo decisionale in materia di occupazione

La legge di New York City si concentra sul tema del processo decisionale in materia di occupazione.

Se di recente hai provato a fare domanda per un lavoro moderno quasi ovunque su questa terra, probabilmente hai riscontrato un elemento basato sull'intelligenza artificiale nel processo decisionale sull'occupazione. Ovviamente, potresti non sapere che è lì poiché potrebbe essere nascosto dietro le quinte e non avresti un modo pronto per discernere che un sistema di intelligenza artificiale fosse coinvolto.

Uno slogan comune usato per riferirsi a questi sistemi di intelligenza artificiale è che sono considerati Strumenti automatizzati per la decisione sull'occupazione, abbreviato in AEDT.

Vediamo come la legge di New York ha definito questi strumenti o app che implicano il processo decisionale in materia di occupazione:

  • "Il termine 'strumento decisionale automatizzato per l'occupazione' indica qualsiasi processo computazionale, derivato da apprendimento automatico, modelli statistici, analisi dei dati o intelligenza artificiale, che emette un output semplificato, inclusi un punteggio, una classificazione o una raccomandazione, che viene utilizzato per assistere sostanzialmente o sostituire il processo decisionale discrezionale per prendere decisioni occupazionali che hanno un impatto sulle persone fisiche. Il termine "strumento automatizzato per le decisioni in materia di occupazione" non include uno strumento che non automatizza, supporta, assiste sostanzialmente o sostituisce i processi decisionali discrezionali e che non ha un impatto sostanziale sulle persone fisiche, incluso, a titolo esemplificativo, un filtro per la posta indesiderata, firewall, software antivirus, calcolatrice, foglio elettronico, database, set di dati o altra raccolta di dati” (NYC, Int 1894-2020, Sottocapitolo 25, Sezione 20-870).

Esaminerò brevemente questa formulazione poiché è vitale per l'intera natura e portata della legge.

Primo, come ho affermato molte volte nei miei scritti, uno degli ostacoli più difficili quando si scrivono leggi sull'IA consiste nel cercare di definire adeguatamente cosa significhi AI. Non esiste uno standard unico legalmente a prova di proiettile su cui tutti siano atterrati. Esistono tutti i tipi di definizioni. Alcuni sono utili, altri no. Vedi le mie analisi su il link qui.

Potresti essere tentato di pensare che non importa particolarmente come potremmo definire l'IA. Scusa, ma ti sbaglieresti.

Il problema è che se la definizione di intelligenza artificiale è vagamente specificata in una determinata legge, consente a coloro che sviluppano l'intelligenza artificiale di cercare di aggirare la legge affermando apparentemente che il loro software o sistema non è infuso di intelligenza artificiale. Sosterrebbero con grande audacia che la legge non si applica al loro software. Allo stesso modo, qualcuno che utilizza il software potrebbe anche affermare che la legge non li riguarda perché il software o il sistema che stanno utilizzando non rientra nella definizione di IA stabilita nella legge.

Gli esseri umani sono così difficili.

Uno dei modi più scaltri per evitare di essere presi a bastonate da una legge che non ti piace è affermare che la legge non si applica a te. In questo caso, cercherai di smontare in modo frammentario la definizione di AEDT. Il tuo obiettivo, supponendo che tu non voglia che la legge sia sulle tue spalle, sarebbe quello di sostenere legalmente che la definizione data nella legge è sbagliata di ciò che è o fa il tuo sistema informatico relativo al lavoro.

Una legge di questo tipo può essere sia aiutata che, a volte, anche pregiudicata dall'aver espressamente incluso nella definizione disposizioni di esclusione.

Dai un'occhiata ancora alla definizione di AEDT come stabilito in questa legge. Si spera che abbia osservato che esiste una clausola di esclusione che dice "...non include uno strumento che non automatizza, supporta, assiste sostanzialmente o sostituisce i processi decisionali discrezionali e che non ha un impatto materiale sulle persone fisiche...".

Da un lato, la base per includere tale esclusione è decisamente utile.

Sembra suggerire (dal mio punto di vista profano) che l'AEDT deve fornire uno scopo specifico ed essere utilizzato in modo sostanziale. Se l'AEDT è diciamo superficiale o periferico, e se la decisione sull'impiego è ancora piuttosto umana, forse il sistema software utilizzato non dovrebbe essere interpretato come un AEDT. Inoltre, se il software o il sistema non ha un impatto “materiale” sulle persone fisiche (umani), allora non sembra opportuno tenere i piedi al fuoco, per così dire.

In modo sensato, non vuoi che una legge sopravvaluta la sua portata e inghiotti tutto, compreso il lavello della cucina. Farlo è essenzialmente ingiusto e gravoso per coloro che la legge non intendeva includere. Possono rimanere intrappolati in una palude che si comporta come una di quelle reti da pesca che catturano tutti. Presumibilmente, le nostre leggi dovrebbero fare attenzione a evitare di trascinare gli innocenti nell'ambito della legge.

Va tutto bene.

Un avvocato esperto è tenuto a rendersi conto che una clausola di esclusione può essere una sorta di carta legale per uscire dal carcere (a parte questo, questa particolare legge prevede sanzioni civili, non sanzioni penali, quindi il uscire di prigione l'osservazione è meramente metaforica e per gustosa pungenza). Se qualcuno dovesse sostenere che un'azienda stava utilizzando un AEDT nell'elaborazione del lavoro, uno dei primi modi per tentare di superare tale affermazione sarebbe sostenere che il cosiddetto AEDT era effettivamente nel regno dell'esclusione. Potresti provare a dimostrare che il cosiddetto AEDT non lo fa automatizzare la decisione di assunzione, oppure no supporto la decisione di assunzione, oppure no assistere sostanzialmente or sostituire processi decisionali discrezionali.

Puoi quindi percorrere il tortuoso percorso per identificare cosa significano le parole "automatizzare", "supportare", "aiutare sostanzialmente" o "sostituire" in questo contesto. È piuttosto una pratica tana del coniglio legale. Si potrebbe sostenere in modo convincente che il software o il sistema presunto AEDT fa parte delle indicazioni di esclusione. Pertanto, nessun danno, nessun fallo, riguardo a questa legge particolare.

Ovviamente, gli avvocati abilitati dovrebbero essere consultati per tali questioni (nessuna parvenza di consulenza legale è indicata nel presente documento e questo è un punto di vista del tutto profano).

Il punto qui è che ci sarà spazio di manovra in questa nuova legge. Il margine di manovra consentirà ad alcuni datori di lavoro che stanno effettivamente utilizzando un AEDT di trovare forse una scappatoia per aggirare l'utilizzo dell'AEDT. L'altro lato di quella medaglia è che potrebbero esserci aziende che non utilizzano realmente un AEDT che verranno intrappolate da questa legge. Si potrebbe affermare che qualunque cosa stessero utilizzando era effettivamente un AEDT e dovranno trovare un mezzo per dimostrare che il loro software oi loro sistemi non rientrano nell'AEDT e nella disposizione di esclusione.

Possiamo fare questa audace previsione:

  • Ci saranno indubbiamente datori di lavoro che utilizzano consapevolmente un AEDT che potenzialmente cercherà di sottrarsi alle proprie responsabilità legali.
  • Ci saranno inevitabilmente datori di lavoro che non utilizzano un AEDT impantanandosi nelle affermazioni di utilizzare un AEDT, costringendoli a dover fare uno sforzo "extra" per dimostrare che non stanno utilizzando un AEDT.

Spiegherò ulteriormente queste numerose permutazioni e combinazioni quando andremo avanti in questa discussione. Abbiamo molto più terreno da percorrere.

L'uso di un AEDT di per sé non è la parte di questo problema che dà adito a preoccupazioni dimostrative, è il modo in cui l'AEDT esegue le sue azioni che fa fluire l'ira legale. Il punto cruciale è che se l'AEDT introduce anche pregiudizi legati al processo decisionale in materia di occupazione, allora sei in acque potenzialmente calde (beh, in un certo senso).

Come facciamo a sapere se un AEDT introduce effettivamente pregiudizi carichi di intelligenza artificiale in uno sforzo decisionale in materia di occupazione?

La risposta secondo questa legge è che deve essere effettuato un audit dell'IA.

In precedenza e spesso ho trattato la natura degli audit dell'IA e di cosa si tratta, oltre a notare gli svantaggi esistenti e gli aspetti mal definiti, come ad esempio il link qui ed il link qui, tra molti altri messaggi simili. In poche parole, l'idea è che, proprio come potresti eseguire un audit finanziario di un'azienda o fare un audit tecnologico relativo a un sistema informatico, puoi fare un audit su un sistema di intelligenza artificiale. Utilizzando tecniche, strumenti e metodi di auditing specializzati, esamini e valuti in cosa consiste un sistema di IA, incluso ad esempio il tentativo di accertare se contiene pregiudizi di un tipo o dell'altro.

Questa è una fiorente area di attenzione.

Puoi aspettarti che questo sottocampo dell'auditing dedicato all'auditing dell'IA continuerà a crescere. È immediatamente evidente che man mano che sempre più sistemi di intelligenza artificiale verranno lanciati sul mercato e, a sua volta, ci sarà sempre più richiesta di audit di intelligenza artificiale. Nuove leggi aiuteranno a innescare questo. Anche senza quelle leggi, ci saranno molti audit dell'IA poiché le persone e le aziende affermano di aver subito un torto dall'IA e cercheranno di fornire un'indicazione tangibile e documentata che il danno era presente e legato all'IA utilizzata.

Gli auditor dell'IA saranno caldi e molto richiesti.

Può essere un lavoro eccitante. Un elemento forse elettrizzante consiste nell'essere immersi nell'ultima e più grande intelligenza artificiale. L'IA continua ad avanzare. Quando ciò accade, un astuto auditor dell'IA dovrà tenersi all'erta. Se sei un auditor che si è stancato di fare gli audit convenzionali di tutti i giorni, l'arena dell'auditing AI sempre nuova che apre gli occhi promette (lo dico per elevare parzialmente la statura degli auditor poiché sono spesso gli eroi non annunciati che lavorano nelle trincee e tendono ad essere trascurati per i loro sforzi).

Per inciso, sono stato un auditor certificato di sistemi informatici (una di queste designazioni è la CISA) e ho svolto audit IT (Information Technology) molte volte in molti anni, inclusi audit AI. Il più delle volte, non ottieni il riconoscimento che merita per tali sforzi. Probabilmente puoi indovinare perché. In generale, gli auditor tendono a trovare le cose che sono sbagliate o rotte. In questo senso, sono molto utili, sebbene questo possa essere percepito da alcuni come cattive notizie e il messaggero di cattive notizie di solito non è posto in modo speciale su un piedistallo.

Torniamo alla questione in esame.

Per quanto riguarda la legge di New York, ecco cosa dice la legge sull'auditing dell'IA e sul tentativo di scoprire i pregiudizi dell'IA:

  • “Il termine 'revisione di bias' indica una valutazione imparziale da parte di un revisore indipendente. Tale audit di bias deve includere, a titolo esemplificativo ma non esaustivo, la verifica di uno strumento automatizzato per la decisione sul lavoro per valutare l'impatto disparato dello strumento sulle persone di qualsiasi categoria del componente 1 che deve essere segnalata dai datori di lavoro ai sensi della sottosezione (c) della sezione 2000e-8 del titolo 42 del codice degli Stati Uniti come specificato nella parte 1602.7 del titolo 29 del codice dei regolamenti federali” (NYC, Int 1894-2020, Sottocapitolo 25, Sezione 20-870).

Riepilogando, ecco a che punto siamo finora nel decomprimere questa legge:

  • La legge copre gli strumenti decisionali automatizzati per l'occupazione (AEDT)
  • È inclusa una definizione di sorta per identificare cos'è un AEDT
  • La definizione di AEDT cita anche disposizioni di esclusione
  • Il succo è che la legge vuole esporre i pregiudizi dell'IA nell'AEDT
  • Per capire se sono presenti distorsioni dell'IA, è necessario eseguire un audit dell'IA
  • L'audit dell'IA presumibilmente renderà noti eventuali pregiudizi dell'IA

Successivamente possiamo approfondire un po' la legge.

Ecco in cosa consiste una decisione di assunzione:

  • "Il termine 'decisione di impiego' significa selezionare i candidati per l'impiego oi dipendenti per la promozione all'interno della città" (NYC, Int 1894-2020, Sottocapitolo 25, Sezione 20-870).

Si noti che l'aspetto limite della "città" suggerisce che la questione riguarda solo le circostanze legate all'occupazione all'interno di New York. Inoltre, vale la pena notare che una decisione di assunzione come definita comporta lo screening dei candidati, che è la connotazione abituale di ciò che consideriamo una decisione di assunzione, oltre a includere anche le promozioni.

Questo è un doppio smacco, nel senso che le aziende dovranno rendersi conto che devono essere al corrente di come il loro AEDT (se ne stanno utilizzando uno) viene utilizzato per le impostazioni di impiego iniziale e anche durante la promozione all'interno dell'azienda. È probabile che tu possa indovinare o presumere che molte aziende non saranno abbastanza consapevoli del fatto che anche l'elemento delle promozioni si trovi all'interno di questa rubrica. Inevitabilmente trascureranno quel costrutto aggiuntivo a proprio rischio e pericolo.

In seguito fornirò un ulteriore estratto chiave della legge per illuminare l'essenza di ciò che viene interpretato come illegale da questa legge:

  • “Requisiti per strumenti decisionali automatizzati in materia di occupazione. un. In città, è illegale per un datore di lavoro o un'agenzia per l'impiego utilizzare uno strumento automatizzato di decisione sull'occupazione per selezionare un candidato o un dipendente per una decisione sull'occupazione a meno che: 1. Tale strumento sia stato oggetto di un audit di distorsione condotto non più di un anno prima dell'utilizzo di tale strumento; e 2. Una sintesi dei risultati del più recente audit di bias di tale strumento, nonché la data di distribuzione dello strumento a cui si applica tale audit, è stata resa pubblicamente disponibile sul sito web del datore di lavoro o dell'agenzia per l'impiego prima dell'uso di tale strumento…” (NYC, Int 1894-2020, Sottocapitolo 25, Sezione 20-871). Ci sono ulteriori sottoclausole che potresti voler dare un'occhiata, se sei fortemente interessato alla formulazione legale.

Scettici e critici hanno sostenuto che questo sembra alquanto tiepido per quanto riguarda l'attività illegale che viene denunciata.

Dicono che la legge si concentra solo in modo ristretto e minimo conduzione un audit dell'IA e pubblicizzazione i risultati, piuttosto che sul fatto che l'audit dell'IA abbia rilevato pregiudizi dell'IA e quali eventuali ramificazioni ciò abbia avuto nel prendere decisioni in materia di occupazione che rientrano nell'ambito di applicazione di questa legge. In sostanza, è apparentemente illegale non scegliere di condurre un tale audit dell'IA (se applicabile, come discusso in precedenza), inoltre è illegale nel caso in cui si esegue l'audit dell'IA ma lo si fa non pubblicizzarlo.

La legge sembra tacere sulla questione se i pregiudizi dell'IA siano stati rilevati e presenti o meno. Allo stesso modo, silenzio sul fatto che i pregiudizi dell'IA abbiano avuto un impatto su qualcuno correlato a un'attività decisionale di lavoro saliente. La chiave è condurre apparentemente "semplicemente" un audit dell'IA e raccontarlo.

Questa legge non va abbastanza lontano?

Parte della controargomentazione per sostenere che ciò sia apparentemente soddisfacente per quanto riguarda la gamma o la portata di ciò che comprende questa legge è che se un audit dell'IA rileva pregiudizi dell'IA e se tali pregiudizi dell'IA sono legati a particolari istanze decisionali in materia di occupazione, la persona o le persone così danneggiate sarebbero in grado di perseguire il datore di lavoro ai sensi Altro le leggi. Pertanto, non è necessario includere tale aspetto in questa legge particolare.

Presumibilmente, questa legge ha lo scopo di portare alla luce tali questioni.

Una volta che la luce del giorno è stata proiettata su queste pratiche spiacevoli, è possibile perseguire tutti i tipi di altre vie legali se i pregiudizi dell'IA sono esistenti e hanno un impatto sulle persone. Senza questa legge, l'argomento è che coloro che utilizzano gli AEDT lo farebbero mentre forse impazzirebbero e avrebbero potenzialmente tonnellate di pregiudizi dell'IA, per i quali coloro che cercano lavoro o coloro che cercano promozioni non saprebbero che sta avvenendo.

Portateli in superficie. Falli raccontare. Mettiti sotto il cofano. Guarda cosa c'è dentro quel motore. Questo è il mantra in questo caso. Da questo emergere e raccontare, possono essere intraprese ulteriori azioni.

Oltre a cercare un'azione legale a seguito dell'illuminazione del fatto che un audit dell'IA ha forse segnalato la presenza di pregiudizi dell'IA, c'è anche la convinzione che la pubblicazione di questi risultati produrrà ripercussioni reputazionali. I datori di lavoro che vengono mostrati come utilizzare AEDT con pregiudizi di IA probabilmente subiranno le ire della società, come tramite i social media e simili. Verranno smascherati per le loro azioni malvagie e vergognosi nel correggere il loro comportamento, e potrebbero anche ritrovarsi privi di persone che cercano di lavorare lì a causa delle scrupoli che i pregiudizi dell'IA impediscono l'assunzione o l'usurpazione di promozioni.

Le sanzioni dichiarate associate all'essere illegali sono queste:

  • “Sanzioni. un. Qualsiasi persona che violi qualsiasi disposizione del presente sottocapitolo o qualsiasi regola promulgata ai sensi del presente sottocapitolo è passibile di una sanzione civile non superiore a $ 500 per una prima violazione e ogni ulteriore violazione che si verifica lo stesso giorno della prima violazione, e non inferiore a $ 500 né più di $ 1,500 per ogni successiva violazione” (NYC, Int 1894-2020, Sottocapitolo 25, Sezione 20-872). Ci sono ulteriori sottoclausole che potresti voler dare un'occhiata, se sei fortemente interessato alla formulazione legale.

Scettici e critici sostengono che le sanzioni non sono abbastanza dure. Una grande azienda presumibilmente deriderebbe o riderebbe delle minuscole multe in dollari coinvolte. Altri sottolineano che la multa potrebbe finire per essere più di quanto sembri, in modo tale che se un'azienda dovesse subire mille dollari di violazioni ogni giorno (solo uno scenario, ci sono molti altri scenari), il valore di un anno sarebbe di circa $ 365,000, supponendo che l'azienda abbia semplicemente ignorato la legge per un anno intero e l'abbia fatta franca (sembra difficile da immaginare, ma potrebbe accadere e potrebbe anche verificarsi più a lungo o per un culmine più alto delle multe giornaliere, in teoria).

Nel frattempo, alcuni sono preoccupati per le piccole imprese e le relative multe. Se una piccola impresa che a malapena riesce a sbarcare il lunario viene colpita con le multe, e presumibilmente non lo fa per una motivazione deliberata per aggirare la legge, le multe potrebbero influenzare materialmente la loro attività in bilico.

Le considerazioni problematiche chiave di volta in questione

Ho una domanda semplice e diretta per te.

Nel contesto di questa legge, cosa costituisce esattamente un audit dell'IA?

Problematicamente, non vi è alcuna indicazione definitiva all'interno della narrazione della legge. Tutto ciò che ci sembra dire è che il “bias audit” deve essere effettuato attraverso “una valutazione imparziale da parte di un revisore indipendente” (come da testo di legge).

Puoi guidare un camion Mac attraverso quel buco aperto.

Ecco perché.

Considera questo esempio piuttosto sconcertante. Un truffatore contatta un'azienda a New York e spiega che fornisce un servizio tale che eseguirà un cosiddetto "controllo di bias" del proprio AEDT. Si impegnano a farlo "imparziale" (qualunque cosa significhi). Si presentano come un revisore dei conti indipendente e si sono unti come tale. Non c'è bisogno di alcun tipo di formazione in materia di contabilità o auditing, diplomi, certificazioni o altro. Forse si prendono la briga di stampare dei biglietti da visita o di creare frettolosamente un sito web pubblicizzando la loro reputazione di revisore dei conti indipendente.

Addebiteranno all'azienda una modesta commissione di circa $ 100. Il loro servizio consiste forse nel porre alcune domande sull'AEDT e poi proclamare che l'AEDT è privo di pregiudizi. Quindi inviano un rapporto delle dimensioni di una pagina e dichiarano i "risultati" del cosiddetto audit. L'azienda pubblica diligentemente questo sul proprio sito web.

L'azienda ha rispettato questa legge?

Dimmelo tu.

Sembra che lo abbiano fatto.

Potresti essere immediatamente colto alla sprovvista dal fatto che l'audit sia stato eseguito in modo superficiale (è essere educati e generosi in questo particolare scenario). Potresti essere disturbato dal fatto che il rilevamento del pregiudizio (o la sua mancanza) fosse forse essenzialmente predeterminato (voilà, sembri essere privo di pregiudizi). Potresti essere sconvolto dal fatto che i risultati pubblicati possano dare l'aura di aver superato un controllo rigoroso da parte di un revisore in buona fede esperto, addestrato, esperto e certificato.

Sì, questo fa aumentare le dimensioni.

Un datore di lavoro potrebbe essere sollevato dal fatto di aver completato questo "sciocco" requisito e dannatamente felice che gli sia costato solo un misero $ 100. Il datore di lavoro potrebbe rendersi conto internamente e in silenzio che l'audit indipendente è stato una farsa, ma apparentemente non spetta a lui decidere. Sono stati presentati a un presunto revisore dei conti indipendente, il revisore ha svolto il lavoro che il revisore ha ritenuto conforme, l'azienda ha pagato per questo, hanno ottenuto i risultati e hanno pubblicato i risultati.

Alcuni datori di lavoro lo faranno e si renderanno conto che stanno facendo l'occhiolino alla legge. Tuttavia, crederanno di essere pienamente conformi.

Altri datori di lavoro potrebbero essere truffati. Tutto ciò che sanno è la necessità di rispettare la legge. Fortunatamente per loro (o almeno così pensano), un "revisore dei conti indipendente" li contatta e promette che un audit di reclamo e un risultato possono essere ottenuti per $ 100. Per evitare di ricevere quella multa giornaliera di $ 500 o più, l'azienda pensa di aver ricevuto un regalo dal cielo. Pagano $ 100, si svolge la "verifica", ottengono un certificato di salute gratuito per la loro mancanza di pregiudizi dell'IA, pubblicano i risultati e se ne dimenticano fino alla prossima volta che devono fare un altro audit di questo tipo .

In che modo ogni azienda di New York soggetta a questa legge dovrebbe sapere qual è il rispetto in buona fede della legge?

Nel caso in cui tu non abbia già un po' lo stomaco in subbuglio, possiamo peggiorare le cose. Spero che tu non abbia mangiato nelle ultime ore poiché la prossima svolta sarà difficile da mantenere intatta.

Sei pronto?

Questo finto fornitore di servizi si rivela essere più una vergogna di quanto avresti potuto pensare. Convincono l'azienda a iscriversi al servizio da $ 100 per eseguire l'audit del bias imparziale come revisore indipendente. Ecco, fanno il "controllo" e scoprono che ci sono pregiudizi in ogni angolo dell'AEDT.

Hanno pregiudizi dell'IA come un'infestazione da scarafaggi.

Yikes, dice l'azienda, cosa possiamo fare al riguardo?

Nessun problema, viene detto loro, possiamo correggere quei pregiudizi dell'IA per te. Ti costerà solo $ 50 per ciascuno di questi pregiudizi che è stato trovato. Ok, l'azienda dice, per favore aggiustali, grazie per averlo fatto. Il fornitore di servizi fa un po' di codice a parole e dice all'azienda che ha corretto un centinaio di bias dell'IA, e quindi addebiterà loro $ 5,000 (ovvero $ 50 per ogni distorsione dell'IA da correggere, moltiplicata per i 100 trovati).

Ahi, l'azienda si sente pizzicata, ma è comunque meglio che affrontare la violazione di $ 500 o più al giorno, quindi pagano il "revisore indipendente" e quindi ottengono un nuovo rapporto che mostra che ora sono privi di pregiudizi. Lo pubblicano con orgoglio sul loro sito web.

Non sanno che si trattava di un pasticcio, di una truffa, di una truffa.

Potresti insistere sul fatto che questo fornitore di servizi dovrebbe essere punito per il suo inganno. Catturare e fermare questi imbroglioni sarà molto più difficile di quanto potresti immaginare. Proprio come inseguire quei principi con sede all'estero che hanno una fortuna per te sono probabilmente in qualche terra straniera al di fuori della portata della legge degli Stati Uniti, lo stesso potrebbe accadere anche in questo caso.

Aspettati che emerga un'industria artigianale grazie a questa nuova legge.

Ci saranno revisori in buona fede che cercheranno di fornire questi servizi. Buon per loro. Ci saranno auditor imprecisi che seguiranno questo lavoro. Ci saranno auditor falsamente proclamati che seguiranno questo lavoro.

Ho detto che lo scenario del fornitore di servizi prevedeva la richiesta di $ 100 per eseguire il cosiddetto audit dell'IA. Quello era solo un segnaposto inventato. Forse alcuni addebiteranno $ 10 (sembra impreciso). Forse circa $ 50 (ancora impreciso). Eccetera.

Supponiamo che un fornitore di servizi dica che costerà $ 10,000 per fare il lavoro.

O $ 100,000 per farlo.

Forse $ 1,000,000 per farlo.

Alcuni datori di lavoro non avranno la minima idea di quanto questo potrebbe o dovrebbe costare. La commercializzazione di questi servizi sarà gratuita per tutti. Questa è una legge per fare soldi per coloro che svolgono legittimamente questi servizi e un creatore di denaro per coloro che sono anche subdoli nel farlo. Sarà difficile sapere quale sia quale.

Ti chiederò anche di contemplare un altro buco aperto.

Nel contesto di questa legge, cosa costituisce esattamente un pregiudizio dell'IA?

A parte la menzione del codice di regolamentazione federale degli Stati Uniti (questo non risponde in particolare alla domanda sui pregiudizi dell'IA e non serve ergo come tappabuchi o risolutore sulla questione), sarebbe difficile affermare che questo nuovo la legge fornisce qualsiasi indicazione sostanziale di quali siano i pregiudizi dell'IA. Ancora una volta, questo sarà del tutto aperto a interpretazioni ampiamente disparate e non saprai particolarmente cosa è stato cercato, cosa è stato trovato e così via. Inoltre, il lavoro svolto anche dagli auditor dell'IA in buona fede sarà quasi probabilmente incomparabile a un altro, in modo tale che ciascuno tenderà a utilizzare le proprie definizioni e approcci proprietari.

In breve, possiamo guardare con trepidazione e preoccupazione a ciò che i datori di lavoro incontreranno a seguito di questa legge vagamente formulata ma ben intenzionata:

  • Alcuni datori di lavoro conosceranno la legge e si atterranno seriamente e pienamente al meglio delle loro capacità
  • Alcuni datori di lavoro conosceranno la legge e rispetteranno marginalmente il percorso più sottile, più economico e forse sgradevole che riescono a trovare o che arriva alla loro porta
  • Alcuni datori di lavoro conosceranno la legge e crederanno di non rientrare nell'ambito di applicazione della legge, quindi non faranno nulla al riguardo (anche se si scopre che potrebbero rientrare nell'ambito di applicazione)
  • Alcuni datori di lavoro conosceranno la legge e decideranno categoricamente di ignorarla, forse credendo che nessuno se ne accorgerà o che la legge non verrà applicata, o che la legge sarà considerata inapplicabile, ecc.
  • Alcuni datori di lavoro non conoscono la legge e verranno colti alla sprovvista, cercando di conformarsi
  • Alcuni datori di lavoro non conoscono la legge e verranno miseramente derubati dagli artisti della truffa
  • Alcuni datori di lavoro non conoscono la legge, non rientrano nell'ambito di applicazione, ma vengono comunque derubati da truffatori che li convincono che rientrano nell'ambito di applicazione
  • Alcuni datori di lavoro non conosceranno la legge e non faranno nulla al riguardo, mentre miracolosamente non verranno mai scoperti o scalfiti per la loro svista
  • Altro

Una considerazione cruciale da tenere a mente è l'entità o il ridimensionamento associato a questa nuova legge.

Secondo varie statistiche riportate sul numero di aziende a New York City, il conteggio è solitamente indicato come circa 200,000 circa imprese (usiamolo come ordine di grandezza). Supponendo che questa sia un'approssimazione ragionevole, presumibilmente le imprese in qualità di datori di lavoro sono soggette a questa nuova legge. Quindi, prendi i diversi modi sopra menzionati in cui i datori di lavoro reagiranno a questa legge e consideri quanti saranno in ciascuno dei vari secchi che ho appena menzionato.

È un problema di ridimensionamento piuttosto sconcertante.

Inoltre, secondo le statistiche riportate, ci sono forse 4 milioni di posti di lavoro nel settore privato a New York City, più un conteggio stimato di circa 300,000 dipendenti governativi impiegati dal governo di New York (di nuovo, usali come ordini di grandezza piuttosto che conteggi precisi). Se si tiene conto del fatto che le nuove assunzioni rientrano apparentemente nell'ambito di questa nuova legge, insieme alle promozioni associate a tutti quei lavoratori esistenti e futuri, il numero di dipendenti che in un modo o nell'altro saranno interessati da questa legge è francamente sbalorditivo .

La Grande Mela ha una nuova legge che a prima vista sembra essere innocua e apparentemente trascurabile o banale, ma quando ti rendi conto dei fattori di ridimensionamento coinvolti, beh, può farti girare la testa

Conclusione

Ho accennato all'inizio di questa discussione che questa è una nuova legge ben intenzionata.

Tutto ciò che ho appena descritto come potenziali scappatoie, omissioni, lacune, problemi e simili, potrebbe essere facilmente previsto. Questa non è scienza missilistica. Potrei aggiungere, ci sono ancora più preoccupazioni intrinseche e aspetti confondenti in questa legge che a causa di vincoli di spazio qui non ho richiamato.

Puoi trovarli con la stessa facilità con cui puoi sparare ai pesci in un barile.

Leggi di questo tipo dovrebbero essere elaborate con cura per cercare di prevenire questo tipo di vicende subdole. Presumo che i compositori seri abbiano cercato di scrivere una legge che credevano fosse relativamente ferrea e che forse, nel peggiore dei casi, avrebbe avuto qualche piccola goccia qua o là. Purtroppo, è una manichetta antincendio di gocciolamenti. Sarà necessario molto nastro adesivo.

La legge avrebbe potuto essere scritta in un modo più chiarito per chiudere queste lacune piuttosto apparenti e problemi associati?

Sì, abbondantemente così.

Ora, stando così le cose, potresti con indignazione esortare che una tale legge sarebbe senza dubbio molto più lunga. C'è sempre un compromesso tra avere una legge che va avanti all'infinito, diventando ingombrante, rispetto a essere concisa e compatta. Non si vuole però ottenere succinità a perdita di quella che sarebbe chiarezza e specificità sostanziali e meritorie. Una breve legge che tiene conto degli imbrogli è piena di guai. Una legge più lunga, anche se apparentemente più complessa, sarebbe solitamente un degno compromesso se evita, evita o almeno riduce al minimo i problemi a valle durante la fase di adozione.

Sant'Agostino disse: "Mi sembra che una legge ingiusta non sia affatto legge".

Potremmo fornire un corollario che una legge giusta che è composta da un linguaggio problematico è una legge che chiede di produrre problemi cupi. In questo caso, sembra che ci siano rimaste le sagge parole del grande giurista Oliver Wendell Holmes Jr., ovvero che una pagina di storia vale un chilo di logica.

Stai a guardare mentre la storia sta per essere scritta.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- biass-audits-kick-in-gear/