L'intelligenza artificiale responsabile gode di una spinta preminente tramite la proclamazione dell'etica dell'IA da parte della migliore società professionale The ACM

Hai visto o sentito la notizia?

Un'altra serie di precetti di etica dell'IA è stata recentemente proclamata.

Un rauco applauso, per favore.

Poi di nuovo, potresti non l'ho notato a causa del fatto che così tanti altri decreti di etica dell'IA circolano da un po' di tempo. Alcuni dicono che la percolazione apparentemente continua dei proclami dell'IA etica sta diventando un po' paralizzante. Quanti ne abbiamo bisogno? Qualcuno può tenere il passo con tutti loro? Qual'è il migliore? Stiamo forse esagerando con i principi dell'etica dell'IA? E così via.

Bene, in questo caso particolare, dico che dovremmo accogliere con particolare favore quest'ultima aggiunta al club.

Spiegherò perspicacemente perché tra un momento.

Innanzitutto, come chiarimento, mi riferisco al set di precetti di etica dell'IA ora noto ufficialmente come "Dichiarazione sui principi per sistemi algoritmici responsabili” che è stato recentemente pubblicato dall'ACM Technology Policy Council il 26 ottobre 2022. I miei complimenti vanno ai team di esperti che hanno messo insieme questo prezioso documento, tra cui gli autori principali Jeanna Matthews (Clarkson University) e Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

Quelli di voi che ne sono al corrente potrebbero, a un attento esame, rendersi conto che questo documento sembra vagamente familiare.

Buon occhio!

Quest'ultima incarnazione è essenzialmente una variante aggiornata e ampliata della precedente "Dichiarazione sulla trasparenza e responsabilità algoritmica" congiunta che è stata promulgata dal Comitato per la politica tecnologica degli Stati Uniti di ACM e dal Comitato per la politica tecnologica della ACM Europa nel 2017. I lettori fedeli delle mie colonne potrebbero ricordarlo Di tanto in tanto ho menzionato il decreto del 2017 nella mia colonna che copre gli aspetti chiave alla base dell'etica dell'IA e della legge sull'IA.

Per la mia valutazione ampia e continua e le analisi di tendenza dell'etica dell'IA e della legge sull'IA, vedi il link qui ed il link qui, solo per citarne alcuni.

Quest'ultima dichiarazione dell'ACM è particolarmente importante per diversi motivi vitali.

Ecco perché.

L'ACM, che è un pratico acronimo per il Association for Computing Machinery, è considerata la più grande associazione al mondo focalizzata sull'informatica. Composto da circa 110,000 membri, l'ACM è un pioniere di lunga data nel campo informatico. L'ACM produce alcune delle più importanti ricerche accademiche nel campo dell'informatica e allo stesso modo fornisce reti professionali e fa appello anche ai professionisti dell'informatica. In quanto tale, l'ACM è una voce importante che rappresenta generalmente coloro che sono high-tech e si è sforzata costantemente di far progredire il campo dei computer (l'ACM è stata fondata nel 1947).

Potrei aggiungere una piccola nota personale anche su questo. Quando sono entrato per la prima volta nei computer al liceo, mi sono unito all'ACM e ho partecipato ai loro programmi educativi, in particolare l'entusiasmante possibilità di competere nella loro competizione annuale di programmazione per computer (tali competizioni sono ampiamente comuni al giorno d'oggi ed etichettate tipicamente come hackathons). Rimango coinvolto nell'ACM mentre sono al college tramite il mio capitolo universitario locale e ho avuto l'opportunità di conoscere la leadership diventando un funzionario del capitolo studentesco. Entrando nel settore, sono entrato a far parte di un capitolo professionale e ancora una volta ho assunto un ruolo di leadership. Successivamente, quando sono diventato professore, ho fatto parte dei comitati ACM e dei comitati editoriali, oltre a sponsorizzare il capitolo degli studenti del campus. Ancora oggi, sono attivo nell'ACM, incluso il servizio nell'ACM US Technology Policy Committee.

Apprezzo la visione accattivante e duratura di ACM dell'apprendimento permanente e dello sviluppo della carriera.

In ogni caso, in termini dell'ultima dichiarazione di AI Ethics, il fatto che sia stata rilasciata dall'ACM ha un peso notevole. Potresti ragionevolmente affermare che i precetti dell'IA etica sono la totalità o la voce collettiva di un gruppo mondiale di professionisti informatici. Questo dice qualcosa proprio lì.

C'è anche l'aspetto che altri nel campo dei computer saranno ispirati a rianimarsi e ad ascoltare nel senso di dare la dovuta considerazione a ciò che la dichiarazione dichiara dai loro colleghi informatici. Pertanto, anche per coloro che non fanno parte dell'ACM o non sanno assolutamente nulla del venerato gruppo, ci sarà, si spera, un vivo interesse a scoprire di cosa tratta la dichiarazione.

Nel frattempo, quelli che sono al di fuori del campo informatico potrebbe essere attratto dall'affermazione come una sorta di sguardo interno dietro le quinte su ciò che gli appassionati di computer dicono sull'IA etica. Voglio sottolineare, tuttavia, che l'affermazione è destinata a tutti, non solo a quelli della comunità informatica, e quindi tieni presente che i precetti dell'etica dell'IA sono generali, per così dire.

Infine, c'è una svolta in più che pochi prenderebbero in considerazione.

A volte, gli estranei percepiscono le associazioni informatiche come profonde nella tecnologia e non particolarmente consapevoli degli impatti sociali dei computer e dell'intelligenza artificiale. Potresti essere tentato di presumere che tali entità professionali si preoccupino solo delle scoperte più recenti e più importanti nell'hardware o nel software. Sono percepiti dal pubblico, in modo semplicemente dichiarato, come dei nerd tecnologici.

Per mettere le cose in chiaro, sono stato immerso nell'impatto sociale dell'informatica da quando sono entrato per la prima volta nei computer e allo stesso modo anche l'ACM è stato profondamente impegnato su questi argomenti.

Per chiunque sia sorpreso dal fatto che questa dichiarazione sui precetti dell'etica dell'IA sia stata messa insieme e rilasciata dall'ACM, non prestano attenzione alla ricerca e al lavoro di lunga data che si svolgono su questi argomenti. Invito inoltre gli interessati a dare una buona occhiata all'ACM Codice etico, uno stridente codice etico professionale che si è evoluto nel corso degli anni e sottolinea che gli sviluppatori di sistemi devono essere consapevoli, rispettare ed essere vigili sulle ramificazioni etiche dei loro sforzi e prodotti.

L'intelligenza artificiale ha alimentato il fuoco per essere informato sull'etica informatica.

La visibilità delle considerazioni etiche e legali nel campo informatico è aumentata enormemente con l'emergere dell'IA di oggi. Coloro che sono all'interno della professione vengono informati e, a volte, incitati a prestare la dovuta attenzione alle questioni di etica e legge sull'IA. I legislatori stanno diventando sempre più consapevoli degli aspetti dell'etica dell'IA e delle leggi sull'IA. Le aziende si stanno rendendo conto che l'intelligenza artificiale che stanno ideando o utilizzando è sia vantaggiosa che a volte comporta anche enormi rischi e potenziali svantaggi.

Analizziamo ciò che è accaduto negli ultimi anni in modo da poter stabilire un contesto appropriato prima di tuffarci in quest'ultima serie di precetti di etica dell'IA.

La crescente consapevolezza dell'IA etica

La recente era dell'IA era inizialmente considerata come tale AI in bene, il che significa che potremmo usare l'IA per il miglioramento dell'umanità. Sulla scia di AI in bene è arrivata la consapevolezza che anche noi siamo immersi AI for Bad. Ciò include l'IA che è concepita o auto-alterata per essere discriminatoria e fa scelte computazionali che infondono pregiudizi indebiti. A volte l'IA è costruita in questo modo, mentre in altri casi vira in quel territorio spiacevole.

Voglio essere assolutamente certo che siamo sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente sull'IA senziente, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Suggerirei caldamente di mantenere le cose con i piedi per terra e di considerare l'odierna IA computazionale non senziente.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

Fai molta attenzione all'antropomorfizzazione dell'IA di oggi.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di IA potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Tutto ciò ha implicazioni notevolmente significative sull'etica dell'IA e offre una pratica finestra sulle lezioni apprese (anche prima che tutte le lezioni accadano) quando si tratta di cercare di legiferare sull'IA.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. Avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società.

Nelle colonne precedenti, ho trattato i vari sforzi nazionali e internazionali per elaborare e emanare leggi che regolano l'IA, vedi il link qui, Per esempio. Ho anche trattato i vari principi e linee guida dell'etica dell'intelligenza artificiale che varie nazioni hanno identificato e adottato, incluso ad esempio lo sforzo delle Nazioni Unite come il set dell'etica dell'intelligenza artificiale dell'UNESCO che quasi 200 paesi hanno adottato, vedi il link qui.

Ecco un utile elenco chiave di volta dei criteri o delle caratteristiche dell'IA etica relativi ai sistemi di intelligenza artificiale che ho precedentemente esplorato da vicino:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Questi principi di etica dell'intelligenza artificiale dovrebbero essere utilizzati seriamente dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e persino quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale.

Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come sottolineato in precedenza qui, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e attenersi ai precetti dell'Etica dell'IA.

Recentemente ho anche esaminato il Carta dei diritti dell'IA che è il titolo ufficiale del documento ufficiale del governo degli Stati Uniti intitolato "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" che è stato il risultato di uno sforzo durato un anno dall'Office of Science and Technology Policy (OSTP ). L'OSTP è un'entità federale che serve a consigliare il Presidente americano e l'Ufficio Esecutivo degli Stati Uniti su vari aspetti tecnologici, scientifici e ingegneristici di importanza nazionale. In questo senso, puoi dire che questa Carta dei diritti dell'IA è un documento approvato e approvato dall'attuale Casa Bianca degli Stati Uniti.

Nella Carta dei diritti AI, ci sono cinque categorie chiave di volta:

  • Sistemi sicuri ed efficaci
  • Protezioni contro la discriminazione algoritmica
  • Privacy dei dati
  • Avviso e spiegazione
  • Alternative umane, considerazione e ripiego

Ho esaminato attentamente quei precetti, vedete il link qui.

Ora che ho gettato una base utile su questi argomenti relativi all'etica dell'IA e al diritto dell'IA, siamo pronti per passare alla recente pubblicazione ACM "Statement On Principles For Responsible Algorithmic Systems" (a proposito, dal momento che il titolo del documento si riferisce a responsabile sistemi algoritmici, potresti dare un'occhiata alla mia valutazione di cosa significhi parlare IA affidabile, Vedere il link qui).

Preparati per un viaggio in quest'ultima serie di principi di etica dell'IA.

Scavando intensamente nei precetti di etica AI dichiarati dall'ACM

La dichiarazione di ACM sull'AI etica consiste in queste nove chiavi di volta:

  • Legittimità e competenza
  • Ridurre al minimo i danni
  • Sicurezza e privacy
  • Trasparenza
  • Interpretabilità e spiegabilità
  • manutenibilità
  • Contestabilità e verificabilità
  • Responsabilità e responsabilità
  • Limitare gli impatti ambientali

Se confronti quest'ultimo set con altri set disponibili in particolare, c'è una grande quantità di somiglianze o corrispondenze affini tra loro.

Da un lato, puoi prenderlo come un buon segno.

Potremmo generalmente sperare che la sfilza di principi di etica dell'IA che si aggirano intorno si unisca tutti verso la stessa copertura generale. Vedere che un set è in qualche modo paragonabile a un altro set ti dà una parvenza di fiducia che questi set siano all'interno dello stesso campo di gioco e non in qualche modo fuori in un campo sinistro sconcertante.

Una potenziale lamentela da parte di alcuni è che questi vari insiemi sembrano essere più o meno gli stessi, il che potrebbe quindi creare confusione o almeno costernazione a causa dello scrupolo che non dovremmo avere numerosi elenchi apparentemente duplicati. Non può esserci un solo elenco? Il problema ovviamente è che non esiste un modo semplice per ottenere che tutti questi elenchi siano uniformemente esattamente gli stessi. Diversi gruppi e diverse entità si sono avvicinati a questo in modi diversi. La buona notizia è che praticamente tutti hanno raggiunto la stessa conclusione generale. Possiamo essere sollevati dal fatto che i set non presentano grandi differenze, il che forse ci metterebbe a disagio se non ci fosse un consenso generale.

Un contrarian potrebbe esortare che la comunanza di questi elenchi è sconcertante, sostenendo che forse c'è un pensiero di gruppo in corso. Forse tutti questi gruppi disparati la pensano allo stesso modo e non sono in grado di guardare oltre la norma. Tutti noi stiamo cadendo in una trappola identica. Le liste stanno apparentemente ancorando il nostro pensiero e non siamo in grado di vedere oltre il nostro naso.

Guardare oltre il nostro naso è senza dubbio una buona causa.

Sono certamente aperto ad ascoltare ciò che i contrarian hanno da dire. A volte prendono fiato di qualcosa che ha il Titanic dirigendosi verso un gigantesco iceberg. Potremmo usare alcune vedette a volo d'aquila. Ma, in merito a questi precetti dell'etica dell'IA, non c'è stato nulla di definitivamente articolato dai contrarian che sembri palesemente indebolire o sollevare preoccupazioni per un'indebita comunanza in corso. Penso che stiamo andando bene.

In questo set ACM, ci sono alcuni punti particolarmente degni di nota o straordinari che ritengo meritino particolare attenzione.

Innanzitutto, mi piace il fraseggio di alto livello che è in qualche modo diverso dalla norma.

Ad esempio, riferendosi a legittimità e competenza (il primo elemento puntato) evoca una parvenza dell'importanza delle competenze di progettazione e gestione associate all'intelligenza artificiale. Inoltre, il legittimità lo slogan finisce per portarci nell'etica dell'IA ed Regno della Legge AI. Dico questo perché molti dei precetti di AI Ethics si concentrano quasi interamente sulle implicazioni etiche, ma sembrano omettere o allontanarsi dal notare anche le ramificazioni legali. In campo legale, le considerazioni etiche sono spesso pubblicizzate come "soft law" mentre le leggi sui libri sono interpretate come "leggi dure" (nel senso che portano il peso dei tribunali legali).

Uno dei miei detti preferiti di tutti i tempi è stato pronunciato dal famoso giurista Earl Warren: "Nella vita civile, la legge galleggia in un mare di etica".

Dobbiamo assicurarci che i precetti dell'etica dell'IA comprendano ed enfatizzino anche il lato hard-law delle cose come nella stesura, promulgazione e applicazione delle leggi sull'IA.

In secondo luogo, apprezzo che l'elenco includa contestabilità e controllabilità.

Ho ripetutamente scritto sul valore di poter contestare o alzare una bandiera rossa quando sei soggetto a un sistema di intelligenza artificiale, vedi il link qui. Inoltre, vedremo sempre più nuove leggi che costringono i sistemi di IA a essere controllati, di cui ho discusso a lungo sulla legge di New York City (NYC) sui pregiudizi di controllo dei sistemi di IA utilizzati per l'assunzione e le promozioni dei dipendenti, vedi il link qui. Sfortunatamente, e come da mia critica aperta alla nuova legge di New York, se queste leggi sulla verificabilità sono imperfette, probabilmente creeranno più problemi di quanti ne risolvano.

In terzo luogo, c'è un graduale risveglio del fatto che l'IA può infondere problemi di sostenibilità e sono lieto di vedere che il ambientale l'argomento ha ottenuto una fatturazione di alto livello in questi precetti di etica dell'IA (vedi l'ultimo punto elenco dell'elenco).

L'atto di creare un sistema di intelligenza artificiale può da solo consumare molte risorse di calcolo. Queste risorse informatiche possono essere direttamente o indirettamente usurpatrici della sostenibilità. C'è un compromesso da considerare per quanto riguarda i vantaggi che un'IA fornisce rispetto ai costi che ne derivano. L'ultimo degli elementi puntati di ACM prende atto della sostenibilità e delle considerazioni ambientali che sorgono con l'IA. Per la mia copertura dei problemi di impronta di carbonio relativi all'IA, vedere il link qui.

Ora che abbiamo dato uno sguardo alle stelle all'elenco ACM dei precetti di etica dell'IA, mettiamo le dita dei piedi più profondamente nelle acque.

Ecco le descrizioni ufficiali per ciascuno dei precetti di etica AI di alto livello (citati dalla dichiarazione formale):

1. "Legittimità e competenza: I progettisti di sistemi algoritmici dovrebbero avere la competenza gestionale e l'autorizzazione esplicita per costruire e implementare tali sistemi. Devono inoltre avere esperienza nel dominio dell'applicazione, una base scientifica per l'uso previsto dei sistemi ed essere ampiamente considerati socialmente legittimi dalle parti interessate influenzate dal sistema. Devono essere condotte valutazioni legali ed etiche per confermare che eventuali rischi introdotti dai sistemi saranno proporzionali ai problemi affrontati e che qualsiasi compromesso tra benefici e danni sia compreso da tutte le parti interessate.

2. "Minimizzazione del danno: I gestori, i progettisti, gli sviluppatori, gli utenti e le altre parti interessate dei sistemi algoritmici dovrebbero essere consapevoli dei possibili errori e pregiudizi coinvolti nella loro progettazione, implementazione e utilizzo e del potenziale danno che un sistema può causare agli individui e alla società. Le organizzazioni dovrebbero eseguire regolarmente valutazioni d'impatto sui sistemi che impiegano per determinare se il sistema potrebbe generare danni, in particolare danni discriminatori, e applicare le opportune mitigazioni. Quando possibile, dovrebbero imparare dalle misure delle prestazioni effettive, non solo da modelli di decisioni passate che potrebbero essere state discriminatorie".

3. "Sicurezza e riservatezza: Il rischio derivante da parti malintenzionate può essere mitigato introducendo le migliori pratiche di sicurezza e privacy in ogni fase del ciclo di vita dei sistemi, inclusi controlli robusti per mitigare le nuove vulnerabilità che si presentano nel contesto dei sistemi algoritmici".

4. "Trasparenza: Gli sviluppatori di sistemi sono incoraggiati a documentare chiaramente il modo in cui sono stati selezionati set di dati, variabili e modelli specifici per lo sviluppo, la formazione, la convalida e il test, nonché le misure specifiche utilizzate per garantire la qualità dei dati e dell'output. I sistemi dovrebbero indicare il loro livello di fiducia in ogni output e gli esseri umani dovrebbero intervenire quando la fiducia è bassa. Gli sviluppatori dovrebbero anche documentare gli approcci che sono stati utilizzati per esplorare potenziali pregiudizi. Per i sistemi con un impatto critico sulla vita e sul benessere, dovrebbero essere richieste procedure di verifica e convalida indipendenti. Il controllo pubblico dei dati e dei modelli offre la massima opportunità di correzione. Gli sviluppatori dovrebbero quindi facilitare i test di terze parti nell'interesse pubblico.

5. "Interpretabilità e spiegabilità: I gestori di sistemi algoritmici sono incoraggiati a produrre informazioni riguardanti sia le procedure che seguono gli algoritmi impiegati (interpretabilità) sia le decisioni specifiche che prendono (spiegabilità). La spiegabilità può essere importante tanto quanto l'accuratezza, specialmente in contesti di politica pubblica o in qualsiasi ambiente in cui ci sono preoccupazioni su come gli algoritmi potrebbero essere distorti per avvantaggiare un gruppo piuttosto che un altro senza riconoscimento. È importante distinguere tra spiegazioni e razionalizzazioni a posteriori che non riflettono le prove o il processo decisionale utilizzato per raggiungere la conclusione spiegata.

6. "Manutenibilità: La prova della solidità di tutti i sistemi algoritmici dovrebbe essere raccolta durante il loro ciclo di vita, inclusa la documentazione dei requisiti di sistema, la progettazione o l'implementazione delle modifiche, i test case ei risultati e un registro degli errori trovati e corretti. Una corretta manutenzione può richiedere la riqualificazione dei sistemi con nuovi dati di addestramento e/o la sostituzione dei modelli utilizzati”.

7. "Contestabilità e verificabilità: Le autorità di regolamentazione dovrebbero incoraggiare l'adozione di meccanismi che consentano a individui e gruppi di mettere in discussione i risultati e cercare un risarcimento per gli effetti negativi derivanti da decisioni basate su algoritmi. I manager dovrebbero garantire che i dati, i modelli, gli algoritmi e le decisioni siano registrati in modo che possano essere verificati e i risultati replicati nei casi in cui si sospetti o presunti danni. Le strategie di audit dovrebbero essere rese pubbliche per consentire a individui, organizzazioni di interesse pubblico e ricercatori di rivedere e raccomandare miglioramenti.

8. "Responsabilità e responsabilità: Gli enti pubblici e privati ​​dovrebbero essere ritenuti responsabili delle decisioni prese dagli algoritmi che utilizzano, anche se non è possibile spiegare in dettaglio come tali algoritmi abbiano prodotto i loro risultati. Tali organismi dovrebbero essere responsabili di interi sistemi implementati nei loro contesti specifici, non solo delle singole parti che compongono un determinato sistema. Quando vengono rilevati problemi nei sistemi automatizzati, le organizzazioni responsabili dell'implementazione di tali sistemi dovrebbero documentare le azioni specifiche che intraprenderanno per porre rimedio al problema e in quali circostanze l'uso di tali tecnologie dovrebbe essere sospeso o interrotto.

9. "Limitare gli impatti ambientali: I sistemi algoritmici dovrebbero essere progettati per riportare le stime degli impatti ambientali, comprese le emissioni di carbonio derivanti sia dall'addestramento che dai calcoli operativi. I sistemi di intelligenza artificiale dovrebbero essere progettati per garantire che le loro emissioni di carbonio siano ragionevoli dato il grado di accuratezza richiesto dal contesto in cui vengono implementati”.

Confido che darai a ciascuno di questi cruciali precetti di etica dell'IA un'attenta e antica lettura. Per favore, prendili a cuore.

Conclusione

C'è una parte sottile ma ugualmente cruciale della dichiarazione ACM che credo molti potrebbero inavvertitamente trascurare. Mi assicuro di portarlo alla tua attenzione.

Sto alludendo a una parte che discute l'arduo enigma di dover soppesare i compromessi associati ai precetti dell'etica dell'IA. Vedi, la maggior parte delle persone spesso fa un sacco di cenno del capo insensato quando legge i principi dell'IA etica e presuppone che tutti i precetti abbiano lo stesso peso e che a tutti i precetti verrà sempre data la stessa parvenza ottimale di deferenza e valore.

Non nel mondo reale.

Quando la gomma incontra la strada, qualsiasi tipo di intelligenza artificiale che abbia anche un minimo di complessità metterà alla prova i precetti dell'etica dell'IA in quanto alcuni degli elementi sono sufficientemente raggiungibili rispetto ad alcuni degli altri principi. Mi rendo conto che potresti esclamare ad alta voce che tutta l'IA deve massimizzare tutti i precetti dell'etica dell'IA, ma questo non è particolarmente realistico. Se questa è la posizione che vuoi prendere, oserei dire che probabilmente dovresti dire alla maggior parte o quasi a tutti i produttori e utenti di intelligenza artificiale di chiudere bottega e mettere da parte l'IA del tutto.

È necessario scendere a compromessi per far uscire l'IA. Detto questo, non sto sostenendo di tagliare gli angoli che violano i precetti dell'etica dell'IA, né insinuando che dovrebbero violare le leggi sull'IA. Deve essere raggiunto un minimo particolare, al di sopra del quale l'obiettivo è sforzarsi di più. Alla fine, un equilibrio deve essere valutato attentamente. Questo atto di bilanciamento deve essere fatto in modo consapevole, esplicito, legale e con l'etica dell'IA come convinzione in buona fede e sinceramente sostenuta (potresti voler vedere come le aziende utilizzano i comitati etici dell'IA per cercare di ottenere questo approccio solenne, vedi il link qui).

Ecco alcuni punti puntati che la dichiarazione ACM menziona sulle complessità dei compromessi (citati dal documento formale):

  • "Le soluzioni dovrebbero essere proporzionate al problema da risolvere, anche se ciò influisce sulla complessità o sul costo (ad esempio, rifiutando l'uso della videosorveglianza pubblica per un semplice compito di previsione)."
  • “Dovrebbe essere considerata un'ampia varietà di metriche prestazionali che possono essere ponderate in modo diverso in base al dominio dell'applicazione. Ad esempio, in alcune applicazioni sanitarie gli effetti dei falsi negativi possono essere molto peggiori dei falsi positivi, mentre nella giustizia penale le conseguenze dei falsi positivi (ad esempio, l'incarcerazione di una persona innocente) possono essere molto peggiori dei falsi negativi. La configurazione del sistema operativo più desiderabile è raramente quella con la massima precisione.
  • "Le preoccupazioni sulla privacy, la protezione dei segreti commerciali o la rivelazione di analisi che potrebbero consentire a malintenzionati di ingannare il sistema possono giustificare la limitazione dell'accesso a persone qualificate, ma non dovrebbero essere utilizzate per giustificare la limitazione del controllo di terze parti o per esonerare gli sviluppatori dall'obbligo riconoscere e riparare gli errori”.
  • “La trasparenza deve essere abbinata a processi di responsabilità che consentano alle parti interessate interessate da un sistema algoritmico di cercare un risarcimento significativo per i danni causati. La trasparenza non dovrebbe essere usata per legittimare un sistema o per trasferire la responsabilità ad altri soggetti”.
  • “Quando l'impatto di un sistema è elevato, può essere preferibile un sistema più spiegabile. In molti casi, non c'è compromesso tra spiegabilità e accuratezza. In alcuni contesti, tuttavia, spiegazioni errate possono essere anche peggio di nessuna spiegazione (ad esempio, nei sistemi sanitari, un sintomo può corrispondere a molte possibili malattie, non solo a una).”

Coloro che stanno sviluppando o utilizzando l'IA potrebbero non rendersi conto apertamente dei compromessi che devono affrontare. I massimi leader di un'azienda potrebbero presumere ingenuamente che l'IA soddisfi i massimi su tutti i principi di etica dell'IA. O ci credono perché non hanno idea dell'IA, o vogliono crederci e forse stanno facendo l'occhiolino per adottare prontamente l'IA.

Le probabilità sono che non riuscendo ad affrontare in modo sostanziale e aperto i compromessi finirà con un'intelligenza artificiale che produrrà danni. Tali danni a loro volta probabilmente apriranno un'azienda a passività potenzialmente su larga scala. Inoltre, le leggi convenzionali possono venire a carico di possibili atti criminali associati all'IA, insieme alle nuove leggi incentrate sull'IA che martellano anche su questo. Una tonnellata di mattoni è in attesa sopra le teste di coloro che pensano di poter aggirare i compromessi o che sono profondamente inconsapevoli dell'esistenza dei compromessi (una realizzazione schiacciante ricadrà inevitabilmente su di loro).

Per ora darò l'ultima parola su questo argomento all'aspetto conclusivo della dichiarazione ACM poiché penso che svolga un lavoro robusto nello spiegare ciò che questi precetti dell'IA etica mirano macroscopicamente a portare avanti:

  • “Le precedenti raccomandazioni si concentrano sulla progettazione, lo sviluppo e l'uso responsabili di sistemi algoritmici; la responsabilità deve essere determinata dalla legge e dall'ordine pubblico. Il crescente potere dei sistemi algoritmici e il loro uso in applicazioni vitali e consequenziali significa che è necessario prestare grande attenzione nel loro utilizzo. Questi nove principi strumentali hanno lo scopo di ispirare l'avvio di discussioni, l'avvio di ricerche e lo sviluppo di metodi di governance per portare benefici a un'ampia gamma di utenti, promuovendo al contempo affidabilità, sicurezza e responsabilità. Alla fine, è il contesto specifico che definisce la corretta progettazione e utilizzo di un sistema algoritmico in collaborazione con i rappresentanti di tutte le parti interessate” (citato dal documento formale).

Come ci dicono astutamente parole di saggezza, un viaggio di mille miglia inizia con un primo passo.

Ti imploro di acquisire familiarità con l'etica dell'IA e la legge sull'IA, facendo qualunque primo passo ti metta in moto, e poi aiutandoti a portare avanti questi sforzi vitali. Il bello è che siamo ancora agli inizi di spigolare come gestire e affrontare socialmente l'IA, quindi, stai entrando al piano terra e i tuoi sforzi possono in modo dimostrabile plasmare il tuo futuro e il futuro per tutti noi.

Il viaggio dell'IA è appena iniziato e i primi passi vitali sono ancora in corso.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-stimato-computing- associazione-di-professione-l-acm/