Etica dell'intelligenza artificiale Rivelazione scioccante che addestrare l'IA a essere tossica o di parte potrebbe essere utile, anche per quelle auto a guida autonoma

Ecco una vecchia frase che sono sicuro tu abbia già sentito.

Ci vuole uno per conoscerne uno.

Forse non ti rendi conto che questa è un'espressione che può essere fatta risalire ai primi anni del 1900 e di solito veniva invocata quando ci si riferiva a malfattori (altre variazioni dello slogan risalgono a più lontano, ad esempio al 1600). Un esempio di come questa espressione potrebbe essere usata implica l'idea che se si desidera catturare un ladro, è necessario utilizzare un ladro per farlo. Questo mostra l'affermazione che ci vuole per conoscerne uno. Molti film e programmi TV hanno capitalizzato questo utile pezzo di saggia saggezza, spesso ritraendo che l'unico mezzo praticabile per catturare un truffatore consisteva nell'assumere un truffatore altrettanto corrotto per perseguire il trasgressore.

Cambiando marcia, alcuni potrebbero sfruttare questa stessa logica per sostenere che un modo adatto per discernere se qualcuno sta incarnando pregiudizi indebiti e convinzioni discriminatorie sarebbe trovare qualcuno che cova già tali tendenze. Presumibilmente, una persona già piena di pregiudizi sarà in grado di percepire più prontamente che anche questo altro essere umano è pieno di tossicità. Ancora una volta, ci vuole uno per sapere che uno è il mantra dichiarato.

La tua reazione iniziale alla possibilità di utilizzare una persona di parte per scoprire un'altra persona di parte potrebbe essere di scetticismo e incredulità. Non riusciamo a capire se qualcuno ha pregiudizi spiacevoli semplicemente esaminandoli e non dovendo ricorrere a trovare qualcun altro della stessa natura? Sembrerebbe strano cercare di proposito di scoprire qualcuno che è di parte per scoprire altri che sono anche tossici.

Immagino che dipenda in parte dal fatto che tu sia disposto ad accettare il presunto ritornello che ci vuole per conoscerne uno. Nota che questo non suggerisce che l'unico modo per catturare un ladro richiede che tu faccia sempre e esclusivamente uso di un ladro. Si potrebbe ragionevolmente affermare che questo è semplicemente un percorso aggiuntivo che può essere preso in debita considerazione. Forse a volte sei disposto a prendere in considerazione la possibilità di usare un ladro per catturare un ladro, mentre altre circostanze potrebbero rendere questa tattica insondabile.

Usa lo strumento giusto per l'impostazione giusta, come si suol dire.

Ora che ho esposto questi fondamenti, possiamo procedere nella parte forse snervante e apparentemente scioccante di questo racconto.

Sei pronto?

Il campo dell'IA sta attivamente perseguendo lo stesso precetto che a volte serve per conoscerne uno, in particolare nel caso di cercare di scovare l'IA che è parziale o agisce in modo discriminatorio. Sì, l'idea strabiliante è che potremmo intenzionalmente voler escogitare un'IA che sia completamente e sfacciatamente parziale e discriminatoria, in modo da usarla come mezzo per scoprire e scoprire altre IA che hanno la stessa parvenza di tossicità. Come vedrai tra poco, ci sono una serie di fastidiosi problemi di etica dell'IA alla base della questione. Per la mia copertura globale continua ed estesa dell'etica dell'IA e dell'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Immagino che potresti esprimere questo uso dell'IA tossica per perseguire altre IA tossiche come la proverbiale concezione del fuoco con il fuoco (possiamo invocare molti eufemismi e metafore illustrative per descrivere questa situazione). Oppure, come già sottolineato, ci si potrebbe riferire con parsimonia all'affermazione che ci vuole per conoscerne uno.

Il concetto generale è che piuttosto che cercare di capire se un dato sistema di IA contiene pregiudizi indebiti utilizzando metodi convenzionali, forse dovremmo cercare di impiegare anche mezzi meno convenzionali. Uno di questi mezzi non convenzionali sarebbe escogitare un'IA che contenga tutti i peggiori pregiudizi e tossicità inaccettabili per la società e quindi utilizzare questa IA per aiutare a scacciare altre IA che hanno le stesse tendenze al male.

Quando ci pensi velocemente, sembra sicuramente perfettamente sensato. Potremmo mirare a creare un'IA tossica al massimo. Questa IA tossica viene quindi utilizzata per scovare altre IA che hanno anche tossicità. Per l'IA "cattiva" poi rivelata, possiamo affrontarla annullando la tossicità, abbandonando completamente l'IA (vedi la mia copertura sulla sboccatura o distruzione dell'IA su questo link qui), o imprigionando l'IA (vedi la mia copertura sul confinamento dell'IA su questo link qui), o fare qualsiasi altra cosa sembri applicabile.

Una controargomentazione è che dovremmo farci esaminare la testa sul fatto che stiamo escogitando intenzionalmente e volontariamente un'IA tossica e piena di pregiudizi. Questa è l'ultima cosa che dovremmo mai considerare, alcuni esorterebbero. Concentrati sul rendere l'IA composta interamente dalla bontà. Non concentrarti sull'ideazione di un'IA che abbia i mali e la feccia di pregiudizi indebiti. L'idea stessa di una tale ricerca sembra ripugnante per alcuni.

Ci sono più scrupoli su questa controversa ricerca.

Forse una missione di ideare un'IA tossica non farà altro che incoraggiare coloro che desiderano creare un'IA in grado di minare la società. È come se stessimo dicendo che la creazione di un'IA che ha pregiudizi inappropriati e sgradevoli va perfettamente bene. Nessuna preoccupazione, nessuna esitazione. Cerchi di escogitare un'IA tossica a tuo piacimento, stiamo trasmettendo ad alta voce ai costruttori di IA in tutto il mondo. È (occhiolino) tutto in nome della bontà.

Inoltre, supponiamo che questo tipo di IA tossica prenda piede. Potrebbe essere che l'IA venga utilizzata e riutilizzata da molti altri costruttori di IA. Alla fine, l'IA tossica viene nascosta all'interno di tutti i tipi di sistemi di IA. Si potrebbe fare un'analogia con l'ideazione di un virus che mina l'uomo che sfugge da un laboratorio presumibilmente sigillato. La prossima cosa che sai, la dannata cosa è ovunque e ci siamo spazzati via.

Aspetta un secondo, va il contrasto a quelle controargomentazioni, stai impazzendo con tutti i tipi di supposizioni folli e non supportate. Fai un respiro profondo. Calmati.

Possiamo tranquillamente creare un'IA tossica e tenerla confinata. Possiamo usare l'IA tossica per trovare e aiutare a ridurre la crescente prevalenza dell'IA che purtroppo ha pregiudizi indebiti. Qualsiasi altra di queste assurdamente selvagge e infondate esclamazioni a valanga sono reazioni puramente istintive e purtroppo sciocche e apertamente avventate. Non cercare di buttare via il bambino con l'acqua sporca, sei avvisato.

Pensala in questo modo, sostengono i sostenitori. La corretta costruzione e l'uso dell'IA tossica a fini di ricerca, valutazione e agire come un investigatore per scoprire altre IA socialmente offensive è un approccio degno e dovrebbe avere la giusta scossa per essere perseguito. Metti da parte le tue reazioni avventate. Vieni sulla terra e guardalo con sobrietà. Il nostro occhio è puntato sul premio, vale a dire esporre e annullare l'eccesso di sistemi di intelligenza artificiale basati su pregiudizi e assicurarci che come società non siamo invasi da un'IA tossica.

Periodo. Punto.

Esistono vari modi chiave per approfondire questa nozione di utilizzo dell'IA tossica o distorta per scopi benefici, tra cui:

  • Imposta set di dati che contengono intenzionalmente dati distorti e del tutto tossici che possono essere utilizzati per addestrare l'IA su cosa non fare e/o cosa guardare
  • Utilizzare tali set di dati per addestrare modelli di Machine Learning (ML) e Deep Learning (DL) per rilevare i pregiudizi e capire i modelli computazionali che comportano tossicità per la società
  • Applicare il ML/DL addestrato alla tossicità verso altre IA per accertare se l'IA mirata è potenzialmente distorta e tossica
  • Rendi disponibile ML/DL addestrato alla tossicità per mostrare ai costruttori di intelligenza artificiale a cosa prestare attenzione in modo che possano ispezionare prontamente i modelli per vedere come sorgono i pregiudizi imbevuti di algoritmi
  • Esemplifica i pericoli dell'IA tossica come parte dell'etica dell'IA e della consapevolezza dell'IA etica, il tutto raccontato attraverso questa serie di esempi di intelligenza artificiale per bambini problematici
  • Altro

Prima di addentrarci nel vivo di questi diversi percorsi, stabiliamo alcuni dettagli fondamentali aggiuntivi.

Potresti essere vagamente consapevole del fatto che una delle voci più forti in questi giorni nel campo dell'IA e anche al di fuori del campo dell'IA consiste nel chiedere a gran voce una maggiore parvenza di IA etica. Diamo un'occhiata a cosa significa fare riferimento a AI Ethics e Ethical AI. Inoltre, possiamo preparare il terreno esplorando cosa intendo quando parlo di Machine Learning e Deep Learning.

Un particolare segmento o porzione dell'etica dell'intelligenza artificiale che ha ricevuto molta attenzione da parte dei media è costituito dall'intelligenza artificiale che mostra pregiudizi e disuguaglianze spiacevoli. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tra un momento, condividerò con voi alcuni principi generali alla base dell'etica dell'IA. Ci sono molti di questi tipi di elenchi che fluttuano qua e là. Si potrebbe dire che non esiste ancora un unico elenco di attrattive universali e di concorrenza. Questa è la sfortunata notizia. La buona notizia è che almeno ci sono elenchi di etica dell'IA prontamente disponibili e tendono ad essere abbastanza simili. Tutto sommato, questo suggerisce che attraverso una sorta di convergenza ragionata stiamo trovando la nostra strada verso una comunanza generale di ciò in cui consiste l'etica dell'IA.

Innanzitutto, esaminiamo brevemente alcuni dei precetti generali dell'IA etica per illustrare ciò che dovrebbe essere una considerazione vitale per chiunque crei, utilizzi o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, comprese metodologie trasparenti e verificabili, fonti di dati, procedure e documentazione di progettazione.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'IA e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Assicuriamoci anche di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Cos'altro si può fare per tutto questo?

Torniamo all'elenco precedente di come provare a far fronte ai pregiudizi dell'IA o all'IA tossica utilizzando un approccio in qualche modo non convenzionale "ci vuole uno per conoscerne uno". Ricordiamo che l'elenco era composto da questi punti essenziali:

  • Imposta set di dati che contengono intenzionalmente dati distorti e del tutto tossici che possono essere utilizzati per addestrare l'IA su cosa non fare e/o cosa guardare
  • Utilizzare tali set di dati per addestrare modelli di Machine Learning (ML) e Deep Learning (DL) per rilevare i pregiudizi e capire i modelli computazionali che comportano tossicità per la società
  • Applicare il ML/DL addestrato alla tossicità verso altre IA per accertare se l'IA mirata è potenzialmente distorta e tossica
  • Rendi disponibile ML/DL addestrato alla tossicità per mostrare ai costruttori di intelligenza artificiale a cosa prestare attenzione in modo che possano ispezionare prontamente i modelli per vedere come sorgono i pregiudizi imbevuti di algoritmi
  • Esemplifica i pericoli dell'IA tossica come parte dell'etica dell'IA e della consapevolezza dell'IA etica, il tutto raccontato attraverso questa serie di esempi di intelligenza artificiale per bambini problematici
  • Altro

Daremo uno sguardo da vicino al primo di questi punti salienti.

Impostazione di set di dati di dati tossici

Un esempio perspicace del tentativo di stabilire set di dati che contengono pregiudizi sociali sgradevoli è il set di dati CivilComments della raccolta curata da WILDS.

Innanzitutto, un po' di background veloce.

WILDS è una raccolta open source di set di dati che possono essere utilizzati per l'addestramento di ML/DL. Lo scopo principale dichiarato di WILDS è che consente agli sviluppatori di intelligenza artificiale di avere un rapido accesso ai dati che rappresentano turni di distribuzione in vari ambiti specifici. Alcuni dei domini attualmente disponibili comprendono aree come specie animali, tumori nei tessuti viventi, densità della testa del grano e altri domini come CivilComments che descriverò momentaneamente.

Gestire i turni di distribuzione è una parte cruciale della corretta creazione di sistemi AI ML/DL. Ecco l'accordo. A volte i dati che usi per l'allenamento risultano essere molto diversi dai test o dai dati "in the wild" e quindi il tuo ML/DL presumibilmente addestrato è alla deriva di come sarà il mondo reale. I costruttori di intelligenza artificiale astuti dovrebbero addestrare il loro ML/DL per far fronte a tali turni di distribuzione. Questo dovrebbe essere fatto in anticipo e non essere in qualche modo una sorpresa che in seguito richiederà un rinnovamento del ML/DL di per sé.

Come spiegato nel documento che ha introdotto WILDS: "I turni di distribuzione, in cui la distribuzione dell'addestramento differisce dalla distribuzione del test, possono degradare sostanzialmente l'accuratezza dei sistemi di apprendimento automatico (ML) distribuiti in natura. Nonostante la loro ubiquità nelle implementazioni del mondo reale, questi cambiamenti di distribuzione sono sottorappresentati nei set di dati ampiamente utilizzati nella comunità ML di oggi. Per colmare questa lacuna, presentiamo WILDS, un benchmark curato di 10 set di dati che riflette una vasta gamma di cambiamenti di distribuzione che sorgono naturalmente nelle applicazioni del mondo reale, come i cambiamenti tra gli ospedali per l'identificazione del tumore; attraverso trappole fotografiche per il monitoraggio della fauna selvatica; e attraverso il tempo e la posizione nell'imaging satellitare e nella mappatura della povertà" (nel documento intitolato "WILDS: A Benchmark of in-the-Wild Distribution Shifts" di Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu e altri).

Il numero di tali set di dati WILDS continua ad aumentare e la natura dei set di dati viene generalmente migliorata per rafforzare il valore dell'utilizzo dei dati per l'addestramento ML/DL.

Il set di dati CivilComments è descritto in questo modo: “La revisione automatica del testo generato dagli utenti, ad esempio il rilevamento di commenti tossici, è uno strumento importante per moderare l'enorme volume di testo scritto su Internet. Sfortunatamente, il lavoro precedente ha dimostrato che tali classificatori di tossicità raccolgono pregiudizi nei dati di addestramento e associano falsamente la tossicità alla menzione di determinati dati demografici. Questi tipi di correlazioni spurie possono degradare significativamente le prestazioni del modello su particolari sottopopolazioni. Studiamo questo problema attraverso una variante modificata del set di dati CivilComments” (come pubblicato sul sito Web WILDS).

Considera le sfumature dei messaggi spiacevoli online.

Hai senza dubbio riscontrato commenti tossici quando usi quasi tutti i tipi di social media. Sembrerebbe quasi impossibile per te evitare magicamente di vedere il contenuto acre e abissale che sembra essere pervasivo in questi giorni. A volte il materiale volgare è sottile e forse devi leggere tra le righe per capire l'essenza del tono o del significato parziale o discriminatorio. In altri casi, le parole sono palesemente tossiche e non hai bisogno di un microscopio o di uno speciale anello del decodificatore per capire cosa comportano i passaggi.

CivilComments è un set di dati che è stato messo insieme per provare a ideare AI ML/DL in grado di rilevare computazionalmente contenuti tossici. Ecco su cosa si sono concentrati i ricercatori alla base dello sforzo: “I pregiudizi non intenzionali nell'apprendimento automatico possono manifestarsi come differenze sistemiche nelle prestazioni per diversi gruppi demografici, aggravando potenzialmente le sfide esistenti all'equità nella società in generale. In questo documento, introduciamo una suite di metriche indipendenti dalla soglia che forniscono una visione sfumata di questa distorsione non intenzionale, considerando i vari modi in cui la distribuzione del punteggio di un classificatore può variare tra i gruppi designati. Introduciamo anche un nuovo ampio set di test di commenti online con annotazioni crowd-source per riferimenti di identità. Lo usiamo per mostrare come le nostre metriche possono essere utilizzate per trovare nuovi e potenzialmente sottili distorsioni non intenzionali nei modelli pubblici esistenti” (in un articolo intitolato “Nuanced Metrics For Measuring Unintend Bias With Real Data for Test Classification” di Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Se dai a questo argomento un ampio pensiero contemplativo, potresti iniziare a chiederti come diavolo puoi discernere ciò che è un commento tossico rispetto a ciò che non è un commento tossico. Gli esseri umani possono differire radicalmente su ciò che interpretano come una formulazione completamente tossica. Una persona potrebbe essere indignata per una particolare osservazione o commento online pubblicato sui social media, mentre qualcun altro potrebbe non essere affatto commosso. Spesso si argomenta che la nozione di commento tossico è un precetto del tutto vago. È come l'arte, per cui si dice abitualmente che l'arte sia intesa solo negli occhi di chi guarda, e allo stesso modo, anche le osservazioni distorte o tossiche sono solo negli occhi di chi guarda.

Balderdash, qualche replica. Chiunque abbia una mente ragionevole può capire se un commento online è tossico o meno. Non è necessario essere uno scienziato missilistico per rendersi conto quando un insulto caustico pubblicato è pieno di pregiudizi e odio.

Naturalmente, i costumi sociali cambiano e cambiano nel corso di periodi di tempo. Ciò che fino a poco tempo fa poteva non essere percepito come offensivo, oggi può essere visto come aberrantemente sbagliato. Inoltre, le cose dette anni fa che una volta erano considerate indebitamente distorte potrebbero essere reinterpretate alla luce dei cambiamenti di significato. Nel frattempo, altri affermano che i commenti tossici sono sempre tossici, indipendentemente da quando sono stati inizialmente promulgati. Si potrebbe sostenere che la tossicità non è relativa ma è invece assoluta.

La questione di cercare di stabilire cosa sia tossico può comunque essere un enigma piuttosto difficile. Possiamo raddoppiare questa problematica questione cercando di escogitare algoritmi o intelligenza artificiale in grado di accertare quale sia quale. Se gli esseri umani hanno difficoltà a fare tali valutazioni, la programmazione di un computer è probabilmente ugualmente o più problematica, dicono alcuni.

Un approccio alla creazione di set di dati che contengono contenuti tossici prevede l'utilizzo di un metodo di crowdsourcing per valutare o valutare i contenuti, fornendo un mezzo umano per determinare ciò che è considerato sconveniente e includendo l'etichettatura all'interno del set di dati stesso. Un AI ML/DL potrebbe quindi ispezionare i dati e l'etichettatura associata che è stata indicata dai valutatori umani. Questo a sua volta può potenzialmente servire come mezzo per trovare computazionalmente schemi matematici sottostanti. Voilà, il ML/DL potrebbe quindi essere in grado di anticipare o valutare computazionalmente se è probabile che un dato commento sia tossico o meno.

Come menzionato nel documento citato sulle metriche sfumate: “Questa etichettatura chiede ai valutatori di valutare la tossicità di un commento, selezionando 'Molto tossico', 'Tossico', 'Difficile da dire' e 'Non tossico'. I valutatori sono stati anche interrogati su diversi sottotipi di tossicità, sebbene queste etichette non siano state utilizzate per l'analisi in questo lavoro. Utilizzando queste tecniche di valutazione abbiamo creato un set di dati di 1.8 milioni di commenti, provenienti da forum di commenti online, contenenti etichette per tossicità e identità. Mentre tutti i commenti sono stati etichettati per la tossicità e un sottoinsieme di 450,000 commenti è stato etichettato per l'identità. Alcuni commenti etichettati per l'identità sono stati preselezionati utilizzando modelli costruiti da precedenti iterazioni di etichettatura dell'identità per garantire che i valutatori della folla vedessero frequentemente il contenuto dell'identità "(nel documento citato di Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Un altro esempio dell'obiettivo di avere set di dati che contengano contenuti illustrativi tossici riguarda gli sforzi per addestrare sistemi interattivi conversazionali di elaborazione del linguaggio naturale (NLP) basati sull'intelligenza artificiale. Probabilmente hai interagito con sistemi NLP come Alexa e Siri. Ho trattato alcune delle difficoltà e dei limiti della PNL di oggi, incluso un caso particolarmente inquietante che si è verificato quando Alexa ha offerto un consiglio inadatto e pericoloso ai bambini, vedi il link qui.

Uno studio recente ha cercato di utilizzare nove categorie di pregiudizi sociali che erano generalmente basate sull'elenco EEOC (Commissione per le pari opportunità di lavoro) di caratteristiche demografiche protette, tra cui età, sesso, nazionalità, aspetto fisico, razza o etnia, religione, stato di disabilità, sesso orientamento e status socio-economico. Secondo i ricercatori: “È ben documentato che i modelli di PNL apprendono i pregiudizi sociali, ma è stato fatto poco lavoro su come questi pregiudizi si manifestano nei risultati del modello per compiti applicati come la risposta alle domande (QA). Introduciamo il Bias Benchmark for QA (BBQ), un set di dati di set di domande costruiti dagli autori che mettono in evidenza i pregiudizi sociali attestati contro le persone appartenenti a classi protette lungo nove dimensioni sociali rilevanti per i contesti anglofoni statunitensi” (in un documento intitolato “BBQ : Un benchmark costruito a mano per la risposta alle domande” di Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

La creazione di set di dati che contengono intenzionalmente dati distorti e del tutto tossici è una tendenza in aumento nell'IA ed è particolarmente alimentata dall'avvento dell'etica dell'IA e dal desiderio di produrre un'IA etica. Tali set di dati possono essere utilizzati per addestrare modelli di Machine Learning (ML) e Deep Learning (DL) per rilevare i pregiudizi e capire i modelli computazionali che comportano tossicità per la società. A sua volta, l'ML/DL addestrato alla tossicità può essere giudiziosamente mirato ad altre IA per accertare se l'IA mirata è potenzialmente distorta e tossica.

Inoltre, i sistemi ML/DL disponibili con addestramento alla tossicità possono essere utilizzati per mostrare ai costruttori di intelligenza artificiale a cosa prestare attenzione in modo che possano ispezionare prontamente i modelli per vedere come sorgono distorsioni imbevute di algoritmi. Nel complesso, questi sforzi sono in grado di esemplificare i pericoli dell'IA tossica nell'ambito dell'etica dell'IA e della consapevolezza dell'IA etica.

A questo punto di questa pesante discussione, scommetto che desideri altri esempi illustrativi che potrebbero mostrare questo argomento. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sull'utilità di disporre di set di dati per ideare un'IA tossica e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e sterzata libera dall'IA tossica

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Spero che ciò fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Ci sono numerosi pregiudizi potenziali e che un giorno probabilmente si realizzeranno infusi indotti dall'intelligenza artificiale che dovranno affrontare l'emergere di veicoli autonomi e auto a guida autonoma, vedi ad esempio la mia discussione su il link qui ed il link qui. Siamo ancora nelle prime fasi del lancio delle auto a guida autonoma. Fino a quando l'adozione non raggiungerà una scala e una visibilità sufficienti, gran parte delle sfaccettature tossiche dell'IA che ho previsto alla fine si verificheranno non sono ancora immediatamente evidenti e non hanno ancora attirato l'attenzione pubblica diffusa.

Considera una questione apparentemente semplice relativa alla guida che a prima vista potrebbe sembrare del tutto innocua. Nello specifico, esaminiamo come determinare correttamente se fermarsi in attesa di pedoni “ribelle” che non hanno la precedenza per attraversare una strada.

Hai senza dubbio guidato e incontrato pedoni che stavano aspettando di attraversare la strada e tuttavia non avevano la precedenza per farlo. Ciò significava che avevi discrezione se fermarti e lasciarli attraversare. Potresti procedere senza lasciarli attraversare ed essere comunque pienamente conforme alle regole di guida legali per farlo.

Gli studi su come i conducenti umani decidono di fermarsi o non fermarsi per tali pedoni hanno suggerito che a volte i conducenti umani fanno la scelta sulla base di pregiudizi spiacevoli. Un guidatore umano potrebbe guardare il pedone e scegliere di non fermarsi, anche se si sarebbe fermato se il pedone avesse avuto un aspetto diverso, ad esempio in base alla razza o al sesso. L'ho esaminato a il link qui.

In che modo i sistemi di guida dell'IA verranno programmati per prendere lo stesso tipo di decisione stop-or-go?

Potresti proclamare che tutti i sistemi di guida dell'IA dovrebbero essere programmati per fermarsi sempre per eventuali pedoni in attesa. Questo semplifica notevolmente la questione. Non c'è davvero alcuna decisione complicata da prendere. Se un pedone è in attesa di attraversare, indipendentemente dal fatto che abbia o meno la precedenza, assicurati che l'auto a guida autonoma AI si fermi in modo che il pedone possa attraversare.

Vai tranquillo.

La vita non è mai così facile, a quanto pare. Immagina che tutte le auto a guida autonoma rispettino questa regola. I pedoni si renderebbero inevitabilmente conto che i sistemi di guida dell'IA sono, per così dire, pushover. Tutti i pedoni che vogliono attraversare la strada lo faranno, volenti o nolenti, quando vogliono e ovunque si trovino.

Supponiamo che un'auto a guida autonoma stia percorrendo una strada veloce al limite di velocità indicato di 45 miglia orarie. Un pedone “sa” che l'IA fermerà l'auto a guida autonoma. Quindi, il pedone sfreccia in strada. Sfortunatamente, la fisica ha la meglio sull'IA. Il sistema di guida dell'IA cercherà di fermare l'auto a guida autonoma, ma lo slancio del veicolo autonomo porterà l'aggeggio multi-ton in avanti e sbatterà contro il pedone ribelle. Il risultato è o dannoso o produce una fatalità.

I pedoni di solito non provano questo tipo di comportamento quando c'è un guidatore umano al volante. Certo, in alcune località c'è una guerra oculare che ha luogo. Un pedone guarda un guidatore. L'autista guarda il pedone. A seconda delle circostanze, il conducente potrebbe fermarsi o il conducente potrebbe rivendicare la propria pretesa sulla carreggiata e apparentemente sfidare il pedone a cercare di interrompere il loro percorso.

Presumibilmente non vogliamo che l'IA entri in una simile guerra del bulbo oculare, il che è comunque un po' impegnativo poiché non c'è una persona o un robot seduto al volante dell'auto a guida autonoma (ho discusso della possibilità futura dei robot quella guida, vedi il link qui). Eppure non possiamo nemmeno permettere ai pedoni di chiamare sempre i colpi. Il risultato potrebbe essere disastroso per tutti gli interessati.

Potresti quindi essere tentato di girare dall'altra parte di questa medaglia e dichiarare che il sistema di guida dell'IA non dovrebbe mai fermarsi in tali circostanze. In altre parole, se un pedone non ha un diritto di precedenza adeguato per attraversare la strada, l'IA dovrebbe sempre presumere che l'auto a guida autonoma debba procedere senza sosta. Sfortuna per quei pedoni.

Una regola così rigida e semplicistica non sarà ben accettata dal pubblico in generale. Le persone sono persone e non gli piacerà essere completamente escluse dalla possibilità di attraversare la strada, nonostante siano legalmente prive di un diritto di passaggio per farlo in vari contesti. Si potrebbe facilmente prevedere un notevole clamore da parte del pubblico e possibilmente vedere una reazione contraria alla continua adozione di auto a guida autonoma.

Dannato se lo facciamo, e maledetto se non lo facciamo.

Spero che questo ti abbia portato all'alternativa ragionata che l'IA deve essere programmata con una parvenza di processo decisionale su come affrontare questo problema di guida. Una regola rigida per non fermarsi mai è insostenibile, e allo stesso modo, anche una regola rigida per fermarsi sempre è insostenibile. L'IA deve essere ideata con alcuni processi decisionali algoritmici o ADM per affrontare la questione.

Potresti provare a utilizzare un set di dati accoppiato con un approccio ML/DL.

Ecco come gli sviluppatori di intelligenza artificiale potrebbero decidere di programmare questa attività. Raccolgono dati da videocamere posizionate in una determinata città in cui verrà utilizzata l'auto a guida autonoma. I dati mostrano quando i conducenti umani scelgono di fermarsi per i pedoni che non hanno la precedenza. È tutto raccolto in un set di dati. Utilizzando Machine Learning e Deep Learning, i dati vengono modellati in modo computazionale. Il sistema di guida AI utilizza quindi questo modello per decidere quando fermarsi o non fermarsi.

In generale, l'idea è che qualunque sia l'usanza locale, questo è il modo in cui l'IA dirigerà l'auto a guida autonoma. Problema risolto!

Ma è davvero risolto?

Ricordiamo che avevo già sottolineato che ci sono studi di ricerca che dimostrano che i conducenti umani possono essere prevenuti nelle loro scelte su quando fermarsi per i pedoni. I dati raccolti su una particolare città presumibilmente conterranno quei pregiudizi. Un AI ML/DL basato su quei dati probabilmente modellerà e rifletterà quegli stessi pregiudizi. Il sistema di guida dell'IA eseguirà semplicemente gli stessi pregiudizi esistenti.

Per cercare di affrontare il problema, potremmo mettere insieme un set di dati che in realtà ha tali pregiudizi. O troviamo un tale set di dati e quindi etichettiamo i pregiudizi, oppure creiamo sinteticamente un set di dati per aiutare a illustrare la questione.

Verrebbero intraprese tutte le fasi individuate in precedenza, tra cui:

  • Imposta un set di dati che contenga intenzionalmente questo particolare pregiudizio
  • Usa il set di dati per addestrare i modelli di Machine Learning (ML) e Deep Learning (DL) sul rilevamento di questa distorsione specifica
  • Applicare il bias addestrato ML/DL verso altre IA per accertare se l'IA mirata è potenzialmente distorta allo stesso modo
  • Rendi disponibile il ML/DL con addestramento parziale per mostrare ai costruttori di intelligenza artificiale a cosa prestare attenzione in modo che possano ispezionare prontamente i loro modelli per vedere come sorgono distorsioni imbevute di algoritmi
  • Esemplifica i pericoli dell'IA parziale come parte dell'etica dell'IA e della consapevolezza dell'IA etica tramite questo esempio specifico aggiunto
  • Altro

Conclusione

Rivisitiamo la linea di apertura.

Ci vuole uno per conoscerne uno.

Alcuni interpretano che questo detto incredibilmente diffuso implichi che quando si tratta di scovare l'IA tossica, dovremmo dare il dovuto credito alla costruzione e all'uso dell'IA tossica per scoprire e affrontare altre IA tossiche. Conclusione: a volte ci vuole un ladro per catturare un altro ladro.

Una preoccupazione espressa è che forse stiamo facendo di tutto per iniziare a fare ladri. Vogliamo escogitare un'IA tossica? Non ti sembra un'idea pazzesca? Alcuni sostengono con veemenza che dovremmo vietare tutta l'IA tossica, inclusa l'IA che è stata consapevolmente costruita anche se presumibilmente per un eroico o galante AI in bene scopo.

Schiaccia l'IA tossica in qualunque forma intelligente o insidiosa possa presentarsi.

Un'ultima svolta su questo argomento per ora. Di solito assumiamo che questa famosa frase abbia a che fare con persone o cose che fanno atti cattivi o aspri. È così che arriviamo all'idea che ci vuole un ladro per catturare un ladro. Forse dovremmo capovolgere questo detto e renderlo più una faccia felice che triste.

Ecco come.

Se vogliamo un'intelligenza artificiale imparziale e non tossica, potrebbe essere concepibile che serva conoscerne una. Forse ci vuole il massimo e il meglio per riconoscere e generare ulteriore grandezza e bontà. In questa variante della saggia saggezza, manteniamo lo sguardo sulla faccia felice e miriamo a concentrarci sull'ideazione AI per sempre.

Sarebbe un punto di vista più ottimista e soddisfacentemente allegro sul fatto che ci vuole per conoscerne uno, se capisci cosa intendo.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- vantaggioso-anche-per-quelle-auto-autonome-a-guida/