L'etica dell'IA Valutare con cautela se offrire pregiudizi dell'IA a caccia di taglie da catturare e acciuffare sistemi completamente autonomi eticamente malvagi è prudente o futile

Ricercato: Cacciatori di pregiudizi dell'IA.

Potrebbe essere un annuncio moderno che inizierai a vedere spuntare sui canali dei social media e fare apparizioni in vari annunci di lavoro online. Questo è un concetto o un ruolo relativamente nuovo. Porta con sé polemiche. Alcuni ferventi credenti sostengono con fervore che ha molto senso e avrebbe dovuto succedere da sempre, mentre altri stanno piuttosto nervosamente facendo qualche serio grattacapo e non sono così sicuri che questa sia una buona idea.

L'essenza del ruolo consiste nello scovare dall'IA eventuali pregiudizi nascosti o pratiche discriminatorie incorporate. In soccorso vengono gli ansiosi e del tutto ex IA prevenuti cacciatori. Presumibilmente sarebbero cacciatori di taglie esperti di computer. Più così, si spera, immerso nelle profondità delle capacità dell'IA.

Avere una pistola, viaggerà e, tramite l'abilità di tiro acuta e abile nell'IA, riuscirà a esporre quei pregiudizi sgradevoli e sgradevoli dell'IA.

Ciò solleva una serie di spinose domande sulla sensibilità di perseguire una tale tattica quando si tratta di scoprire i pregiudizi dell'IA. Come discuterò momentaneamente, sappi che l'avvento dell'IA ha anche portato con sé l'emergere di pregiudizi dell'IA. Un torrente di pregiudizi dell'IA. Per la mia copertura continua ed estesa dell'etica dell'IA e dell'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Come possiamo scoprire che un particolare sistema di intelligenza artificiale ha dei pregiudizi?

Potresti affidare agli sviluppatori di IA che hanno ideato l'IA per farlo. Il fatto è che potrebbero essere così impantanati nei pregiudizi che loro stessi non possono riconoscere i pregiudizi all'interno della loro IA inventata. Sembra tutto a loro agio. Oppure potrebbero essere così entusiasti dell'IA e provare un senso di orgoglio al riguardo che doverlo poi esaminare con occhio critico per esaminarlo per i pregiudizi sarebbe difficile e un vero svantaggio. Molte altre ragioni di questo tipo potrebbero sembrare minare il fatto che gli sviluppatori di IA si assumano questo compito, inclusa la mancanza di capacità per capire i pregiudizi incorporati, la mancanza di tempo in un progetto per farlo, ecc.

Ok, quindi vai avanti e assumi consulenti esterni per fare il lavoro sporco per te, per così dire. Si scopre che i consulenti esamineranno felicemente la tua IA per i pregiudizi, addebitandoti un bel soldo per farlo (un sacco, un sacco di soldi). Renditi conto che devi pagare per farli diventare veloci con il tuo sistema di intelligenza artificiale. Devi quindi farli frugare in giro, il che potrebbe richiedere un numero incalcolabile di costose e laboriose ore. L'utilizzo di consulenti è un'opzione se hai il budget per questo.

Nel potenziale "vuoto" di come trovare quegli insidiosi pregiudizi dell'IA arrivano i cacciatori di taglie eroici e focosi dell'IA.

Di solito non li paghi in anticipo. Cercano di trovare i pregiudizi dell'IA nel loro tempo libero e devono pagare i propri conti mentre lo fanno. Solo se trovano con successo i pregiudizi vengono pagati. Suppongo che potresti facilmente affermare che, in un modo adeguato di pensare, questa è la definizione convenzionale di cacciatore di taglie. Fatti pagare se ci riesci. Non essere pagato se non hai successo. Punto, fine della storia.

I programmi di ricompensa esistono almeno dal tempo dei romani e quindi possiamo supporre che funzionino, essendo sopravvissuti con successo come pratica in tutti questi anni.

Ecco un affascinante pezzo di curiosità storica per te. Secondo quanto riferito, un messaggio pubblicato durante l'Impero Romano nella città di Pompei proclamava che erano necessari cacciatori di taglie per trovare una pentola di rame scomparsa da un piccolo negozio. La ricompensa per il recupero del vaso di rame era un impressionante premio di sessantacinque monete di bronzo. Mi dispiace dire che non sappiamo se qualche cacciatore di taglie abbia trovato il vaso di rame e reclamato le monete di bronzo, ma sappiamo che la caccia di taglie è certamente continuata da quei tempi antichi.

In tempi più moderni, potresti essere consapevole del fatto che negli anni '1980 furono offerti premi notevoli per trovare bug o errori del computer in pacchetti software standard e poi negli anni '1990 Netscape offrì una taglia marcata per trovare bug nel loro browser web (diventando una delle aziende più importanti di quel giorno per farlo). Google e Facebook avevano entrambi optato per la caccia di taglie per i bug a partire rispettivamente dagli anni 2010 e 2013. Alcuni anni dopo, nel 2016 anche il Dipartimento della Difesa degli Stati Uniti (DoD) è entrato in azione con uno sforzo di taglia "Hack the Pentagon" (notare che la taglia incentrata sul pubblico era per i bug trovati in vari siti Web correlati al DoD e non in sistemi mission-critical di difesa).

Analizziamo più a fondo l'argomento del bug bounty. Mi rendo conto che miro principalmente a parlare dei pregiudizi dell'IA nella caccia di taglie in questa discussione, ma ci sono alcuni parallelismi abbastanza rilevanti con l'arena dei bug bounty.

Alcuni sono palesemente perplessi sul fatto che qualsiasi azienda vorrebbe offrire una taglia per trovare bug (o, in questo caso, pregiudizi dell'IA) nei loro sistemi.

In apparenza, questo sembra un tipo di strategia del tipo "lo stai chiedendo". Se fai sapere al mondo che dai il benvenuto a coloro che potrebbero cercare di trovare buchi nel tuo software, sembra come dire ai ladri di andare avanti e provare a entrare in casa tua. Anche se credi già di avere un sistema di allarme antifurto abbastanza buono e che nessuno dovrebbe essere in grado di entrare nella tua casa protetta, immagina di chiedere e addirittura supplicare i ladri di scendere nel tuo luogo di residenza e vedere se possono irrompere in esso. Oh, i problemi che intessiamo per noi stessi.

Lo stesso si potrebbe dire del chiedere ai cacciatori di taglie di trovare pregiudizi nella tua IA.

In primo luogo, forse implica che credi già o addirittura sai apertamente che la tua IA ha dei pregiudizi. Questa è un'ammissione implicita sorprendentemente schietta che pochi sembrerebbero disposti a fare e che potrebbero potenzialmente ritorcersi contro.

Secondo, non sai per certo cosa potrebbero fare quei cacciatori di taglie. Potrebbero scegliere di dire al mondo intero che hanno trovato pregiudizi nella tua IA. Si suppone che questo potrebbe rinunciare a ottenere la taglia, anche se alcuni potrebbero assaporare l'attenzione o mirare a rafforzare il loro status per ottenere concerti di consulenza e altre possibilità di generazione di entrate. Potrebbe forse essere del tutto altruistico. Potrebbe essere una forma di attivismo dell'IA. posso andare avanti.

Terzo, potrebbe esserci una svolta subdola nell'intera faccenda. Un cacciatore di taglie che afferma di essere alla ricerca di pregiudizi dell'IA potrebbe curiosare diabolicamente in giro per trovare modi per attaccare il tuo sistema di intelligenza artificiale. L'intera faccenda è una farsa per intraprendere un grave attacco informatico. Avresti potuto presumere che stessero cercando di aiutare, mentre hanno il male nel loro cuore. Triste, ma possibile.

In quarto luogo, possiamo essere ancora più astutamente contorti su questo argomento. Un cacciatore di taglie trova alcuni pregiudizi dell'IA imbarazzanti e potenzialmente stimolanti per cause legali. La taglia è una certa quantità di dollari che chiameremo X. Invece di rivendicare la taglia, il cacciatore di taglie fa una specie di strana provocazione ransomware. Se paghi al cacciatore di taglie un importo di dieci volte X o forse il limite dei cieli, ti parlerà dei pregiudizi dell'IA. Hai tempo fino a domenica sera a mezzanotte per rispondere. Dopo quel momento, i pregiudizi dell'IA verranno rivelati a tutti. Yikes, una situazione vile in cui trovarsi.

Quinto, gli ultimi sono quei cosiddetti cybercriminali "hack to return" che dopo aver rubato un mucchio di soldi online, decidono di pentirsi e restituire parte del bottino illecito che si sono accaparrati. La società che ottiene i suoi soldi parzialmente restituiti è quindi disposta a considerare l'importo rubato rimanente come una taglia dopo il fatto premiata ai ladri. Sembra che tutti "vincano" in quanto la maggior parte dei fondi viene restituita e nel frattempo i criminali informatici non vengono perseguiti legalmente, inoltre ottengono la taglia dei pirati per l'avvio. Questo è prudente o perpetua insidiosamente atti illeciti?

Mi rendo conto che alcuni di voi potrebbero dire che nessuno dovrebbe rilasciare un'IA che abbia dei pregiudizi. Ciò sembrerebbe risolvere l'intero dilemma sull'uso o meno dei cacciatori di taglie di pregiudizi dell'IA. Basta non metterti in una situazione di generosità. Assicurati che i tuoi sviluppatori di intelligenza artificiale facciano la cosa giusta e non consentano pregiudizi dell'IA nei loro sistemi di intelligenza artificiale. Forse usa i consulenti per fare un doppio controllo. In sostanza, fai tutto ciò che devi fare per evitare di pensare o chiedere a quei cacciatori di taglie con pregiudizi dell'IA di venire al tavolo.

Sì, sembrerebbe del tutto sensato. Il problema è che è anche un po' sognante. La complessità di molti sistemi di intelligenza artificiale è così grande che cercare di garantire che non emerga nemmeno un grammo di pregiudizi di intelligenza artificiale sarà arduo da fare. Inoltre, alcuni sistemi di intelligenza artificiale sono progettati appositamente per adattarsi e "imparare" man mano che procedono. Ciò significa che in un momento futuro l'IA che hai ideato, che fin dall'inizio era puramente pulita e senza pregiudizi, potrebbe gravitare verso l'incarnazione di pregiudizi (non intendo che in modo antropomorfico, come spiegherò ulteriormente mentre vai avanti su questo argomento).

Coloro che preferiscono la caccia alle taglie per i bug del software sono inclini a sostenere che ha senso offrire tali taglie. Possiamo considerare la loro logica e vedere se si applica anche al regno dei pregiudizi dell'IA.

I fautori delle ricompense dei bug sottolineano che invece di cercare di fingere che non ci siano buchi nel tuo sistema, perché non incoraggiare la ricerca di buchi, facendolo in modo "controllato"? Al contrario, senza un tale sforzo di generosità, potresti semplicemente sperare e pregare che per caso nessuno trovi un buco, ma se invece offri una taglia e dici a coloro che trovano un buco che saranno ricompensati, offre un possibilità di puntellare il buco da solo e quindi impedire ad altri di trovarlo segretamente in un momento successivo.

Lo stesso si potrebbe dire nel caso d'uso dei pregiudizi dell'IA. Se offri una taglia sufficiente, si spera, i cacciatori di taglie porteranno alla tua attenzione la scoperta dei pregiudizi dell'IA. È quindi possibile far fronte ai pregiudizi dell'IA in un modo relativamente silenzioso e misurato. Ciò potrebbe prevenire un problema molto più grande e scoraggiante in seguito, vale a dire che qualcun altro trova pregiudizi dell'IA nella tua IA e ne urla al cielo.

In generale, un'azienda che desidera abilitare lo sforzo di caccia di taglie ai bug metterà in atto una politica di divulgazione delle vulnerabilità (VDP). Il VDP indica come i bug devono essere trovati e segnalati all'azienda, insieme a come verrà fornita la ricompensa o la taglia al cacciatore. Di solito, il VDP richiede che il cacciatore finisca per firmare un accordo di non divulgazione (NDA) in modo tale da non rivelare agli altri ciò che ha trovato.

L'idea di utilizzare un NDA con i cacciatori di taglie ha alcune controversie. Anche se forse ha senso per l'azienda che offre la taglia di voler tenere sotto controllo le esposizioni trovate, si dice anche che soffochi la consapevolezza generale su tali bug. Presumibilmente, se si permettesse di parlare di bug del software, ciò aiuterebbe potenzialmente la sicurezza di altri sistemi presso altre aziende che quindi rafforzerebbero le loro esposizioni. Alcuni cacciatori di taglie non firmeranno un NDA, in parte a causa del desiderio pubblico e in parte per cercare di mantenere nascosta la propria identità. Tieni anche presente che l'aspetto NDA di solito non si presenta fino a quando il cacciatore non afferma di aver trovato un bug, piuttosto che richiederlo in anticipo.

Alcuni VDP stabiliscono che l'NDA è solo per un periodo di tempo limitato, consentendo all'azienda di trovare prima una soluzione all'apparente lacuna e poi in seguito per consentire una divulgazione più ampia al riguardo. Una volta che il buco è stato tappato, l'azienda consente quindi un allentamento dell'NDA in modo che il resto del mondo possa conoscere il bug. Secondo quanto riferito, il tempo tipico per la risoluzione dei bug cacciati da taglie è di circa 15-20 giorni quando un'azienda desidera collegarlo immediatamente, mentre in altri casi potrebbe estendersi fino a 60-80 giorni. In termini di pagamento del cacciatore di taglie, il cosiddetto time-to-pay, dopo che il buco è stato verificato come effettivamente esistente, i pagamenti delle taglie tendono a essere entro circa 15-20 giorni per i casi più piccoli e intorno a 50-60 giorni per le istanze più grandi (si tratta di indicazioni di settore in continua evoluzione e citate solo a titolo illustrativo).

Dovrebbe essere chiesto ai cacciatori di taglie di pregiudizio dell'IA di partecipare a un VDP e di occuparsi di un NDA?

Puoi ottenere un sì e un no a quella domanda. Sì, alcune aziende dovrebbero seguire quella strada. No, potresti non necessariamente scegliere di seguire quella strada. I fattori includono la dimensione e la natura dell'IA, il potenziale di qualsiasi esposizione di pregiudizi dell'IA coinvolta e una serie di altre considerazioni etiche, legali e commerciali che si verificano.

Potrei aggiungere che stabilire uno sforzo di caccia alle taglie per i pregiudizi dell'IA della tua IA è un ordine molto più alto di quanto potresti supporre a una prima occhiata.

Inizieremo con la formidabile possibilità che sarai sopraffatto dai pregiudizi dell'IA dei cacciatori di taglie.

In questo momento, sarebbe difficile trovare molti che avrebbero un tale biglietto da visita. Non ce ne sono molti in giro. Sono i giorni del selvaggio West in questo senso. Ma se la nozione di pregiudizi dell'IA nella caccia alle taglie prende piede, specialmente quando le taglie sono abbondanti e riccamente gratificanti, puoi scommettere che tutti si tufferanno nei pregiudizi che cacciano in piscina.

Vuoi che tutti i tipi di marmaglia perseguano i pregiudizi dell'IA nel tuo sistema di intelligenza artificiale? Avrai alcuni acquirenti che sono effettivamente esperti in questo genere di cose. Avrai altri acquirenti che sono dilettanti e potrebbero fare casino o piangere al lupo. La prossima cosa che sai, chiunque possa scrivere "Intelligenza Artificiale" verrà a scavare nella tua miniera d'oro di un sistema di intelligenza artificiale per quelle preziose pepite d'oro distorsioni dell'IA. La corsa all'oro è iniziata. Potrebbe non essere un bene per te.

Dovrai esaminare le richieste del cacciatore di taglie. Ci sarà molto "rumore" nelle affermazioni riportate, nel senso che molti dei presunti pregiudizi dell'IA non esistono, anche se il cacciatore di taglie insiste sul fatto che ne hanno trovati alcuni. Immagina quanto lavoro sarà necessario ai tuoi team di intelligenza artificiale per esaminare le richieste di taglie, esplorare la validità di ciascuna e quindi potenzialmente andare avanti e indietro con il cacciatore di taglie sul fatto che l'oro sia stato scoperto o meno.

Alcuni direbbero che è un altro motivo per fare tutto da soli. Potresti inevitabilmente scoprire che la cosa della taglia è più un problema di quanto valesse.

Ecco un'altra domanda su cui riflettere. In che modo i cacciatori di taglie sapranno che aspetto ha un pregiudizio dell'IA? In sostanza, senza una parvenza di cosa cercare, si potrebbe affermare che qualsiasi roccia lucida mostra un pregiudizio dell'IA nella miniera d'oro dell'IA percepita che viene scavata.

Ai tempi del Vecchio West, supponiamo che tu abbia offerto una ricompensa per la cattura di Billy the Kid (un famoso fuorilegge). Se lo hai fatto e non hai incluso un'immagine dell'aspetto di Billy, immagina il numero di cacciatori di taglie che potrebbero trascinare nell'ufficio dello sceriffo qualcuno che speravano o pensavano fosse Billy the Kid. Potresti essere inondato di falsi Billy. Questo è un male poiché dovresti presumibilmente guardare ciascuno di essi, fare domande di indagine e cercare di accertare se la persona fosse davvero Billy o meno.

Il punto è che per impostare lo sforzo di ricompensa dei pregiudizi dell'IA, sarebbe saggio cercare di chiarire in cosa ritieni che consistano i pregiudizi dell'IA. Ciò richiede un tipo di calibrazione Goldilocks. Non vuoi essere così limitato che i cacciatori di taglie trascurino i pregiudizi dell'IA semplicemente perché non rientrano nella definizione stabilita, e né vuoi che urlino "Eureka!" ad ogni pezzetto di un pregiudizio dell'IA che forse trovano.

Avrai bisogno del giusto equilibrio Goldilocks di ciò in cui consistono i pregiudizi dell'IA e quindi fornisci preferibilmente indicazioni esplicite al riguardo.

Gran parte di questa intelligenza artificiale che distorce la caccia alle taglie si concentrerà sui sistemi di Machine Learning (ML) e Deep Learning (DL) basati sull'IA. Questo ha senso dal momento che l'avvento della pervasività del ML/DL sta crescendo, inoltre sembra avere alcune delle sfide più probabili per comprendere i pregiudizi indebiti dell'IA.

Questi ricercatori identificano quanto possa essere saliente un'intelligenza artificiale che distorce lo sforzo di caccia alle taglie, in particolare nel contesto ML/DL: "Nel tempo, le comunità di software e sicurezza hanno sviluppato 'ricompense di bug' nel tentativo di trasformare dinamiche simili tra gli sviluppatori di sistema e i loro critici (o hacker) verso fini più interattivi e produttivi. La speranza è che invitando deliberatamente parti esterne a trovare bug software o hardware nei loro sistemi e fornendo spesso incentivi monetari per farlo, si evolverà un ecosistema più sano e con una risposta più rapida. È naturale che la comunità di ML consideri un simile approccio di "pregiudizio" per la tempestiva scoperta e riparazione di modelli e sistemi con pregiudizi o altri comportamenti indesiderati. Piuttosto che trovare bug nel software, le parti esterne sono invitate a trovare pregiudizi, ad esempio sottogruppi (demografici o di altro tipo) di input su cui un modello addestrato ha prestazioni inferiori, e sono ricompensati per farlo" (nel documento "An Algorithmic Framework for Bias Bounties” di Ira Globus-Harris, Michael Kearns e Aaron Roth).

Nel documento di ricerca, gli autori delineano un approccio suggerito a quali tipi di pregiudizi dell'IA possono essere ricercati dai cacciatori di taglie. C'è anche un'indicazione su come valutare le affermazioni del cacciatore di taglie associate ai presunti pregiudizi dell'IA così scoperti. Secondo le mie precedenti osservazioni qui, le probabilità sono che riceverai affermazioni pretestuose e dovrai separare i pregiudizi dell'IA dal grano dalla pula.

Prima di approfondire un po' di carne e patate sulle considerazioni selvagge e lanose alla base della caccia al pregiudizio dell'IA, stabiliamo alcuni fondamenti aggiuntivi su argomenti profondamente integrali. Dobbiamo fare un breve tuffo nell'etica dell'IA e in particolare nell'avvento del Machine Learning (ML) e del Deep Learning (DL).

Potresti essere vagamente consapevole del fatto che una delle voci più forti in questi giorni nel campo dell'IA e anche al di fuori del campo dell'IA consiste nel chiedere a gran voce una maggiore parvenza di IA etica. Diamo un'occhiata a cosa significa fare riferimento a AI Ethics e Ethical AI. Inoltre, esploreremo cosa intendo quando parlo di Machine Learning e Deep Learning.

Un particolare segmento o porzione dell'etica dell'intelligenza artificiale che ha ricevuto molta attenzione da parte dei media è costituito dall'intelligenza artificiale che mostra pregiudizi e disuguaglianze spiacevoli. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tra un momento, condividerò con voi alcuni principi generali alla base dell'etica dell'IA. Ci sono molti di questi tipi di elenchi che fluttuano qua e là. Si potrebbe dire che non esiste ancora un unico elenco di attrattive universali e di concorrenza. Questa è la sfortunata notizia. La buona notizia è che almeno ci sono elenchi di etica dell'IA prontamente disponibili e tendono ad essere abbastanza simili. Tutto sommato, questo suggerisce che attraverso una sorta di convergenza ragionata stiamo trovando la nostra strada verso una comunanza generale di ciò in cui consiste l'etica dell'IA.

Innanzitutto, esaminiamo brevemente alcuni dei precetti generali dell'IA etica per illustrare ciò che dovrebbe essere una considerazione vitale per chiunque crei, utilizzi o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, comprese metodologie trasparenti e verificabili, fonti di dati, procedure e documentazione di progettazione.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'IA e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Assicuriamoci anche di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Torniamo ora all'argomento della caccia ai pregiudizi dell'IA.

Per quelli di voi che considerano un'attività di caccia alle taglie con pregiudizio dell'IA, ecco i miei sette passaggi chiave consigliati su come procedere al meglio:

1) Valutare. Valuta l'adeguatezza di un'attività di caccia alle taglie con pregiudizi AI per le tue circostanze e secondo i tuoi sistemi di intelligenza artificiale

2) Design. Progettare un approccio appropriato per la caccia alle taglie con bias dell'IA

3) Realizzare. Implementa e pubblicizza le tue attività di caccia alle taglie con pregiudizi dell'IA

4) Settore. Metti in campo l'IA distorce le richieste di ricompense ed elabora di conseguenza

5) Fissare. Correggi o regola la tua IA in base a queste esposizioni ai bias dell'IA scoperte

6) Regola. Regola la caccia alle taglie distorsioni dell'IA secondo necessità

7) Interrompere. Interrompere la caccia alle taglie del bias dell'IA quando non è più necessaria

Nella mia serie di passaggi precedenti, nota che menziono che presumibilmente vorrai correggere o regolare la tua IA in base all'accertamento che una presunta distorsione dell'IA esiste effettivamente all'interno del tuo sistema di IA. Questo ha abbondantemente senso. Quasi sicuramente vorresti sostenere qualsiasi pregiudizio trovato sull'IA. Pensa alle ramificazioni legali (ed etiche) se non lo fai. Una cosa è affermare che non sapevi che esistesse un pregiudizio dell'IA e quindi ne hai permesso l'esistenza, mentre è molto più instabile avere a verbale che sei stato informato di un pregiudizio dell'IA e non hai fatto nulla al riguardo.

La natura e il grado della correzione o dell'adeguamento dell'IA sarebbero ovviamente condizionati da quanto fossero significativi i pregiudizi dell'IA e quanto fossero profondamente radicati i problemi. Se sei fortunato, forse una modesta quantità di modifiche all'IA risolverà le cose. L'altro potenziale è che potrebbe essere necessario eseguire un'intera riscrittura dell'IA. Per il tipo di intelligenza artificiale ML/DL, ciò potrebbe richiedere di tornare al tavolo da disegno e ricominciare da capo con un set di dati completamente nuovo e un modello ML/DL ripulito. Ho discusso dell'avvento del degorgement dell'IA o della distruzione dell'IA come potenziale rimedio legale contro l'IA sgradevole, vedi il link qui.

Una domanda su cui riflettere è se vorresti che i cacciatori di taglie forse facessero di più che identificare l'esistenza di pregiudizi dell'IA. Ad esempio, potresti addolcire la taglia indicando che anche le soluzioni proposte sono benvenute. Un pregiudizio dell'IA essere trovato da un cacciatore di taglie potrebbe essere pagato un premio o premio indicato. Se il cacciatore di taglie può anche offrire una praticabile fisso al pregiudizio dell'IA potrebbe quindi essere concessa una ricompensa aggiuntiva.

Alcuni sostengono che questo sia un ponte troppo lontano. Dicono che dovresti mantenere i cacciatori di taglie del pregiudizio dell'IA concentrati esclusivamente sulla ricerca dei pregiudizi dell'IA. Creerai una serie di conseguenze negative indesiderabili invitandoli a suggerire anche soluzioni. Mantieni le cose semplici. L'obiettivo è ottenere il maggior numero di occhi in più sulla scoperta dei pregiudizi dell'IA in modo che tu possa decidere cosa fare dopo. Non infangare le acque.

Un aspetto spinoso che deve essere compreso riguarda l'entità della ricompensa o del premio per i cacciatori di taglie che scoprono sinceramente i pregiudizi dell'IA. Vuoi che il guadagno sia dimostrativo. Senza una ricompensa sufficientemente alta, non otterrai molti cacciatori di taglie o non saranno particolarmente ansiosi di cercare i pregiudizi dell'IA nei tuoi sistemi di intelligenza artificiale. Potrebbero invece concentrarsi su altri sforzi di ricompensa per i pregiudizi dell'IA.

Inoltre, come accennato, vuoi provare a reprimere l'impulso dei cacciatori di taglie di trasformare le loro scoperte sui pregiudizi dell'IA in altre forme di oro. Se la ricompensa sembra misera, potrebbe infastidire i cacciatori di taglie nel cercare altri guadagni più alti. Potrebbero adottare un approccio ransomware nei tuoi confronti. Potrebbero dichiarare di avere un pregiudizio dell'IA succoso che un concorrente vorrebbe conoscere e che potrebbe usare contro la tua azienda pubblicizzando che il pregiudizio dell'IA esiste nella tua IA. Pertanto, vendono la distorsione dell'IA scoperta al miglior offerente. E così via.

Si suppone che se imposti la ricompensa a un intervallo estremamente alto, stai anche chiedendo potenziali problemi. Questo potrebbe attirare tutti i tipi di cacciatori di taglie matti. A loro volta potrebbero inondare i social media con affermazioni confuse secondo cui hanno trovato una moltitudine di pregiudizi dell'IA, facendolo per la propria autopromozione e senza aver effettivamente inflitto alcun pregiudizio all'IA. In un certo senso, la tua ricompensa accresciuta illumina inavvertitamente una luce sulla tua IA e spinge una sfilza di falene rozze ad essere corrispondentemente perniciosamente attratte dal raggio di luce incandescente.

Un'altra considerazione riguarda l'accessibilità alla tua IA.

Per abilitare una possibilità di caccia di taglie AI, i cacciatori di taglie devono avere accesso sufficiente alla tua AI. Non avranno molta fortuna nel trovare i pregiudizi dell'IA se sono completamente bloccati. Ma non vuoi rinunciare alle tue protezioni di sicurezza informatica poiché ciò potrebbe compromettere completamente il tuo sistema di intelligenza artificiale.

Potresti provare a far firmare ai cacciatori di taglie varie dichiarazioni legalmente vincolanti e quindi fornire loro l'accesso necessario. Ad alcuni cacciatori di taglie non piacerà questo tipo di approccio. Il loro punto di vista è che faranno solo tutto ciò che consente un percorso aperto e disponibile pubblicamente. Sono liberi maverick, per così dire, e non amano essere sellati, per così dire. Invitarli a firmare documenti legali intimidatori farà sì che molti di loro evitino di cercare pregiudizi dell'IA nella tua IA. Oppure potrebbero irritarsi per la tua sfida legale e decidere che vedranno cosa possono trovare con mezzi pubblici, facendolo con l'impulso forse stridente di mostrarti quanto sei veramente vulnerabile.

Ho ancora un altro angolo che potrebbe farti girare la testa.

Un cacciatore di taglie esperto di intelligenza artificiale potrebbe decidere di ideare un sistema di intelligenza artificiale in grado di esaminare la tua IA e possibilmente scoprire i pregiudizi dell'IA nella tua IA. Questo è il produttore di utensili che sceglie di creare uno strumento per svolgere il lavoro piuttosto che eseguire il lavoro manuale da solo. Invece di esaminare faticosamente la tua intelligenza artificiale, il cacciatore di taglie esperto di intelligenza artificiale passa il tempo a inventare uno strumento di intelligenza artificiale che fa la stessa cosa. Quindi usano lo strumento AI sulla tua AI. Anche il bello è che presumibilmente possono riutilizzare lo strumento AI su chiunque altro che offra anche un'opportunità di caccia alle taglie anche sulla rispettiva AI.

So cosa stai probabilmente pensando. Se è possibile escogitare uno strumento di intelligenza artificiale per esaminare l'IA per i pregiudizi, il produttore dell'IA che viene esaminato per i pregiudizi dell'IA dovrebbe creare uno strumento di intelligenza artificiale di questo tipo o acquistarne uno per uso personale. In teoria, per cominciare, non hanno bisogno di fare i conti con l'intero carnevale dei cacciatori di taglie. Basta usare l'IA per trovare i loro pregiudizi sull'IA.

Sì, questo è qualcosa che puoi aspettarti che si presenti gradualmente. Nel frattempo, il cardine di questi sforzi consisterà probabilmente negli sviluppatori di intelligenza artificiale che faranno la caccia alle taglie. Potrebbero utilizzare vari strumenti per aiutare i loro sforzi, ma a breve termine, è improbabile che semplicemente impostino in modo insensato lo strumento AI su automatico e facciano un pisolino in modo tale che lo strumento esegua l'intero bias dell'IA a caccia di loro.

Non ci siamo ancora.

A questo punto di questa pesante discussione, scommetto che sei desideroso di alcuni esempi illustrativi che potrebbero mostrare questo argomento. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sull'uso della caccia alle taglie basata sull'intelligenza artificiale e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAADA
S (Sistemi avanzati di assistenza alla guida).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e caccia alle taglie con intelligenza artificiale

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Spero che ciò fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Nei miei articoli, ho già discusso a lungo dell'uso di cacciatori di taglie orientati agli insetti nel regno dei veicoli autonomi e delle auto a guida autonoma. Questo approccio ha effettivamente avuto luogo in questa nicchia. Ci sono i soliti dibattiti sul fatto che sia una buona idea o meno. Gli sforzi sono stati generalmente di natura limitata, spesso mantenuti relativamente tranquilli.

Un discorso simile può derivare quando l'attenzione si sposta sulla ricerca di pregiudizi dell'IA piuttosto che sulla ricerca di bug di sistema di per sé. Alcuni suggeriscono che è dannato se lo fai, dannato se non fai un enigma.

Ecco perché.

In primo luogo, per essere chiari, ci sono numerosi modi in cui i veicoli autonomi e le auto a guida autonoma saranno soggetti a contenere i pregiudizi dell'IA, vedere la mia copertura su il link qui ed il link qui, solo per citarne alcuni. Le case automobilistiche e le case automobilistiche a guida autonoma sembrerebbero saggi nel cercare di impedire che quei pregiudizi dell'IA appaiano nei loro sistemi di intelligenza artificiale. La tempesta di fuoco legale ed etica contro tali aziende sarà senza dubbio intensa.

L'uso di un'intelligenza artificiale che distorce lo sforzo di caccia di taglie è un approccio adeguato in questo contesto specifico?

Una risposta è che sì, questo sarà utile e fornirà un'abbondanza di set "gratuiti" di nuovi occhi per cercare di catturare eventuali pregiudizi dell'IA incorporati in un'auto a guida autonoma AI o simili. La maggior parte degli sviluppatori di intelligenza artificiale che costruiscono auto a guida autonoma sono occupati a creare un'intelligenza artificiale in grado di guidare in sicurezza un'auto dal punto A al punto B. Sono preoccupati per quella capacità di base e non hanno né il tempo né l'attenzione verso eventuali pregiudizi dell'IA che potrebbero essere da qualche parte in la loro IA.

L'altra risposta è che no, consentire la caccia di taglie per veicoli autonomi e auto a guida autonoma su qualsiasi base, sia per bug che per pregiudizi dell'IA, dovrebbe essere semplicemente evitato. L'argomento è che questi veicoli e la loro IA sono di un calibro di vita o di morte. Giocare con l'IA in qualsiasi modo potrebbe essere in qualche modo rovinoso per l'IA e avere un impatto su ciò che fa il sistema di guida dell'IA.

Una controargomentazione a quest'ultimo punto è che si suppone che i cacciatori di taglie non siano in grado di alterare l'IA che stanno esaminando. Pertanto, non c'è pericolo che facciano pasticci con l'IA e che in questo contesto l'IA diventi improvvisamente un folle sistema di guida dell'IA. I cacciatori di taglie hanno solo accesso di sola lettura. Permettere loro di andare oltre sarebbe ampiamente stupido e un enorme errore.

La controargomentazione a quella controargomentazione è che consentendo e incoraggiando i cacciatori di taglie a esaminare la tua IA, l'intera questione diventa rischiosa. Quei cacciatori di taglie potrebbero trovare modi per sfruttare eventuali bug o pregiudizi trovati. Questi exploit a loro volta potrebbero essere per scopi subdoli. Faresti meglio a non invitare "ladri" a casa tua, per così dire. Una volta che hanno chiuso il giunto, alla fine ti troverai in un mucchio di guai.

Per coloro che hanno sistemi di intelligenza artificiale di entità inferiore alla vita o alla morte, la convinzione è che le ripercussioni di un'incursione di caccia di taglie che va storta siano molto meno rischiose. Può darsi. D'altra parte, se un'azienda ha versato i propri soldi in un sistema di intelligenza artificiale che i cacciatori di taglie riescono a usurpare, si può presumere che i danni alla reputazione e altri potenziali danni faranno ancora male.

Non c'è pranzo gratis quando si tratta di caccia di taglie AI bias.

Una rapida osservazione di chiusura per ora.

Quando il famigerato fuorilegge Jesse James fu ricercato durante il Vecchio West, fu stampato un poster "Ricercato" che offriva una taglia di $ 5,000 per la sua cattura (dicendo "vivo o morto"). Era una somma di denaro piuttosto massiccia all'epoca. Uno dei membri della sua stessa banda ha deciso di uccidere Jesse e raccogliere la ricompensa. Suppongo che questo dimostri quanto possa essere efficace una taglia.

L'uso di cacciatori di taglie di pregiudizio dell'IA sarà una buona cosa o sarà una cosa negativa?

Se scegli di istituire un'attività di cacciatore di taglie con pregiudizio dell'IA, ti suggerirei di tenere gli occhi ben aperti e di guardarti sempre alle spalle. Questo è prudente per te e la tua IA. Non sai mai cosa potrebbe succedere, incluso che un cacciatore di taglie connivente in qualche modo inserisce di nascosto un pregiudizio dell'IA nella tua IA e grida al mondo di aver trovato un pregiudizio dell'IA senza scrupoli nella tua IA. Forse facendolo in un tentativo sfacciato e fuori misura di cercare la ricompensa della taglia, oltre a proclamarsi un eroe che essenzialmente ha ottenuto il decantato Jesse James.

A pensarci bene, a un'IA senziente probabilmente non piacerà l'idea di una sconcertante disposizione morta o viva, si potrebbe languidamente ipotizzare.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- eticamente-malvagio-completamente-autonomo-sistemi-è-prudente-o-futile/