Ecco perché le aziende hanno un tumultuoso rapporto di amore-odio con i consigli di etica dell'IA

Un'azienda dovrebbe istituire un comitato consultivo per l'etica dell'IA?

Potresti essere sorpreso di sapere che questa non è una risposta semplice, sì o no.

Prima di entrare nelle complessità alla base dei pro e dei contro della creazione di un comitato consultivo per l'etica dell'IA, assicuriamoci di essere tutti sulla stessa pagina su cosa consiste in un comitato consultivo per l'etica dell'IA e perché è salito a livello di prima pagina risalto.

Come tutti sanno, l'Intelligenza Artificiale (AI) e l'uso pratico dell'IA per le attività di business sono diventati un must per le aziende moderne. Sarebbe difficile sostenere il contrario. In una certa misura, l'infusione dell'IA ha migliorato prodotti e servizi, inoltre a volte ha portato a una riduzione dei costi associati alla fornitura di tali prodotti e servizi. Un elenco elegante di efficienze e aumenti di efficacia può essere potenzialmente attribuito all'applicazione sensata e appropriata dell'IA. In breve, l'aggiunta o l'aumento di ciò che fai incorporando l'IA può essere una proposta piuttosto redditizia.

C'è anche il diciamo grande splash che viene fornito con l'aggiunta dell'IA nelle tue attività aziendali.

Le aziende sono rumorose e orgogliose del loro uso dell'IA. Se l'IA migliora anche i tuoi prodotti, è fantastico. Nel frattempo, le affermazioni sull'utilizzo dell'IA attirano sufficientemente l'attenzione che puoi praticamente fare le stesse cose che facevi prima, ma guadagna molti più soldi o occhiate lanciando lo stendardo dell'IA come parte della tua strategia aziendale e fuori- merci alla porta.

L'ultimo punto sul fatto che a volte si confonda un po' sul fatto che l'IA venga davvero utilizzata ci porta nell'arena di AI Ethics. Ci sono tutti i tipi di affermazioni vere e proprie false sull'IA da parte delle aziende. Peggio ancora, forse, consiste nell'utilizzare l'IA che risulta essere la cosiddetta AI for Bad.

Ad esempio, hai indubbiamente letto delle numerose istanze di sistemi di intelligenza artificiale che utilizzano Machine Learning (ML) o Deep Learning (DL) che hanno pregiudizi razziali radicati, pregiudizi di genere e altre pratiche discriminatorie improprie indebite. Per la mia copertura continua ed ampia di queste questioni relative all'IA avversa e all'emergere di clamorosi appelli per l'etica dell'IA e l'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Quindi, abbiamo questi driver aspri nascosti nell'apparentemente roseo utilizzo dell'IA da parte delle aziende:

  • Affermazioni vuote sull'utilizzo dell'IA quando in realtà non c'è IA o un'infusione di IA insignificante
  • False affermazioni sull'uso dell'IA che sono intenzionalmente concepite per fuorviare
  • Inclusione involontaria dell'IA che si rivela intrisa di pregiudizi impropri ed è discriminatoria
  • IA appositamente modellata per promulgare pregiudizi negativi e spregevoli azioni discriminatorie
  • Altro

Come nascono questi tipi di pratiche sconsiderate o vergognose nelle aziende?

Un pezzo notevole del puzzle è la mancanza di consapevolezza dell'etica dell'IA.

I massimi dirigenti potrebbero non essere consapevoli dell'idea stessa di ideare un'IA che rispetti una serie di precetti dell'IA etica. Gli sviluppatori di intelligenza artificiale in un'azienda del genere potrebbero avere una certa consapevolezza della questione, anche se forse hanno familiarità solo con le teorie dell'etica dell'intelligenza artificiale e non sanno come colmare il divario negli sforzi quotidiani di sviluppo dell'IA. C'è anche la circostanza in cui gli sviluppatori di intelligenza artificiale vogliono abbracciare l'etica dell'intelligenza artificiale, ma poi ottengono un forte respingimento quando manager e dirigenti ritengono che ciò rallenterà i loro progetti di intelligenza artificiale e aumenterà i costi di ideazione dell'IA.

Molti alti dirigenti non si rendono conto che è probabile che la mancanza di adesione all'etica dell'IA finisca per prendere a calci loro e l'azienda alle spalle dopo il rilascio dell'IA, che è piena di problemi spinosi e del tutto brutti. Un'azienda può essere catturata con una cattiva intelligenza artificiale nel mezzo che poi mina tristemente la reputazione altrimenti consolidata dell'azienda (rischio reputazionale). I clienti potrebbero scegliere di non utilizzare più i prodotti e i servizi dell'azienda (rischio di perdita del cliente). I concorrenti potrebbero trarre vantaggio da questo fallimento (rischio competitivo). E ci sono molti avvocati pronti ad aiutare coloro che sono stati trasgrediti, con l'obiettivo di intentare pesanti azioni legali contro le aziende che hanno consentito l'ingresso di IA marcia nei loro prodotti aziendali (rischio legale).

In breve, il ROI (ritorno sull'investimento) per fare un uso adeguato dell'etica dell'intelligenza artificiale è quasi certamente più vantaggioso rispetto ai costi a valle associati a sedersi su una puzza di cattiva intelligenza artificiale che non avrebbe dovuto essere ideata né rilasciata.

Si scopre che non tutti hanno ricevuto quel promemoria, per così dire.

AI Ethics sta guadagnando terreno solo gradualmente.

Alcuni credono che inevitabilmente il lungo braccio della legge potrebbe essere necessario per ispirare ulteriormente l'adozione di approcci di IA etica.

Oltre a impiegare i precetti dell'etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi distintive per governare i vari sviluppi e usi dell'IA. Nuove leggi vengono infatti diffuse a livello internazionale, federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è misurato. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. In effetti, avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società. Vedi ad esempio la mia copertura su il link qui ed il link qui.

Assicuriamoci di essere tutti sulla stessa pagina su ciò che contengono le basi di AI Ethics.

Nella copertura della mia rubrica, ho precedentemente discusso varie analisi collettive dei principi dell'etica dell'IA, come questa valutazione su il link qui, che offre un utile elenco fondamentale di criteri o caratteristiche di IA etica relativi ai sistemi di IA:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Questi principi di etica dell'intelligenza artificiale dovrebbero essere utilizzati seriamente dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e persino quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale.

Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti di etica dell'IA.

Un mezzo per cercare di introdurre e mantenere un'attenzione costante sull'uso dei precetti dell'etica dell'IA può essere in parte intrapreso attraverso l'istituzione di un comitato consultivo per l'etica dell'IA.

Successivamente scompatteremo le sfaccettature del comitato consultivo di AI Ethics.

Schede etiche AI ​​e come eseguirle correttamente

Le aziende possono trovarsi in varie fasi dell'adozione dell'IA e, allo stesso modo, in diverse fasi dell'adozione dell'etica dell'IA.

Immagina un'azienda che vuole andare avanti nell'adozione dell'etica dell'intelligenza artificiale ma non è sicura di come farlo. Un altro scenario potrebbe essere un'azienda che si è già dilettata con AI Ethics ma sembra incerta su ciò che deve essere fatto per promuovere lo sforzo. Un terzo scenario potrebbe essere un'azienda che ha ideato e utilizzato attivamente l'IA e internamente ha fatto molto per incarnare l'etica dell'IA, anche se si rende conto che c'è la possibilità che si perdano altre intuizioni forse a causa del pensiero di gruppo interno.

Per ognuno di questi scenari, l'istituzione di un comitato consultivo per l'etica dell'IA potrebbe essere prudente.

La nozione è piuttosto semplice (beh, per chiarire, la nozione generale è la proverbiale punta dell'iceberg e il diavolo è sicuramente nei dettagli, come tratteremo momentaneamente).

Un comitato consultivo per l'etica AI è in genere composto principalmente da consulenti esterni a cui viene chiesto di far parte di uno speciale comitato consultivo o comitato per l'azienda. Potrebbero esserci anche alcuni partecipanti interni inclusi nel consiglio, anche se di solito l'idea è quella di raccogliere consulenti esterni all'azienda e questo può portare una prospettiva semi-indipendente su ciò che l'azienda sta facendo.

Dico semi-indipendente poiché ci saranno senza dubbio alcuni potenziali conflitti di indipendenza che possono sorgere con i membri scelti del comitato consultivo di AI Ethics. Se l'azienda sta pagando i consulenti, si pone l'ovvia domanda se i membri pagati si sentano dipendenti dall'azienda per uno stipendio o se potrebbero essere a disagio nel criticare il cavallo regalo che hanno in mano. D'altra parte, le aziende sono abituate a ricorrere a consulenti esterni retribuiti per tutti i tipi di opinioni indipendenti considerate, quindi questo è in qualche modo consueto e comunque previsto.

Al comitato consultivo di AI Ethics viene solitamente chiesto di incontrarsi periodicamente, di persona o in remoto virtuale. Sono utilizzati come cassa di risonanza dall'azienda. È anche probabile che ai membri vengano forniti vari documenti interni, rapporti e promemoria sugli sforzi in corso relativi all'IA presso l'azienda. Particolari membri dell'Advisor Board di AI Ethics potrebbero essere invitati a partecipare a riunioni interne in base alle loro specifiche competenze. Eccetera.

Oltre a essere in grado di vedere cosa sta succedendo con l'IA all'interno dell'azienda e fornire occhi nuovi, il comitato consultivo per l'etica dell'IA di solito ha il duplice ruolo di essere un fornitore esterno a quello interno delle ultime novità in fatto di IA e IA etica. Le risorse interne potrebbero non avere il tempo di approfondire ciò che sta accadendo al di fuori dell'azienda ed ergo può ottenere punti di vista all'avanguardia fortemente focalizzati e personalizzati dai membri del comitato consultivo di AI Ethics.

Ci sono anche gli usi interni-esterni di un comitato consultivo per l'etica dell'IA.

Questo può essere complicato.

Il concetto è che il comitato consultivo di AI Ethics viene utilizzato per far sapere al mondo esterno cosa sta facendo l'azienda quando si tratta di AI e AI Ethics. Questo può essere utile come mezzo per rafforzare la reputazione dell'azienda. I prodotti e i servizi basati sull'intelligenza artificiale potrebbero essere percepiti come più affidabili grazie al sigillo d'oro dell'approvazione da parte del comitato consultivo di AI Ethics. Inoltre, le richieste all'azienda di fare di più sull'IA etica possono essere in qualche modo attenuate sottolineando che un comitato consultivo per l'etica dell'IA è già utilizzato dall'azienda.

Le domande che di solito vengono rivolte a un comitato consultivo di AI Ethics dall'azienda che utilizza tale meccanismo spesso includono:

  • L'azienda dovrebbe utilizzare l'IA per un particolare prodotto o servizio o sembra eccessivamente preoccupante?
  • L'azienda sta prendendo in considerazione l'intera gamma di considerazioni sull'etica dell'IA nei suoi sforzi in materia di IA?
  • L'azienda è caduta nel pensiero di gruppo ed è diventata riluttante o incapace di vedere cadute potenzialmente inquietanti dell'etica dell'IA in attesa di questi sforzi?
  • Quali tipi di approcci più recenti all'etica dell'IA dovrebbe cercare di adottare l'azienda?
  • Sarebbe possibile offrire riconoscimenti esterni per i nostri sforzi per l'etica dell'IA e per l'impegno in tal senso?
  • Altro

Attingere a un comitato consultivo per l'etica dell'IA ha sicuramente senso e le aziende stanno marciando sempre più su questa strada.

Tieni presente che c'è un altro lato di questa medaglia.

Da un lato della medaglia, i comitati consultivi di AI Ethics possono essere la cosa migliore dopo il pane a fette. Non trascurare l'altro lato della medaglia, ovvero possono anche essere un enorme mal di testa e potresti pentirti di aver virato in questo territorio rischioso (come vedrai in questa discussione, gli aspetti negativi possono essere gestiti, se sai cosa sta facendo).

Le aziende stanno iniziando a rendersi conto che possono trovarsi un po' in difficoltà quando scelgono di seguire la strada del comitato consultivo per l'etica dell'IA. Si potrebbe affermare che questa macchinazione è in qualche modo simile a giocare con il fuoco. Vedi, il fuoco è un elemento molto potente che puoi usare per cucinare i pasti, proteggerti dai predatori mentre sei nella natura selvaggia, tenerti al caldo, portare luce e fornire una serie di benefici utili e vitali.

Il fuoco può anche farti bruciare se non sei in grado di gestirlo bene.

Ci sono stati vari titoli di notizie di recente nota che dimostrano vividamente i potenziali rischi di avere un comitato consultivo per l'etica dell'IA. Se un membro decide sommariamente di non credere più che l'azienda stia svolgendo le giuste attività di intelligenza artificiale etica, il membro scontento potrebbe licenziarsi con un forte sbuffo. Partendo dal presupposto che è probabile che la persona sia ben nota nel campo dell'intelligenza artificiale o nel settore a tutti gli effetti, la loro nave da salto è destinata a catturare l'attenzione dei media.

Un'impresa poi deve andare in difesa.

Perché il membro se ne è andato?

Che cosa sta combinando male l'azienda?

Alcune aziende richiedono che i membri del comitato consultivo di AI Ethics firmino NDA (accordi di non divulgazione), che apparentemente proteggeranno l'azienda se il membro decide di diventare "canaglia" e distruggere l'azienda. Il problema, tuttavia, è che anche se la persona rimane relativamente silenziosa, c'è comunque un probabile riconoscimento che non fa più parte del comitato consultivo di AI Ethics. Questo, di per sé, solleverà tutti i tipi di domande che fanno alzare le sopracciglia.

Inoltre, anche se esiste un NDA, a volte il membro cercherà di aggirare le disposizioni. Ciò potrebbe includere il riferimento a "casi di studio" generici senza nome per evidenziare le anomalie dell'etica dell'IA che ritengono che l'azienda stesse insidiosamente eseguendo.

Il membro caduto potrebbe essere completamente sfacciato e dichiarare direttamente le proprie preoccupazioni sull'azienda. Se questa sia una chiara violazione dell'NDA è forse in qualche modo meno cruciale del fatto che si sta diffondendo la voce di scrupoli dell'IA etica. Un'azienda che cerca di citare in giudizio il membro per violazione dell'NDA può brutalmente portare acqua calda su se stessa, alimentando l'attenzione aggiuntiva sulla controversia e sembrando essere il classico duello David contro Golia (l'azienda è il grande "mostro").

Alcuni alti dirigenti presumono di poter semplicemente raggiungere un accordo finanziario con qualsiasi membro del comitato consultivo di AI Ethics che ritiene che l'azienda stia facendo le cose sbagliate, incluso ignorare o minimizzare le preoccupazioni espresse.

Questo potrebbe non essere così facile come si presume.

Spesso, i membri hanno una mentalità devota etica e non si tireranno indietro prontamente da quella che percepiscono come una lotta etica giusta contro sbagliato. Potrebbero anche essere finanziariamente stabili e non disposti a radere i loro precetti etici o potrebbero avere altri impieghi che rimangono inalterati dal fatto che hanno lasciato il comitato consultivo di AI Ethics.

Come potrebbe essere evidente, alcuni in seguito si rendono conto che un comitato consultivo per l'etica dell'IA è un'arma a doppio taglio. C'è un enorme valore e un'intuizione importante che un tale gruppo può trasmettere. Allo stesso tempo, stai giocando con il fuoco. Potrebbe essere che uno o più membri decidano di non credere più che l'azienda stia svolgendo un lavoro di intelligenza artificiale credibile. Nelle notizie ci sono state indicazioni che a volte un intero comitato consultivo di AI Ethics si dimettesse insieme, tutto in una volta, o che avesse una certa preponderanza dei membri che annunciavano la loro partenza.

Preparati al bene e ai problemi che possono sorgere con i comitati consultivi di AI Ethics.

Naturalmente, ci sono momenti in cui le aziende in realtà non stanno facendo le cose giuste quando si tratta di AI Ethics.

Pertanto, ci auguriamo e ci aspetteremmo che un comitato consultivo per l'etica dell'IA presso quell'azienda si faccia avanti per renderlo noto, presumibilmente prima all'interno dell'azienda. Se l'azienda continua sulla cattiva strada percepita, i membri sembrerebbero certamente eticamente obbligati (possibilmente anche legalmente) a intraprendere altre azioni ritenute appropriate (i membri dovrebbero consultare il proprio avvocato personale per qualsiasi consiglio legale di questo tipo). Potrebbe essere che questo sia l'unico modo per convincere l'azienda a cambiare i suoi modi. Un'azione drastica da parte di un membro o di un gruppo di membri potrebbe sembrare l'ultima risorsa che i membri sperano possa invertire la tendenza. Inoltre, quei membri probabilmente non vogliono far parte di qualcosa che credono ardentemente sia andato fuori strada da AI Ethics.

Un modo utile per considerare queste possibilità è questo:

  • L'azienda si sta allontanando, il membro sceglie di uscire a causa di una percepita mancanza di conformità dell'azienda
  • L'azienda non si sta allontanando, ma il membro crede che l'azienda lo sia e quindi esca a causa di una percepita mancanza di conformità

Il mondo esterno non saprà necessariamente se il membro che esce ha una base in buona fede per preoccuparsi dell'azienda o se potrebbe essere qualche idiosincrasia o impressione errata da parte del membro. C'è anche la possibilità piuttosto semplice che un membro lasci il gruppo per altri impegni o per motivi personali che non hanno nulla a che fare con ciò che l'azienda sta facendo.

L'essenza è che è importante per qualsiasi azienda che adotta un comitato consultivo per l'etica dell'intelligenza artificiale pensare consapevolmente all'intera gamma di fasi del ciclo di vita associate al gruppo.

Con tutto quel parlare di aspetti problematici, non voglio dare l'impressione di stare alla larga dall'avere un comitato consultivo per l'etica dell'IA. Non è questo il messaggio. Il vero succo è avere un comitato consultivo per l'etica dell'IA e assicurarsi di farlo nel modo giusto. Trasformalo nel tuo caro mantra.

Ecco alcuni dei vantaggi spesso citati di un comitato consultivo per l'etica dell'IA:

  • Avere a portata di mano un mezzo per far rimbalzare progetti e idee di intelligenza artificiale su un gruppo privato semi-indipendente
  • Sfrutta l'esperienza nell'etica dell'intelligenza artificiale che proviene dall'esterno dell'azienda
  • Mirare a evitare risate di AI Ethics e veri e propri disastri da parte dell'azienda
  • Sii un promotore di pubbliche relazioni per l'azienda e i suoi sistemi di intelligenza artificiale
  • Sfondamento del pensiero di gruppo interno sull'IA e sull'etica dell'IA
  • Ottieni uno sguardo nuovo sulle innovazioni dell'IA e sulla loro praticità
  • Migliorare la posizione e la statura dell'azienda
  • Servire come voce sfrenata per quando gli sforzi dell'IA dell'azienda sono incerti
  • Altro

Ecco i modi comuni in cui le aziende rovinano e minano il loro comitato consultivo per l'etica dell'IA (non farlo!):

  • Fornire indicazioni vaghe e confuse su missione e scopo
  • Solo raramente consultato e spesso inopportuno dopo che il cavallo è già uscito dalla stalla
  • Tenuto al buio
  • La Fed ha filtrato informazioni che forniscono una rappresentazione fuorviante delle cose
  • Utilizzato esclusivamente come vetrina e per nessun altro scopo di produzione di valore
  • Non è consentito fare alcuna parvenza di esplorazione su questioni interne
  • Privi di risorse sufficienti per svolgere il proprio lavoro a sufficienza
  • Mancanza di una leadership esplicita all'interno del gruppo
  • Mancanza di attenzione da parte della dirigenza dell'azienda riguardo al gruppo
  • Ci si aspetta che dia la cieca approvazione a tutto ciò che viene presentato
  • A caso per quanto riguarda i membri scelti
  • Trattata con poco rispetto e apparentemente un semplice segno di spunta
  • Altro

Un altro problema spesso confondente riguarda la natura e il comportamento dei vari membri che prestano servizio in un comitato consultivo per l'etica dell'IA, che a volte possono essere problematici in questi modi:

  • Alcuni membri potrebbero essere solo concettualizzatori dell'etica dell'intelligenza artificiale piuttosto che esperti nell'etica dell'intelligenza artificiale come pratica e in quanto tali forniscono approfondimenti minimalisti esperti di business
  • Alcuni possono essere roboanti quando si tratta di AI Ethics e sono straordinariamente difficili da affrontare durante la loro partecipazione
  • Le lotte interne possono diventare un distrattore significativo, spesso scontri di grandi ego e far sì che il gruppo si trasformi in disfunzionale
  • Alcuni potrebbero essere eccessivamente occupati e troppo impegnati in modo tale da essere distaccati dallo sforzo di consulenza di AI Ethics
  • Alcuni hanno un'opinione ferma e incrollabile sull'etica dell'IA che è rigida e irrealistica
  • Alcuni sono inclini a considerazioni emotive piuttosto che analitiche e sistemiche alla base dell'etica dell'IA
  • Può essere simile al famoso adagio di essere come un branco di gatti che non si concentrano e vagano senza meta
  • Altro

Alcune aziende sembrano semplicemente mettere insieme un comitato consultivo per l'etica dell'intelligenza artificiale su una base un po' volente o nolente. Nessun pensiero va ai membri da selezionare. Nessun pensiero va verso ciò che ognuno porta in tavola. Nessun pensiero va alla frequenza delle riunioni e al modo in cui le riunioni devono essere condotte. Nessun pensiero va alla gestione del comitato consultivo di AI Ethics, tutto sommato. Eccetera.

In un certo senso, per la tua stessa mancanza di intraprendenza, stai probabilmente mettendo in moto un disastro ferroviario.

Non farlo.

Forse questo elenco di cose giuste da fare ora è apparentemente ovvio per te sulla base del discorso finora, ma forse saresti scioccato nel sapere che poche aziende sembrano capirlo bene:

  • Identificare esplicitamente la missione e lo scopo del comitato consultivo per l'etica dell'IA
  • Garantire che il gruppo riceva un'adeguata attenzione di alto livello dirigenziale
  • Identificare il tipo di membri più adatti al gruppo
  • Avvicinati ai membri desiderati e accertati dell'idoneità al gruppo
  • Prendi accordi adeguati con i membri scelti
  • Stabilire la logistica delle riunioni, la frequenza, ecc.
  • Determinare i doveri dei membri, la portata e la profondità
  • Anticipare le risorse interne necessarie per aiutare il gruppo
  • Allocare risorse sufficienti per il gruppo stesso
  • Mantieni attivo e aggiornato il comitato consultivo di AI Ethics
  • Pianifica in anticipo le escalation per quando sorgono problemi
  • Indicare come verranno gestiti gli eventi di emergenza o di crisi
  • Ruotare i membri verso l'esterno o verso l'interno secondo necessità per mantenere il mix adatto
  • In anticipo hanno previsto percorsi di uscita per i membri
  • Altro

Conclusione

Alcuni anni fa, molte delle case automobilistiche e delle aziende tecnologiche a guida autonoma che si stanno imbarcando nell'ideazione di auto a guida autonoma basate sull'intelligenza artificiale sono state improvvisamente spinte ad agire per adottare comitati consultivi per l'etica dell'IA. Fino a quel momento, sembrava esserci poca consapevolezza di avere un gruppo del genere. Si presumeva che l'attenzione interna sull'IA etica sarebbe stata sufficiente.

Ho discusso a lungo nella mia colonna dei vari sfortunati errori o sviste dell'etica dell'IA che a volte hanno portato a problemi con le auto a guida autonoma come incidenti stradali minori, collisioni con auto evidenti e altre calamità, vedere la mia copertura su il link qui. L'importanza della sicurezza dell'IA e delle protezioni simili deve essere la considerazione più importante per chi produce veicoli autonomi. I comitati consultivi per l'etica dell'IA in questa nicchia stanno contribuendo a mantenere la sicurezza dell'IA una priorità fondamentale.

Il mio modo preferito per esprimere questo tipo di rivelazione sull'etica dell'IA è paragonare la questione ai terremoti.

I californiani sono soggetti a terremoti di tanto in tanto, a volte piuttosto pesanti. Potresti pensare che essere preparato per il terremoto sarebbe una considerazione sempre presente. Non così. Il ciclo funziona in questo modo. Si verifica un terremoto sostanziale e le persone vengono ricordate di essere state preparate per il terremoto. Per un breve periodo, c'è fretta di intraprendere tali preparativi. Dopo un po', l'attenzione su questo svanisce. I preparativi cadono nel dimenticatoio o vengono altrimenti trascurati. Boom, un altro terremoto colpisce e tutti quelli che avrebbero dovuto essere preparati vengono colti "alla sprovvista" come se non si fossero resi conto che un giorno potrebbe verificarsi un terremoto.

Le aziende spesso fanno in qualche modo lo stesso con i comitati consultivi di AI Ethics.

Non ne avviano uno e poi all'improvviso, dopo una catastrofe sulla loro IA, vengono spronati reattivamente all'azione. Avviano in modo fragile un comitato consultivo per l'etica dell'IA. Ha molti dei problemi che ho citato in precedenza qui. Il comitato consultivo di AI Ethics va in pezzi. Oops, una nuova calamità dell'IA all'interno dell'azienda risveglia la necessità del comitato consultivo per l'etica dell'IA.

Lavare, sciacquare e ripetere.

Le aziende scoprono sicuramente di avere a volte una relazione di amore-odio con i loro sforzi del comitato consultivo di AI Ethics. Quando si tratta di fare le cose nel modo giusto, l'amore è nell'aria. Quando si tratta di fare le cose nel modo sbagliato, l'odio scaturisce ferocemente. Assicurati di fare ciò che è necessario per mantenere vivo l'amore e scongiurare l'odio quando si tratta di creare e mantenere un comitato consultivo per l'etica dell'IA.

Trasformiamo questo in una relazione d'amore.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-have-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/