L'etica dell'IA è sconcertata da quegli etici dell'IA che "istigano" a pratiche di IA etica

La salatura è stata nelle notizie un bel po' ultimamente.

Non mi riferisco al sale che metti nel cibo. Al contrario, sto sollevando il "salating" che è associato a una pratica provocatoria e apparentemente molto controversa associata all'interazione tra lavoro e affari.

Vedete, questo tipo di salatura comporta la circostanza in cui una persona cerca di essere assunta in un'azienda per avviare apparentemente o qualcuno potrebbe probabilmente dire istigare la creazione di un sindacato al suo interno. Le ultime notizie che parlano di questo fenomeno indicano aziende come Starbucks, Amazon e altre aziende note e anche meno conosciute.

Tratterò prima le basi della salatura e poi passerò a un argomento simile su cui potresti essere piuttosto colto alla sprovvista, vale a dire che sembra esserci una sorta di salatura in corso nel campo dell'intelligenza artificiale (AI). Ciò ha considerazioni cruciali sull'etica dell'IA. Per la mia copertura continua ed estesa dell'etica dell'IA e dell'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Ora, entriamo nei fondamenti di come funziona tipicamente la salatura.

Supponiamo che un'azienda non abbia sindacati nella sua forza lavoro. Come potrebbe un sindacato in qualche modo prendere piede in quell'azienda? Un mezzo potrebbe essere quello di agire al di fuori dell'azienda e cercare di fare appello ai lavoratori affinché aderiscano a un sindacato. Ciò potrebbe comportare l'esposizione di striscioni vicino alla sede dell'azienda o l'invio di volantini ai lavoratori o l'utilizzo dei social media e così via.

Questo è un tipo di approccio decisamente outside-in.

Un'altra strada sarebbe quella di spronare dall'interno una scintilla che potrebbe far girare la palla. Se almeno un dipendente potesse essere attivato come cheerleader per aver abbracciato un sindacato presso l'azienda, forse questo avvierebbe un'eventuale cavalcata interna di sostegno per il sindacato lì. Anche se un tale dipendente non fungesse da vero e proprio tifoso, potrebbe essere tranquillamente in grado di raccogliere sostegno interno tra i lavoratori ed essere una forza relativamente nascosta all'interno dell'organizzazione per perseguire la sindacalizzazione.

In questo modo di pensare, un sindacato potrebbe contemplare i modi in cui un tale dipendente può essere così attivato. Il sindacato potrebbe spendere infinite energie per trovare quell'ago nel pagliaio. Tra forse centinaia o migliaia di lavoratori dell'azienda, cercare di scoprire il cosiddetto prescelto, in particolare, che favorirà la sindacalizzazione potrebbe essere difficile da fare.

Sarebbe utile "scoprire" più facilmente quel lavoratore che fa scintille (o inventarlo, per così dire).

Questo ci porta all'idea voilà che forse l'azienda assume una persona del genere per un ruolo quotidiano nell'azienda. In sostanza, impiantare nell'azienda il giusto tipo di sindacato che stimoli la persona. Non è necessario cercare di appellarsi alle folle di lavoratori raccontate dall'esterno e inserire invece l'unica persona attivatrice in modo da sapere per certo che la tua scintilla è impiegata lì.

Il lavoratore appena assunto cerca quindi di instillare un interesse sindacale all'interno dell'azienda, svolgendo nel frattempo qualsiasi lavoro per cui è stato altrimenti assunto (esprimendo quello che viene spesso definito un "genuino interesse" per il lavoro). Si noti che la persona è attivamente impiegata dall'azienda e svolge attivamente il lavoro richiestole come dipendente. Nel consueto regno della salatura, non sono solo un lavoratore non specifico legato al sindacato che forse è incorporato nell'azienda.

Alcuni hanno annunciato questo approccio.

Esortano a far risparmiare tempo e risorse in termini di un sindacato che cerca di ispirare i lavoratori di un'azienda a considerare l'adesione a un sindacato. Di solito è più probabile che altri dipendenti siano disposti ad ascoltare ed essere attivati ​​da un collega. L'approccio alternativo di cercare dall'esterno di guadagnare terreno è considerato meno allettante, per cui un collega fornisce una forte motivazione ai lavoratori all'interno dell'azienda rispetto ad alcuni "estranei" che sono visti come poco più che disinteressati e indifferenti che spingono l'agenda estranei.

Non tutti sono contenti dell'approccio della salatura.

Le aziende sosterranno spesso che questa è una pratica abbondantemente subdola e disonesta. La gestalt generale dell'approccio è che una spia viene collocata nel mezzo dell'azienda. Non è quello per cui la persona è stata assunta. Presumibilmente sono stati assunti per svolgere il loro lavoro dichiarato, mentre invece, tutti gli imbrogli assortiti sembrano l'impianto diabolico di un vero cavallo di Troia.

La domanda riconvenzionale dei sindacati è che se la persona sta svolgendo il proprio lavoro dichiarato, non vi è alcun danno né fallo. Presumibilmente, un dipendente, o per così dire in qualsiasi dipendente dell'azienda, di solito può scegliere di chiedere la sindacalizzazione. Questo particolare dipendente sembra proprio volerlo fare. Il fatto che siano entrati in azienda con questa idea in mente è semplicemente qualcosa che qualsiasi dipendente appena assunto potrebbe prendere in considerazione allo stesso modo.

Aspetta un secondo, le aziende risponderanno, questo è qualcuno che dal design voleva venire in azienda allo scopo di avviare un punto d'appoggio sindacale. Questo è il loro desiderio guidato. Il neoassunto ha preso in giro il processo di assunzione e sfrutta indebitamente le sue aspirazioni di ricerca di lavoro come una mascherata pretesa a vantaggio specifico del sindacato.

Gira e gira questo discorso acceso.

Tieni presente che ci sono una miriade di considerazioni legali che sorgono in queste impostazioni. Tutti i tipi di norme e regolamenti che riguardano, ad esempio, il National Labor Relations Act (NLRA) e il National Labor Relations Board (NRLB) fanno parte di queste misure. Non voglio che tu abbia l'impressione che le cose siano semplici su questi fronti. Numerose complicazioni legali abbondano.

Dovremmo anche riflettere sulla varietà di variazioni che entrano in gioco con la salatura.

Prendi la possibilità che la persona che desidera essere assunta sia apertamente un sostenitore del sindacato durante tutto il processo di ricerca di un lavoro presso l'azienda. Questa persona potrebbe presentarsi al colloquio di lavoro con indosso una maglietta o un altro abito che dichiari chiaramente di essere a favore del sindacato. Potrebbero durante le interviste far emergere la loro speranza che un giorno l'azienda abbraccerà la sindacalizzazione. Eccetera.

In tal caso, alcuni affermerebbero che l'azienda sapeva in cosa si stava cacciando. Fin dall'inizio, l'azienda ha avuto molte indicazioni sulle intenzioni della persona. Non puoi quindi lamentarti in seguito se, dopo essere stato assunto, il nuovo dipendente farà tutto il possibile per portare il sindacato alla porta. L'azienda si è sparata, per così dire, e tutto il resto sono solo lacrime di coccodrillo.

La danza su questo però è ancora più complessa di quanto sembri. Per problemi legali che possono sorgere, qualcuno che è altrimenti qualificato per essere assunto potrebbe, se rifiutato dalla società di assunzione, sostenere di essere stato intenzionalmente trascurato a causa di un pregiudizio antisindacale da parte dell'azienda. Ancora una volta, NRLA e NRLB vengono coinvolti nella disordinata vicenda.

Ti guiderò rapidamente attraverso una sfilza di altre considerazioni che sorgono nel regno della salatura. Vorrei anche che tu sapessi che la salatura non è un fenomeno solo negli Stati Uniti. Può verificarsi anche in altri paesi. Naturalmente, le leggi e le pratiche dei paesi differiscono notevolmente, e quindi la salatura non è particolarmente utile o forse addirittura vietata in alcune località, mentre la natura della salatura potrebbe essere significativamente modificata in base ai costumi legali e culturali della stessa e potrebbe in effetti hanno ancora potenza.

Consulta il tuo amato avvocato del diritto del lavoro in qualsiasi giurisdizione di interesse ti riguardi.

Alcuni fattori aggiuntivi sulla salatura includono:

  • Essere pagato. A volte la persona viene pagata dal sindacato per svolgere il compito di essere assunta presso l'azienda. Potrebbero quindi essere pagati sia dall'azienda che dal sindacato durante il loro mandato presso l'azienda o potrebbero non essere più pagati dal sindacato una volta assunti dall'azienda.
  • Visibilità. A volte la persona mantiene il minimo o rimane del tutto silenziosa durante il processo di assunzione riguardo alle sue intenzioni sindacali, mentre in altri casi la persona è apertamente esplicita su ciò che intende fare. Un approccio apparentemente a metà è che la persona dirà cosa intende fare se richiesto esplicitamente durante le interviste, e quindi implica che spetta all'azienda scovare tali intenzioni, il che è un onere che le aziende sostengono sia subdolamente connivente e sforza i limiti legali.
  • Timing. La persona una volta assunta potrebbe decidere di aspettare per intraprendere la sua capacità sindacale. Potrebbero potenzialmente attendere settimane, mesi o addirittura anni per attivarsi. Le probabilità sono anche se è più probabile che inizieranno una volta che si saranno abituati all'azienda e avranno stabilito un punto d'appoggio personale come dipendente dell'azienda. Se iniziano immediatamente, questo potrebbe minare il loro tentativo di essere visti come un insider e lanciarli come un intruso o un outsider.
  • Passi intrapresi. A volte la persona annuncerà esplicitamente all'interno dell'azienda che ora sta cercando di abbracciare la sindacalizzazione, cosa che potrebbe accadere poco dopo essere stata assunta o verificarsi qualche tempo dopo (come da mia indicazione sopra sul fattore temporale). D'altra parte, la persona potrebbe scegliere di ricoprire un ruolo sotto copertura, fornendo informazioni al sindacato e non portando alcuna attenzione su se stessa. Questo è a volte criticato come un talpa salata, sebbene altri sottolineino che la persona potrebbe essere altrimenti soggetta a rischi interni se parlasse direttamente.
  • Godimento. Una persona che intraprende uno sforzo salatorio potrebbe finire per essere in grado di ottenere uno slancio sindacale in atto (sono un "salter"). Potrebbero potenzialmente rimanere in azienda durante tutto il processo di sindacalizzazione. Detto questo, a volte una tale persona sceglie di lasciare l'azienda che è stata avviata e sceglie di andare in un'altra azienda per ricominciare le attività scatenanti. Le discussioni su questo sono intense. Un punto di vista è che questo dimostra chiaramente che la persona non aveva nel cuore il lavoro in azienda. Il punto di vista contrastante è che è probabile che si trovino in acque torbide e forse insostenibili rimanendo nell'azienda una volta che lo sforzo di sostegno sindacale avrà preso piede.
  • Risultato. Un tentativo di salatura non garantisce un esito particolare. Potrebbe essere che la persona sensibilizzi sulla sindacalizzazione e lo sforzo prende il via, ergo è avvenuta la salatura “di successo”. Un altro risultato è che la persona non è in grado di ottenere tale trazione. Quindi rinunciano all'attività e rimangono nell'azienda, forse in attesa di un'altra possibilità in un secondo momento, oppure lasciano l'azienda e in genere cercano di fare la salatura in un'altra azienda.
  • Salterio professionista. Alcune persone si considerano forti sostenitori della salatura e sono orgogliosi di servire come salatori, per così dire. Effettuano ripetutamente la salatura, passando da un fermo all'altro mentre lo fanno. Altri lo faranno una volta sola, forse a causa di una preferenza particolare o per vedere com'è, e poi sceglieranno di non ripetere un ruolo del genere. Puoi sicuramente immaginare i tipi di pressioni personali e il potenziale stress che possono verificarsi quando sei in una capacità di salatore.

Tali fattori saranno sufficienti per ora per evidenziare la gamma e la dinamica della salatura. Rivisiterò questi fattori nel contesto dell'IA e delle considerazioni sull'IA etica.

Il succo è che alcune persone cercano di essere assunte in un'azienda per avviare o istigare l'istituzione di principi di etica dell'IA nell'azienda. Questa è la loro motivazione principale per andare a lavorare in azienda.

In un certo senso, stanno salando non ai fini della sindacalizzazione, ma invece "salando" per cercare di ottenere un'azienda radicata nei precetti dell'IA etica.

Dirò molto di più su questo momentaneamente.

Prima di entrare in un altro po' di carne e patate sulle considerazioni selvagge e lanose alla base della salatura in un contesto di intelligenza artificiale, esponiamo alcuni fondamenti aggiuntivi su argomenti profondamente essenziali. Dobbiamo fare un breve tuffo nell'etica dell'IA e in particolare nell'avvento del Machine Learning (ML) e del Deep Learning (DL).

Potresti essere vagamente consapevole del fatto che una delle voci più forti in questi giorni nel campo dell'IA e anche al di fuori del campo dell'IA consiste nel chiedere a gran voce una maggiore parvenza di IA etica. Diamo un'occhiata a cosa significa fare riferimento a AI Ethics e Ethical AI. Inoltre, esploreremo cosa intendo quando parlo di Machine Learning e Deep Learning.

Un particolare segmento o porzione dell'etica dell'intelligenza artificiale che ha ricevuto molta attenzione da parte dei media è costituito dall'intelligenza artificiale che mostra pregiudizi e disuguaglianze spiacevoli. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tra un momento, condividerò con voi alcuni principi generali alla base dell'etica dell'IA. Ci sono molti di questi tipi di elenchi che fluttuano qua e là. Si potrebbe dire che non esiste ancora un unico elenco di attrattive universali e di concorrenza. Questa è la sfortunata notizia. La buona notizia è che almeno ci sono elenchi di etica dell'IA prontamente disponibili e tendono ad essere abbastanza simili. Tutto sommato, questo suggerisce che attraverso una sorta di convergenza ragionata stiamo trovando la nostra strada verso una comunanza generale di ciò in cui consiste l'etica dell'IA.

Innanzitutto, esaminiamo brevemente alcuni dei precetti generali dell'IA etica per illustrare ciò che dovrebbe essere una considerazione vitale per chiunque crei, utilizzi o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, comprese metodologie trasparenti e verificabili, fonti di dati, procedure e documentazione di progettazione.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Assicuriamoci anche di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Torniamo al nostro focus sulla salatura in un contesto di intelligenza artificiale.

In primo luogo, stiamo rimuovendo qualsiasi parvenza di elemento di sindacalizzazione dalla terminologia della salatura e utilizziamo invece solo la salatura come paradigma o approccio generalizzato come modello. Quindi, per favore, metti da parte le sfaccettature relative al sindacato ai fini di questa discussione sulla salatura relativa all'IA.

In secondo luogo, come accennato in precedenza, la salatura in questo contesto di intelligenza artificiale implica che alcune persone potrebbero cercare di essere assunte in un'azienda per avviare o istigare l'istituzione dei principi di etica dell'intelligenza artificiale nell'azienda. Questa è la loro motivazione principale per andare a lavorare in azienda.

Per chiarire, ce ne sono davvero molti che vengono assunti in un'azienda e hanno già in mente che AI ​​Ethics è importante. Questo però non è in prima linea nella loro base per cercare di essere assunti dalla particolare azienda di interesse. In sostanza, verranno assunti per svolgere una sorta di lavoro di sviluppo o distribuzione dell'IA e per questo portano a portata di mano una forte convinzione nell'IA etica.

Quindi lavoreranno al meglio per infondere o ispirare considerazioni sull'etica dell'IA nell'azienda. Buon per loro. Abbiamo bisogno di più che lo abbiano come un desiderio profondamente sincero.

Ma non è la salatura a cui alludo qui. Immagina che qualcuno scelga un'azienda in particolare che sembra non fare molto se non altro in relazione all'adozione dell'etica dell'IA. La persona decide che verrà assunta da quell'azienda se può farlo in qualche lavoro quotidiano di intelligenza artificiale (o forse anche in un ruolo non di intelligenza artificiale), e quindi il suo obiettivo principale sarà quello di installare o istigare i principi dell'etica dell'intelligenza artificiale nel azienda. Questo non è il loro dovere di lavoro principale e non è nemmeno elencato tra i loro doveri di lavoro (lo menziono perché, ovviamente, se uno viene assunto per realizzare intenzionalmente l'etica dell'IA non sta "salando" nel modo di connotazione e parvenza qui).

Questa persona non si preoccupa particolarmente del lavoro di per sé. Certo, faranno qualunque cosa il lavoro consista, e presumibilmente sono adeguatamente qualificati per farlo. Nel frattempo, il loro vero obiettivo è stimolare l'IA etica a diventare parte integrante dell'azienda. Questa è la missione. Questo è l'obiettivo. Il lavoro stesso è semplicemente un mezzo o un veicolo per consentire loro di farlo dall'interno.

Si potrebbe dire che potrebbero fare lo stesso dall'esterno dell'azienda. Potrebbero provare a fare pressioni sui team di intelligenza artificiale dell'azienda per essere più coinvolti nell'etica dell'intelligenza artificiale. Potrebbero provare a far vergognare l'azienda a farlo, magari pubblicando sui blog o adottando altre misure. E così via. Il fatto è che sarebbero ancora degli estranei, proprio come sottolineato in precedenza quando si discuteva della premessa generale della salatura.

La persona che sala l'IA è ingannevole?

Ci viene nuovamente in mente la stessa domanda posta sul contesto sindacale della salatura. La persona potrebbe insistere sul fatto che non c'è alcun inganno. Sono stati assunti per fare un lavoro. Stanno facendo il lavoro. Succede solo che in aggiunta sono un sostenitore interno dell'etica dell'IA e lavorano potentemente per convincere gli altri a fare lo stesso. Nessun danno nessun inganno.

Probabilmente farebbero anche notare che non c'è alcun particolare aspetto negativo nel loro spronare l'azienda verso l'IA etica. Alla fine, ciò aiuterà l'azienda a evitare potenzialmente azioni legali che altrimenti potrebbero sorgere se l'IA viene prodotta che non rispetta i precetti dell'etica dell'IA. Stanno così salvando l'azienda da se stessa. Anche se alla persona forse non interessa particolarmente fare il lavoro a portata di mano, lo stanno facendo e allo stesso tempo stanno rendendo l'azienda più saggia e sicura tramite una forte spinta verso l'IA etica.

Aspetta un secondo, qualche replica, questa persona è falsa. Apparentemente stanno per saltare la nave una volta che si verificherà l'abbraccio dell'etica dell'IA. Il loro cuore non è nell'azienda né nel lavoro. Stanno usando l'azienda per portare avanti la propria agenda. Certo, l'agenda sembra abbastanza buona, cercare di avere l'IA etica in cima alla mente, ma questo può andare troppo oltre.

Vedete, l'argomento va ulteriormente che la ricerca dell'etica dell'IA potrebbe diventare eccessivamente zelante. Se la persona venisse per avviare l'IA etica, potrebbe non guardare un quadro più ampio di ciò con cui l'azienda ha a che fare in generale. Ad esclusione di tutto il resto, questa persona potrebbe distrarre miope l'azienda e non essere disposta a consentire l'adozione dell'etica dell'IA su base ragionata e a un ritmo prudente.

Potrebbero diventare un malcontento dirompente che litiga continuamente su dove si trova l'azienda in termini di precetti dell'IA etica. Altri sviluppatori di intelligenza artificiale potrebbero essere distratti dalle chiacchiere a melodia singola. Inserire l'etica dell'IA nel mix è certamente sensato, anche se la teatralità e altre potenziali interruzioni all'interno dell'azienda possono ostacolare il progresso dell'IA etica piuttosto che aiutarlo.

In tondo andiamo.

Ora possiamo rivisitare quei fattori aggiuntivi sulla salatura che ho precedentemente offerto:

  • Essere pagato. È ipotizzabile che la persona possa essere inizialmente pagata da qualche entità che vuole convincere un'azienda ad abbracciare l'etica dell'intelligenza artificiale, forse con l'obiettivo di farlo in modo innocuo o forse per vendere all'azienda un particolare insieme di strumenti o pratiche di etica dell'intelligenza artificiale. Generalmente improbabile, ma degno di nota.
  • Visibilità. La persona potrebbe non sollevare in modo particolare la propria missione devozionale sull'etica dell'intelligenza artificiale durante il processo di assunzione. In altri casi, potrebbero assicurarsi che sia in primo piano e al centro, in modo tale che l'azienda assumente capisca senza alcuna ambiguità riguardo alla loro devota attenzione. Tuttavia, è più probabile che questo venga espresso come se l'etica dell'IA fosse una preoccupazione secondaria e che il lavoro fosse la loro preoccupazione principale, piuttosto che il contrario.
  • Timing. La persona una volta assunta potrebbe decidere di aspettare per intraprendere i suoi inizi di etica dell'IA. Potrebbero potenzialmente attendere settimane, mesi o addirittura anni per attivarsi. Le probabilità sono anche se è più probabile che inizieranno una volta che si saranno abituati all'azienda e avranno stabilito un punto d'appoggio personale come dipendente dell'azienda. Se iniziano immediatamente, questo potrebbe minare il loro tentativo di essere visti come un insider e lanciarli come un intruso o un outsider.
  • Passi intrapresi. A volte la persona annuncerà esplicitamente all'interno dell'azienda che ora sta cercando di attirare l'attenzione sull'etica dell'IA, cosa che potrebbe accadere poco dopo essere stata assunta o verificarsi poco dopo (come da mia indicazione sopra sul fattore temporale). D'altra parte, la persona potrebbe scegliere di ricoprire un ruolo sotto copertura, lavorando in silenzio all'interno dell'azienda e senza prestare particolare attenzione a se stessa. Potrebbero anche fornire informazioni alla stampa e ad altri estranei su quali omissioni o fallimenti di AI Ethics si verificano all'interno dell'azienda.
  • Godimento. Una persona che intraprende uno sforzo di salatura potrebbe finire per essere in grado di ottenere uno slancio dell'etica dell'IA. Potrebbero potenzialmente rimanere in azienda durante tutto il processo di adozione dell'IA etica. Detto questo, a volte una tale persona sceglie di lasciare l'azienda che è stata avviata e sceglie di andare in un'altra azienda per ricominciare le attività scatenanti. Le discussioni su questo sono intense. Un punto di vista è che questo dimostra chiaramente che la persona non aveva nel cuore il lavoro in azienda. Il punto di vista contrastante è che è probabile che si trovino in acque torbide e forse insostenibili rimanendo nell'azienda se ora vengono etichettati come voci alte o piantagrane.
  • Risultato. Un tentativo di salatura non garantisce un esito particolare. Potrebbe essere che la persona aumenti la consapevolezza sull'IA etica e lo sforzo abbia preso il via, ergo è avvenuta una salatura "di successo". Un altro risultato è che la persona non è in grado di ottenere tale trazione. Quindi rinunciano all'attività e rimangono nell'azienda, forse in attesa di un'altra possibilità in un secondo momento, oppure lasciano l'azienda e in genere cercano di fare la salatura in un'altra azienda.
  • Salterio professionista. Alcune persone potrebbero considerarsi un forte sostenitore della salatura dell'etica dell'IA e sono orgogliosi di servire come salatori, per così dire. Effettuano ripetutamente la salatura, passando da un fermo all'altro mentre lo fanno. Altri potrebbero farlo una volta sola, forse a causa di una preferenza particolare o per vedere com'è, e poi scegliere di non ripetere un ruolo del genere. Puoi sicuramente immaginare i tipi di pressioni personali e il potenziale stress che possono verificarsi quando sei in una capacità di salatore.

Rimarrà da vedere se questo tipo di salatura orientata all'etica dell'IA prenderà piede. Se le aziende sono lente nel promuovere l'IA etica, ciò potrebbe indurre ferventi etici dell'IA a intraprendere sforzi salati. Potrebbero non rendersi conto direttamente che stanno salando. In altre parole, qualcuno va alla compagnia X e cerca di ottenere trazione per AI Ethics, forse lo fa e si rende conto che dovrebbe fare lo stesso altrove. Quindi passano alla compagnia Y. Risciacquare e ripetere.

Ancora una volta, l'enfasi è che l'adozione dell'etica dell'IA è la loro priorità assoluta. Ottenere il lavoro è secondario o nemmeno particolarmente importante, oltre a poter entrare e fare gli sforzi privilegiati di salatura relativi all'IA etica.

Aggiungo anche che coloro che studiano e analizzano gli aspetti dell'etica dell'IA ora hanno un'aggiunta in qualche modo nuova agli argomenti delle attività di ricerca sull'IA etica:

  • Questi sforzi di salatura dell'etica dell'IA dovrebbero essere nel complesso condonati o evitati?
  • Cosa spinge coloro che vorrebbero eseguire la salatura in questo contesto di intelligenza artificiale?
  • Come dovrebbero reagire le aziende a un atto percepito di alterazione del contesto dell'IA?
  • Ci saranno metodologie escogitate per incoraggiare la salatura relativa all'IA come questa?
  • Etc.

In una certa misura, ecco perché AI Ethics and Ethical AI è un argomento così cruciale. I precetti di AI Ethics ci portano a rimanere vigili. I tecnologi dell'IA possono a volte interessarsi alla tecnologia, in particolare all'ottimizzazione dell'alta tecnologia. Non stanno necessariamente considerando le più ampie ramificazioni della società. Avere una mentalità etica dell'IA e farlo integralmente allo sviluppo e alla messa in campo dell'IA è fondamentale per produrre un'IA appropriata, inclusa (forse sorprendentemente o ironicamente) la valutazione di come l'etica dell'IA viene adottata dalle aziende.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. In effetti, avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società.

A questo punto di questa pesante discussione, scommetto che sei desideroso di alcuni esempi illustrativi che potrebbero mostrare questo argomento. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sulla salatura correlata all'IA e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e salatura dell'etica dell'IA

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Spero che ciò fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Descriviamo uno scenario che mostra una situazione di salatura relativa all'IA.

Una casa automobilistica che si sta impegnando per lo sviluppo di auto a guida autonoma completamente autonoma si sta precipitando avanti con le prove su strade pubbliche. L'azienda è sottoposta a forti pressioni per farlo. Sono osservati dal mercato e se non sembrano essere all'avanguardia nello sviluppo delle auto a guida autonoma, il loro prezzo delle azioni ne risente di conseguenza. Inoltre, hanno già investito miliardi di dollari e gli investitori stanno diventando impazienti per il giorno in cui la società sarà in grado di annunciare che le loro auto a guida autonoma sono pronte per l'uso commerciale quotidiano.

Uno sviluppatore di intelligenza artificiale sta osservando da lontano gli sforzi della casa automobilistica. I casi segnalati in cui il sistema di guida dell'IA si confonde o commette errori vengono sempre più visti nelle notizie. Vari casi includono collisioni con altre auto, collisioni con ciclisti e altri incidenti gravi.

L'azienda generalmente cerca di mantenere questo silenzio. Lo sviluppatore di intelligenza artificiale ha parlato in privato con alcuni degli ingegneri dell'azienda e ha appreso che i precetti dell'etica dell'intelligenza artificiale vengono offerti solo a parole, nella migliore delle ipotesi. Per la mia copertura su tali questioni relative all'elusione dell'IA etica da parte delle aziende, vedere il link qui.

Cosa farà questo sviluppatore di intelligenza artificiale?

Si sentono in dovere di fare qualcosa.

Facciamo un piccolo sforzo di biforcazione e consideriamo due percorsi che ciascuno potrebbe essere intrapreso da questo sviluppatore di intelligenza artificiale.

Un percorso è che lo sviluppatore di intelligenza artificiale si rivolge ai media per cercare di portare alla luce l'apparente mancanza di un'adeguata attenzione ai precetti di etica dell'IA da parte della casa automobilistica. Forse questo specialista dell'IA preoccupato sceglie di scrivere blog o creare vlog per evidenziare queste preoccupazioni. Un'altra possibilità è che convincano un membro esistente del team di intelligenza artificiale a diventare una specie di informatore, un argomento che ho trattato in il link qui.

Questo è decisamente un approccio considerato da outsider da parte di questo sviluppatore di intelligenza artificiale.

Un altro percorso è che lo sviluppatore di intelligenza artificiale crede nel suo istinto che potrebbe essere in grado di ottenere di più dall'interno dell'azienda. Il set di competenze dello sviluppatore di intelligenza artificiale è ben sintonizzato nelle sfaccettature dell'IA che coinvolgono le auto a guida autonoma e possono prontamente candidarsi per le offerte di lavoro di ingegnere di intelligenza artificiale pubblicate presso l'azienda. Lo sviluppatore AI decide di farlo. Inoltre, lo slancio si concentra esclusivamente sul far sì che la casa automobilistica sia più seria riguardo all'IA etica. Il lavoro in sé non è particolarmente importante per questo sviluppatore di intelligenza artificiale, a parte il fatto che ora saranno in grado di lavorare in modo persuasivo dall'interno.

Potrebbe essere che lo sviluppatore di IA ottenga il lavoro, ma poi scopra che c'è un'enorme resistenza interna e l'obiettivo dell'IA etica è inutile. La persona lascia l'azienda e decide di puntare su un'altra casa automobilistica che potrebbe essere più disposta a comprendere ciò che lo sviluppatore di intelligenza artificiale mira a raggiungere. Ancora una volta, lo stanno facendo per raggiungere in modo mirato le considerazioni sull'etica dell'IA e non per il pilastro di qualunque cosa consista il lavoro dell'IA.

Conclusione

L'idea di riferirsi a questi sforzi relativi all'IA come una forma di salatura è destinata a causare il bruciore di stomaco ad alcuni per l'uso eccessivo di una terminologia o di un vocabolario già stabiliti. Salting è praticamente radicato nelle attività di sindacalizzazione legate al lavoro e agli affari. I tentativi di sovraccaricare la parola con questi altri tipi di attività apparentemente simili, sebbene di natura completamente estranea alla sindacalizzazione, sono potenzialmente fuorvianti e confondenti.

Supponiamo di trovare una fraseologia diversa.

Pepare?

Bene, questo non sembra evocare lo stesso sentimento della salatura. Sarebbe una battaglia in salita cercare di ottenere ciò stabilito e incluso nel nostro lessico linguistico quotidiano.

Qualunque cosa ci venga in mente, e qualunque denominazione o slogan sembri adatto, sappiamo una cosa per certo. Cercare di convincere le aziende ad abbracciare l'etica dell'IA è ancora una battaglia in salita. Dobbiamo provare. Il tentativo deve essere fatto nel modo giusto.

Sembra che non importa da quale parte della recinzione cadi, dobbiamo prendere quell'ammonimento con le dovute precauzioni.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/