L'etica dell'IA turbata dall'ultima Cina ideata dall'IA Fedeltà al partito Lettura della mente Riconoscimento facciale Attestazione che potrebbe prefigurare sistemi autonomi oppressivi

Sei leale?

In teoria, potrebbe essere possibile esaminare le tue azioni manifeste e accertare se le tue azioni mostrano lealtà.

Supponiamo però che invece ci sia stato un tentativo di leggere la tua mente e intanto scansionarti il ​​viso per determinare il tuo quoziente di fedeltà. Questo è stranamente invadente; potresti prontamente denigrare. Sembra uno di quei folli film di fantascienza che immaginano una futura società distopica.

Per fortuna, sussurri furtivamente a te stesso, oggi non abbiamo niente del genere.

Whoa, tieni i tuoi cavalli.

I titoli delle notizie hanno recentemente esultato che un documento di ricerca pubblicato online in Cina il 1 luglio 2022, descriveva uno studio che presumibilmente implicava una valutazione delle onde cerebrali delle persone e delle loro espressioni facciali ai fini del calcolo della fedeltà al Partito Comunista Cinese (PCC) . Quindi, ecco qua, il futuro si sta avvicinando sempre di più, almeno in termini di raggiungimento della società distopica che temevamo potesse sorgere un giorno.

Il documento di ricerca è rapidamente scomparso dal link pubblicato online.

Presumibilmente, il rapido disprezzo che si è diffuso rapidamente su Internet è stato sufficiente per far rimuovere il giornale. O forse i ricercatori vogliono solo apportare alcune modifiche alla formulazione e altre correzioni innocue, con l'obiettivo di ripubblicare una volta che hanno avuto una possibilità più approfondita per assicurarsi che le i siano tratteggiate e le t siano tutte incrociate. Dovremo tenere gli occhi aperti per vedere se il giornale avrà una seconda vita.

Andrò avanti e approfondirò ciò che sappiamo sullo studio di ricerca e cercherò di collegare i punti su come questo tipo di lavoro relativo all'IA abbia un significato per tutti noi, andando ben oltre lo scopo di vedere questo in quanto confinato in un determinato paese. La mia copertura sarà un po' più ampia rispetto agli altri recenti rapporti su questo articolo degno di nota, quindi per favore abbiate pazienza.

Anche la mia enfasi aggiunta sarà che c'è una sfilza di lezioni vitali sull'etica dell'IA che possiamo trarre dal presunto documento. Per la mia copertura continua ed estesa dell'etica dell'IA e dell'IA etica, vedere il link qui ed il link qui, solo per citarne alcuni.

Ecco cosa è stato finora menzionato sullo studio di ricerca.

Apparentemente, alcuni “volontari” sono stati reclutati per partecipare a un esperimento sulle percezioni del PCC. Non è noto se fossero volontari volontari o più simili a volontari pungolati o forse guidati. Assumeremo per amor di discussione che fossero d'accordo a essere un soggetto nello studio.

Lo sollevo per non essere semplicemente viscido. Ogni volta che viene fatto un esperimento che coinvolge soggetti umani, ci sono una pletora di pratiche generalmente accettate per quanto riguarda il reclutamento e l'immersione di tali soggetti in uno sforzo di ricerca. Ciò risale in parte a studi precedenti che spesso ingannavano o costringevano le persone a impegnarsi in un esperimento, portando a volte ripercussioni psicologiche negative o persino danni fisici per quei partecipanti. La comunità scientifica ha cercato con forza di limitare questi tipi di studi insidiosi e richiede che tutti i tipi di rivelazioni e avvertimenti siano forniti a coloro che cercano l'inclusione negli studi relativi all'uomo.

Per chiarire, non tutti si attengono a linee guida così prudenti e coscienziose.

Andando avanti, secondo quanto riferito, c'erano 43 soggetti e si diceva che fossero membri del Partito Comunista Cinese. Tieni presente che la selezione dei soggetti per un esperimento è piuttosto cruciale per l'esperimento e deve anche essere presa in considerazione in merito a qualsiasi conclusione che potresti cercare di raggiungere in seguito sui risultati dell'esperimento.

Supponiamo che io voglia fare un esperimento su come le persone percepiscono l'acclamata serie di Star Wars. Se preseleziono soggetti che tutti odiano clamorosamente Star Wars (come possono esistere queste persone?) e mostro loro video clip di Star Wars, è probabile che probabilmente diranno che non gli piace ancora Star Wars. Basandomi su questo esperimento pseudo-scientifico, forse affermo subdolamente che le persone - in generale - odiano davvero Star Wars, cosa che è stata "provata" (strizzatina d'occhio) nel mio ambiente di ricerca "accuratamente" preparato.

Potreste non sapere che avevo truccato la ruota della roulette, per così dire, preselezionando i soggetti che prevedevo avrebbero prodotto i risultati surrettiziamente desiderati. Ovviamente, se avessi invece reclutato intenzionalmente persone che amavano Star Wars ed erano fan zelanti e accaniti, è probabile che avrebbero riferito di essere estasiati nel guardare quei clip di Star Wars. Ancora una volta, qualsiasi conclusione raggiunta su come le persone, in generale, reagiscono a Star Wars sarebbe mitigata dall'insieme preselezionato di soggetti scelti per lo sforzo.

Lo studio incentrato sul PCC ha apparentemente fatto sedere i soggetti di fronte a un display video simile a un chiosco e leggere vari articoli sulle politiche e sui risultati del PCC. Questo è probabilmente il “trattamento sperimentale” considerato a cui i soggetti sono esposti. Quando pianifichi un esperimento, di solito trovi un fattore o un aspetto sperimentale che vuoi vedere se ha un impatto sui partecipanti.

La domanda di ricerca apparentemente esplorata era se l'atto di rivedere questi materiali avrebbe avuto un impatto sui soggetti in termini di aumento, diminuzione o neutralità rispetto alle loro successive impressioni sul PCC.

In una classica ipotesi nulla, si potrebbe organizzare tale studio per affermare che i materiali consumati non hanno alcun impatto sulle successive impressioni espresse dai soggetti. Dopo aver confrontato prima e dopo i loro punti di vista sul PCC, provereste statisticamente a vedere se c'è stato un rilevamento statisticamente significativo di un cambiamento nelle loro impressioni.

Potrebbe essere che il prima e il dopo non siano statisticamente diversi, quindi si potrebbe ragionevolmente concludere che per questo particolare studio i materiali visualizzati (trattamento sperimentale) non sembrano fare la differenza nelle loro impressioni. D'altra parte, se ci fosse una differenza statisticamente valida, cercheresti di vedere se il dopo è maggiore del prima, permettendoti di suggerire con cautela che i materiali hanno potenziato le loro impressioni (e, dall'altro lato della medaglia, se il dopo era inferiore al prima, ciò potrebbe implicare che i materiali diminuissero o abbassassero le loro impressioni).

Ci sono molte questioni in sospeso fastidiose che dovrebbero essere affrontate in uno studio del genere.

Ad esempio, di solito vogliamo avere un cosiddetto gruppo di controllo che possiamo confrontare con quelli che ricevono il trattamento sperimentale. Ecco perché. Supponiamo che l'atto di sedersi davanti a un chiosco per leggere i materiali sia la vera base per cui le impressioni sono state modificate. Potrebbe essere che la natura dei materiali consumati sia approssimativamente irrilevante per l'impatto dell'impressione. Il semplice sedersi e leggere qualsiasi cosa, come le ultime storie sui gatti che fanno cose divertenti, da solo potrebbe fare il trucco. Potremmo quindi fare in modo che alcuni soggetti siano nel nostro gruppo di controllo che è esposto ad altro materiale da leggere, diverso dalle politiche del PCC e dai materiali sui risultati.

Non sappiamo se ciò sia stato fatto in questo caso (sembra che nessuno abbia ancora menzionato questo aspetto).

Mi rendo conto che ormai ti stai innervosendo per la parte esplosiva mediatica dello studio. Ci sposteremo rapidamente in quella parte.

Come possiamo rilevare se i soggetti in questo esperimento hanno risposto o alterato le loro impressioni a seguito della lettura dei materiali visualizzati?

Un mezzo consueto sarebbe chiederglielo.

Avresti forse somministrato in anticipo un questionario che chiede loro le loro impressioni sul PCC. Quindi, a seguito dell'esposizione al trattamento sperimentale, come nella lettura dei materiali esposti, potremmo somministrare un altro questionario. Le risposte fornite dai soggetti su una base prima e dopo potrebbero quindi essere confrontate. Se stessimo usando anche un gruppo di controllo, assumiamo che le risposte del gruppo di controllo non cambierebbero sostanzialmente dal prima al dopo (nella convinzione che guardare le storie sui gatti che si divertono non avrebbe dovuto avere un impatto sulle loro impressioni sul PCC).

Questo atto di chiedere ai soggetti le loro impressioni non è necessariamente così semplice come potrebbe sembrare.

Supponiamo che i soggetti nell'esperimento abbiano la sensazione o la deriva generale che desideri che rispondano al trattamento sperimentale in un modo particolare. In tal caso, potrebbero sopravvalutare di proposito le loro reazioni nella parte successiva della somministrazione sperimentale. Sicuramente l'hai visto accadere. Se sto facendo un test di assaggio per una nuova bibita in arrivo sul mercato, potrei comportarmi come se mi fossi gustato selvaggiamente, nella speranza di essere magari inserito in una pubblicità del produttore di bibite e ottenere i miei meritati quindici minuti di fama .

Il succo è che chiedere semplicemente alle persone le loro opinioni non è un mezzo infallibile per valutare i cambiamenti. È un approccio. Altri approcci potrebbero e sono spesso intrapresi.

In che modo questo particolare studio ha scelto di valutare le reazioni dei soggetti?

Apparentemente, sono stati utilizzati almeno due metodi. Un metodo consisteva nell'eseguire una scansione facciale e nell'utilizzare un software di riconoscimento facciale basato sull'intelligenza artificiale per valutare le reazioni dei soggetti. Secondo quanto riferito, l'altro metodo era una qualche forma di scansione delle onde cerebrali. Non è stato ancora segnalato quale tipo di dispositivi di scansione delle onde cerebrali siano stati utilizzati, né quale tipo di software di analisi delle onde cerebrali basato sull'intelligenza artificiale sia stato impiegato.

Vari rapporti hanno indicato che lo studio ha affermato questo sulla natura dell'esperimento: "Da un lato, può giudicare come i membri del partito hanno accettato il pensiero e l'educazione politica". E lo studio avrebbe menzionato anche questo: "D'altra parte, fornirà dati reali per il pensiero e l'educazione politica in modo che possa essere migliorato e arricchito". Lo studio di ricerca è stato attribuito all'esecuzione sotto gli auspici dell'Hefei Comprehensive National Science Center in Cina.

I resoconti dei media suggeriscono che lo studio alludesse a un'affermazione secondo cui le scansioni di riconoscimento facciale e le scansioni delle onde cerebrali sono state in grado di aiutare a rilevare che le impressioni successive sono state potenziate sul PCC.

Vorrei sottolineare per voi che senza essere in grado di rivedere direttamente i sistemi utilizzati ed esaminare da vicino il documento di ricerca, non conosciamo i dettagli di come quei sistemi basati sull'intelligenza artificiale siano stati utilizzati esattamente.

Potrebbe essere che i soggetti stessero reagendo al contesto sperimentale piuttosto che reagire al trattamento sperimentale. Chiunque partecipi a uno studio potrebbe essere ansioso, tanto per cominciare. Ciò potrebbe confondere qualsiasi tentativo di eseguire scansioni delle onde cerebrali o analisi del modello facciale. C'è anche la possibilità che si siano sentiti motivati ​​a compiacere i ricercatori, scegliendo di inventare pensieri positivi dopo aver visto i materiali e questo potrebbe in teoria riflettersi nelle scansioni delle onde cerebrali e nelle scansioni facciali (forse, anche se per favore sappiate che c'è un grande tratta di un'appassionata controversia sulla validità di tali contese, come illustrerò momentaneamente), sperando di falsare i risultati e mostrare che hanno avuto un impatto positivo.

La reazione di Twitter ha sostanzialmente denunciato che l'idea stessa di utilizzare scansioni delle onde cerebrali e riconoscimento facciale potenziate dall'intelligenza artificiale è di per sé un atto spaventoso e oltraggioso. Solo i mostri umani userebbero quel tipo di dispositivi, ci viene detto da alcuni di quei tweet.

Devo chiederti di sederti e prepararti per qualcosa che potrebbe essere una sorpresa scortese e scioccante.

Ci sono molti ricercatori in tutto il mondo che utilizzano lo stesso tipo di tecnologie nei loro studi di ricerca. Questa non è certamente la prima volta che una capacità di scansione delle onde cerebrali è stata utilizzata su soggetti umani in uno sforzo di ricerca. Questa non era certamente la prima volta che il riconoscimento facciale veniva utilizzato su soggetti umani per scopi sperimentali. Anche una ricerca superficiale online ti mostrerà moltissimi studi sperimentali in tutti i paesi e laboratori che hanno utilizzato questi tipi di dispositivi.

Detto questo, usarli per valutare la lealtà al PCC non è qualcosa su cui ti concentreresti molto. Quando tale IA viene utilizzata per il controllo governativo, una linea rossa è stata superata, come si suol dire.

Questa è la parte ovviamente agghiacciante dell'intero kit e cabodle.

La preoccupazione espressa da molti è che se i governi scelgono di utilizzare la tecnologia di scansione delle onde cerebrali e il riconoscimento facciale per accertare la lealtà ai regimi in atto, ci ritroveremo in un mondo distopico di dolore. Quando cammini per una strada pubblica, potrebbe essere che un dispositivo montato su un lampione determini clandestinamente il tuo quoziente di fedeltà.

Si suppone che se la tua faccia non sembra suggerire che sei sufficientemente leale, o se la scansione delle onde cerebrali suggerisce lo stesso, i delinquenti del governo potrebbero improvvisamente precipitarsi e afferrarti. Snervante. Abissale. Non deve essere consentito.

Questo è il punto cruciale del motivo per cui un titolo travolgente e indignato è sorto su questa notizia.

Immagina questo. Probabilmente creeremo e poi metteremo in uso sistemi basati su computer che utilizzano le ultime novità in fatto di intelligenza artificiale per decidere se siamo fedeli o meno. Se cercassi di assumere persone che si siedano e facciano lo stesso, avresti bisogno di molte persone e avresti un problema logistico nel cercare di posizionarle in modo da tenere d'occhio tutti. Nel caso di un sistema basato sull'intelligenza artificiale, tutto ciò che devi fare è installare i dispositivi elettronici su lampioni, lati di edifici e così via. La scansione per la fedeltà può avvenire 24 ore su 7, XNUMX giorni su XNUMX, in qualsiasi momento, in tutti i luoghi così attrezzati. Questo può quindi essere inserito in un enorme database.

Diventiamo esseri umani che sono semplici ingranaggi in un ecosistema oppressivo sociale onniveggente e onnipresente. L'occhio che vede non è solo guardare ciò che facciamo. Significa anche interpretare ciò che i nostri volti affermano di dire sulla nostra lealtà al governo. Allo stesso modo, le nostre menti devono essere esaminate per una simile terribile causa.

Yikes!

C'è una preoccupazione secondaria che deriva anche da questo, anche se forse non così spinosa rispetto alle implicazioni del Grande Fratello come già abbozzato.

Rifletti su queste due domande urgenti:

  • Possiamo affermare in modo affidabile che una scansione delle onde cerebrali può attestare la tua lealtà?
  • Possiamo affermare in modo affidabile che una scansione di riconoscimento facciale può attestare la tua lealtà?

Aspetta lì, potresti urlare a squarciagola.

Mi rendo conto e riconosco che potresti non preoccuparti tanto degli aspetti di affidabilità di per sé. Se questo può essere fatto in modo affidabile è meno cruciale del fatto che venga fatto. Nessuno dovrebbe essere sottoposto a tale controllo. Dimentica se la tecnologia funziona adeguatamente per questo compito. Non dovremmo intraprendere il compito all'inizio.

In ogni caso, la risposta in questo momento è un sonoro no, vale a dire che i sistemi di intelligenza artificiale esistenti che fanno qualsiasi parvenza di "scansioni delle onde cerebrali" e riconoscimento facciale non sono sufficientemente in grado di fare quel salto.

Forse hai visto di recente che alcuni dei produttori di riconoscimento facciale hanno fatto qualche passo indietro in termini di come vengono utilizzati i loro sistemi di riconoscimento facciale. In un prossimo articolo, parlerò dei recenti sforzi, ad esempio di Microsoft, per cercare di arginare la marea di coloro che utilizzano gli strumenti di riconoscimento facciale forniti da Microsoft per scopi ben oltre ciò che la tecnologia è in grado di fare o per cui dovrebbe essere utilizzata . Potresti trovare interessante il mio precedente sguardo ai dubbi sull'etica dell'IA che sono già stati ben pubblicizzati sul riconoscimento facciale, vedi il link qui. Ho anche discusso dell'arena delle scansioni cerebrali, vedi la mia discussione su il link qui.

In breve, non ci sono ancora mezzi affidabili o sensati per suggerire che una scansione delle onde cerebrali o una scansione del riconoscimento facciale possano pretendere di rappresentare la lealtà di qualcuno. Anche aspetti presumibilmente di base come se è possibile correlare in modo affidabile tali scansioni al fatto che qualcuno sia felice o triste sono ancora oggetto di accesi dibattiti. Cercare di alzare la posta verso qualcosa di amorfo e variabile come la lealtà è un ponte troppo lontano.

Potrei aggiungere che alcuni credono ardentemente che alla fine ci arriveremo. Ecco perché ho cercato con attenzione di notare che non ci siamo ancora, piuttosto che affermare che non ci arriveremo mai. Mai è una parola grossa. Devi essere assolutamente certo se hai intenzione di girare che questo lo farà mai essere fattibile (tenendo presente che "mai" comprende decenni tra decenni, secoli da oggi e migliaia o milioni di anni da oggi).

Alcuni hanno reagito alla notizia di questo studio di ricerca di laboratorio cinese come indicatore di quanto pericolosamente il mondo stia virando verso usi inappropriati e pericolosi dell'IA. Condividerò momentaneamente con voi un assaggio di ciò che è AI Ethics. Questo ti aiuterà a vedere in modo più vivido perché questo particolare studio sembra violare molti, se non quasi tutti, i precetti generalmente accettati dell'IA etica.

Che ci crediate o no, alcuni hanno suggerito che forse stiamo facendo una montagna da un cumulo di talpe riguardo a questo particolare studio.

Siamo noi?

La controargomentazione è che un cumulo di talpe può presto diventare una montagna. Nella proverbiale nozione di una palla di neve che diventa sempre più grande mentre rotola giù da una collina innevata, dobbiamo impedire che la palla di neve prenda il via. Se tolleriamo questo tipo di studi, lasciamo che quella palla di neve inizi il suo viaggio. Parlando apertamente e invocando tali studi, forse possiamo prevenire la valanga.

Una cosa è certa, siamo sul punto di aprire il vaso di Pandora per quanto riguarda gli aspetti dell'IA, e resta la domanda se possiamo impedire l'apertura della scatola o almeno trovare qualche mezzo per affrontare con prudenza tutto ciò che viene fuori una volta che la scatola ha liberato il suo diabolico contenuto.

Se non altro, si spera, questo tipo di tempeste mediatiche susciterà una discussione diffusa su come prevenire le malefatte legate all'IA ed evitare numerosi rischi esistenziali innescati dall'IA. Dobbiamo aumentare la nostra consapevolezza sociale dell'etica dell'IA e delle considerazioni sull'IA etica.

Prima di entrare in un altro po' di carne e patate sulle considerazioni selvagge e lanose alla base di questo tipo di sistemi di intelligenza artificiale, stabiliamo alcuni fondamenti aggiuntivi su argomenti profondamente essenziali. Dobbiamo fare un breve tuffo nell'etica dell'IA e in particolare nell'avvento del Machine Learning (ML) e del Deep Learning (DL).

Potresti essere vagamente consapevole del fatto che una delle voci più forti in questi giorni nel campo dell'IA e anche al di fuori del campo dell'IA consiste nel chiedere a gran voce una maggiore parvenza di IA etica. Diamo un'occhiata a cosa significa fare riferimento a AI Ethics e Ethical AI. Inoltre, esploreremo cosa intendo quando parlo di Machine Learning e Deep Learning.

Un particolare segmento o porzione dell'etica dell'intelligenza artificiale che ha ricevuto molta attenzione da parte dei media è costituito dall'intelligenza artificiale che mostra pregiudizi e disuguaglianze spiacevoli. Potresti essere consapevole del fatto che quando è iniziata l'ultima era dell'IA c'è stata un'enorme esplosione di entusiasmo per ciò che alcuni ora chiamano AI in bene. Sfortunatamente, sulla scia di quella sgorgante eccitazione, abbiamo iniziato a testimoniare AI for Bad. Ad esempio, è stato rivelato che vari sistemi di riconoscimento facciale basati sull'intelligenza artificiale contengono pregiudizi razziali e pregiudizi di genere, di cui ho discusso in il link qui.

Sforzi contro cui combattere AI for Bad sono attivamente in corso. Oltre che rumoroso legale ricerca di tenere a freno la trasgressione, c'è anche una spinta sostanziale ad abbracciare l'etica dell'IA per raddrizzare la bassezza dell'IA. L'idea è che dovremmo adottare e approvare i principi chiave dell'IA etica per lo sviluppo e la messa in campo dell'IA, così da minare il AI for Bad e contemporaneamente annunciare e promuovere il preferibile AI in bene.

Su una nozione correlata, sono un sostenitore del tentativo di utilizzare l'IA come parte della soluzione ai problemi dell'IA, combattendo il fuoco con il fuoco in quel modo di pensare. Potremmo, ad esempio, incorporare componenti dell'IA etica in un sistema di intelligenza artificiale che monitorerà come il resto dell'IA sta facendo le cose e quindi potenzialmente catturerà in tempo reale eventuali sforzi discriminatori, vedere la mia discussione su il link qui. Potremmo anche avere un sistema di intelligenza artificiale separato che funge da tipo di monitor dell'etica dell'intelligenza artificiale. Il sistema di intelligenza artificiale funge da supervisore per tracciare e rilevare quando un'altra IA sta entrando nell'abisso non etico (vedi la mia analisi di tali capacità su il link qui).

Tra un momento, condividerò con voi alcuni principi generali alla base dell'etica dell'IA. Ci sono molti di questi tipi di elenchi che fluttuano qua e là. Si potrebbe dire che non esiste ancora un unico elenco di attrattive universali e di concorrenza. Questa è la sfortunata notizia. La buona notizia è che almeno ci sono elenchi di etica dell'IA prontamente disponibili e tendono ad essere abbastanza simili. Tutto sommato, questo suggerisce che attraverso una sorta di convergenza ragionata stiamo trovando la nostra strada verso una comunanza generale di ciò in cui consiste l'etica dell'IA.

Innanzitutto, esaminiamo brevemente alcuni dei precetti generali dell'IA etica per illustrare ciò che dovrebbe essere una considerazione vitale per chiunque crei, utilizzi o utilizzi l'IA.

Ad esempio, come affermato dal Vaticano nel Roma Call For AI Ethics e come ho trattato in modo approfondito a il link qui, questi sono i sei principi etici primari dell'IA identificati:

  • Trasparenza: In linea di principio, i sistemi di IA devono essere spiegabili
  • Inclusione: I bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi
  • Responsabilità: Coloro che progettano e implementano l'uso dell'IA devono procedere con responsabilità e trasparenza
  • Imparzialità: Non creare o agire secondo pregiudizi, salvaguardando così l'equità e la dignità umana
  • Affidabilità: I sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile
  • Sicurezza e riservatezza: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Come affermato dal Dipartimento della Difesa degli Stati Uniti (DoD) nel loro Principi etici per l'uso dell'intelligenza artificiale e come ho trattato in modo approfondito a il link qui, questi sono i loro sei principi etici primari dell'IA:

  • Responsabile: Il personale del Dipartimento della Difesa eserciterà livelli appropriati di giudizio e cura pur rimanendo responsabile dello sviluppo, della distribuzione e dell'uso delle capacità dell'IA.
  • Equo: Il Dipartimento adotterà misure deliberate per ridurre al minimo le distorsioni non intenzionali nelle capacità dell'IA.
  • Tracciabile: Le capacità dell'IA del Dipartimento saranno sviluppate e implementate in modo tale che il personale pertinente possieda una comprensione adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi applicabili alle capacità dell'IA, comprese metodologie trasparenti e verificabili, fonti di dati, procedure e documentazione di progettazione.
  • Affidabile: Le capacità di intelligenza artificiale del Dipartimento avranno usi espliciti e ben definiti e la sicurezza, la protezione e l'efficacia di tali capacità saranno soggette a test e garanzie nell'ambito degli usi definiti durante l'intero ciclo di vita.
  • governabile: Il Dipartimento progetterà e progetterà le capacità di intelligenza artificiale per svolgere le funzioni previste, pur possedendo la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disimpegnare o disattivare i sistemi implementati che dimostrano comportamenti non intenzionali.

Ho anche discusso varie analisi collettive dei principi etici dell'IA, incluso l'aver coperto un set ideato da ricercatori che hanno esaminato e condensato l'essenza di numerosi principi etici dell'IA nazionali e internazionali in un documento intitolato "The Global Landscape Of AI Ethics Guidelines" (pubblicato in Natura), e che la mia copertura esplora a il link qui, che ha portato a questo elenco di chiavi di volta:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Come puoi intuire direttamente, cercare di definire le specifiche alla base di questi principi può essere estremamente difficile da fare. Ancora di più, lo sforzo di trasformare questi principi generali in qualcosa di completamente tangibile e sufficientemente dettagliato da essere utilizzato durante la creazione di sistemi di intelligenza artificiale è anche un dado difficile da decifrare. Nel complesso è facile fare qualche cenno su quali sono i precetti dell'etica dell'IA e come dovrebbero essere generalmente osservati, mentre è una situazione molto più complicata nella codifica dell'IA che deve essere la vera gomma che incontra la strada.

I principi dell'etica dell'intelligenza artificiale devono essere utilizzati dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'IA e anche quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come affermato in precedenza, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Assicuriamoci anche di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente su senziente AI, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Manteniamo le cose più semplici e consideriamo l'IA computazionale non senziente di oggi.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Torniamo al nostro focus sui sistemi di intelligenza artificiale che vengono utilizzati per scopi inappropriati o forse vere e proprie illeciti e come ciò si collega allo studio pubblicato di recente sulla fedeltà al PCC.

Mi vengono in mente due considerazioni primarie:

1) Questa istanza di intelligenza artificiale fa parte di un modello in corso più ampio di sconcertante uso dell'IA e quindi inquietante e illuminante su ciò che sta accadendo

2) Il gatto potrebbe essere lasciato fuori dalla borsa in modo tale che se un'IA come questa viene adottata in un paese può essere prontamente diffusa anche in altri paesi

Inizia con il primo punto su questo caso in cui l'IA fa parte di un modello in corso.

Una base particolarmente importante per essere particolarmente turbati da questo particolare studio è che fa parte di un modello più ampio di come l'IA mira ad essere utilizzata da alcuni. Se questo fosse l'unico studio del genere mai condotto, potremmo esserne leggermente scossi. Tuttavia, probabilmente non risuonerebbe con il fervore che stiamo vedendo ora.

Questo è forse il gocciolamento di un passo avanti verso qualcosa che sta per sfuggire di mano.

Come riportato nelle notizie, la Cina è nota per aver insistito sulla lealtà espansiva al PCC. Inoltre, sono stati istituiti o vengono stabiliti vari mezzi per garantire che le persone siano indottrinate nella dottrina del governo. Sono stati citati casi di studi precedenti che cercavano di ideare algoritmi di intelligenza artificiale in grado di misurare le condizioni di pensiero dei membri del partito (vedi Tempi di studio nel 2019 che ha menzionato questi sforzi).

Potresti ricordare che nel 2018 il vicepresidente Mike Pence ha tenuto un discorso all'Hudson Institute e ha sottolineato che "i governanti cinesi mirano a implementare un sistema orwelliano basato sul controllo praticamente di ogni aspetto della vita umana" (questo era un riferimento all'attuazione del PCC di un sistema di punteggio del credito sociale, argomento di forte controversia). Si potrebbe facilmente affermare che questo recente studio del PCC è un altro passo in quella direzione.

Non sappiamo quando o se l'ultima goccia farà traboccare il vaso, tanto che questi studi una tantum si trasformeranno in diffusi sistemi di monitoraggio basati sull'intelligenza artificiale.

Il secondo punto degno di attenzione è che non possiamo presumere che questo tipo di IA sarà confinato solo alla Cina. In sostanza, sebbene avere questo tipo di utilizzo dell'IA in Cina che potrebbe diffondersi è di per sé inquietante, altri paesi potrebbero fare lo stesso.

Una volta che l'IA per questo sarà pronta per la prima serata, probabilmente non ci vorrà molto perché anche altri paesi decidano di volerla implementare. Il gatto sarà fuori dalla borsa. Alcuni paesi presumibilmente utilizzeranno questa IA in modi decisamente oppressivi e non cercheranno di fingere di farlo. Altri paesi potrebbero apparentemente cercare di utilizzare questo tipo di intelligenza artificiale per quelli che sembrano essere scopi benefici, dai quali alla fine c'è un aspetto negativo che sarà quasi inevitabile.

In realtà, suggerire che questo tipo di intelligenza artificiale sarà forse adottato solo una volta che sarà visto come pronto per la prima serata è un termine improprio. Potrebbe non fare alcuna differenza se l'IA può funzionare in modo sicuro in questo modo. L'IA può essere usata come storia di copertura, vedi la mia spiegazione a il link qui. Indipendentemente da ciò che l'IA è effettivamente in grado di realizzare, l'idea è che l'IA può essere un pratico pretesto per portare avanti il ​​monitoraggio della popolazione e schemi di misurazione e garantire l'assoluta lealtà alle autorità.

A questo punto di questa pesante discussione, scommetto che sei desideroso di alcuni esempi illustrativi che potrebbero mostrare questo argomento. C'è un insieme speciale e sicuramente popolare di esempi che mi stanno a cuore. Vedete, nella mia qualità di esperto di IA, comprese le ramificazioni etiche e legali, mi viene spesso chiesto di identificare esempi realistici che mettano in mostra i dilemmi dell'etica dell'IA in modo che la natura in qualche modo teorica dell'argomento possa essere colta più facilmente. Una delle aree più suggestive che presenta vividamente questo dilemma etico dell'IA è l'avvento delle vere auto a guida autonoma basate sull'IA. Questo servirà come un pratico caso d'uso o un esempio per un'ampia discussione sull'argomento.

Ecco quindi una domanda degna di nota che vale la pena considerare: L'avvento delle vere auto a guida autonoma basate sull'intelligenza artificiale illumina qualcosa sugli usi impropri dell'IA e, in tal caso, cosa mostra questo?

Concedimi un momento per disfare la domanda.

Innanzitutto, nota che non c'è un guidatore umano coinvolto in una vera auto a guida autonoma. Tieni presente che le vere auto a guida autonoma sono guidate tramite un sistema di guida AI. Non è necessario un guidatore umano al volante, né è previsto che un essere umano guidi il veicolo. Per la mia copertura ampia e continuativa sui veicoli autonomi (AV) e in particolare sulle auto a guida autonoma, vedere il link qui.

Vorrei chiarire ulteriormente cosa si intende quando mi riferisco a vere auto a guida autonoma.

Comprensione dei livelli delle auto a guida autonoma

Per chiarire, le vere auto a guida autonoma sono quelle in cui l'IA guida l'auto interamente da sola e non c'è alcuna assistenza umana durante l'attività di guida.

Questi veicoli senza conducente sono considerati Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui), mentre un'auto che richiede a un conducente umano di condividere lo sforzo di guida è generalmente considerata di livello 2 o di livello 3. Le auto che condividono l'attività di guida sono descritte come semiautonome e in genere contengono una varietà di componenti aggiuntivi automatici denominati ADAS (Advanced Driver-Assistance Systems).

Non esiste ancora una vera auto a guida autonoma al Livello 5, e non sappiamo ancora se sarà possibile ottenerla, né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi del Livello 4 stanno gradualmente cercando di ottenere un po 'di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c'è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura su questo link qui).

Poiché le auto semi-autonome richiedono un guidatore umano, l'adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c'è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un'auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un'auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e uso improprio dell'IA

Per i veicoli a guida autonoma di livello 4 e 5, non ci sarà un guidatore umano coinvolto nel compito di guida.

Tutti gli occupanti saranno passeggeri.

L'intelligenza artificiale sta guidando.

Un aspetto da discutere immediatamente riguarda il fatto che l'IA coinvolta negli odierni sistemi di guida dell'IA non è senziente. In altre parole, l'IA è complessivamente un collettivo di programmazione e algoritmi basati su computer, e sicuramente non è in grado di ragionare nello stesso modo in cui possono farlo gli umani.

Perché questa ulteriore enfasi sul fatto che l'IA non sia senziente?

Perché voglio sottolineare che quando parlo del ruolo del sistema di guida dell'IA, non sto attribuendo qualità umane all'IA. Tieni presente che in questi giorni c'è una tendenza continua e pericolosa ad antropomorfizzare l'IA. In sostanza, le persone stanno assegnando una sensibilità simile a quella umana all'intelligenza artificiale odierna, nonostante il fatto innegabile e indiscutibile che non esiste ancora un'intelligenza artificiale di questo tipo.

Con questo chiarimento, puoi immaginare che il sistema di guida AI non "conoscerà" nativamente in qualche modo gli aspetti della guida. La guida e tutto ciò che comporta dovranno essere programmate come parte dell'hardware e del software dell'auto a guida autonoma.

Immergiamoci nella miriade di aspetti che vengono a giocare su questo argomento.

Innanzitutto, è importante rendersi conto che non tutte le auto a guida autonoma IA sono uguali. Ogni casa automobilistica e azienda tecnologica a guida autonoma sta adottando il suo approccio per ideare auto a guida autonoma. In quanto tale, è difficile fare affermazioni radicali su ciò che i sistemi di guida dell'IA faranno o non faranno.

Inoltre, ogni volta che si afferma che un sistema di guida AI non fa qualcosa in particolare, questo può, in seguito, essere superato dagli sviluppatori che di fatto programmano il computer per fare proprio quella cosa. Passo dopo passo, i sistemi di guida dell'IA vengono gradualmente migliorati ed estesi. Una limitazione esistente oggi potrebbe non esistere più in una futura iterazione o versione del sistema.

Spero che ciò fornisca una litania sufficiente di avvertimenti per sottolineare ciò che sto per riferire.

Descriviamo uno scenario di auto a guida autonoma che potrebbe sfruttare l'IA in modi imprecisi o scorretti.

Condividerò con te alcune ramificazioni di auto a guida autonoma basate sull'intelligenza artificiale che potrebbero farti rabbrividire e essere disturbato. Queste sono sfaccettature di cui quasi nessuno sta attualmente discutendo. Ho sollevato ripetutamente le questioni, anche se riconosco apertamente che fino a quando non avremo un'adozione prevalente delle auto a guida autonoma, non avremo molta trazione sul fatto che la società sia preoccupata o sconvolta da quelle che oggi sembrano semplici nozioni astratte .

Sei pronto?

Inizieremo con la posa delle fondamenta.

Le auto a guida autonoma basate sull'intelligenza artificiale saranno dotate di videocamere, in modo ragionevole. Ciò consente all'auto a guida autonoma di ricevere immagini video della scena di guida. A sua volta, il sistema di guida AI in esecuzione a bordo dei computer dell'auto a guida autonoma ha lo scopo di esaminare computazionalmente il video raccolto e capire dove si trova la strada, dove si trovano le auto vicine, dove si trovano i pedoni e così via. Mi rendo conto che sto recitando i 101 fondamentali delle auto a guida autonoma.

Ci sono videocamere montate all'esterno del veicolo autonomo e puntano verso l'esterno. Inoltre, in generale, puoi aspettarti che ci saranno videocamere all'interno o all'interno del veicolo che puntano verso l'interno dell'auto a guida autonoma. Perchè così? Facile, perché ci saranno molti usi importanti per il video che cattura gli avvenimenti all'interno del veicolo autonomo.

Quando fai un giro in un'auto a guida autonoma, non hai più bisogno di essere l'autista. Cosa farai allora mentre sei all'interno di un'auto a guida autonoma?

Una cosa che potresti fare sarebbe interagire con gli altri a casa o in ufficio. Eccoti qui, sulla strada per andare al lavoro, che dirà di prendere un'ora di guida con l'auto a guida autonoma e puoi già iniziare la tua giornata di lavoro facendo una sessione interattiva in tempo reale online simile a Zoom. Possono vederti, grazie alle telecamere puntate verso l'interno dell'auto a guida autonoma. Puoi vederli forse su uno schermo a LED all'interno dell'auto a guida autonoma. Alla fine della giornata, mentre torni a casa, potresti fare una discussione video interattiva simile con i tuoi figli mentre iniziano a fare i compiti per la sera.

Un altro uso sarebbe per prendere lezioni. Ora che non devi perdere tempo alla guida, puoi trasformare quel tempo morto all'interno di un'auto a guida autonoma per migliorare le tue abilità o ottenere una certificazione o una laurea. Tramite le telecamere rivolte verso l'interno, il tuo istruttore può vederti e discutere di come sta procedendo la tua formazione.

Ancora un altro uso sarebbe quello di cercare di garantire che i motociclisti in auto a guida autonoma non vadano fuori di testa. In un'auto a guida umana, l'autista è una presenza adulta che di solito impedisce ai motociclisti di fare cose folli come contrassegnare l'interno con graffiti. Cosa accadrà con le auto a guida autonoma basate sull'intelligenza artificiale? Alcuni temono che i motociclisti scelgano di demolire l'interno dei veicoli. Per cercare di prevenire ciò, l'azienda di ridesharing che sta distribuendo le auto a guida autonoma utilizzerà probabilmente videocamere rivolte verso l'interno per monitorare ciò che le persone stanno facendo all'interno del veicolo autonomo.

Presumo che tu sia convinto che avremo videocamere che puntano all'interno delle auto a guida autonoma, oltre alle telecamere che puntano verso l'esterno per discernere la scena di guida.

Ora sei pronto per quello che ho chiamato l'occhio vagabondo, vedi la mia analisi su il link qui.

Innanzitutto, considera le videocamere che puntano verso l'esterno.

Ovunque vada l'auto a guida autonoma, sarà potenzialmente in grado di registrare video qualunque cosa vedano le telecamere. Un'auto a guida autonoma che dà un passaggio a qualcuno dalla sua casa e lo porta al negozio di alimentari attraverserà un quartiere e il video registrerà non solo la carreggiata ma anche tutto ciò che accade a vista. Un padre e un figlio che giocano nel loro cortile. Una famiglia seduta sulla veranda. E così via.

In questo momento, abbiamo così poche auto a guida autonoma sulle strade pubbliche che questa capacità di catturare video delle attività quotidiane è relativamente scarsa e irrilevante.

Immagina che alla fine otteniamo auto a guida autonoma sicure e diffuse. Migliaia di loro. Forse milioni. Oggi negli Stati Uniti abbiamo circa 250 milioni di auto a guida umana. Alla fine, queste saranno praticamente sostituite da auto a guida autonoma o semplicemente non più utilizzate, e avremo prevalentemente auto a guida autonoma sulle nostre strade. Quelle auto a guida autonoma sono guidate dall'intelligenza artificiale e in quanto tali possono viaggiare essenzialmente 24 ore su 7, XNUMX giorni su XNUMX. Niente pause di riposo, niente pause per il bagno.

I dati video possono essere caricati da queste auto a guida autonoma tramite connessioni di rete elettroniche OTA (Over-The-Air). Le auto a guida autonoma utilizzeranno OTA per scaricare gli ultimi aggiornamenti software AI nel veicolo. Inoltre, l'OTA può essere utilizzato per caricare i dati dall'auto a guida autonoma in un database basato su cloud.

Tutto sommato, sarebbe possibile unire questi dati caricati. Con le cuciture, potresti potenzialmente mettere insieme l'andirivieni quotidiano di chiunque uscisse in qualsiasi giorno in qualsiasi luogo che utilizzava ampiamente auto a guida autonoma.

Questo è l'occhio vagabondo di cui mi sono messo in guardia.

Possiamo ora collegare lo studio del PCC a questo tipo di capacità. Supponiamo che un governo abbia accesso a tutti questi dati video raccolti. Potrebbero quindi utilizzare un algoritmo di riconoscimento facciale basato sull'intelligenza artificiale per accertare dove sei andato, a quale ora del giorno, durante i tuoi viaggi quotidiani della vita. Inoltre, potrebbero presumibilmente utilizzare il loro analizzatore basato sull'intelligenza artificiale "lealtà" per vedere se sembrava che tu avessi uno sguardo leale sul tuo viso o meno.

Immagina solo che un martedì pomeriggio stavi camminando per prendere un panino in un ristorante locale. Sulla carreggiata passavano auto a guida autonoma. Tutti i molti video ti hanno catturato mentre stavi facendo la tua passeggiata di cinque minuti per mangiare un boccone. I dati sono stati caricati su un database centralizzato. Il governo ha eseguito il suo programma di riconoscimento facciale AI sui dati.

Si scopre che l'IA ha "determinato" che avevi uno sguardo sleale sul tuo viso.

Forse questo sguardo sleale è accaduto solo per un istante. Stavi aspettando all'angolo di una strada che la luce cambiasse in modo da poter attraversare la strada fino al ristorante. In quel momento, hai avuto una leggera contrazione di disgusto per aver dovuto aspettare troppo a lungo per il simbolo della Passeggiata. Era forse questo un indizio della tua slealtà nei confronti del governo?

Sì, l'IA calcolata computazionalmente, eri abbondantemente sleale in quell'istante. Quando torni a casa quella notte, il governo ha disposto il tuo arresto.

Ma aspetta, c'è di più.

Ricorda che anche le videocamere puntano verso l'interno.

Quello stesso martedì, mentre stavi andando al lavoro in un'auto a guida autonoma, le videocamere catturavano ogni tuo momento. Questo è stato caricato su un database centralizzato. Il software di intelligenza artificiale che analizza i modelli di volti per slealtà ha eseguito un esame del modello computazionale delle espressioni facciali durante il viaggio verso l'ufficio.

Ad un certo punto, stavi guardando casualmente fuori dal veicolo autonomo e hai notato un operaio edile che stava parzialmente bloccando la carreggiata e ha causato il rallentamento del sistema di guida AI dell'auto a guida autonoma. Per una frazione di secondo, il tuo viso ha registrato uno sguardo di derisione per questo operaio edile che rallenta il traffico.

L'analisi del modello facciale AI ha interpretato questo come un segno di slealtà nei confronti del governo.

Due colpi contro di te in un giorno.

Stai vivendo sul ghiaccio sottile.

Ovviamente, se l'IA ha "giusto" o "sbagliato" nell'essere in grado di determinare la tua lealtà è quasi irrilevante in questo contesto. Il succo è che l'IA è stata messa in atto per questo scopo. Agli esseri umani che stanno implementando l'IA potrebbe interessare o meno se l'IA è di qualsiasi utilità per questo tipo di attività. L'IA consente il controllo governativo, indipendentemente dalla validità tecnologica stessa.

Questo copre la scansione del viso.

Se alla fine disponiamo di qualsiasi tipo di dispositivo portatile conveniente per eseguire (presunta) scansione delle onde cerebrali, questo può certamente essere incluso anche nelle auto a guida autonoma. Le videocamere sono ormai una certezza. La possibilità di avere dispositivi di scansione delle onde cerebrali di questo calibro non è nelle carte in questo momento, ma chiaramente è qualcosa che viene immaginato per il futuro.

Per la mia esplorazione di come un governo potrebbe tentare di impossessarsi di una popolazione prendendo il controllo delle auto a guida autonoma, cfr. il link qui. Esiste una possibilità simile che un attore malintenzionato possa provare a fare lo stesso, vedi il link qui. Quelle non sono pensate per essere tattiche spaventose per quanto riguarda la copertura di quegli argomenti correlati, e invece, un avvertimento sull'importanza della sicurezza informatica e di altre precauzioni che dobbiamo come società cercare di adottare riguardo all'insorgenza di auto a guida autonoma onnipresenti e altri veicoli autonomi.

Conclusione

Vorrei affrontare rapidamente un aspetto aggiuntivo sull'IA utilizzata per accertare la lealtà che ritengo sia un argomento in qualche modo separato, ma che alcuni tweet e social media hanno discusso.

Ho accennato in precedenza che non abbiamo l'IA senziente e non sappiamo se o quando lo avremo. Prendiamo in considerazione l'idea che avremo un'IA senziente. In tal caso, considera il seguente scenario.

Attraverso l'IA non senziente scegliamo di mettere in atto un uso diffuso dell'IA che accerta dal punto di vista computazionale se le persone sono fedeli al loro governo, utilizzando scansioni facciali, scansioni delle onde cerebrali e così via. Questo è interamente gestito e utilizzato da esseri umani in autorità. Questo è lo scenario inquietante che ho appena descritto.

È ora di alzare la posta.

L'IA diventa senziente. Ora abbiamo potenzialmente consegnato a questa IA senziente una capacità diffusa di identificare presumibilmente lealtà e slealtà negli esseri umani. Un'IA malvagia che sta considerando di spazzare via gli umani potrebbe usare questa capacità per decidere che effettivamente gli umani saranno sleali e dovrebbero essere completamente distrutti. O forse solo quegli umani che mostrano un'indicazione di slealtà attraverso la loro faccia o i loro pensieri devono essere particolarmente scartati.

Un altro punto di vista è che l'IA desidera schiavizzare gli umani, vedi la mia discussione su il link qui.

Sembrerebbe che abbiamo dato all'IA un regalo perfetto per portare a termine quella missione. L'infrastruttura esistente che abbiamo messo in atto consente all'IA di monitorare attentamente noi umani. Coloro che sembrano aver espresso un'indicazione facciale sleale o pensato al sovrano dell'IA sentiranno l'ira dell'IA.

Mi rendo conto di aver detto che questo è un aumento della posta. Non sono sicuro che sia il caso. Mi sembra che se abbiamo signori dell'IA che decidono direttamente il nostro destino contro i padroni umani che forse usano un sistema di intelligenza artificiale per determinare la lealtà, beh, nessuna delle due proposte sembra particolarmente desiderabile.

Un ultimo commento per ora.

Lo studioso e filosofo romano Marco Tullio Cicerone ha affermato che non c'è niente di più nobile, niente di più venerabile della lealtà. Potremmo lasciare che l'IA ci precipiti e diventi uno strumento per arruolare e garantire la "fedeltà" con mezzi terribili.

Un valido motivo per mettere l'etica dell'IA in cima alla nostra lista di cose da fare.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- attestazione-che-potrebbe-prefigurare-sistemi-autonomi-oppressivi/