Etica dell'IA e vaccinazione psicologica indotta dall'IA per aiutare gli esseri umani con la disinformazione

Cosa faremo per l'enorme sovrabbondanza di disinformazione e disinformazione?

Tutto sta chiaramente peggiorando ogni giorno che passa.

Forse l'Intelligenza Artificiale (AI) può venire in nostro soccorso. Sì, è vero, potremmo essere in grado di sfruttare gli usi benefici dell'IA per far fronte al nostro inarrestabile tsunami di disinformazione e disinformazione. Potrebbe essere saggio provare a farlo. Ogni via di potenziale soluzione sembrerebbe degna di essere seguita.

Per inciso, vorrei riconoscere immediatamente e notare che l'IA senza dubbio lo farà anche essere parte del problema anche tu. Non c'è dubbio che gli esseri umani possano facilmente sfruttare l'IA per generare disinformazione e disinformazione. Inoltre, l'IA può essere insidiosamente utilizzata per far sembrare la disinformazione e la disinformazione sorprendentemente valide e ingannare gli esseri umani facendogli credere che le informazioni presentate siano allettanti e accurate. Un lato decisamente triste di ciò che l'IA porta in tavola. Torneremo su questo enigma negativo verso la fine di questa discussione.

Per ora, indossiamo le nostre faccine ed esploriamo come l'IA è utile per mettere in ginocchio la disinformazione e la disinformazione. Un'importante corrente sotterranea sarà che tutto ciò si incastra negli elementi vitali di AI Ethics. La copertura della mia rubrica su AI Ethics e Ethical AI è continua ed estesa, incluso il link qui ed il link qui, solo per citarne alcuni.

Considera questi modi fondamentali in cui l'IA può essere un alleato particolarmente utile nella guerra alla disinformazione e alla disinformazione:

  • Fermati all'inizio: L'IA può essere utilizzata per rilevare e cercare di eliminare la disinformazione e la disinformazione prima che si diffonda
  • Filtra prima di visto: L'IA può essere utilizzata per filtrare la disinformazione e la disinformazione in modo da non doversi preoccupare di vederla
  • Preparati a essere immune: L'intelligenza artificiale può essere utilizzata per rafforzare la tua prontezza e capacità di affrontare la disinformazione e la disinformazione (noto in qualche modo formalmente come fornire una sorta di vaccinazione psicologica)
  • Altro

Il primo punto elenco consiste nel cercare di fermare la disinformazione e la disinformazione il prima possibile, prima che il contenuto venga diffuso nel mondo.

Questo è un approccio altamente problematico. Alcuni sosterrebbero a gran voce che questo potrebbe essere un tentativo del Grande Fratello di sopprimere la libertà di parola. Quanto lontano potrebbe arrivare questa IA? Potrebbe impedire alle persone di esprimere liberamente le proprie opinioni? Questo stranamente potrebbe diventare un pendio scivoloso dell'IA che alla fine diventa il peggior incubo di risultati malvagi che sono iniziati innocentemente con le migliori intenzioni.

Sono sicuro che avrai l'immagine.

Il secondo punto è un po' più moderato e suggerisce che potremmo usare l'IA per filtrare i contenuti per noi.

Potresti avere un bot filtro AI che analizzerà tutti i tuoi feed di dati in arrivo da varie notizie e altre fonti. L'IA è studiata per catturare qualsiasi disinformazione o disinformazione che soddisfi i tuoi criteri personali. Quindi, in uno scenario del genere, non è una situazione di censura del Grande Fratello. Tu controlli l'IA e il modo in cui sta filtrando la tua vera casella di posta di informazioni per tuo conto.

Suona abbastanza bene.

Ci sono però alcune preoccupazioni degne di nota.

Ad esempio, siamo già molto polarizzati nelle nostre opinioni e questo uso dell'IA potrebbe rendere quella polarizzazione più profonda e più oscura. Immagina che con questa intelligenza artificiale che funziona ininterrottamente 24 ore su 7, XNUMX giorni su XNUMX, non hai mai bisogno di vedere un briciolo di informazioni che hai classificato come potenzialmente disinformazione e disinformazione. La tua prospettiva polarizzata ora è quasi garantita per rimanere intatta. Tutto il giorno e ogni volta che cerchi di dare un'occhiata alle informazioni che aspettano la tua attenzione, sono sempre completamente preselezionate e nessuna possibilità di dare un'occhiata alla cosiddetta disinformazione e disinformazione.

Dico che la disinformazione e la disinformazione possono esserlo cosiddetto perché c'è un'enorme quantità di polemiche su ciò che effettivamente costituisce disinformazione e disinformazione. Alcuni esperti insistono sul fatto che esiste una base assoluta per accertare cosa sia disinformazione e cosa sia disinformazione. C'è giusto e sbagliato. Tutto può essere calcolato senza sbagliare che qualcosa sia disinformazione o disinformazione.

Non tutti vedono le cose come così chiare.

Si dice che il proverbiale contrasto dicotomico on-o-off mutuamente esclusivo sia uno stato d'animo fuorviante. La disinformazione di una persona potrebbe non essere considerata disinformazione nei confronti di un'altra persona. Allo stesso modo sulla disinformazione. L'affermazione è che la disinformazione e la disinformazione variano in termini di natura e grandezza. Cercare di classificare definitivamente tutte le informazioni in una pila o nell'altra è molto più difficile di quanto suggerisca agitare la mano.

Il succo è che il secondo punto sull'utilizzo dell'IA come meccanismo di filtraggio ha i suoi compromessi. Non c'è dubbio che l'IA verrà sempre più utilizzata per questo uso. Allo stesso tempo, dobbiamo essere consapevoli delle sfide che tale IA porterà alla ribalta. L'IA come filtro per la disinformazione e la disinformazione non è un proiettile d'argento o una schiacciata.

Questo ci porta al terzo punto, vale a dire la possibilità di utilizzare l'IA per rendere gli esseri umani più bravi a gestire la disinformazione e la disinformazione.

Dubito che tu abbia probabilmente sentito parlare molto di questa terza via di utilizzo dell'IA in questo contesto. Sta appena cominciando ad emergere. Ora sei all'avanguardia di qualcosa che probabilmente crescerà e verrà gradualmente utilizzato. Per favore, sappi però che man mano che questa popolarità si espande, anche la controversia sul fatto che sia un approccio adatto diventerà molto visibile.

Parte del problema è che l'IA viene in qualche modo utilizzata per ciò che alcuni chiamerebbero in modo dispregiativo fare giochi mentali con gli umani.

Sembra inquietante.

Questo ci porta anche nel regno dell'etica dell'IA.

Tutto ciò riguarda anche le preoccupazioni che emergono sobriamente sull'IA di oggi e in particolare sull'uso di Machine Learning e Deep Learning come forma di tecnologia e su come viene utilizzata. Vedete, ci sono usi di ML/DL che tendono a implicare che l'IA venga antropomorfizzata dal pubblico in generale, credendo o scegliendo di presumere che l'ML/DL sia un'IA senziente o vicina (non lo è). Inoltre, ML/DL può contenere aspetti della corrispondenza dei modelli computazionali che sono indesiderabili o addirittura impropri o illegali dal punto di vista etico o legale.

Potrebbe essere utile chiarire prima cosa intendo quando mi riferisco all'IA in generale e fornire anche una breve panoramica di Machine Learning e Deep Learning. C'è molta confusione su cosa significhi l'Intelligenza Artificiale. Vorrei anche presentarvi i precetti di AI Ethics, che saranno particolarmente parte integrante del resto di questo discorso.

Affermare il record sull'IA

Assicuriamoci di essere sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente.

Non abbiamo questo.

Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente in qualche modo sorgerà miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come The Singularity, vedi la mia copertura su il link qui).

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning e Deep Learning, che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

Parte del problema è la nostra tendenza ad antropomorfizzare i computer e soprattutto l'IA. Quando un sistema informatico o un'intelligenza artificiale sembra agire in modi che associamo al comportamento umano, c'è un bisogno quasi schiacciante di attribuire qualità umane al sistema. È una trappola mentale comune che può afferrare anche lo scettico più intransigente sulle possibilità di raggiungere la sensibilità.

In una certa misura, ecco perché AI Ethics and Ethical AI è un argomento così cruciale.

I precetti di AI Ethics ci portano a rimanere vigili. I tecnologi dell'IA possono a volte interessarsi alla tecnologia, in particolare all'ottimizzazione dell'alta tecnologia. Non stanno necessariamente considerando le più ampie ramificazioni della società. Avere una mentalità etica dell'IA e farlo integralmente allo sviluppo e alla messa in campo dell'IA è fondamentale per produrre un'IA appropriata, inclusa la valutazione di come l'etica dell'IA viene adottata dalle aziende.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. Avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società. Vedi ad esempio la mia copertura su il link qui.

Nelle colonne precedenti, ho trattato i vari sforzi nazionali e internazionali per elaborare e emanare leggi che regolano l'IA, vedi il link qui, Per esempio. Ho anche trattato i vari principi e linee guida dell'etica dell'intelligenza artificiale che varie nazioni hanno identificato e adottato, incluso ad esempio lo sforzo delle Nazioni Unite come il set dell'etica dell'intelligenza artificiale dell'UNESCO che quasi 200 paesi hanno adottato, vedi il link qui.

Ecco un utile elenco chiave di volta dei criteri o delle caratteristiche dell'IA etica relativi ai sistemi di intelligenza artificiale che ho precedentemente esplorato da vicino:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Questi principi di etica dell'intelligenza artificiale dovrebbero essere utilizzati seriamente dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e persino quelli che alla fine mettono in campo e svolgono la manutenzione dei sistemi di intelligenza artificiale. Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come sottolineato in precedenza qui, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e rispettare i precetti dell'etica dell'IA.

Manteniamo le cose con i piedi per terra e concentriamoci sull'IA computazionale non senziente di oggi.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di intelligenza artificiale potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Credo di aver ora posto le basi per discutere a sufficienza del ruolo dell'IA come mezzo per stimolare l'inoculazione psicologica correlata alla gestione della disinformazione e della disinformazione.

Entrare nella mente degli umani

Cominciamo con le basi o i fondamenti alla base della disinformazione e della disinformazione.

In genere, la disinformazione si riferisce a informazioni false o fuorvianti.

La disinformazione è più o meno la stessa anche se consiste nell'elemento aggiunto di intento. Normalmente interpretiamo le informazioni come disinformazione quando sono informazioni destinato disinformare.

Potrei dirti che attualmente sono le 10 di sera, il che diciamo è falso perché l'ora è davvero mezzanotte. Se ti avessi detto le 10 come un'intuizione e non stavo cercando di essere ingannevole, di solito diremmo che ti avevo male informato. Avevo trasmesso disinformazione. Forse ero pigro o forse credevo davvero che fossero le 10. D'altra parte, se avessi menzionato le 10 perché volevo intenzionalmente indurti a pensare che l'ora fossero le 10 e che sapevo che l'ora in realtà era mezzanotte, si potrebbe dire che questa sia una forma di disinformazione .

Un aspetto notevole delle informazioni in generale è che in genere siamo in grado di diffondere informazioni e quindi le informazioni possono diventare alquanto diffuse. Le informazioni possono davvero fluire come l'acqua, in senso lato.

Ti dico che sono le 10 di sera. Ora hai quella particolare informazione. Potresti urlare ad alta voce a un gruppo di persone vicine che sono le 10 di sera. Ora hanno anche le stesse informazioni. Forse alcune di queste persone prendono il cellulare e chiamano altre persone per dire loro che sono le 10. Tutto sommato, le informazioni possono essere diffuse o condivise e talvolta fatte così rapidamente mentre in altri casi così lentamente.

In un certo senso, potresti sostenere che le informazioni possono diventare virali.

C'è una parola o una terminologia coniata che potresti non aver visto o usato in particolare che aiuta a descrivere questo fenomeno di informazione che diventa virale, la parola è infodemico. Questa parola è un mashup di informazioni e di essere un'epidemia. In generale, un'infodemia è associata a circostanze che coinvolgono la diffusione di disinformazione o disinformazione. L'idea è che informazioni false o fuorvianti possono diventare virali, indesiderabilmente, in modo simile alla diffusione indesiderata di malattie o malattie.

Nell'esempio relativo alle 10 di sera, questo fatto apparente era un'informazione diffusa al gruppo di persone vicino. A loro volta hanno diffuso il fatto ad altri. Se le 10 erano false, allora questo particolare caso di disinformazione o disinformazione è stato diffuso a molti altri. Potrebbero non sapere che l'informazione era disinformazione o forse disinformazione.

Confido che tutte queste definizioni e fondamenti sembrino sensati e che tu sia d'accordo finora.

Ottimo, continuiamo.

Ti ho condotto un po' di nascosto in qualcosa che occupa molto fascino e anche angoscia. Il succo è che ci sono discutibili parallelismi ragionevolmente validi tra ciò che le malattie fanno viralmente e ciò che la disinformazione o la disinformazione fanno viralmente.

Non tutti sono d'accordo con questi presunti parallelismi. Tuttavia, sono intriganti e degni di considerazione.

Mi permetta di elaborare.

Vedete, possiamo provare a sfruttare la pratica analogia di riferirci a malattie trasmesse dall'uomo e malattie che si diffondono, facendo così per confrontare una possibilità simile con la diffusione della disinformazione e della disinformazione. Per cercare di fermare la diffusione delle malattie, possiamo mirare a rilevare precocemente e cercare di contenere un punto di origine malata emergente della potenziale diffusione del disturbo. Un altro approccio per affrontare una malattia che si diffonde sarebbe quello di evitare di contrarre attraverso l'uso prudente di indossare una maschera o indumenti protettivi. Un terzo approccio potrebbe consistere nell'assumere vaccinazioni per cercare di costruire la propria immunità correlata alla malattia.

Ora abbiamo chiuso il cerchio in quanto quegli stessi approcci per far fronte alle malattie possono essere esplicitamente paragonati alla gestione della disinformazione e della disinformazione. Ho accennato in precedenza che sono in corso sforzi simili per utilizzare l'intelligenza artificiale allo scopo di cercare di far fronte alla disinformazione e alla disinformazione, in particolare (come accennato in precedenza):

  • Fermati all'inizio: L'IA può essere utilizzata per rilevare e cercare di eliminare la disinformazione e la disinformazione prima che si diffonda
  • Filtra prima di visto: L'IA può essere utilizzata per filtrare la disinformazione e la disinformazione in modo da non doversi preoccupare di vederla
  • Preparati a essere immune: L'intelligenza artificiale può essere utilizzata per rafforzare la tua prontezza e capacità di affrontare la disinformazione e la disinformazione (noto in qualche modo formalmente come fornire una sorta di vaccinazione psicologica)
  • Altro

Il terzo aspetto sarà qui di maggior interesse.

Ecco l'accordo.

Sappiamo che le malattie di solito colpiscono il corpo umano. Con l'analogia di come si verificano disinformazione e disinformazione, potremmo suggerire che le informazioni fallaci colpiscono il mente umana. Sì, presumibilmente puoi entrare in contatto con la disinformazione o la disinformazione che scorre nella tua mente. La disinformazione o la disinformazione potenzialmente corrompe o avvelena il tuo modo di pensare.

Un corpo umano può essere vaccinato per cercare di prepararsi al contatto con le malattie. Sorge una grande domanda se possiamo fare lo stesso per la mente umana. È possibile provare a inoculare la mente in modo che quando ti viene in mente disinformazione o disinformazione, sei pronto per questo e sei stato vaccinato di conseguenza?

Un campo di studio noto come inoculazione psicologica postula che la mente possa effettivamente essere inoculata nel senso di essere pronta a gestire la disinformazione o la disinformazione.

Considera questa descrizione in un recente studio di ricerca sull'inoculazione psicologica e su ciò che a volte viene etichettato come fare prebunking:

  • “Anche sfatare la disinformazione è problematico perché la correzione della disinformazione non sempre annulla del tutto i suoi effetti, un fenomeno noto come effetto di influenza continua. Di conseguenza, contrariamente al debunking, il prebunking ha acquisito importanza come mezzo per costruire preventivamente la resilienza contro l'esposizione anticipata alla disinformazione. Questo approccio è solitamente basato sulla teoria dell'inoculazione. La teoria dell'inoculazione segue un'analogia dell'immunizzazione medica e postula che è possibile costruire una resistenza psicologica contro tentativi di persuasione indesiderati, proprio come le vaccinazioni mediche costruiscono una resistenza fisiologica contro i patogeni "(Anticipi Scienza, 24 agosto 2022, "L'inoculazione psicologica migliora la resilienza contro la disinformazione sui social media" dei coautori Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje e Stephan Lewandowsky).

Tornando al mio esempio sull'ora in cui sono le 10 di sera, supponiamo che ti avessi detto in precedenza che a volte l'ora dichiarata non è l'ora effettiva. D'ora in poi hai una forma di vaccinazione per diffidare dei tempi dichiarati. Questa vaccinazione ti ha preparato a entrare in contatto con tempi dichiarati che sono disinformazione o disinformazione.

Se ti avessi avvertito diversi anni fa che i tempi dichiarati non sono tempi reali, è possibile che tu non pensi a quell'avvertimento di tanto tempo fa. Pertanto, l'inoculazione precedente è (dovremo dire) svanita. Potrebbe essere necessario potenziare la mia vaccinazione per te.

C'è anche la possibilità che l'inoculazione non fosse abbastanza specifica per poterla utilizzare quando necessario. Se anni fa ti avessi avvertito dei tempi dichiarati rispetto ai tempi effettivi, ciò potrebbe essere eccessivamente ampio. L'inoculazione potrebbe non funzionare nel caso specifico in cui ti viene detto verso le 10. In questo senso, forse la mia vaccinazione avrebbe dovuto essere che dovresti stare attento quando viene utilizzata l'ora dichiarata di 10 in punto. Naturalmente, le vaccinazioni in caso di malattie sono in qualche modo le stesse, a volte sono molto specifiche per disturbi noti mentre in altri casi sono ad ampio spettro.

Uno studio di ricerca spesso citato condotto nel 1961 sull'inoculazione psicologica da William McGuire della Columbia University è generalmente considerato un classico in questo campo di studio. Potresti trovare interessanti questi punti chiave che ha fatto in quel momento:

  • “Tale immunizzazione generalizzata potrebbe derivare da uno dei due meccanismi. La pre-esposizione potrebbe scioccare la persona facendogli capire che i "truismi" che ha sempre accettato sono davvero vulnerabili, provocandolo così a sviluppare una difesa della sua convinzione, con il risultato che è più resistente alle forti controargomentazioni quando arrivano. In alternativa, le confutazioni implicate nella pre-esposizione potrebbero far apparire meno impressionanti tutte le controargomentazioni presentate successivamente contro la convinzione” (William McGuire, “Resistance To Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments”, Journal of Abnormal and Psicologia sociale, 1961).

Trovi questa analogia di vaccinazioni e immunizzazione un confronto utile e appropriato con il regno della disinformazione e della disinformazione?

Alcuni lo fanno, altri no.

Ai fini di questa discussione, si prega di accettare che la premessa sia ragionevole e appropriata.

Come possiamo provare a inoculare o immunizzare la mente delle persone?

Potremmo convincere le persone a leggere libri che potrebbero illuminare le loro menti. Potremmo raccontarglielo, o fargli guardare video o ascoltare nastri audio. Eccetera.

E potremmo usare l'IA per fare lo stesso.

Un sistema di intelligenza artificiale potrebbe essere ideato per essere il tuo inoculatore. Ogni volta che inizi a navigare online, ad esempio guardando Internet, un'app basata sull'intelligenza artificiale potrebbe prepararti per il tuo viaggio online. L'IA potrebbe darti una piccola quantità di disinformazione etichettata come tale, permettendoti di capire che stai per vedere qualcosa che è intenzionalmente falso.

Dopo l'esposizione a questa disinformazione alimentata dall'intelligenza artificiale, la tua mente è ora pronta a far fronte alla disinformazione o alla disinformazione che potresti incontrare in natura su Internet. La tua mente è stata preparata. Voilà, vedi un blog su Internet che offre un fatto affermato che le creature aliene di Marte sono già qui sulla terra e si nascondono in bella vista, ma questa apparente disinformazione o disinformazione è prontamente respinta dalla tua mente a causa della precedente vaccinazione (beh, poi di nuovo, forse è veritiero e sono davvero qui!).

Ad ogni modo, spero che tu sia in grado di discernere ora come sia possibile che l'IA possa aiutare a inoculare o immunizzare gli esseri umani rispetto alla disinformazione o alla disinformazione.

Sono in fase di elaborazione varie app di intelligenza artificiale che funzioneranno come inoculatori di disinformazione o disinformazione. L'IA potrebbe cercare di fornire un'inoculazione ampia e fornire una parvenza generale di immunizzazione. L'IA potrebbe anche essere concepita per forme più specifiche di inoculazione. Inoltre, l'IA può funzionare su base personalizzata in base alle tue esigenze o interessi particolari. L'IA avanzata in questo spazio cercherà anche di determinare il livello di tolleranza, il tasso di assorbimento mentale, la capacità di ritenzione e altri fattori durante la composizione e la presentazione dei cosiddetti colpi di immunizzazione, per così dire.

Sembra abbastanza utile.

AI come giocatore di Dangerous Mind Games

L'IA utilizzata in questo modo sembrerebbe a prima vista abbastanza utile (ehi, l'ho menzionato solo un secondo fa).

C'è una sfilza di potenziali aspetti negativi e problemi che sono preoccupanti e forse spaventosi.

Nelle mie colonne, discuto spesso delle capacità a duplice uso dell'IA, vedi ad esempio il link qui. L'IA può essere un contributo vitale per l'umanità. Purtroppo, l'IA è anche gravata da molti pericoli e sfortunate insidie.

Per il caso dell'IA come inculcatore, consideriamo questi problemi dimostrativi relativi all'etica dell'IA:

  • Reazioni avverse da parte dell'uomo
  • Reazioni non reattive da parte dell'uomo
  • Errore di intelligenza artificiale
  • Obiettivo insufficiente dell'IA
  • Violazione informatica dell'IA
  • Altro

Esploreremo brevemente queste preoccupazioni.

Reazioni avverse da parte degli esseri umani

Supponiamo che un essere umano che riceve questo tipo di inoculazione basata sull'IA abbia una reazione avversa o produca un effetto avverso.

La persona potrebbe fraintendere l'immunizzazione e diventare improvvisamente non ricettiva a qualsiasi informazione che riceve. Bloccano tutte le informazioni. L'intelligenza artificiale li ha in qualche modo spinti a buttare via il bambino con l'acqua sporca (un vecchio detto, forse vale la pena andare in pensione). Piuttosto che cercare di far fronte alla disinformazione e alla disinformazione, la persona ha reagito decidendo che tutte le informazioni sono sempre false.

Non credo che vogliamo che le persone esagerino.

C'è una moltitudine di reazioni avverse che l'IA potrebbe favorire. Ciò è in parte dovuto al modo in cui l'IA ha tentato di eseguire l'inoculazione, ma dobbiamo anche porre parte del problema ai piedi dell'umano che ha ricevuto l'inoculazione. Potrebbero aver reagito in modi selvaggi o bizzarri che altri che hanno ricevuto la stessa vaccinazione di IA non l'hanno fatto.

Ancora una volta, puoi paragonarlo all'analogia delle vaccinazioni per malattie.

In breve, sarà importante che quando tali sforzi di IA vengono utilizzati, siano fatti in modi responsabili che cercano di ridurre al minimo gli effetti negativi. Dovrebbe esserci anche un aspetto successivo dell'IA per cercare di accertare se si è verificata una reazione avversa. Se viene rilevata una reazione avversa, l'IA dovrebbe essere escogitata per cercare di aiutare la persona nella sua risposta avversa e cercare di superare o alleviare la risposta.

Reazioni non reattive da parte degli esseri umani

Un'altra possibilità è che l'inoculazione alimentata con IA non abbia alcun impatto sulla persona ricevente.

Una persona riceve un'inoculazione basata sull'intelligenza artificiale correlata a disinformazione o disinformazione. Mentre la maggior parte delle persone "capita" e si immunizza, è inevitabile che ci siano persone che non reagiranno affatto. Non imparano nulla dall'inoculazione. Non rispondono al tentativo dell'IA di immunizzarli per tutti o alcuni tipi di disinformazione o disinformazione.

Ancora una volta, questo è paragonabile alle vaccinazioni per malattie.

L'IA dovrebbe essere escogitata per far fronte a una tale circostanza.

Intelligenza artificiale

Immagina che un'IA speri di immunizzare le persone riguardo a un particolare argomento che diremo essere l'argomento X, ma si scopre che l'argomento Y viene invece trattato. L'IA sta sbagliando.

Questo è un duplice problema. In primo luogo, l'argomento X non è stato quindi trattato come lo scopo presunto e sperato dell'inoculatore di AI. In secondo luogo, l'argomento Y è trattato, ma potremmo non aver voluto che le persone fossero immunizzate su quell'argomento.

Oops.

Le domande abbondano. Si sarebbe potuto impedire che ciò accadesse? Se succede, possiamo annullare l'argomento dell'immunizzazione Y? Possiamo cercare di coprire l'argomento dell'inoculazione X, o la persona sarà meno ricettiva o non ricettiva a causa dell'errore di destinazione da parte dell'IA originariamente?

Sorgono molte preoccupazioni problematiche.

Under-targeting dell'IA

Un'IA fornisce un'inoculazione sull'argomento Z. Le persone che ricevono l'inoculazione sembrano avere una reazione minima o quasi trascurabile. L'inoculazione è stata insufficiente per prendere piede.

Potresti essere tentato di affermare rapidamente che questo è facilmente risolvibile. Tutto quello che devi fare è ripetere l'inoculazione. Forse sì forse no.

L'inoculazione dell'IA potrebbe avere un valore così limitato che, indipendentemente dal fatto che le persone la sperimentino cento volte, il risultato è comunque un risultato marginale. Potrebbe essere necessario aumentare l'inoculazione piuttosto che ripeterla semplicemente.

Nel frattempo, immagina che venga fatto un tentativo per aumentare l'inoculazione alimentata dall'IA, ma questo va fuori bordo. La versione potenziata provoca iper-reazioni. Yikes, siamo passati di male in peggio.

Violazione informatica dell'IA

Immagina che l'IA venga ampiamente utilizzata per aiutare le persone a essere vaccinate dalla disinformazione e dalla disinformazione.

Una dipendenza generale prende piede dalle persone. Sanno e si aspettano che l'IA presenterà loro frammenti che apriranno loro gli occhi su ciò che è noto come disinformazione e disinformazione.

Va tutto bene, a quanto pare.

Un malfattore è in qualche modo in grado di fare una violazione informatica dell'IA. Introducono furtivamente nell'IA una disinformazione desiderata che vogliono che le persone pensino non sia disinformazione. L'IA è organizzata per far sembrare che la vera disinformazione sia vera. Inoltre, la vera informazione viene fatta apparire come disinformazione.

Le persone sono completamente snooked. Sono stati disinformati dall'IA. Inoltre, poiché erano diventati dipendenti dall'IA e credendo che l'IA stesse facendo la cosa giusta, cadono amo, lenza e platina per questa IA violata. Senza esitazione.

Data la facilità con cui la disinformazione può diffondersi ulteriormente, i malfattori potrebbero apprezzare il fatto che l'esistenza di questo tipo di IA sia il modo più semplice e veloce per far girare le loro bugie insidiose in tutto il mondo. Ironia della sorte, ovviamente, aver sfruttato l'inoculatore di IA per diffondere essenzialmente la malattia.

Conclusione

Dovremmo avere l'IA che gioca a giochi mentali con noi?

L'IA per la disinformazione e l'inoculazione di disinformazione potrebbe essere un minaccioso cavallo di Troia?

Puoi addurre un motivo sostanziale per preoccuparti di un simile incubo.

Altri si fanno beffe di una tale possibilità. Le persone sono abbastanza intelligenti da sapere quando l'IA tenta di ingannarle. Le persone non cadranno per tali palleggi. Solo gli idioti si farebbero fuorviare da una tale IA. Queste sono le solite repliche e controargomentazioni.

Non volendo sembrare meno che pieno di ammirazione per gli esseri umani e la natura umana, vorrei semplicemente suggerire che vi sono ampie indicazioni che gli esseri umani potrebbero innamorarsi dell'IA che li fuorvia.

C'è un problema ancora più grande che forse incombe su tutto questo.

Chi produce l'IA e in che modo l'IA decide algoritmicamente cosa è considerato disinformazione e disinformazione?

Un intero scontro a fuoco si sta svolgendo oggi nel mondo in generale su ciò che costituisce specificamente disinformazione e disinformazione. Alcuni affermano che i fatti sono fatti, quindi non ci può mai essere confusione su cosa siano informazioni corrette e informazioni improprie. Il diavolo però a volte è nei dettagli, questo è dannatamente sicuro.

Un'ultima osservazione per ora. Abraham Lincoln affermò notoriamente: "Puoi ingannare tutte le persone per un po' di tempo e alcune persone per tutto il tempo, ma non puoi ingannare tutte le persone per tutto il tempo".

L'intelligenza artificiale utilizzata per aiutare l'inoculazione dell'umanità dalla disinformazione e dalla disinformazione sarà uno strumento vitale per garantire che non tutte le persone possano essere ingannate tutto il tempo? O potrebbe essere usato per ingannare più persone per la maggior parte del tempo?

Il tempo ci dirà.

E questa non è sicuramente disinformazione o disinformazione.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-duction-psychological-inoculation-to-help-humans-with-disinformation/