L'etica dell'IA e la legge sull'IA potrebbero semplicemente essere spinte e spinte a imporre avvisi di sicurezza su tutta l'IA esistente e futura

Le tue attività quotidiane sono senza dubbio bombardate da mille o più avvertimenti precauzionali di un tipo o dell'altro.

Prova questi per la taglia:

  • Gli occhiali di sicurezza devono essere sempre indossati
  • Pericolo: sostanze chimiche pericolose nelle vicinanze
  • Alta tensione: stai fuori
  • Avvertimento: Sii consapevole di ciò che ti circonda
  • Gli oggetti nello specchio sono più vicini di quanto appaiano
  • Rimuovere il bambino prima di piegarlo (come indicato sui passeggini)
  • Attenzione: assicurati di ignorare questo messaggio

La maggior parte di questi sono segni o etichette pratici e del tutto premurosi che servono a mantenerci, si spera, al sicuro.

Tieni presente che ho nascosto alcuni "valori anomali" nell'elenco per fare alcuni punti degni di nota.

Ad esempio, alcune persone credono che sia assurdo che i passeggini abbiano un'etichetta apposta che ti avverte di non piegare il passeggino mentre il bambino è ancora seduto all'interno dell'aggeggio. Sebbene il segno sia certamente appropriato e doveroso utile, sembrerebbe che il buon senso di base sarebbe già sufficiente.

Quale persona non si renderebbe conto di sua spontanea volontà di dover prima rimuovere il bambino?

Ebbene, altri sottolineano che tali etichette servono a uno scopo importante. In primo luogo, qualcuno potrebbe davvero essere ignaro della necessità di rimuovere il bambino prima di ripiegare il passeggino. Forse la persona presumeva che il passeggino fosse stato progettato in modo astuto per garantire che l'operazione di piegatura non danneggiasse il bambino. O forse ci sono dispositivi di sicurezza integrati che impediscono di piegarsi ogni volta che c'è un bambino all'interno del passeggino. Eccetera.

Inoltre, potrebbe essere che la persona fosse distratta e avrebbe piegato senza pensare il passeggino, abbracciando il bambino e tutto il resto, ma l'etichetta fortunatamente ha spinto la persona a non farlo (alcuni sosterrebbero che sembra improbabile che una persona simile notasse l'etichetta comunque). C'è anche il fatto che qualcuno potrebbe citare in giudizio il produttore del passeggino se tale etichetta non fosse presente. Puoi immaginare una di quelle pesanti cause legali in cui un bambino è stato ferito e il genitore ha deciso di raccogliere un milione di dollari perché sul passeggino mancava un segnale di avvertimento. L'azienda di passeggini si sarebbe pentita di non aver speso i pochi centesimi necessari per realizzare e incollare i segnali di pericolo sui propri passeggini.

Dai un'occhiata da vicino anche all'ultimo dei messaggi di avviso che avevo elencato sopra.

Ho scelto di inserire il messaggio viscido sull'assicurarmi di ignorare il messaggio poiché ci sono molte etichette di avviso false che le persone acquistano o fanno solo per divertimento in questi giorni. Questo è un vero cervello filosofico. Se leggi l'avviso che dice di ignorare l'avviso, cosa devi fare esattamente dopo aver letto l'avviso? L'hai già letto, quindi è apparentemente nella tua mente. Certo, puoi ignorarlo, ma poi di nuovo, non sei affatto informato su cosa dovresti ignorare. In tondo, questo scherzo va.

Naturalmente, le etichette di avvertimento in buona fede non sono di solito di natura scherzosa o umoristica.

Dovremmo prendere gli avvertimenti abbastanza seriamente.

Di solito, se non si rispetta un avvertimento annotato, lo si fa con un grave rischio personale. E potrebbe anche essere che se non osservi e non rispetti l'avvertimento, metterai potenzialmente anche gli altri a rischio indebito. Considera l'atto di guidare un'auto. Nel momento in cui sei al volante di un'auto, le tue azioni come conducente possono danneggiare te stesso, inoltre puoi danneggiare i tuoi passeggeri e puoi danneggiare altri come persone in altre auto o pedoni nelle vicinanze. In questo senso, un avvertimento non è solo a tuo vantaggio, è probabile che anche a beneficio degli altri.

Perché sto coprendo questi aspetti delle avvertenze e delle etichette di avvertenza?

Perché alcuni affermano con veemenza che abbiamo bisogno di segnali di avvertimento e cautela sull'odierna Intelligenza Artificiale (AI).

In realtà, l'idea è di mettere tali etichette sull'IA di oggi e anche sull'IA futura. Tutto sommato, tutta l'IA finirebbe per avere una qualche forma o variante di un'indicazione di avvertimento o cautela ad essa associata.

Buona idea o cattiva idea?

Pratico o impraticabile?

Andiamo avanti e disimballiamo la concezione e vediamo cosa possiamo farne.

Vorrei prima gettare alcune basi essenziali sull'IA e in particolare sull'etica dell'IA e sulla legge sull'IA, in modo da assicurarmi che l'argomento degli avvisi dell'IA sia contestualmente sensato. Per quelli di voi generalmente interessati all'IA etica e anche alla legge sull'IA, vedere la mia copertura ampia e continua su il link qui ed il link qui, solo per citarne alcuni.

La crescente consapevolezza dell'IA etica e anche della legge sull'IA

La recente era dell'IA era inizialmente considerata come tale AI in bene, il che significa che potremmo usare l'IA per il miglioramento dell'umanità. Sulla scia di AI in bene è arrivata la consapevolezza che anche noi siamo immersi AI for Bad. Ciò include l'IA che è concepita o auto-alterata per essere discriminatoria e fa scelte computazionali che infondono pregiudizi indebiti. A volte l'IA è costruita in questo modo, mentre in altri casi vira in quel territorio spiacevole.

Voglio essere assolutamente certo che siamo sulla stessa linea sulla natura dell'IA di oggi.

Non c'è nessuna IA oggi che sia senziente. Non abbiamo questo. Non sappiamo se l'IA senziente sarà possibile. Nessuno può prevedere in modo appropriato se raggiungeremo l'IA senziente, né se l'IA senziente sorgerà in qualche modo miracolosamente spontaneamente in una forma di supernova cognitiva computazionale (di solito indicata come la singolarità, vedi la mia copertura su il link qui).

Il tipo di IA su cui mi sto concentrando consiste nell'IA non senziente che abbiamo oggi. Se volessimo speculare selvaggiamente sull'IA senziente, questa discussione potrebbe andare in una direzione radicalmente diversa. Un'IA senziente sarebbe presumibilmente di qualità umana. Dovresti considerare che l'IA senziente è l'equivalente cognitivo di un essere umano. Inoltre, dal momento che alcuni ipotizzano che potremmo avere un'IA super intelligente, è concepibile che tale IA possa finire per essere più intelligente degli umani (per la mia esplorazione dell'IA super intelligente come possibilità, vedi la copertura qui).

Suggerirei caldamente di mantenere le cose con i piedi per terra e di considerare l'odierna IA computazionale non senziente.

Renditi conto che l'IA di oggi non è in grado di "pensare" in alcun modo alla pari del pensiero umano. Quando interagisci con Alexa o Siri, le capacità di conversazione potrebbero sembrare simili alle capacità umane, ma la realtà è che è computazionale e manca di cognizione umana. L'ultima era dell'IA ha fatto ampio uso di Machine Learning (ML) e Deep Learning (DL), che sfruttano il pattern matching computazionale. Ciò ha portato a sistemi di intelligenza artificiale che hanno l'aspetto di inclinazioni simili a quelle umane. Nel frattempo, non c'è nessuna IA oggi che abbia una parvenza di buon senso e nemmeno la meraviglia cognitiva del pensiero umano robusto.

Fai molta attenzione all'antropomorfizzazione dell'IA di oggi.

ML/DL è una forma di pattern matching computazionale. L'approccio usuale consiste nell'assemblare i dati su un'attività decisionale. I dati vengono inseriti nei modelli di computer ML/DL. Questi modelli cercano di trovare modelli matematici. Dopo aver trovato tali schemi, se così trovati, il sistema di intelligenza artificiale utilizzerà tali schemi quando incontra nuovi dati. Alla presentazione di nuovi dati, i modelli basati sui dati "vecchi" o storici vengono applicati per prendere una decisione attuale.

Penso che tu possa indovinare dove sta andando. Se gli esseri umani che hanno preso le decisioni modellate hanno incorporato pregiudizi spiacevoli, è probabile che i dati lo riflettano in modi sottili ma significativi. La corrispondenza dei modelli computazionali di Machine Learning o Deep Learning cercherà semplicemente di imitare matematicamente i dati di conseguenza. Non vi è alcuna parvenza di buon senso o altri aspetti senzienti della modellazione realizzata dall'IA di per sé.

Inoltre, anche gli sviluppatori di IA potrebbero non rendersi conto di cosa sta succedendo. La matematica arcana nel ML/DL potrebbe rendere difficile scovare i pregiudizi ora nascosti. Spereresti e ti aspetteresti giustamente che gli sviluppatori di intelligenza artificiale mettano alla prova i pregiudizi potenzialmente sepolti, anche se questo è più complicato di quanto potrebbe sembrare. Esiste una solida possibilità che, anche con test relativamente estesi, ci saranno pregiudizi ancora incorporati nei modelli di corrispondenza dei modelli del ML/DL.

Potresti in qualche modo usare il famoso o famigerato adagio di spazzatura in spazzatura. Il fatto è che questo è più simile ai pregiudizi, che vengono insidiosamente infusi quando i pregiudizi vengono sommersi dall'IA. L'algoritmo decisionale (ADM) dell'IA si carica assiomaticamente di disuguaglianze.

Non bene.

Tutto ciò ha implicazioni notevolmente significative sull'etica dell'IA e offre una pratica finestra sulle lezioni apprese (anche prima che tutte le lezioni accadano) quando si tratta di cercare di legiferare sull'IA.

Oltre a impiegare i precetti di etica dell'IA in generale, c'è una domanda corrispondente se dovremmo avere leggi per governare i vari usi dell'IA. Nuove leggi vengono diffuse a livello federale, statale e locale che riguardano la gamma e la natura di come dovrebbe essere ideata l'IA. Lo sforzo per redigere e promulgare tali leggi è graduale. AI Ethics serve come minimo un ripiego considerato, e quasi certamente in una certa misura sarà direttamente incorporato in queste nuove leggi.

Tieni presente che alcuni sostengono categoricamente che non abbiamo bisogno di nuove leggi che coprano l'IA e che le nostre leggi esistenti siano sufficienti. Avvertono che se promulghiamo alcune di queste leggi sull'IA, uccideremo l'oca d'oro reprimendo i progressi nell'IA che offrono immensi vantaggi per la società.

Nelle colonne precedenti, ho trattato i vari sforzi nazionali e internazionali per elaborare e emanare leggi che regolano l'IA, vedi il link qui, Per esempio. Ho anche trattato i vari principi e linee guida dell'etica dell'intelligenza artificiale che varie nazioni hanno identificato e adottato, incluso ad esempio lo sforzo delle Nazioni Unite come il set dell'etica dell'intelligenza artificiale dell'UNESCO che quasi 200 paesi hanno adottato, vedi il link qui.

Ecco un utile elenco chiave di volta dei criteri o delle caratteristiche dell'IA etica relativi ai sistemi di intelligenza artificiale che ho precedentemente esplorato da vicino:

  • Trasparenza
  • Giustizia ed equità
  • Non maleficenza
  • Responsabilità
  • Privacy
  • Beneficenza
  • Libertà e autonomia
  • Affidati ad
  • Sostenibilità
  • Dignità
  • Solidarietà

Questi principi di etica dell'intelligenza artificiale dovrebbero essere utilizzati seriamente dagli sviluppatori di intelligenza artificiale, insieme a quelli che gestiscono gli sforzi di sviluppo dell'intelligenza artificiale e persino quelli che alla fine mettono in campo ed eseguono la manutenzione dei sistemi di intelligenza artificiale.

Tutte le parti interessate durante l'intero ciclo di vita dello sviluppo e dell'utilizzo dell'IA sono considerate nell'ambito del rispetto delle norme stabilite dell'IA etica. Questo è un punto importante poiché il presupposto abituale è che "solo i programmatori" o coloro che programmano l'IA sono soggetti all'adesione alle nozioni di etica dell'IA. Come sottolineato in precedenza qui, ci vuole un villaggio per ideare e mettere in campo l'IA, e per questo l'intero villaggio deve essere esperto e attenersi ai precetti dell'Etica dell'IA.

Recentemente ho anche esaminato il Carta dei diritti dell'IA che è il titolo ufficiale del documento ufficiale del governo degli Stati Uniti intitolato "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" che è stato il risultato di uno sforzo durato un anno dall'Office of Science and Technology Policy (OSTP ). L'OSTP è un'entità federale che serve a consigliare il Presidente americano e l'Ufficio Esecutivo degli Stati Uniti su vari aspetti tecnologici, scientifici e ingegneristici di importanza nazionale. In questo senso, puoi dire che questa Carta dei diritti dell'IA è un documento approvato e approvato dall'attuale Casa Bianca degli Stati Uniti.

Nella Carta dei diritti AI, ci sono cinque categorie chiave di volta:

  • Sistemi sicuri ed efficaci
  • Protezioni contro la discriminazione algoritmica
  • Privacy dei dati
  • Avviso e spiegazione
  • Alternative umane, considerazione e ripiego

Ho esaminato attentamente quei precetti, vedete il link qui.

Ora che ho gettato una base utile su questi argomenti relativi all'etica dell'IA e alla legge sull'IA, siamo pronti per entrare nell'inebriante argomento se l'IA dovrebbe avere o meno etichette di avviso.

Preparati per un viaggio informativo che apre gli occhi.

Mettere etichette di avvertimento sull'IA come mezzo per proteggere l'umanità

C'è un crescente ronzio sul fatto che forse l'IA dovrebbe arrivare con un avvertimento di qualche tipo.

Ad esempio, in un recente articolo in MIT Technology Review che ha discusso del crescente interesse nel fare audit dell'IA, è emersa l'idea di fornire segnali di avvertimento: "La crescita di questi audit suggerisce che un giorno potremmo vedere avvisi in stile pacchetto di sigarette che i sistemi di IA potrebbero danneggiare la tua salute e sicurezza. Altri settori, come quello chimico e alimentare, hanno audit regolari per garantire che i prodotti siano sicuri da usare. Potrebbe una cosa del genere diventare la norma nell'IA?" (MIT Technology Review, Melissa Heikkilä, 24 ottobre 2022).

Parliamo un po' in generale dei segnali di avvertimento e cautela.

In generale, conosciamo già tutti i segnali di avvertimento e cautela su numerosi prodotti e servizi di uso quotidiano. A volte la segnaletica di sicurezza è prevista dalla legge come obbligatoria, mentre in altri casi vi è discrezione sull'utilizzo di tale segnaletica. Inoltre, alcuni segnali di sicurezza sono standardizzati, ad esempio specificati secondo lo standard ANSI Z535 e lo standard OSHA 1910.14. Tali norme riguardano aspetti quali la formulazione del segno, i colori ei caratteri utilizzati, la forma del segno e vari altri dettagli.

Ha senso avere standard per tali segnali di pericolo. Ogni volta che vedi un segno del genere, se soddisfa gli standard dichiarati, è più probabile che tu creda che il segno sia legittimo, inoltre hai bisogno di un'elaborazione cognitiva minore per analizzare e dare un senso al segno. Per i segnali che non sono di un approccio standardizzato, spesso devi calcolare mentalmente ciò che il segnale ti sta dicendo, forse perdendo tempo prezioso per agire o potresti giudicare completamente male il segnale e non comprendere adeguatamente l'avvertimento a portata di mano.

Può esistere una gamma di tali segni, per i quali sono spesso classificati in questo modo:

  • Segnale di pericolo: massima preoccupazione e indicativo di un pericolo immediato con probabili gravi conseguenze
  • Segnale di avvertimento: Indicativo di un pericolo inferiore al “pericolo” ma comunque abbastanza grave
  • Segno di attenzione: Indicativo di un potenziale pericolo che è meno di un "avvertimento" ma comunque serio
  • Segnale di notifica: Indicativo di un preavviso informativo che è meno di “cautela” ma comporta comunque aspetti preoccupanti

Dati i precedenti precedenti su avvertimenti e segnali di cautela, possiamo andare avanti e provare ad applicarli contestualmente all'uso dell'IA.

In primo luogo, potremmo in qualche modo concordare sul fatto che la segnaletica AI potrebbe essere in un intervallo di gravità simile a quello consueto con i segnali di tutti i giorni, in modo tale che:

  • Segnale di pericolo AI: AI di massima preoccupazione e indicativa di un pericolo immediato con probabili gravi conseguenze
  • Segnale di avvertimento AI: AI indicativo di un pericolo inferiore al "pericolo" ma comunque abbastanza grave
  • Segnale di avvertenza AI: L'IA indica un potenziale pericolo che è meno di un "avvertimento" ma comunque serio
  • Segno di notifica AI: L'IA indica un avviso informativo che è meno di "cautela" ma comporta comunque aspetti preoccupanti

Il succo è che non tutta l'IA sarà ugualmente sconcertante. Potrebbe essere che un'IA ponga rischi enormi o abbia solo rischi marginali. Di conseguenza, la segnaletica dovrebbe riflettere quale è quale. Se tutti gli avvisi o i segnali di avvertimento dell'IA venissero semplicemente mostrati come dello stesso calibro, presumibilmente non sapremmo o non saremmo consapevoli se essere molto preoccupati o solo leggermente preoccupati per l'IA. L'uso di uno schema di formulazione tipizzato potrebbe semplificare la vita quando si vedono e si interpretano i segnali di pericolo relativi all'IA.

Ti starai chiedendo cos'altro direbbero i segni in termini di specificità del messaggio da trasmettere.

Questa è sicuramente una questione più difficile da affrontare. Le possibilità dell'IA di fare cose considerate pericolose o preoccupanti sarebbero enormemente grandi, quasi infinite. Possiamo ridurli in un set di routine che è esplicitato in poche parole ciascuno? O dovremo consentire un approccio più libero su come andrà la formulazione?

Ti lascio riflettere su questa domanda aperta.

Andando avanti, tendiamo a vedere segnali di avvertimento affissi sugli oggetti. Un sistema di IA non è necessariamente un "oggetto" nello stesso senso della consueta apposizione di segni. Ciò solleva la questione di dove verranno presentati i segnali di avvertimento dell'IA.

Potrebbe essere che quando si esegue un'app su dire al proprio smartphone che se sta utilizzando l'intelligenza artificiale viene visualizzato un messaggio che contiene l'avviso relativo all'intelligenza artificiale. L'app ti avviserà dell'uso sottostante dell'IA. Questo potrebbe essere un messaggio pop-up o potrebbe essere presentato in una varietà di modi visivi e persino uditivi.

C'è anche la situazione in cui utilizzi un servizio supportato dall'IA, anche se potresti non interagire direttamente con l'IA. Ad esempio, potresti avere una conversazione con un agente umano sull'ottenere un mutuo per la casa, per il quale l'agente è silenziosamente dietro le quinte utilizzando un sistema di intelligenza artificiale per guidare i propri sforzi.

Pertanto, dovremmo anticipare che i segnali di avvertimento dell'IA dovrebbero essere presenti in entrambi i casi d'uso dell'IA, in modo tale che:

  • Intelligenza artificiale specifica per prodotto: L'IA come prodotto dovrebbe avere veri e propri segnali di avvertimento o cautela
  • AI orientata ai servizi: L'IA come servizio (direttamente o indirettamente) dovrebbe avere segnali di avvertimento o cautela dell'IA

Gli scettici sarebbero certamente pronti a suggerire che il segnale di avvertimento dell'IA potrebbe essere mascherato in modo subdolo dal produttore dell'app in modo che l'avviso non sia particolarmente evidente. Forse l'avviso appare per un breve istante e davvero non ti accorgi che è stato mostrato. Un altro trucco subdolo sarebbe quello di farne una specie di gioco, apparentemente minando la serietà dell'allerta e inducendo le persone a pensare che l'avvertimento sia irrilevante.

Sì, puoi praticamente scommettere che qualsiasi segnale di avvertimento relativo all'IA verrà ingannato e utilizzato in modi che non rientrano nello spirito e nell'intento del messaggio di avvertimento che dovrebbero trasmettere.

Tutti questi scetticismi coincidono nel fatto che useremmo l'etica dell'IA come "leggi morbide" per cercare di portare avanti avvisi e precauzioni relative all'IA, o se faremmo uso di "leggi dure" comprese le leggi emanate con il sostegno dei tribunali. In teoria, la spinta alla soft law consentirebbe una maggiore parvenza di giocare con la questione, mentre le leggi sui libri avrebbero il potenziale per l'applicazione del governo e produrrebbero una maggiore severità.

Un'altra preoccupazione è se la segnaletica AI farebbe comunque la differenza.

Molte ricerche sul comportamento dei consumatori tendono a mostrare risultati confusi quando si tratta di fornire etichette di avvertimento per i consumatori. A volte gli avvisi sono efficaci, a volte no. Applichiamo alcune di queste ricerche al contesto dell'IA.

Considera questi aspetti:

  • rilevamento: Coloro che utilizzano l'IA che contiene un segnale di avvertimento dell'IA praticabile noteranno o rileverebbero attivamente che il segnale viene loro mostrato (supponendo che tale segnaletica si sia verificata)?
  • Comprensione: Per coloro che se ne sono accorti, comprenderebbero o comprenderebbero ciò che il segnale di avvertimento dell'IA sta cercando di suggerire loro?
  • Azione: Per coloro che fanno quel salto mentale, il segnale di avvertimento dell'IA li spingerà all'azione o servirà in altro modo a guidare il loro comportamento di conseguenza?

Puoi anticipare che se lo slancio guadagna per avere segnali di avvertimento dell'IA, i ricercatori studieranno da vicino la questione. L'idea sarebbe quella di aiutare a chiarire in quali circostanze gli avvertimenti sono utili e quando non lo sono. Questo a sua volta si riferisce al design e al look and feel coinvolti. Potremmo anche aspettarci che il pubblico in generale debba essere istruito o informato sull'emergere di questi segnali di avvertimento e cautela dell'IA in modo che si abituino ad essi.

Ci sono molti colpi di scena da considerare.

Il segnale di avviso o avvertimento AI deve apparire solo all'avvio dell'app in uso? Forse il punto di partenza non è sufficiente da solo. Una persona potrebbe a prima vista pensare che l'app stia solo andando sul sicuro usando un avviso e quindi non dare molta attenzione all'avviso. Una volta che la persona è a metà dell'utilizzo dell'app, forse sarebbe giustificato un ulteriore avviso. A quel punto, la persona è più consapevole di ciò che l'app sta facendo e potrebbe essersi già dimenticata del messaggio di avviso indicato in precedenza.

L'avviso o l'avvertenza dell'IA potrebbe quindi verificarsi:

  • Prima di avviare l'app e proprio mentre l'app sta per essere richiamata
  • Presentato una volta avviata l'app e solo al punto di partenza
  • Indicato all'inizio e di nuovo a metà
  • Mostrato più volte durante l'uso dell'IA
  • Dato al termine dell'utilizzo dell'app
  • Fornire dopo l'uscita dall'app e possibilmente anche minuti, ore o giorni dopo
  • Etc.

Ritieni che la persona che utilizza l'IA debba confermare o riconoscere tali avvisi o segnali di avvertimento dell'IA?

Alcuni insisterebbero sul fatto che alla persona dovrebbe essere richiesto di riconoscere di aver visto gli avvertimenti. Questo potrebbe potenzialmente prevenire coloro che potrebbero affermare che non c'era alcun messaggio di avviso. Potrebbe anche indurre le persone a prendere più sul serio i messaggi, dato che viene loro chiesto di confermare di aver osservato l'indicazione di avviso.

Ecco una domanda difficile per te.

Qualora contro tutti i L'IA deve fornire un avviso o un'indicazione di sicurezza?

Si potrebbe obiettare che sì, tutta l'IA deve avere questo. Anche se l'IA è solo un rischio marginale per la sicurezza, dovrebbe comunque avere una qualche forma di segnale di avvertimento, possibilmente solo una notifica o un'indicazione informativa. Altri contesterebbero questa affermazione. Vorrebbero controbattere che stai esagerando. Non tutta l'IA ha bisogno di questo. Inoltre, se forzi tutta l'IA ad averlo, diluirai lo scopo. Le persone diventeranno insensibili nel vedere le indicazioni di avvertimento. L'intero approccio diventerà una farsa.

Da un punto di vista correlato, considera ciò che è probabile che diranno i produttori di intelligenza artificiale.

Un punto di vista sarebbe che questo sarà un problema per il tu-sai-cosa mettere in atto. Dover modificare tutti i tuoi sistemi di intelligenza artificiale e aggiungere questa funzionalità potrebbe essere costoso. Aggiungerlo su base prospettica potrebbe essere meno costoso, anche se c'è comunque un costo associato all'inclusione di questa disposizione.

La foschia è un'altra potenziale lamentela. Che tipo di messaggio deve essere mostrato? Se non ci sono standard, significa che i produttori di IA dovranno creare qualcosa di nuovo. Non solo questo costo aggiuntivo, ma potrebbe anche aprire la porta a essere citati in giudizio. Puoi immaginare che un produttore di IA potrebbe essere coinvolto nel compito che il suo avviso non era buono come qualche altro sistema di intelligenza artificiale. Gli avvocati finiranno per fare un pacco dalla confusione che ne deriva.

C'è anche la preoccupazione che le persone saranno indebitamente spaventate da questi messaggi di sicurezza.

Un produttore di intelligenza artificiale potrebbe vedere un calo precipitoso del numero di utenti a causa di un messaggio di sicurezza che ha semplicemente lo scopo di fornire un'avvertenza informativa. Le persone non sapranno cosa pensare del messaggio. Se non hanno mai visto tali messaggi prima, potrebbero impazzire immediatamente ed evitare inutilmente l'uso dell'IA.

Cito queste sfaccettature perché alcuni stanno già proclamando che "non può far male" iniziare a includere avvisi di intelligenza artificiale o messaggi di sicurezza. Per loro, l'idea è ideale come la torta di mele. Nessuno potrebbe seriamente confutare i vantaggi di richiedere sempre la sicurezza o gli avvisi relativi all'IA. Ma ovviamente, questo non è un modo reale di pensare alla questione.

Potresti anche andare oltre e affermare che i messaggi di avviso dell'IA potrebbero produrre una qualche forma di isteria di massa. Se all'improvviso iniziassimo a forzare i sistemi di intelligenza artificiale a ricevere tali messaggi, le persone potrebbero fraintendere l'intento. Vedete, ci sono molte esortazioni che stiamo affrontando una crisi esistenziale dell'IA, per cui l'IA conquisterà il mondo e spazzerà via l'umanità, vedete il link qui per la mia analisi di questo tipo di affermazioni.

L'uso del messaggio di avviso dell'IA potrebbe "ispirare" alcune persone a credere che la fine sia vicina. Perché altrimenti i messaggi dovrebbero essere visualizzati ora? Certamente, è un'indicazione che finalmente l'IA si sta preparando a diventare i nostri oppressori signori.

Una sorta di risultato disperatamente cupo del tentativo di fare la cosa giusta rendendo il pubblico consapevole di come l'IA può essere infusa con capacità discriminatorie o altro AI for Bad aspetti.

Conclusione

James Russell Lowell, il famoso poeta americano, una volta disse: "Una spina di esperienza vale un intero deserto di avvertimento".

Riporto l'alta osservazione per fare alcuni commenti conclusivi sulla questione degli avvisi dell'IA o dei messaggi di sicurezza.

È probabile che fino a quando non avremo una comprensione alquanto diffusa dell'intelligenza artificiale che compie cattive azioni, non ci sarà molto clamore per i messaggi di avviso relativi all'IA. Quei produttori di intelligenza artificiale che scelgono di farlo volontariamente saranno forse lodati, anche se potrebbero anche ritrovarsi inavvertitamente molestati. Alcuni esperti potrebbero inseguirli per aver sfruttato l'IA che apparentemente ha bisogno di avvertimenti, tanto per cominciare, trascurando nel frattempo di rendersi conto che stavano cercando di andare per primi e tutti quegli altri produttori di IA sono in ritardo.

Dannato se lo fai, forse non dannato se non lo fai.

Un'altra considerazione riguarda la trasformazione di quella che sembra essere una bella idea concettuale in una pratica pratica e utile. È facile agitare le mani e gridare vagamente al vento che l'IA dovrebbe avere messaggi di avviso e sicurezza. La parte difficile arriva quando si decide quali dovrebbero essere quei messaggi, quando e dove dovrebbero essere presentati, se o in quale misura il loro costo stia derivando benefici sufficienti e così via.

Daremo qui a James Russell Lowell l'ultima parola (poeticamente così) su questo argomento per ora: "La creatività non è trovare una cosa, ma farne qualcosa dopo che è stata trovata".

Credo sia ora di rimboccarci le maniche e metterci al lavoro. E questo non è solo un avvertimento, è un'azione.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- avvisi-su-tutto-esistente-e-futuro-ai/