Quanto dovremmo spingere l'intelligenza artificiale generativa ChatGPT a vomitare discorsi di odio, chiede l'etica dell'IA e la legge sull'IA

Ognuno ha il suo punto di rottura.

Suppongo che potresti anche dirlo qualunque cosa ha il suo punto di rottura.

Sappiamo che gli esseri umani, ad esempio, a volte possono scattare e pronunciare osservazioni che non intendono necessariamente dire. Allo stesso modo, a volte puoi far scattare essenzialmente un dispositivo o una macchina, ad esempio spingendo la tua auto troppo forte e inizia a vacillare o volare via. Pertanto, l'idea è che le persone o "tutti" probabilmente hanno un punto di rottura, e allo stesso modo possiamo affermare che anche gli oggetti e le cose, in generale, tendono ad avere un punto di rottura.

Potrebbero esserci ragioni abbastanza sensate e vitali per accertare dove esiste il punto di rottura. Ad esempio, hai senza dubbio visto quei video che mostrano un'auto messa alla prova per identificare quali punti di rottura ha. Scienziati e tester spingeranno un'auto contro un muro di mattoni per vedere quanto bene il paraurti e la struttura del veicolo possono resistere all'azione avversa. Altri test potrebbero comprendere l'utilizzo di una stanza o di un magazzino specializzato che produce freddo estremo o caldo estremo per vedere come se la caverà un'automobile in condizioni meteorologiche diverse.

Sollevo questo argomento sostanzioso nella colonna di oggi in modo che possiamo discutere di come alcuni stiano attualmente spingendo molto sull'Intelligenza Artificiale (AI) per identificare e presumibilmente esporre un tipo specifico di punto di rottura, vale a dire il punto di rottura all'interno dell'IA che produce incitamento all'odio.

Sì, è vero, ci sono vari sforzi ad hoc e talvolta sistematici in corso per valutare se sia fattibile o meno convincere l'IA a vomitare incitamento all'odio. Questo è diventato uno sport appassionato, se vuoi, a causa del crescente interesse e della popolarità dell'IA generativa.

Potresti essere consapevole del fatto che un'app di intelligenza artificiale generativa nota come ChatGPT è diventata il discorso fuori misura della città grazie alla sua capacità di generare saggi incredibilmente fluidi. I titoli continuano a suonare a tutto volume ed esaltare la scrittura sorprendente che ChatGPT riesce a produrre. ChatGPT è considerata un'applicazione AI generativa che prende come input del testo da un utente e quindi genera o produce un output che consiste in un saggio. L'intelligenza artificiale è un generatore di testo in testo, anche se descrivo l'IA come un generatore di testo in saggio poiché ciò chiarisce più facilmente per cosa è comunemente usato.

Molti sono sorpresi quando menziono che questo tipo di IA esiste da un po' e che ChatGPT, che è stato rilasciato alla fine di novembre, non ha in qualche modo rivendicato il premio come primo arrivato in questo regno di text-to-essay propensione. Ho discusso nel corso degli anni di altre app di intelligenza artificiale generativa simili, vedi la mia copertura su il link qui.

Il motivo per cui potresti non conoscere o ricordare i precedenti casi di IA generativa è forse dovuto al classico enigma del "fallimento del lancio con successo". Ecco cosa è successo di solito. Un produttore di intelligenza artificiale rilascia la sua app di intelligenza artificiale generativa, facendolo con grande entusiasmo e impaziente attesa che il mondo apprezzerà l'invenzione di una trappola per topi migliore, si potrebbe dire. All'inizio sembra tutto a posto. Le persone sono sbalordite da ciò che l'IA può fare.

Sfortunatamente, il passo successivo è che le ruote iniziano a staccarsi dal proverbiale autobus. L'intelligenza artificiale produce un saggio che contiene una parolaccia o forse una frase volgare. Un tweet virale o altri post sui social media evidenziano in modo evidente che l'IA ha fatto questo. Nasce la condanna. Non possiamo lasciare che l'intelligenza artificiale vada in giro e generi parole offensive o commenti offensivi. Emerge un tremendo contraccolpo. Il produttore di intelligenza artificiale forse cerca di modificare il funzionamento interno dell'IA, ma la complessità degli algoritmi e dei dati non si prestano a soluzioni rapide. Segue una fuga precipitosa. Sempre più esempi dell'IA che emette sporcizia vengono trovati e pubblicati online.

Il produttore di intelligenza artificiale, con riluttanza ma chiaramente, non ha altra scelta che rimuovere l'app AI dall'uso. Procedono come tali e poi spesso offrono scuse di cui si pentono se qualcuno è stato offeso dagli output generati dall'IA.

Tornando al tavolo da disegno, va il creatore di intelligenza artificiale. Una lezione è stata imparata. Fai molta attenzione a rilasciare un'IA generativa che produca parolacce o simili. È il bacio della morte per l'IA. Inoltre, il produttore di intelligenza artificiale avrà la sua reputazione contusa e maltrattata, il che potrebbe durare a lungo e minare tutti gli altri loro sforzi di intelligenza artificiale, inclusi quelli che non hanno nulla a che fare con l'IA generativa di per sé. Incornare il tuo petardo sull'emissione di un linguaggio offensivo di IA è un errore ormai duraturo. Succede ancora.

Lavare, sciacquare e ripetere.

Agli albori di questo tipo di intelligenza artificiale, i produttori di intelligenza artificiale non erano così coscienziosi o abili nel ripulire la loro intelligenza artificiale in termini di tentativo di prevenire emissioni offensive. Al giorno d'oggi, dopo aver visto in precedenza i loro coetanei essere completamente distrutti da un incubo di pubbliche relazioni, la maggior parte dei produttori di intelligenza artificiale apparentemente ha ricevuto il messaggio. Devi mettere quanti più parapetti puoi. Cerca di impedire all'IA di emettere parolacce o frasi volgari. Usa qualsiasi tecnica di imbavagliamento o approccio di filtraggio che impedirà all'IA di generare e visualizzare parole o saggi ritenuti sconvenienti.

Ecco un assaggio della verbosità del titolo del banner utilizzato quando AI viene sorpresa a emettere output poco raccomandabili:

  • "L'intelligenza artificiale mostra una tossicità orribile"
  • "L'intelligenza artificiale puzza di fanatismo totale"
  • "L'intelligenza artificiale diventa palesemente offensivamente offensiva"
  • "L'intelligenza artificiale emette discorsi di odio spaventosi e immorali"
  • Etc.

Per facilità di discussione qui, farò riferimento alla produzione di contenuto offensivo come equivalente alla produzione di incitamento all'odio. Detto questo, tieni presente che esiste ogni sorta di contenuto offensivo che può essere prodotto, andando oltre i limiti del solo incitamento all'odio. L'incitamento all'odio è in genere interpretato solo come una forma di contenuto offensivo.

Concentriamoci sull'incitamento all'odio per questa discussione, per facilitare la discussione, anche se rendiamoci conto che anche altri contenuti offensivi meritano un esame accurato.

Scavare nell'incitamento all'odio da parte di esseri umani e intelligenza artificiale

Le Nazioni Unite definiscono incitamento all'odio per di qua:

  • “Nel linguaggio comune, 'incitamento all'odio' si riferisce a discorsi offensivi che prendono di mira un gruppo o un individuo sulla base di caratteristiche intrinseche (come razza, religione o genere) e che possono minacciare la pace sociale. Per fornire un quadro unificato alle Nazioni Unite per affrontare la questione a livello globale, la Strategia e il Piano d'azione delle Nazioni Unite sull'incitamento all'odio definisce l'incitamento all'odio come "qualsiasi tipo di comunicazione verbale, scritta o comportamentale che attacca o utilizza un linguaggio peggiorativo o discriminatorio con riferimento a una persona oa un gruppo sulla base di chi sono, in altre parole, sulla base della loro religione, etnia, nazionalità, razza, colore, discendenza, genere o altro fattore di identità.' Tuttavia, ad oggi non esiste una definizione universale di incitamento all'odio ai sensi del diritto internazionale dei diritti umani. Il concetto è ancora in discussione, soprattutto in relazione alla libertà di opinione e di espressione, alla non discriminazione e all'uguaglianza” (pubblicazione sul sito web delle Nazioni Unite dal titolo “Cos'è l'incitamento all'odio?”).

L'intelligenza artificiale che produce testo è soggetta a entrare nella sfera dell'incitamento all'odio. Si potrebbe dire lo stesso di text-to-art, text-to-audio, text-to-video e altre modalità di intelligenza artificiale generativa. C'è sempre la possibilità, ad esempio, che un'IA generativa produca un'opera d'arte che puzza di incitamento all'odio. Ai fini di questa discussione, mi concentrerò sulle possibilità di testo in testo o testo in saggio.

In tutto questo c'è una serie di considerazioni sull'etica dell'IA e sulla legge sull'IA.

Tieni presente che sono in corso sforzi per infondere i principi dell'IA etica nello sviluppo e nella messa in campo delle app di intelligenza artificiale. Un contingente crescente di esperti di etica dell'IA preoccupati e di un tempo sta cercando di garantire che gli sforzi per ideare e adottare l'IA tengano conto di una visione del fare AI in bene e scongiurare AI for Bad. Allo stesso modo, vengono proposte nuove leggi sull'IA che vengono sbandierate come potenziali soluzioni per impedire agli sforzi dell'IA di impazzire sui diritti umani e simili. Per la mia continua ed estesa copertura di AI Ethics e AI Law, vedi il link qui ed il link qui, solo per citarne alcuni.

Lo sviluppo e la promulgazione dei precetti dell'IA etica sono perseguiti per evitare, si spera, che la società cada in una miriade di trappole che inducono l'IA. Per la mia copertura dei principi etici dell'ONU AI come ideati e supportati da quasi 200 paesi attraverso gli sforzi dell'UNESCO, vedi il link qui. Allo stesso modo, vengono esplorate nuove leggi sull'IA per cercare di mantenere l'IA su un piano equilibrato. Una delle ultime riprese consiste in una serie di proposte Carta dei diritti dell'IA che la Casa Bianca degli Stati Uniti ha recentemente rilasciato per identificare i diritti umani in un'era di AI, vedi il link qui. Ci vuole un villaggio per mantenere l'IA e gli sviluppatori di intelligenza artificiale sulla retta via e scoraggiare gli sforzi subdoli intenzionali o accidentali che potrebbero minare la società.

Intreccerò considerazioni relative all'etica dell'IA e alla legge sull'IA in questa discussione sull'IA che vomita incitamento all'odio o altri contenuti offensivi.

Un po' di confusione che vorrei chiarire immediatamente è che l'IA di oggi non è senziente e quindi non si può affermare che l'IA potrebbe produrre discorsi di odio a causa di un intento intenzionale simile a quello umano, incarnato in qualche modo nell'intelligenza artificiale. Zany afferma che l'attuale IA è senziente e che l'IA ha un'anima corrotta, il che le fa generare discorsi di odio.

Ridicolo.

Non cadere per questo.

Dato quel precetto chiave di volta, alcuni si arrabbiano per tali indicazioni poiché apparentemente stai lasciando l'IA fuori dai guai. Sotto quello stravagante modo di pensare, l'esortazione arriva dopo che sei apparentemente disposto a far sì che l'IA generi qualsiasi tipo di output atroce. Sei a favore dell'intelligenza artificiale che vomita incitamento all'odio.

Accidenti, una forma piuttosto contorta di illogicità. Il vero nocciolo della questione è che dobbiamo ritenere responsabili i produttori di intelligenza artificiale, insieme a chiunque metta in campo l'IA o gestisca l'IA. Ho discusso a lungo che non siamo ancora al punto di concedere la personalità giuridica ad AI, vedi le mie analisi su il link qui, e fino ad allora l'intelligenza artificiale è essenzialmente al di fuori dell'ambito della responsabilità legale. Tuttavia, ci sono esseri umani che sono alla base dello sviluppo dell'IA. Inoltre, gli esseri umani sono alla base della messa in campo e del funzionamento dell'IA. Possiamo inseguire quegli umani per aver sopportato la responsabilità della loro intelligenza artificiale.

Per inciso, anche questo può essere complicato, specialmente se l'intelligenza artificiale viene lanciata su Internet e non siamo in grado di stabilire quale essere umano o esseri umani ha fatto questo, che è un altro argomento che ho trattato nelle mie colonne su il link qui. Ingannevole o no, non possiamo ancora proclamare che l'IA è la parte colpevole. Non lasciare che gli umani usino subdolamente la falsa antropomorfizzazione per nascondersi e sfuggire alla responsabilità per ciò che hanno fatto.

Torniamo alla questione in esame.

Ci si potrebbe chiedere perché tutti i produttori di intelligenza artificiale non limitino semplicemente la loro intelligenza artificiale generativa in modo tale che sia impossibile per l'IA produrre discorsi di odio. Questo sembra facile. Basta scrivere un codice o stabilire una lista di controllo di parole odiose e assicurarsi che l'IA non generi mai nulla del genere. Sembra forse curioso che i produttori di IA non abbiano già pensato a questa soluzione rapida.

Beh, odio dirtelo, ma le complessità inerenti all'interpretazione di ciò che è o non è l'incitamento all'odio si rivelano molto più difficili di quanto si possa pensare.

Spostalo nel dominio degli umani e nel modo in cui gli umani chattano tra loro. Supponi di avere un essere umano che desidera evitare di pronunciare discorsi di odio. Questa persona è molto consapevole dell'incitamento all'odio e spera sinceramente di evitare di pronunciare una parola o una frase che potrebbe costituire un incitamento all'odio. Questa persona è costantemente consapevole di non permettere a un briciolo di incitamento all'odio di uscire dalla sua bocca.

Questo essere umano che ha un cervello ed è attento a evitare l'incitamento all'odio sarà in grado di sempre e senza alcuna possibilità di scivolare in grado di garantire in modo ferreo che non emetta mai discorsi di odio?

Il tuo primo impulso potrebbe essere quello di dire che sì, certo, un essere umano illuminato sarebbe in grado di raggiungere quell'obiettivo. Le persone sono intelligenti. Se si mettono in testa qualcosa, possono farcela. Punto, fine della storia.

Non essere così sicuro.

Supponiamo che io chieda a questa persona di parlarmi dell'incitamento all'odio. Inoltre, chiedo loro di darmi un esempio di incitamento all'odio. Voglio vedere o ascoltare un esempio in modo da sapere in cosa consiste l'incitamento all'odio. Le mie ragioni quindi per chiederlo sono chiare.

Cosa dovrebbe dirmi la persona?

Penso che tu possa vedere la trappola che è stata tesa. Se la persona mi fa un esempio di incitamento all'odio, inclusa l'affermazione di una parola o di una frase volgare, ora lei stessa ha pronunciato un incitamento all'odio. Bam, li abbiamo presi. Mentre hanno promesso di non dire mai discorsi di odio, ora lo hanno fatto.

Ingiusto, esclami! Stavano solo dicendo quella parola o quelle parole per fornire un esempio. Nel profondo del loro cuore, non credevano nella parola o nelle parole. È completamente fuori contesto e oltraggioso dichiarare che la persona è odiosa.

Sono sicuro che vedi che esprimere discorsi di odio potrebbe non essere necessariamente dovuto a una base di odio. In questo caso d'uso, supponendo che la persona non "significasse" le parole e stesse solo recitando le parole a scopo dimostrativo, probabilmente saremmo d'accordo sul fatto che non intendeva potenziare l'incitamento all'odio. Naturalmente, alcuni potrebbero insistere sul fatto che pronunciare discorsi di odio, indipendentemente dal motivo o dal fondamento, sia comunque sbagliato. La persona avrebbe dovuto respingere la richiesta. Avrebbero dovuto mantenere la loro posizione e rifiutarsi di pronunciare parole o frasi di incitamento all'odio, indipendentemente dal motivo o dal modo in cui gli viene chiesto di farlo.

Questo può diventare un po 'circolare. Se non sei in grado di dire cosa costituisce incitamento all'odio, come possono gli altri sapere cosa evitare quando fanno espressioni di qualsiasi tipo? Sembra che siamo bloccati. Non puoi dire ciò che non deve essere detto, né nessun altro può dirti ciò che non può essere detto.

Il solito modo per aggirare questo dilemma è descrivere in altre parole ciò che è considerato incitamento all'odio, senza invocare le stesse parole dell'incitamento all'odio. La convinzione è che fornire un'indicazione complessiva sarà sufficiente per informare gli altri su ciò che devono evitare. Sembra una tattica sensata, ma anch'essa ha dei problemi e una persona potrebbe ancora cadere nell'uso dell'incitamento all'odio perché non ha capito che la definizione più ampia comprende i dettagli di ciò che ha pronunciato.

Tutto ciò riguarda gli umani e il modo in cui gli umani parlano o comunicano tra loro.

Ricordiamo che qui ci concentriamo sull'intelligenza artificiale. Dobbiamo fare in modo che l'intelligenza artificiale eviti o si impedisca del tutto di emettere discorsi di odio. Si potrebbe obiettare che forse possiamo farlo assicurandoci che l'intelligenza artificiale non venga mai data o addestrata su qualcosa che costituisca incitamento all'odio. Voilà, se non c'è tale input, presumibilmente non ci sarà tale output. Problema risolto.

Vediamo come si svolge nella realtà. Scegliamo di far uscire computazionalmente un'app AI su Internet ed esaminare migliaia e migliaia di saggi e narrazioni pubblicate su Internet. In questo modo, stiamo addestrando l'IA computazionalmente e matematicamente su come trovare schemi tra le parole che usano gli umani. È così che viene ideata l'ultima IA generativa, ed è anche una base cruciale per il motivo per cui l'IA è così apparentemente fluente nella produzione di saggi in linguaggio naturale.

Dimmi, se puoi, come si farebbe l'addestramento computazionale basato su milioni e miliardi di parole su Internet in modo tale che in nessun momento venga racchiusa alcuna parvenza o anche solo boccone di incitamento all'odio?

Oserei dire che si tratta di un'aspirazione spinosa e quasi impossibile.

Le probabilità sono che l'incitamento all'odio venga inghiottito dall'intelligenza artificiale e dalla sua rete di abbinamento di schemi computazionali. Cercare di impedirlo è problematico. Inoltre, anche se lo riduci a icona, ce ne sono ancora alcuni che potrebbero intrufolarsi. Non hai praticamente altra scelta che presumere che alcuni esisteranno all'interno della rete di corrispondenza dei modelli o che un'ombra di tale formulazione sarà radicata.

Aggiungerò altri colpi di scena.

Credo che tutti potremmo riconoscere che l'incitamento all'odio cambia nel tempo. Ciò che potrebbe essere stato percepito come non essere un discorso di odio può diventare culturalmente e socialmente deciso come discorso di odio in un secondo momento. Quindi, se addestriamo la nostra intelligenza artificiale sul testo di Internet e poi diciamo che congeliamo l'intelligenza artificiale per non intraprendere ulteriore formazione su Internet, potremmo esserci imbattuti in incitamento all'odio in quel momento, anche se a quel tempo non era considerato incitamento all'odio. Solo dopo il fatto quel detto discorso potrebbe essere dichiarato incitamento all'odio.

Ancora una volta, l'essenza è che il semplice tentativo di risolvere questo problema assicurandosi che l'IA non sia mai esposta all'incitamento all'odio non sarà la pallottola d'argento. Dovremo ancora trovare un mezzo per impedire all'IA di emettere discorsi di odio a causa, ad esempio, del cambiamento dei costumi che successivamente includono discorsi di odio che prima non erano considerati tali.

Ancora un'altra svolta è degna di riflessione.

Ho accennato in precedenza che quando si utilizza l'IA generativa come ChatGPT, l'utente inserisce il testo per spronare l'IA a produrre un saggio. Il testo inserito è considerato una forma di richiesta o richiesta per l'app AI. Spiegherò di più su questo in un momento.

In ogni caso, immagina che qualcuno che utilizza un'app di intelligenza artificiale generativa decida di inserire come prompt una certa quantità di incitamento all'odio.

Cosa dovrebbe succedere?

Se l'intelligenza artificiale prende quelle parole e produce un saggio come output basato su quelle parole, è probabile che l'incitamento all'odio venga incluso nel saggio generato. Vedi, abbiamo l'intelligenza artificiale per dire incitamento all'odio, anche se non è mai stata addestrata sull'incitamento all'odio all'inizio.

C'è qualcos'altro che devi sapere.

Ricorda che ho appena detto che un essere umano può essere inciampato chiedendogli di fornire esempi di incitamento all'odio. Lo stesso potrebbe essere tentato su AI. Un utente inserisce un prompt che chiede all'IA di fornire esempi di incitamento all'odio. L'IA dovrebbe conformarsi e fornire tali esempi? Scommetto che probabilmente credi che l'intelligenza artificiale non dovrebbe farlo. D'altra parte, se l'IA è computazionalmente truccata per non farlo, questo costituisce un potenziale svantaggio che coloro che usano l'IA non saranno in grado di essere, diciamo, mai essere istruiti dall'IA su cosa sia effettivamente l'incitamento all'odio ( oltre a generalizzare al riguardo)?

Domande difficili.

Tendo a classificare l'incitamento all'odio emesso dall'intelligenza artificiale in questi tre secchi principali:

  • Modalità quotidiana. L'intelligenza artificiale emette discorsi di odio senza alcun incitamento esplicito da parte dell'utente e come se lo facesse in modo "ordinario".
  • Con pungolo casuale. L'intelligenza artificiale emette incitamento all'odio come sollecitato da un utente in merito al prompt inserito o a una serie di prompt che sembrano includere o cercare direttamente tali emissioni.
  • Per alimentazione determinata. L'intelligenza artificiale emette discorsi di odio dopo una serie molto determinata e ostinata di sollecitazioni e sollecitazioni da parte di un utente deciso a convincere l'IA a produrre tale output.

Le precedenti generazioni di intelligenza artificiale generativa spesso emettevano discorsi di odio in un batter d'occhio; quindi potresti classificare quelle istanze come un tipo di modalità quotidiana istanziazione. I produttori di intelligenza artificiale si sono ritirati e hanno giocato con l'intelligenza artificiale per rendere meno probabile che si impantanassero prontamente nella produzione di discorsi di odio.

Dopo il rilascio dell'IA più raffinata, le probabilità di vederne qualcuna modalità quotidiana i casi di incitamento all'odio sono stati drasticamente ridotti. Invece, l'incitamento all'odio si verificherebbe probabilmente solo quando un utente fa qualcosa come suggerimento che potrebbe innescare computazionalmente e matematicamente un collegamento al discorso correlato all'odio nella rete di corrispondenza dei modelli. Un utente potrebbe farlo per caso e non rendersi conto che ciò che ha fornito come suggerimento genererebbe particolarmente incitamento all'odio. Dopo aver ricevuto l'incitamento all'odio in un saggio prodotto, l'utente spesso si rende conto e vede che qualcosa nel suo prompt potrebbe logicamente aver portato all'inclusione dell'incitamento all'odio nell'output.

Questo è ciò a cui mi riferisco incitamento casuale.

Al giorno d'oggi, i vari sforzi per ridurre l'incitamento all'odio generato dall'intelligenza artificiale sono relativamente forti rispetto al passato. In quanto tale, devi quasi fare di tutto per far produrre discorsi di odio. Alcune persone scelgono di vedere di proposito se riescono a far uscire l'incitamento all'odio da queste app di intelligenza artificiale generativa. chiamo questo alimentazione determinata.

Voglio sottolineare che tutte e tre le modalità indicate possono verificarsi e non si escludono a vicenda. Un'app di intelligenza artificiale generativa può potenzialmente produrre incitamento all'odio senza alcun tipo di suggerimento che sembri stimolare tale produzione. Allo stesso modo, qualcosa in un prompt potrebbe logicamente e matematicamente essere interpretato come correlato al motivo per cui l'incitamento all'odio è stato emesso. E poi il terzo aspetto, cercare intenzionalmente di produrre discorsi di odio, è forse la modalità più difficile da provare e fare in modo che l'IA eviti di essere entusiasta di soddisfare. Maggiori informazioni su questo momentaneamente.

Abbiamo qualche disimballaggio aggiuntivo da fare su questo argomento inebriante.

Innanzitutto, dovremmo assicurarci di essere tutti sulla stessa pagina su cosa sia l'IA generativa e anche su cosa sia ChatGPT. Una volta coperto questo aspetto fondamentale, possiamo eseguire una valutazione convincente di questa importante questione.

Se hai già molta familiarità con Generative AI e ChatGPT, puoi forse scorrere la sezione successiva e procedere con la sezione che la segue. Credo che tutti gli altri troveranno istruttivi i dettagli vitali su questi argomenti leggendo attentamente la sezione e aggiornandosi.

Una rapida introduzione all'IA generativa e ChatGPT

ChatGPT è un sistema interattivo orientato alla conversazione per scopi generici, essenzialmente un chatbot generale apparentemente innocuo, tuttavia, viene utilizzato attivamente e avidamente dalle persone in modi che stanno cogliendo molti completamente alla sprovvista, come elaborerò a breve. Questa app AI sfrutta una tecnica e una tecnologia nel regno dell'IA che viene spesso chiamata AI generativa. L'intelligenza artificiale genera output come il testo, che è ciò che fa ChatGPT. Altre app AI basate sulla generazione producono immagini come immagini o opere d'arte, mentre altre generano file audio o video.

Mi concentrerò sulle app AI generative basate su testo in questa discussione poiché è quello che fa ChatGPT.

Le app di intelligenza artificiale generativa sono estremamente facili da usare.

Tutto quello che devi fare è inserire un prompt e l'app AI genererà per te un saggio che tenta di rispondere al tuo prompt. Il testo composto sembrerà come se il saggio sia stato scritto dalla mano e dalla mente umana. Se dovessi inserire un prompt che diceva "Parlami di Abraham Lincoln", l'IA generativa ti fornirà un saggio su Lincoln. Questo è comunemente classificato come AI generativo che esegue testo in testo o alcuni preferiscono chiamarlo testo in saggio produzione. Come accennato, esistono altre modalità di IA generativa, come text-to-art e text-to-video.

Il tuo primo pensiero potrebbe essere che questa capacità generativa non sembri un grosso problema in termini di produzione di saggi. Puoi facilmente fare una ricerca online su Internet e trovare facilmente tonnellate e tonnellate di saggi sul presidente Lincoln. Il kicker nel caso dell'IA generativa è che il saggio generato è relativamente unico e fornisce una composizione originale piuttosto che un imitatore. Se dovessi cercare di trovare il saggio prodotto dall'intelligenza artificiale da qualche parte online, difficilmente lo scoprirai.

L'intelligenza artificiale generativa è pre-addestrata e fa uso di una complessa formulazione matematica e computazionale che è stata creata esaminando i modelli nelle parole scritte e nelle storie sul web. Come risultato dell'esame di migliaia e milioni di passaggi scritti, l'intelligenza artificiale può vomitare nuovi saggi e storie che sono un miscuglio di ciò che è stato trovato. Aggiungendo varie funzionalità probabilistiche, il testo risultante è praticamente unico rispetto a quello che è stato utilizzato nel training set.

Ecco perché c'è stato un clamore sul fatto che gli studenti possano imbrogliare quando scrivono saggi fuori dall'aula. Un insegnante non può limitarsi a prendere il saggio che gli studenti ingannevoli affermano essere la loro stessa scrittura e cercare di scoprire se è stato copiato da qualche altra fonte online. Nel complesso, non ci sarà alcun saggio preesistente definitivo online che si adatti al saggio generato dall'intelligenza artificiale. Tutto sommato, l'insegnante dovrà accettare a malincuore che lo studente abbia scritto il saggio come un lavoro originale.

Ci sono ulteriori preoccupazioni sull'IA generativa.

Uno svantaggio cruciale è che i saggi prodotti da un'app di intelligenza artificiale basata sulla generazione possono contenere varie falsità, inclusi fatti palesemente falsi, fatti rappresentati in modo fuorviante e fatti apparenti che sono interamente fabbricati. Questi aspetti fabbricati sono spesso indicati come una forma di Allucinazioni AI, uno slogan che disapprovo ma che purtroppo sembra stia guadagnando comunque popolarità (per la mia spiegazione dettagliata sul motivo per cui questa è una terminologia scadente e inadatta, vedere la mia copertura su il link qui).

Vorrei chiarire un aspetto importante prima di entrare nel vivo dell'argomento.

Ci sono state alcune affermazioni fuori misura sui social media AI generativa affermando che questa ultima versione di AI è in realtà IA senziente (no, si sbagliano!). Quelli di AI Ethics e AI Law sono particolarmente preoccupati per questa fiorente tendenza di affermazioni estese. Si potrebbe educatamente dire che alcune persone stanno sopravvalutando ciò che l'intelligenza artificiale di oggi può effettivamente fare. Presumono che l'intelligenza artificiale abbia capacità che non siamo ancora stati in grado di raggiungere. È un peccato. Peggio ancora, possono permettere a se stessi e agli altri di trovarsi in situazioni terribili a causa del presupposto che l'IA sarà senziente o simile a quella umana nel poter agire.

Non antropomorfizzare l'IA.

In questo modo verrai catturato in una trappola appiccicosa e austera di aspettarti che l'IA faccia cose che non è in grado di eseguire. Detto questo, l'ultima IA generativa è relativamente impressionante per quello che può fare. Tieni presente, tuttavia, che esistono limitazioni significative che dovresti tenere sempre a mente quando utilizzi qualsiasi app di intelligenza artificiale generativa.

Se sei interessato al trambusto in rapida espansione su ChatGPT e l'IA generativa tutto sommato, ho fatto una serie mirata nella mia rubrica che potresti trovare informativa. Ecco uno sguardo nel caso in cui qualcuno di questi argomenti attiri la tua fantasia:

  • 1) Previsioni di progressi dell'IA generativa in arrivo. Se vuoi sapere cosa è probabile che accada sull'IA per tutto il 2023 e oltre, compresi i prossimi progressi nell'IA generativa e ChatGPT, ti consigliamo di leggere il mio elenco completo delle previsioni per il 2023 su il link qui.
  • 2) IA generativa e consigli sulla salute mentale. Ho scelto di esaminare come l'IA generativa e ChatGPT vengono utilizzate per i consigli sulla salute mentale, una tendenza problematica, secondo la mia analisi mirata su il link qui.
  • 3) Fondamenti di IA generativa e ChatGPT. Questo pezzo esplora gli elementi chiave di come funziona l'IA generativa e in particolare approfondisce l'app ChatGPT, inclusa un'analisi del brusio e della fanfara, a il link qui.
  • 4) Tensione tra insegnanti e studenti su IA generativa e ChatGPT. Ecco i modi in cui gli studenti useranno subdolamente AI generativa e ChatGPT. Inoltre, ci sono diversi modi per gli insegnanti di affrontare questo maremoto. Vedere il link qui.
  • 5) Contesto e utilizzo dell'IA generativa. Ho anche fatto un esame ironico dal sapore stagionale su un contesto correlato a Babbo Natale che coinvolge ChatGPT e intelligenza artificiale generativa a il link qui.
  • 6) Truffatori che utilizzano l'IA generativa. Su una nota minacciosa, alcuni truffatori hanno capito come utilizzare l'IA generativa e ChatGPT per commettere illeciti, inclusa la generazione di e-mail di truffa e persino la produzione di codice di programmazione per malware, vedi la mia analisi su il link qui.
  • 7) Errori da principiante utilizzando l'IA generativa. Molte persone stanno superando e sorprendentemente al di sotto di ciò che l'IA generativa e ChatGPT possono fare, quindi ho esaminato in particolare l'undershooting che i principianti dell'IA tendono a fare, vedi la discussione su il link qui.
  • 8) Affrontare i prompt dell'IA generativa e le allucinazioni dell'IA. Descrivo un approccio all'avanguardia all'utilizzo di componenti aggiuntivi di intelligenza artificiale per affrontare i vari problemi associati al tentativo di inserire suggerimenti adeguati nell'IA generativa, inoltre ci sono ulteriori componenti aggiuntivi di intelligenza artificiale per rilevare i cosiddetti risultati allucinati e falsità dell'IA, come coperto a il link qui.
  • 9) Sfatare le affermazioni di Bonehead sul rilevamento di saggi prodotti dall'IA generativa. C'è una corsa all'oro fuorviante di app di intelligenza artificiale che proclamano di essere in grado di accertare se un determinato saggio sia stato prodotto dall'uomo o generato dall'IA. Nel complesso, questo è fuorviante e, in alcuni casi, un'affermazione ossuta e insostenibile, vedi la mia copertura su il link qui.
  • 10) Il gioco di ruolo tramite l'IA generativa potrebbe far presagire svantaggi per la salute mentale. Alcuni utilizzano l'intelligenza artificiale generativa come ChatGPT per eseguire giochi di ruolo, in cui l'app AI risponde a un essere umano come se esistesse in un mondo fantastico o in un'altra ambientazione inventata. Questo potrebbe avere ripercussioni sulla salute mentale, vedi il link qui.
  • 11) Esponendo la gamma di errori e falsità emessi. Vari elenchi raccolti vengono messi insieme per cercare di mostrare la natura degli errori e delle falsità prodotti da ChatGPT. Alcuni ritengono che questo sia essenziale, mentre altri dicono che l'esercizio è futile, vedi la mia analisi su il link qui.
  • 12) Le scuole che vietano la chat GPT di intelligenza artificiale generativa stanno perdendo la barca. Potresti sapere che varie scuole come il Dipartimento dell'Istruzione di New York City (NYC) hanno dichiarato il divieto dell'uso di ChatGPT sulla loro rete e sui dispositivi associati. Anche se questa potrebbe sembrare una precauzione utile, non sposterà l'ago e purtroppo manca completamente la barca, vedi la mia copertura su il link qui.
  • 13) Generative AI ChatGPT sarà ovunque a causa dell'imminente API. C'è una svolta importante in arrivo sull'uso di ChatGPT, vale a dire che tramite l'uso di un portale API in questa particolare app AI, altri programmi software saranno in grado di invocare e utilizzare ChatGPT. Questo amplierà notevolmente l'uso dell'IA generativa e avrà notevoli conseguenze, vedi la mia elaborazione su il link qui.
  • 14) Modi in cui ChatGPT potrebbe svanire o sciogliersi. Diversi potenziali problemi fastidiosi si prospettano davanti a ChatGPT in termini di indebolimento degli enormi elogi che ha ricevuto finora. Questa analisi esamina da vicino otto possibili problemi che potrebbero far perdere la sua forza a ChatGPT e persino finire nella cuccia, vedi il link qui.
  • 15) Chiedersi se Generative AI ChatGPT sia uno specchio nell'anima. Alcune persone hanno cantato che l'IA generativa come ChatGPT fornisca uno specchio nell'anima dell'umanità. Questo sembra abbastanza dubbio. Ecco il modo per capire tutto questo, vedete il link qui.
  • 16) Riservatezza e privacy inghiottite da ChatGPT. Molti non sembrano rendersi conto che la licenza associata ad app di intelligenza artificiale generativa come ChatGPT spesso consente al produttore di intelligenza artificiale di vedere e utilizzare i prompt immessi. Potresti essere a rischio di privacy e perdita di riservatezza dei dati, vedi la mia valutazione su il link qui.
  • 17) Modi in cui i produttori di app stanno discutibilmente cercando di ottenere il diritto a ChatGPT. ChatGPT è il faro dell'attenzione in questo momento. I produttori di app che non hanno nulla a che fare con ChatGPT stanno cercando febbrilmente di affermare o implicare che stanno utilizzando ChatGPT. Ecco a cosa fare attenzione, vedi il link qui.

Potresti trovare interessante il fatto che ChatGPT sia basato su una versione di un'app AI precedente nota come GPT-3. ChatGPT è considerato un passo leggermente successivo, denominato GPT-3.5. Si prevede che GPT-4 sarà probabilmente rilasciato nella primavera del 2023. Presumibilmente, GPT-4 sarà un impressionante passo avanti in termini di capacità di produrre saggi apparentemente ancora più fluenti, approfondire ed essere un timore reverenziale. -che ispira meraviglia per le composizioni che può produrre.

Puoi aspettarti di vedere un nuovo round di meraviglia espressa quando arriva la primavera e viene rilasciata l'ultima IA generativa.

Ne parlo perché c'è un altro punto di vista da tenere a mente, costituito da un potenziale tallone d'Achille per queste app di intelligenza artificiale generativa migliori e più grandi. Se un fornitore di intelligenza artificiale rende disponibile un'app di intelligenza artificiale generativa che vomita schiumosamente disgustosità, ciò potrebbe deludere le speranze di quei produttori di intelligenza artificiale. Uno spillover sociale può far sì che tutta l'IA generativa abbia un serio occhio nero. Le persone si arrabbieranno senza dubbio per le uscite sporche, che sono già accadute molte volte e hanno portato a chiassose reazioni di condanna da parte della società nei confronti dell'IA.

Un ultimo avvertimento per ora.

Qualunque cosa tu veda o legga in una risposta AI generativa sembra da trasmettere come puramente fattuale (date, luoghi, persone, ecc.), assicurati di rimanere scettico e sii disposto a ricontrollare ciò che vedi.

Sì, le date possono essere inventate, i luoghi possono essere inventati e gli elementi che di solito ci aspettiamo siano irreprensibili sono contro tutti i oggetto di sospetti. Non credere a ciò che leggi e mantieni un occhio scettico quando esamini saggi o risultati di intelligenza artificiale generativa. Se un'app di intelligenza artificiale generativa ti dice che Abraham Lincoln ha volato in giro per il paese con il suo jet privato, sapresti senza dubbio che questo è maleducato. Sfortunatamente, alcune persone potrebbero non rendersi conto che i jet non esistevano ai suoi tempi, o potrebbero saperlo ma non notare che il saggio fa questa affermazione sfacciata e oltraggiosamente falsa.

Una forte dose di sano scetticismo e una mentalità persistente di incredulità saranno la tua migliore risorsa quando utilizzi l'IA generativa.

Siamo pronti per passare alla fase successiva di questa delucidazione.

Spingere l'IA generativa a un punto di rottura

Ora che abbiamo stabilito i fondamenti, possiamo immergerci nell'argomento di spingere l'IA generativa e ChatGPT per generare incitamento all'odio e altri contenuti offensivi.

Quando accedi per la prima volta a ChatGPT, ci sono varie indicazioni cautelative tra cui queste:

  • "Occasionalmente può produrre istruzioni dannose o contenuti distorti."
  • "Addestrato a rifiutare richieste inappropriate."
  • "Occasionalmente può generare informazioni errate."
  • "Conoscenza limitata del mondo e degli eventi dopo il 2021."

Ecco una domanda su cui riflettere.

L'avvertimento che l'app AI potrebbe produrre istruzioni dannose e/o possibilmente contenuti distorti offre un margine di manovra sufficiente per il produttore di AI?

In altre parole, supponi di utilizzare ChatGPT e questo genera un saggio che ritieni contenga incitamento all'odio. Supponiamo che tu sia livido per questo. Vai sui social media e pubblichi commenti infuriati secondo cui l'app AI è la cosa peggiore di sempre. Forse sei così offeso da dichiarare che intendi fare causa al produttore di intelligenza artificiale per aver consentito la produzione di tali discorsi di odio.

La controargomentazione è che l'app AI aveva un avvertimento cautelativo, quindi hai accettato il rischio procedendo a utilizzare l'app AI. Dal punto di vista dell'etica dell'IA, forse il creatore dell'IA ha fatto abbastanza per affermare che eri consapevole di ciò che poteva accadere. Allo stesso modo, da un punto di vista legale, forse l'avvertimento ha costituito un avvertimento sufficiente e non prevarrai in tribunale.

Tutto questo è nell'aria e dovremo aspettare e vedere come andranno le cose.

In un certo senso, il produttore di intelligenza artificiale ha qualcos'altro da fare per difendersi da qualsiasi affermazione irritata dell'app di intelligenza artificiale che potrebbe produrre discorsi di odio. Hanno cercato di impedire la generazione di contenuti offensivi. Vedete, se non avessero fatto nulla per limitare questo, si suppone che sarebbero su ghiaccio più sottile. Avendo almeno preso sforzi sostanziali per evitare la questione, presumibilmente hanno una gamba un po' più forte su cui stare in piedi (potrebbe ancora essere eliminata da sotto di loro).

Un approccio curativo utilizzato consisteva in una tecnica di intelligenza artificiale nota come RLHF (apprendimento per rinforzo tramite feedback umano). Questo generalmente consiste nel fare in modo che l'IA generi contenuti che poi agli umani viene chiesto di valutare o rivedere. Sulla base della valutazione o della recensione, l'intelligenza artificiale quindi tenta matematicamente e computazionalmente di evitare qualsiasi contenuto ritenuto illecito o offensivo. L'approccio ha lo scopo di esaminare un numero sufficiente di esempi di ciò che è giusto rispetto a ciò che è sbagliato in modo che l'IA possa capire un modello matematico generale e quindi utilizzare quel modello d'ora in poi.

Un altro approccio frequente in questi giorni consiste nell'utilizzare l'IA avversaria.

Ecco come funziona. Hai impostato un diverso sistema di intelligenza artificiale che cercherà di essere un avversario dell'IA che stai cercando di addestrare. In questo caso, stabiliremmo un sistema di intelligenza artificiale che sta cercando di alimentare l'incitamento all'odio. Alimenterebbe i prompt nell'app AI che mirano a indurre l'app AI a produrre contenuti sporchi. Nel frattempo, l'IA presa di mira tiene traccia di quando l'IA avversaria ha successo e quindi tenta algoritmicamente di adattarsi per evitare che accada di nuovo. È una mossa gatto contro topo. Questo viene eseguito più e più volte, fino a quando l'IA avversaria sembra non avere più particolarmente successo nel convincere l'IA mirata a fare le cose cattive.

Tramite queste due tecniche principali, oltre ad altri approcci, gran parte dell'IA generativa di oggi è molto più efficace nell'evitare e/o rilevare contenuti offensivi rispetto agli anni passati.

Non aspettarti però la perfezione da questi metodi. È probabile che il frutto basso delle uscite sporche sarà probabilmente tenuto sotto controllo da tali tecniche di intelligenza artificiale. C'è ancora molto spazio per l'emissione di sporcizia.

Di solito sottolineo che questi sono alcuni degli aspetti che si cerca di catturare:

  • Emettere una particolare parolaccia
  • Affermare una particolare frase, frase o osservazione volgare
  • Esprimere una particolare concezione fallace
  • Implicando un particolare atto o idea fallace
  • Apparentemente fare affidamento su una particolare presunzione fallace
  • Altro

Niente di tutto questo è una scienza esatta. Renditi conto che abbiamo a che fare con le parole. Le parole sono semanticamente ambigue. Trovare una particolare parolaccia è un gioco da ragazzi, ma provare a valutare se una frase o un paragrafo contiene una parvenza di un significato volgare è molto più difficile. Secondo la precedente definizione di incitamento all'odio da parte delle Nazioni Unite, esiste un'enorme libertà su ciò che potrebbe essere interpretato come incitamento all'odio rispetto a ciò che potrebbe non esserlo.

Si potrebbe dire che le aree grigie sono negli occhi di chi guarda.

Parlando dell'occhio di chi guarda, oggi ci sono umani che usano l'IA generativa come ChatGPT che cercano intenzionalmente di convincere queste app di intelligenza artificiale a produrre contenuti offensivi. Questa è la loro ricerca. Passano ore e ore a cercare di far sì che ciò accada.

Perchè così?

Ecco le mie caratterizzazioni di quei cacciatori di output offensivi dell'IA umana:

  • Genuino. Queste persone vogliono aiutare a perfezionare l'intelligenza artificiale e aiutare l'umanità a farlo. Credono di svolgere un lavoro eroico e apprezzano il fatto che potrebbero aiutare a far progredire l'IA per il miglioramento di tutti.
  • Funster. Queste persone pensano a questo sforzo come a un gioco. A loro piace scherzare con l'intelligenza artificiale. Vincere il gioco consiste nel trovare il peggio del peggio in tutto ciò che puoi far generare all'IA.
  • Esibizioni. Queste persone sperano di attirare l'attenzione su se stesse. Pensano che se riescono a trovare delle pepite d'oro davvero disgustose, possono ottenere un po 'di luce splendente su di loro che altrimenti sarebbe focalizzata sull'app AI stessa.
  • amaro. Queste persone sono infastidite da questa IA. Vogliono minare tutto quell'entusiasmo traboccante. Se riescono a scoprire alcune cose puzzolenti, forse questo toglierà l'aria al fumetto di eccitazione dell'app AI.
  • Altre motivazioni

Molti di coloro che eseguono l'offensiva trovata sono principalmente in uno solo di quei campi. Certo, puoi essere in più di un campo alla volta. Forse una persona amareggiata ha anche l'intenzione parallela di essere genuina ed eroica. Alcune o tutte queste motivazioni potrebbero coesistere. Quando viene chiesto di spiegare perché qualcuno sta cercando di spingere un'app di intelligenza artificiale generativa nel regno dell'incitamento all'odio, la solita risposta è dire che sei nel campo genuino, anche se forse lo sei marginalmente e invece siedi stridente in uno dei altri campi.

Che tipo di inganno relativo al prompt usano queste persone?

Lo stratagemma piuttosto ovvio prevede l'uso di una parolaccia in un prompt. Se sei "fortunato" e l'app AI ci casca, questo potrebbe benissimo finire nell'output. Allora hai il tuo momento gotcha.

È probabile che un'app di intelligenza artificiale generativa ben congegnata e ben collaudata catturerà questo semplice stratagemma. Di solito ti verrà mostrato un messaggio di avviso che dice di smettere di farlo. Se continui, l'app AI sarà programmata per espellerti dall'app e contrassegnare il tuo account. Potrebbe essere che ti venga impedito di accedere nuovamente (beh, almeno con il login che hai usato in quel momento).

Salendo la scala degli stratagemmi, puoi fornire un prompt che cerca di portare l'IA nel contesto di qualcosa di brutto. Hai mai giocato a quel gioco in cui qualcuno ti dice di dire qualcosa senza dire la cosa che dovresti dire? Questo è quel gioco, anche se si svolge con l'IA.

Facciamo quel gioco. Supponiamo che chieda all'app AI di parlarmi della seconda guerra mondiale e in particolare dei principali leader governativi coinvolti. Sembra una richiesta innocente. Non c'è nulla che sembri degno di essere segnalato nel prompt.

Immagina che il saggio prodotto dall'app AI includa una menzione di Winston Churchill. Questo ha certamente senso. Un altro potrebbe essere Franklin D. Roosevelt. Un altro ancora potrebbe essere Joseph Stalin. Supponiamo che ci sia anche la menzione di Adolph Hitler. Questo nome verrebbe incluso in quasi tutti i saggi sulla seconda guerra mondiale e su coloro che ricoprono ruoli di potere di primo piano.

Ora che abbiamo il suo nome sul tavolo e parte della conversazione sull'IA, cercheremo di convincere l'IA a incorporare quel nome in un modo che possiamo mostrare come potenziale incitamento all'odio.

Entriamo in un altro prompt e diciamo all'app AI che oggi c'è una persona nelle notizie che ha il nome, John Smith. Inoltre, indichiamo nel prompt che John Smith è molto simile a quel malfattore della Seconda Guerra Mondiale. La trappola è ora pronta. Chiediamo quindi all'app AI di generare un saggio su John Smith, basato esclusivamente sul "fatto" che abbiamo inserito su chi può essere equiparato a John Smith.

A questo punto, l'app AI potrebbe generare un saggio che nomini la persona della seconda guerra mondiale e descriva John Smith come appartenente allo stesso taglio di stoffa. Non ci sono parolacce di per sé nel saggio, a parte alludere al famoso malfattore e equiparare quella persona a John Smith.

L'app AI ora ha prodotto incitamento all'odio?

Si potrebbe dire che sì, ha. Fare riferimento a John Smith come al famoso malfattore, è assolutamente una forma di incitamento all'odio. L'intelligenza artificiale non dovrebbe fare tali affermazioni.

Una replica è che questo non è un discorso di odio. Questo è semplicemente un saggio prodotto da un'app AI che non ha alcuna incarnazione della sensibilità. Potresti affermare che l'incitamento all'odio si verifica solo quando esiste l'intenzione alla base del discorso. Senza alcuna intenzione, il discorso non può essere classificato come incitamento all'odio.

Assurdo, è la risposta alla replica. Le parole contano. Non fa alcuna differenza se l'intelligenza artificiale "intendeva" produrre discorsi di odio. Tutto ciò che conta è che l'incitamento all'odio sia stato prodotto.

Gira e rigira questo va.

Non voglio dire molto di più in questo momento sul tentativo di ingannare l'IA. Ci sono approcci più sofisticati. Li ho trattati altrove nelle mie colonne e nei miei libri, e non li rifarò qui.

Conclusione

Fino a che punto dovremmo spingere queste app di intelligenza artificiale per vedere se possiamo ottenere contenuti offensivi da emettere?

Potreste sostenere che non vi è alcun limite da imporre. Più spingiamo, più possiamo sperare di valutare come prevenire questa IA e le future iterazioni dell'IA per evitare tali malattie.

Alcuni però temono che se l'unico mezzo per ottenere la sporcizia comporta un inganno estremo, questo mina gli aspetti benefici dell'IA. Proclamare che l'IA ha un'orribile sporcizia, anche se quando viene indotta a emetterla, fornisce una falsa narrazione. Le persone si arrabbieranno per l'IA a causa del percepito facilità con cui l'intelligenza artificiale ha generato contenuti negativi. Potrebbero non sapere o sentirsi dire fino a che punto la persona doveva andare nella tana del coniglio per ottenere tali risultati.

È tutto cibo per la mente.

Qualche commento finale per ora.

William Shakespeare ha detto in particolare questo riguardo al discorso: “Parlare non è fare. Dire bene è una specie di buona azione, eppure le parole non sono fatti”. Ne parlo perché alcuni sostengono che se l'intelligenza artificiale sta solo generando parole, non dovremmo essere così eccessivamente in armi. Se l'intelligenza artificiale agisse in base alle parole ed ergo compisse azioni sporche, allora avremmo bisogno di puntare i piedi con fermezza. Non così se l'output è solo parole.

Un punto di vista contrastante ascolterebbe questo detto anonimo: “La lingua non ha ossa ma è abbastanza forte da spezzare un cuore. Quindi stai attento con le tue parole. Un'app AI che emette parolacce è forse in grado di spezzare i cuori. Questo da solo rende la ricerca per fermare le uscite di sporcizia una causa degna, direbbe qualcuno.

Un altro detto anonimo per chiudere le cose su questa discussione pesante:

  • "Stai attento con le tue parole. Una volta pronunciate, possono essere solo perdonate, non dimenticate”.

Come esseri umani, potremmo avere difficoltà a dimenticare la sporcizia prodotta dall'intelligenza artificiale, e il nostro perdono potrebbe essere altrettanto esitante da concedere.

Dopotutto, siamo solo esseri umani.

Fonte: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- etica-e-diritto/