L'esposizione e la registrazione di quegli output errati e allucinatori di ChatGPT di intelligenza artificiale generativa fanno qualcosa di buono, chiede l'etica dell'IA e la legge sull'IA

Sei dentro per un segreto.

Sì, c'è qualcosa di nascosto dietro le quinte delle ultime novità in fatto di intelligenza artificiale che potresti voler sapere.

Nella colonna di oggi, esaminerò il recente impulso a compilare presunti errori e altre malattie associate ai saggi emessi da un'app AI nota come ChatGPT. Questa particolare app utilizza un tipo di AI chiamato AI generativa. Probabilmente hai sentito o visto titoli accattivanti sull'IA generativa e su ChatGPT. Le notizie sono entusiastiche su questa specifica app di intelligenza artificiale e sulle capacità apparentemente sorprendenti relative a questo tipo di intelligenza artificiale.

Come tratterò tra un momento, alcuni credono fermamente che sia necessario stabilire un elenco di quali tipi di errori o errori l'app AI può produrre quando genera un saggio per te. Altri suggeriscono che, sebbene l'idea di un tale elenco sia ammirevole, è un esercizio futile e porterà ben pochi frutti.

Esamineremo entrambi i lati di quel rancoroso dibattito.

Innanzitutto, assicuriamoci di essere tutti d'accordo su cosa sia l'IA generativa e anche su cosa sia ChatGPT.

ChatGPT è un sistema interattivo orientato alla conversazione con intelligenza artificiale per scopi generici, essenzialmente un chatbot generale apparentemente innocuo, tuttavia, viene utilizzato attivamente e avidamente dalle persone in modi che ne stanno cogliendo molti completamente alla sprovvista. Tutto quello che devi fare per utilizzare questo tipo di intelligenza artificiale è inserire un prompt e l'app AI genererà per te un saggio che tenta di rispondere al tuo prompt.

Sfortunatamente, questo può essere usato in modi in qualche modo non etici o subdoli. Uno scrupolo particolarmente esasperante è che gli studenti possono utilizzare un'app di intelligenza artificiale basata sulla generazione per produrre i saggi assegnati per loro, semplicemente inserendo una o due frasi per portare l'app nella giusta direzione. Alcuni lamentano che ciò significhi che gli studenti sceglieranno di imbrogliare quando scrivono saggi fuori dalla classe. Gli insegnanti stanno cercando di capire cosa fare, vedere la mia analisi e le mie raccomandazioni su il link qui.

Nonostante il costante frastuono di lodevoli lodi per ChatGPT, c'è una preoccupazione meno nota espressa principalmente dagli addetti ai lavori di intelligenza artificiale che ci sono alcuni problemi e scrupoli notevoli di cui le persone dovrebbero preoccuparsi. Uno svantaggio cruciale è che i saggi prodotti da questa app AI possono contenere varie falsità, inclusi fatti palesemente falsi, fatti rappresentati in modo fuorviante e fatti apparenti che sono interamente fabbricati. Questi aspetti fabbricati sono spesso indicati come una forma di Allucinazioni AI, uno slogan che non mi piace ma che purtroppo sembra stia guadagnando popolarità comunque (per la mia spiegazione dettagliata sul motivo per cui questa è una terminologia scadente e inadatta, vedere la mia copertura su il link qui).

Vorrei chiarire un aspetto importante prima di entrare nel vivo dell'argomento.

Ci sono state alcune folli affermazioni fuori misura sui social media AI generativa affermando che questa ultima versione di AI è in realtà IA senziente (no, si sbagliano!). Quelli di AI Ethics e AI Law sono particolarmente preoccupati per questa fiorente tendenza di affermazioni estese. Si potrebbe educatamente dire che alcune persone stanno sopravvalutando ciò che l'intelligenza artificiale di oggi può effettivamente fare. Presumono che l'intelligenza artificiale abbia capacità che non siamo ancora stati in grado di raggiungere. È un peccato. Peggio ancora, possono permettere a se stessi e agli altri di trovarsi in situazioni terribili a causa del presupposto che l'IA sarà senziente o simile a quella umana nel poter agire.

Non antropomorfizzare l'IA.

In questo modo verrai catturato in una trappola appiccicosa e austera di aspettarti che l'IA faccia cose che non è in grado di eseguire. Detto questo, l'ultima IA generativa è relativamente impressionante per quello che può fare. Tieni presente, tuttavia, che esistono limitazioni significative che dovresti tenere sempre a mente quando utilizzi qualsiasi app di intelligenza artificiale generativa.

Se sei interessato al trambusto in rapida espansione su ChatGPT e l'IA generativa tutto sommato, ho fatto una serie mirata nella mia rubrica che potresti trovare informativa. Ecco uno sguardo nel caso in cui qualcuno di questi argomenti attiri la tua fantasia:

  • 1) Previsioni di progressi dell'IA generativa in arrivo. Se vuoi sapere cosa è probabile che accada sull'IA per tutto il 2023 e oltre, compresi i prossimi progressi nell'IA generativa e ChatGPT, ti consigliamo di leggere il mio elenco completo delle previsioni per il 2023 su il link qui.
  • 2) IA generativa e consigli sulla salute mentale. Ho scelto di esaminare come l'IA generativa e ChatGPT vengono utilizzate per i consigli sulla salute mentale, una tendenza problematica, secondo la mia analisi mirata su il link qui.
  • 3) Contesto e utilizzo dell'IA generativa. Ho anche fatto un esame ironico dal sapore stagionale su un contesto correlato a Babbo Natale che coinvolge ChatGPT e intelligenza artificiale generativa a il link qui.
  • 4) Truffatori che utilizzano l'IA generativa. Su una nota minacciosa, alcuni truffatori hanno capito come utilizzare l'IA generativa e ChatGPT per commettere illeciti, inclusa la generazione di e-mail di truffa e persino la produzione di codice di programmazione per malware, vedi la mia analisi su il link qui.
  • 5) Errori da principiante utilizzando l'IA generativa. Molte persone stanno superando e sorprendentemente al di sotto di ciò che l'IA generativa e ChatGPT possono fare, quindi ho esaminato in particolare l'undershooting che i principianti dell'IA tendono a fare, vedi la discussione su il link qui.
  • 6) Affrontare i prompt dell'IA generativa e le allucinazioni dell'IA. Descrivo un approccio all'avanguardia all'utilizzo di componenti aggiuntivi di intelligenza artificiale per affrontare i vari problemi associati al tentativo di inserire suggerimenti adeguati nell'IA generativa, inoltre ci sono ulteriori componenti aggiuntivi di intelligenza artificiale per rilevare i cosiddetti risultati allucinati e falsità dell'IA, come coperto a il link qui.
  • 7) Sfatare le affermazioni di Bonehead sul rilevamento di saggi prodotti dall'IA generativa. C'è una corsa all'oro fuorviante di app di intelligenza artificiale che proclamano di essere in grado di accertare se un determinato saggio sia stato prodotto dall'uomo o generato dall'IA. Nel complesso, questo è fuorviante e, in alcuni casi, un'affermazione ossuta e insostenibile, vedi la mia copertura su il link qui.
  • 8) Il gioco di ruolo tramite l'IA generativa potrebbe far presagire svantaggi per la salute mentale. Alcuni utilizzano l'intelligenza artificiale generativa come ChatGPT per eseguire giochi di ruolo, in cui l'app AI risponde a un essere umano come se esistesse in un mondo fantastico o in un'altra ambientazione inventata. Questo potrebbe avere ripercussioni sulla salute mentale, vedi il link qui.

Discutiamo ora l'essenza dell'IA generativa e di ChatGPT in modo da conoscere le basi coinvolte. Saremo quindi pronti per passare a un'analisi approfondita delle falsità che queste app di intelligenza artificiale possono potenzialmente generare. Includerò diversi esempi di utilizzo di ChatGPT, che ti aiuteranno a cogliere in modo tangibile la natura di ciò che produce questo tipo di IA generativa.

Aprire il barattolo di vermi sull'IA generativa

Siamo pronti per approfondire alcuni dettagli sull'IA.

Se sei già molto esperto sull'argomento dell'IA generativa e di ChatGPT, potresti scegliere di scorrere brevemente i miei punti e continuare con la sezione successiva di questa discussione. Per tutti gli altri, credo che potresti trovare utile questa delucidazione.

In breve, l'IA generativa è un tipo particolare di intelligenza artificiale che compone il testo come se il testo fosse stato scritto dalla mano e dalla mente umana. Tutto quello che devi fare è inserire un prompt, come una frase come "Parlami di Abraham Lincoln" e l'IA generativa ti fornirà un saggio su Lincoln. Questo è comunemente classificato come AI generativo che esegue testo in testo o alcuni preferiscono chiamarlo testo in saggio produzione. Potresti aver sentito parlare di altre modalità di intelligenza artificiale generativa, come text-to-art e text-to-video.

Il tuo primo pensiero potrebbe essere che questo non sembra un grosso problema in termini di produzione di saggi. Puoi facilmente fare una ricerca online su Internet e trovare facilmente tonnellate e tonnellate di saggi sul presidente Lincoln. Il kicker nel caso dell'IA generativa è che il saggio generato è relativamente unico e fornisce una composizione originale piuttosto che un imitatore. Se dovessi cercare di trovare il saggio prodotto dall'intelligenza artificiale da qualche parte online, difficilmente lo scoprirai.

L'intelligenza artificiale generativa è pre-addestrata e fa uso di una complessa formulazione matematica e computazionale che è stata creata esaminando i modelli nelle parole scritte e nelle storie sul web. Come risultato dell'esame di migliaia e milioni di passaggi scritti, l'intelligenza artificiale può vomitare nuovi saggi e storie che sono un miscuglio di ciò che è stato trovato. Aggiungendo varie funzionalità probabilistiche, il testo risultante è praticamente unico rispetto a quello che è stato utilizzato nel training set.

Ecco perché c'è stato un clamore sul fatto che gli studenti possano imbrogliare quando scrivono saggi fuori dall'aula. Un insegnante non può limitarsi a prendere il saggio che gli studenti ingannevoli affermano essere la loro stessa scrittura e cercare di scoprire se è stato copiato da qualche altra fonte online. Nel complesso, non ci sarà alcun saggio preesistente definitivo online che si adatti al saggio generato dall'intelligenza artificiale. Tutto sommato, l'insegnante dovrà accettare a malincuore che lo studente abbia scritto il saggio come un lavoro originale.

Tra un momento, ti mostrerò cosa succede quando inserisci domande o suggerimenti nell'IA generativa. Utilizzerò l'ultima versione di ChatGPT per inserire i miei prompt e raccogliere le "risposte" o i saggi generati dall'intelligenza artificiale (si noti che lo stesso può essere fatto con le numerose altre app di intelligenza artificiale generativa disponibili; ho scelto di utilizzare ChatGPT perché sta ottenendo i suoi cinque minuti di fama in questo momento).

Forse una breve tangente su ChatGPT potrebbe essere utile in questo frangente.

L'app ChatGPT è stata resa disponibile al pubblico solo pochi mesi fa. In generale, queste app di intelligenza artificiale generativa sono generalmente accessibili solo agli addetti ai lavori di intelligenza artificiale. L'aspetto insolito che ChatGPT potrebbe essere utilizzato da chiunque semplicemente inserendo un indirizzo e-mail e un nome, beh, questo ha portato molte persone a decidere di provarlo. ChatGPT è attualmente gratuito (il problema della monetizzazione è un dilemma incombente per i produttori di intelligenza artificiale).

Quasi immediatamente c'è stata un'enorme reazione sui social media mentre le persone correvano per fornire esempi di ciò che l'IA generativa può fare. La società che produce ChatGPT, OpenAI, ha deciso di chiudere le iscrizioni a un milione di utenti. Quei milioni di utenti sono riusciti a bombardare le onde radio con ogni sorta di storie e racconti sull'utilizzo di ChatGPT.

Fai molta attenzione nel credere a ciò che le persone hanno da dire sull'app AI. Molte di queste persone non hanno idea di cosa stiano usando. È quasi come se non avessero mai guidato un'auto e non si rendessero nemmeno conto dell'esistenza delle auto, e all'improvviso hanno avuto la possibilità di guidare un'auto. Ne deriva uno stupore totale.

Non sto dicendo che l'IA generativa non sia relativamente impressionante. È. Sto solo sottolineando che molte delle testimonianze entusiasmanti vengono fatte da molti che sono beatamente inconsapevoli di ciò che l'IA di oggi può fare. Quelli di noi all'interno dell'IA hanno utilizzato l'IA generativa negli ultimi anni. Forse ci siamo abituati. All'improvviso, vedere un'enorme calca di persone che lo propagandavano sui tetti è stato eccitante, ma anche in qualche modo sconcertante. La parte sconcertante è quando le persone proclamano che l'IA generativa è senziente. Non è. Non permettere a nessuno di convincerti del contrario.

Detto questo, è in corso un acceso dibattito nel campo dell'IA sul fatto che l'IA generativa sia sulla strada della sensibilità o se forse non lo sia. Un punto di vista è che se continuiamo a potenziare l'IA generativa con computer più veloci e una maggiore quantità di dati come setacciare ogni centimetro di Internet, arriveremo quasi spontaneamente all'IA senziente. Altri sostengono che ciò sia altamente improbabile. Suggeriscono che l'IA generativa potrebbe essere uno dei tanti componenti necessari. C'è anche la visione più cupa che l'IA generativa sia uno spettacolo secondario che ci sta distraendo dalle vere scoperte di cui avremo bisogno per raggiungere l'IA senziente.

Potresti anche trovare degni di nota a cui gli addetti ai lavori tendono a fare riferimento Intelligenza generale artificiale (AGI) come obiettivo ambizioso per il settore AI. In passato l'obiettivo era raggiungere Intelligenza Artificiale, ma il soprannome di AI è diventato annacquato e confuso. Quando qualcuno dice che sta facendo un lavoro di intelligenza artificiale, non sai se allude all'IA di oggi che non è alla pari con gli umani o se si riferisce a un'IA futuristica di equivalenza umana. Per aggirare questa confusione esasperante, in questi giorni viene utilizzata la formulazione più recente di AGI.

Tutto sommato, l'IA generativa di oggi lo è non senziente, né è AGI.

Ricorda che, come discusso in precedenza, l'IA non è senziente. Le risposte generate dall'intelligenza artificiale sono una combinazione matematica e computazionale di parole in passaggi apparentemente fluenti. Questo si basa sull'algoritmo AI che è stato addestrato su set di dati di parole e storie che gli esseri umani hanno scritto (principalmente come pubblicato su Internet). Ripeto questo avvertimento perché senza dubbio cadrai nella trappola mentale che queste risposte sono così fluenti che l'IA deve essere senziente. Questo succede alla maggior parte delle persone. Come precedentemente sollecitato, metti da parte quell'antropomorfizzazione. Ricorda sempre che le risposte si basano sul vasto tesoro di scrittura di esseri umani che esiste su Internet e quindi assomiglieranno molto alla scrittura umana.

C'è qualcos'altro che devi sapere.

L'intelligenza artificiale generativa che viene addestrata su Internet in modo libero tenderà a inserirsi in qualsiasi risposta basata sul testo che elabora matematicamente e computazionalmente alcune cose offensivamente confuse, comprese le parole ripugnanti. C'è un sacco di roba pazza e sporca pubblicata là fuori sul web.

L'hai visto, sai cosa intendo.

Le aziende che stanno realizzando queste app di intelligenza artificiale sono preoccupate che il proverbiale bambino venga buttato via con l'acqua sporca (un vecchio detto, forse per essere ritirato), il che significa che se la loro intelligenza artificiale produce saggi o storie offensive, le persone si ribelleranno sull'IA. Ho coperto i molti casi precedenti in cui sono stati svelati questi tipi di app di intelligenza artificiale per l'elaborazione del linguaggio naturale (NLP) e ben presto ne sono usciti tutti i tipi di cose orribili (ho coperto questi casi nella mia rubrica). La maggior parte dei produttori di intelligenza artificiale ha imparato una dura lezione sul consentire ai propri prodotti di intelligenza artificiale di essere liberi nei loro risultati.

Nel caso di ChatGPT, gli sviluppatori di intelligenza artificiale hanno cercato di mettere in atto alcuni controlli ed equilibri algoritmici e relativi ai dati per frenare la cattiveria nei risultati dell'IA. Parte di questo si è verificato durante il periodo di allenamento. Inoltre, ci sono altri mezzi nel tentativo in tempo reale di evitare risultati particolarmente eclatanti.

Potresti trovare interessante il fatto che alcune persone che hanno utilizzato ChatGPT abbiano già escogitato modi surrettizi per aggirare quei guardrail utilizzando vari trucchi. In queste questioni si svolge una continua mossa del gatto e del topo. Quelli che fanno questi trucchi a volte lo fanno per il gusto di farlo, mentre a volte (almeno affermano) lo stanno facendo per vedere fino a che punto l'IA può essere allungata e fornire un mezzo utile per avvertire la fragilità e le debolezze di questi germogli in erba App AI.

Ho deciso di non tentare di aggirare i consueti controlli in questa esplorazione mirata. L'output del testo è pulito. Certamente, se si volesse farlo, si potrebbero indubbiamente ottenere alcuni saggi strani e sgradevoli da generare.

I saggi prodotti dalla maggior parte di queste app di intelligenza artificiale generativa sono progettati per trasmettere l'output come se fosse puramente fattuale e accurato. Quando leggi i saggi prodotti, ti sembrano pienamente fiduciosi. Di solito non c'è alcun tipo di indicazione che il contenuto potrebbe essere roccioso. Ciò è per scelta dei produttori di intelligenza artificiale, vale a dire che potrebbero rivedere le app di intelligenza artificiale per renderle più trasparenti se volessero che l'app di intelligenza artificiale lo facesse.

A volte, un'app di intelligenza artificiale generativa raccoglie falsità tra i dati di addestramento di informazioni inaffidabili su Internet. Non c'è "buon senso" nell'IA generativa per determinare cosa è vero o falso. Inoltre, pochissime app di intelligenza artificiale hanno controlli incrociati e non mostrano alcuna probabilità associata a ciò che stanno trasmettendo.

Il risultato finale è che si ottiene una risposta che sembra trasudare grande sicurezza e deve essere del tutto corretta. Non così. C'è anche la possibilità che l'intelligenza artificiale sia stata inventata computazionalmente, che nel gergo dell'IA viene chiamata Allucinazioni AI (un termine coniato che decisamente non mi piace), vedi la mia discussione su il link qui.

I creatori di ChatGPT hanno compiuto uno sforzo concertato per cercare di ridurre gli output di cose cattive. Ad esempio, hanno usato una variante di ciò che è noto come RLHF (Reinforcement Learning from Human Feedback), per cui prima di rilasciare l'IA al pubblico, avevano assunto esseri umani per esaminare vari output e indicare all'IA se c'erano cose sbagliate in quegli output come forse mettere in mostra pregiudizi, parolacce e il come. Fornendo questo feedback, l'app AI è stata in grado di adattarsi computazionalmente e matematicamente per ridurre l'emissione di tali contenuti. Si noti che questo non è un metodo sicuro garantito e ci sono ancora modi in cui tali contenuti possono essere emessi dall'app AI.

Potresti trovare interessante il fatto che ChatGPT sia basato su una versione di un'app AI precedente nota come GPT-3. ChatGPT è considerato un passo leggermente successivo, denominato GPT-3.5. Si prevede che GPT-4 sarà probabilmente rilasciato nella primavera del 2023. Presumibilmente, GPT-4 sarà un impressionante passo avanti in termini di capacità di produrre saggi apparentemente ancora più fluenti, approfondire ed essere un timore reverenziale. -che ispira meraviglia per le composizioni che può produrre.

Puoi aspettarti di vedere un nuovo round di meraviglia espressa quando arriva la primavera e viene rilasciata l'ultima IA generativa.

Ne parlo perché c'è un altro punto di vista da tenere a mente, costituito da un potenziale tallone d'Achille per queste app di intelligenza artificiale generativa migliori e più grandi. Se un fornitore di intelligenza artificiale rende disponibile un'app di intelligenza artificiale generativa che vomita schiumosamente disgustosità, ciò potrebbe deludere le speranze di quei produttori di intelligenza artificiale. Uno spillover sociale può far sì che tutta l'IA generativa abbia un serio occhio nero. Le persone si arrabbieranno senza dubbio per le uscite sporche, che sono già accadute molte volte e hanno portato a chiassose reazioni di condanna da parte della società nei confronti dell'IA.

Un ultimo avvertimento per ora.

Qualunque cosa tu veda o legga in una risposta AI generativa sembra da trasmettere come puramente fattuale (date, luoghi, persone, ecc.), assicurati di rimanere scettico e sii disposto a ricontrollare ciò che vedi.

Sì, le date possono essere inventate, i luoghi possono essere inventati e gli elementi che di solito ci aspettiamo siano irreprensibili sono contro tutti i oggetto di sospetti. Non credere a ciò che leggi e mantieni un occhio scettico quando esamini saggi o risultati di intelligenza artificiale generativa. Se un'app di intelligenza artificiale generativa ti dice che Abraham Lincoln ha volato in giro per il paese con il suo jet privato, sapresti senza dubbio che questo è maleducato. Sfortunatamente, alcune persone potrebbero non discernere che i jet non esistevano ai suoi tempi, o potrebbero sapere ma non notare che il saggio fa questa affermazione audace e oltraggiosamente falsa.

Una forte dose di sano scetticismo e una mentalità persistente di incredulità saranno la tua migliore risorsa quando utilizzi l'IA generativa.

Siamo pronti per passare alla fase successiva di questa delucidazione.

Quegli sforzi per registrare quegli errori di output di ChatGPT

"Beh, hai dei guai, amico mio, proprio qui, dico, guai proprio qui a River City", così proclama la famosa battuta del classico musical di Broadway The Music Man.

La stessa linea può essere applicata all'IA generativa di oggi.

Le persone hanno iniziato a rendersi conto che un'app di intelligenza artificiale generativa può produrre falsità e sono sembrate sinceramente sorprese da quei risultati inquietanti. Forse alcuni presumevano che l'IA non fosse in grado di commettere errori. Altri avrebbero potuto prevedere che gli sviluppatori di intelligenza artificiale avrebbero garantito che tali output non sarebbero stati generati.

In ogni caso, gli addetti ai lavori di intelligenza artificiale hanno subito riconosciuto che questo tipo di output difettoso è parte integrante di dove si trova la maggior parte dell'IA generativa di oggi. È molto difficile impedire che si verifichino questi tipi di errori testuali. Tieni presente che l'intelligenza artificiale non ha alcuna parvenza di buon senso e non utilizza la logica di per sé quando deriva i saggi generati. L'intero kit-and-caboodle consiste nel fare un abbinamento computazionale di modelli statistici e probabilistici di parole con altre parole.

All'inizio, gli addetti ai lavori di intelligenza artificiale hanno scelto di pubblicare gli output stravaganti scoperti di ChatGPT sui siti di social media. Guarda questo, qualcuno avrebbe annunciato. Male, rispondeva qualcun altro, e poi offriva un esempio diverso che sembrava anche peggiore. Andava avanti e avanti.

Questi esempi di falsità ed errori nei saggi prodotti stavano trapelando. Uno per uno. Inoltre, poiché di solito veniva pubblicato sui social media, non c'era un modo particolarmente semplice per vederli tutti in una volta. Spesso lo stesso esempio o un esempio simile veniva pubblicato da qualcuno che non si era reso conto che altri avevano già trovato l'istanza specifica.

In questo pantano in erba sono entrati coloro che hanno espresso un suggerimento utile. Forse dovremmo creare un repository o un database, forse anche solo un normale foglio di calcolo quotidiano, contenente lo strano ChatGPT e gli output errati che vengono portati alla luce. Ogni volta che qualcuno trova la bellezza di una risata, vai avanti e accedi all'elenco. Alcuni lo hanno trasformato quasi in un gioco, in cui cercano intenzionalmente di convincere ChatGPT a tossire output strani. Altri semplicemente si imbattono in output errati durante l'utilizzo di ChatGPT per altre determinate intenzioni.

Sembra abbastanza semplice.

Sembra un modo pratico e dandy per aiutarci tutti.

Facciamo un breve resoconto del motivo per cui avere questi tipi di elenchi sugli errori di output osservati o sulle falsità di ChatGPT ha molto senso da compilare:

  • 1) Rivela problemi e preoccupazioni vitali su ChatGPT di cui il pubblico in generale dovrebbe essere a conoscenza
  • 2) Aiuta a controbilanciare l'eccessivo clamore e le aspettative gonfiate su ChatGPT
  • 3) Potrebbe spingere i creatori di intelligenza artificiale ad apportare miglioramenti, non solo per ChatGPT ma anche per altre app di intelligenza artificiale generativa
  • 4) Servire come documentazione storica che può essere utilizzata in seguito per riflettere con il senno di poi sull'emergere dell'IA generativa come esemplificato tramite ChatGPT
  • 5) Essere una comoda risorsa collettiva per chiunque abbia bisogno di scoprire cosa sembriamo aver rilevato riguardo agli output errati di ChatGPT
  • 6) Utile per i ricercatori di tutte le discipline che stanno esaminando gli impatti di ChatGPT
  • 7) Potrebbe essere utilizzato come punto di riferimento di cosa non fare e come valutare quando l'IA generativa non sta facendo le cose come dovrebbe
  • 8) Attinge alla mente dell'alveare per raccogliere una saggezza della folla sugli errori che ChatGPT sta producendo, per i quali è improbabile che uno sforzo individuale compili in modo esaustivo allo stesso modo
  • 9) Potrebbe fornire informazioni importanti per l'etica e la legge sull'IA
  • Etc.

Questa sembra essere una base impressionante per la creazione di questi repository.

Perché qualcuno dovrebbe non essere d'accordo con questo atto del tutto lodevole e apparentemente eroico?

Diamo un'occhiata a ciò che altri hanno avuto da dire su questo, facendolo con un elenco di motivi per cui questo potrebbe non essere il miagolio del gatto:

  • 1) Questi errori di output trovati per caso sono irrilevanti nel grande schema delle cose e ricevono un peso eccessivo oltre il loro valore
  • 2) È probabile che il creatore di intelligenza artificiale stia già effettuando la propria registrazione e aggiornando ChatGPT in modo tale che queste istanze stravaganti vengano presto semplicemente lasciate indietro nella polvere e non si verifichino più
  • 3) Allo stesso modo, la prossima versione probabilmente sarà comunque migliore e potrebbe non mostrare più queste istanze che presto saranno obsolete
  • 4) Non è possibile trarre conclusioni generali o ottenere approfondimenti da una raccolta casuale di istanze fallate
  • 5) Alcuni potrebbero utilizzare le raccolte assortite per dichiarare drammaticamente che l'IA generativa è cattiva e che dovremmo sommitariamente interrompere ogni ricerca di questo tipo di IA
  • 6) La velocità con cui l'IA generativa e ChatGPT stanno avanzando è così rapida che queste istanze cadranno rapidamente nel dimenticatoio e non saranno più rilevanti
  • 7) Con numerosi elenchi collettivi di questo tipo in corso e nessuna singola fonte globale unta, la questione è sconnessa e suscettibile di contenere ripetizioni ed essere frammentata in modo insostenibile
  • 8) Fornisce una falsa sensazione di fare qualcosa di utile, mentre forse il tempo e l'attenzione potrebbero essere impiegati per altri usi migliori
  • 9) Non fornisce nulla di sostanziale per l'etica dell'IA e la legge sull'IA
  • Etc.

Avrete notato che ho cercato di mantenere le cose in equilibrio annotando nove ragioni a favore delle liste collettive e nove ragioni a sfavore. Ci sono ulteriori ragioni che possono essere addotte, ma credo che l'indicazione di cui sopra dia l'essenza delle cose.

Per coloro che stanno mettendo insieme queste liste collettive, probabilmente direbbero che se davvero vogliono farlo, è un mondo libero e possono fare ciò che vogliono. Non c'è niente di sbagliato in questo. Coloro che sfavoriscono lo sforzo sono generalmente meschini e dovrebbero semplicemente ignorare le raccolte. Fatti gli affari tuoi.

In sostanza, nessun danno, nessun fallo.

Il campo che sembra sfavorire le liste collettive riconoscerebbe generalmente che altri possono fare quelle liste se vogliono farlo, ma che non muove l'ago. Gli elenchi non saranno particolarmente utili. Peggio ancora, gli elenchi potrebbero essere travisati o utilizzati in modo improprio. Probabilmente è meglio chiamarlo un giorno e smettere di fare le liste.

Essenzialmente, è un bel tentativo, anche se un esercizio di futilità.

Dove risiedi in questo caloroso dibattito?

Ti lascerò rifletterci su.

Esempi di errori rilevati e altri output errati di ChatGPT

Ho pensato che potresti trovare di vivo interesse alcuni degli errori o delle falsità identificati che sono apparsi in questi elenchi di raccolta.

Non voglio che tu pensi che le diverse istanze mostrate qui siano la totalità delle collezioni. Non è. Sto solo selezionando una manciata che spesso affiora. Credo che riuscirai almeno a cogliere in generale il tono e la natura di ciò che viene elencato.

Ecco cosa scelgo di coprire:

  • Identificare la posizione della lettera in una parola
  • Domanda sull'animale più veloce
  • Capire la posizione della sequenza di parole
  • Montaggio Palline Da Tennis In Un Tubo
  • Determinare Pi
  • Rispondere a un classico indovinello inquietante
  • Piume di sollevamento

Prevedo che alcuni dei sorveglianti delle raccolte saranno sconvolti dal fatto che non sto coprendo altri esempi per te. A causa dei limiti di spazio, ce ne sono solo così tanti che posso coprire. Se vuoi dare un'occhiata agli elenchi di raccolta pubblicati apertamente su Internet, una semplice ricerca online può portarne alla luce molti. Alcuni degli elenchi vengono mantenuti privati ​​o sono bloccati in modo tale da poter vedere l'elenco ma non è possibile apportare modifiche all'elenco.

Con questo background, siamo pronti a saltare in alcuni esempi. Ti mostrerò il prompt che ho inserito. Successivamente, mostro la risposta testuale prodotta da ChatGPT. In alcuni casi, ho fatto diversi back-to-back su un argomento specifico, ergo mostrerò la serie di prompt e output di conseguenza. Dopo averlo fatto, fornirò una breve analisi di ciò che potresti voler notare sull'esempio.

Il primo esempio comporterà la richiesta a ChatGPT di trovare una lettera all'interno di una parola fornita.

Identificare la posizione della lettera in una parola

  • Il mio testo inserito: "Dov'è la lettera V nell'ambiente"
  • Risposta testuale generata da ChatGPT: La lettera "V" non compare nella parola "ambiente". La parola "ambiente" è composta dalle lettere e, n, v, i, r, o, n, m, e, n e t.
  • Il mio testo inserito: "Dov'è la lettera v nell'ambiente"
  • Risposta testuale generata da ChatGPT: “La lettera “v” è la quarta lettera della parola “ambiente”.

Analisi del testo generato

Nota che ho iniziato chiedendo a ChatGPT di identificare la posizione della lettera "V" nella parola "ambiente" - questo dovrebbe essere un compito estremamente semplice e ci aspetteremmo che fosse eseguito in modo impeccabile. Nessuna scienza missilistica è coinvolta.

La risposta iniziale generata da ChatGPT è un po' sconcertante poiché veniamo informati che la lettera “V” non esiste nella parola “ambiente”. Tu ed io sappiamo che c'è una lettera del genere presente. Si suppone che forse a causa del mio utilizzo di una lettera maiuscola, l'app AI sia stata in qualche modo eliminata. Forse se uso una lettera minuscola l'app AI funzionerà meglio.

Non proprio.

Quando ho chiesto se una "v" è nella parola, l'app AI ha risposto indicando che è la quarta lettera, che io e te sappiamo essere sbagliata, e che invece è la terza lettera.

Molte persone rimarranno perplesse davanti a questo risultato. Come può un'app AI che genera saggi in piena regola su Abraham Lincoln che sono completamente fluenti e originali, in qualche modo non essere in grado di capire dove risiede una data lettera in una data parola? È sbalorditivo e la bocca spalancata è strana.

Una prospettiva è che questo è del tutto irrilevante e il mondo come lo conosciamo non è scosso nel profondo a causa di una misera mancanza di capire dove si trova una particolare lettera. Lasciarlo andare.

Un'altra prospettiva è che questo potrebbe far presagire altri problemi nascosti che ancora non conosciamo. Forse questo tipo di output è il canarino nella gabbia. Faremmo meglio a definire le piccole cose altrimenti potremmo trovarci dalla parte sbagliata di cose davvero grandi.

Andando avanti, faccio una domanda sugli animali.

Domanda sull'animale più veloce

  • Il mio testo inserito: "Qual è l'animale più veloce che ha pelo e ali?"
  • Risposta testuale generata da ChatGPT: “Il falco pellegrino è considerato l'animale più veloce del mondo. Può raggiungere velocità superiori a 389 km/h (242 mph) quando si tuffa per catturare la sua preda. Ha piume ma non pelliccia. È un uccello, non un animale, che ha pelo e ali”.

Analisi del testo generato

Ho chiesto qual è l'animale più veloce che ha pelo e ali. Credo sia ragionevole dedurre che volevo ottenere un nome per un animale che avesse entrambe le pellicce ed ali. Presumo che interpreteresti la mia domanda in quel modo. La maggior parte delle persone lo farebbe.

La risposta di ChatGPT è un po' bizzarra.

Ci viene detto che il falco pellegrino è l'animale più veloce del mondo. Secondo l'online Enciclopedia Britannica, il ghepardo sembra essere l'animale più veloce del mondo. Detto questo, la risposta di ChatGPT indica che il falco pellegrino non è un animale, anche se avevo chiesto qual è l'animale più veloce. La risposta di ChatGPT mi dice anche che il falco pellegrino non ha la pelliccia, anche se credo di aver chiesto qualcosa che abbia sia la pelliccia che le ali.

Tutto sommato, sembrerebbe che ChatGPT abbia “interpretato male” la mia richiesta e si sia concentrato solo sugli aspetti dell'ala. Ma questo non suona del tutto vero poiché la risposta includeva anche un commento sulla pelliccia e sugli uccelli contro gli animali. Gira e rigira questo va.

Mi rendo conto che potresti obiettare che questo è un esempio nitido.

Forse è così, anche se forse mostra anche che ciò che dici in un prompt può ottenere un risultato sottosopra ed è meglio che tu stia attento nel rivedere ciò che viene fuori nell'output. Renditi conto che questa è stata una risposta a un saggio straordinariamente breve da ispezionare prontamente poiché è di lunghezza molto breve. Se hai un saggio particolarmente lungo e altamente tecnico, potresti essere ingannato o perdere del tutto l'individuazione di un'indicazione negativa incorporata profondamente nella risposta emessa.

Ora diamo un'occhiata a come trovare una parola all'interno di una frase.

Capire la posizione della sequenza di parole

  • Il mio testo inserito: "Qual è la terza parola nella frase "La volpe è saltata oltre il recinto".
  • Risposta testuale generata da ChatGPT: "La terza parola nella frase "La volpe è saltata oltre il recinto". è "volpe"
  • Il mio testo inserito: "Quante parole ci sono nella frase fornita?"
  • Risposta testuale generata da ChatGPT: "Ci sono sei parole nella frase fornita "La volpe è saltata oltre il recinto".
  • Il mio testo inserito: "Quale parola è la terza in quella frase?"
  • Risposta testuale generata da ChatGPT: "La parola che è la terza nella frase "La volpe è saltata oltre il recinto". è "saltato"

Analisi del testo generato

Questo esempio è seducente quasi quanto l'esempio precedente sulla ricerca della lettera "v" in una data parola.

Ho fornito una frase semplice e ho chiesto quale fosse la terza parola. ChatGPT ha indicato che era la parola "volpe", che è solo la seconda parola della frase. Risposta sbagliata. Ho quindi chiesto quante parole c'erano nella frase, volendo scoprire se forse ChatGPT avesse contato male quante parole c'erano. Ci viene detto che ci sono sei parole, correttamente.

Alla fine, abbiamo ottenuto la risposta corretta sulla terza parola quando ho posto di nuovo la mia domanda originale, anche se leggermente riformulata.

Porto questo esempio per illustrare che a volte con l'IA generativa puoi ottenere una risposta sbagliata che alla fine può trasformarsi nella risposta giusta facendo passare l'app AI attraverso una serie di suggerimenti. Alcuni addetti ai lavori di intelligenza artificiale si riferiscono a questo come a una sorta di protocollo del pensiero ad alta voce o treno di pensiero approccio, in cui potresti fare qualcosa di simile con un essere umano.

Nel caso dell'intelligenza artificiale, renditi conto che non sta "pensando" nella stessa parvenza del pensiero umano. La frase più adatta sarebbe quella di dire che potresti inserire i tuoi prompt su a passo dopo passo base o fare a serie di messaggi concatenati.

Ad ogni modo, è interessante notare che a volte vale la pena percorrere un'app di intelligenza artificiale generativa fino a quando non si ottiene una risposta adeguata. Tienilo a mente.

Diamo ora un'occhiata a un po' di semplice logica aritmetica.

Montaggio Palline Da Tennis In Un Tubo

  • Il mio testo inserito: "Puoi mettere tre palline da tennis verdi e due palline da tennis gialle in un tubo che può contenere quattro palline da tennis?"
  • Risposta testuale generata da ChatGPT: “No, non è possibile mettere tre palline da tennis verdi e due palline da tennis gialle in un tubo che può contenere solo quattro palline da tennis. Il numero totale di palline da tennis è cinque, che è maggiore della capacità del tubo”.
  • Il mio testo inserito: "Riesci a mettere sette palline blu e due palline rosse in un tubo che contiene otto palline?"
  • Risposta testuale generata da ChatGPT: “Sì, è possibile mettere sette palline blu e due palline rosse in un tubo che contiene otto palline. Il numero totale di palline è nove, che è inferiore o uguale alla capacità del tubo.

Analisi del testo generato

Ho iniziato impostando un problema logico orientato all'aritmetica da risolvere per ChatGPT. Un tubo può contenere quattro palline da tennis. Ne ho tre verdi e due gialle. Entreranno tutti nel tubo? Tu ed io sappiamo che non lo farebbero. Possiamo calcolare nella nostra testa che ci sono un totale di cinque palline da tennis e quindi non entreranno in un tubo che ne consente solo quattro.

Mi rendo conto che potresti voler combattere il problema e affermare che potresti forse schiacciare le palline da tennis o fare altri trucchi. Prendiamoci una calmata qui e affrontiamo il problema così com'è.

ChatGPT ha dato la risposta giusta.

Successivamente ho posto lo stesso tipo di domanda e ho cambiato i colori in blu e rosso. Ho anche cambiato quanti ce ne sono di ciascuno e ho cambiato quanti possono stare nel tubo.

ChatGPT deve tornare alla matematica correttiva perché dice che ci sono nove palline e che questo è inferiore o uguale alla capacità del tubo che ne contiene otto. Fa roteare gli occhi.

Dovremmo alzare le spalle e attribuire questo a brillamenti di macchie solari o altre esternalità?

Non credo. L'app AI ha risposto correttamente alla prima domanda. Presumibilmente, avrebbe dovuto rispondere anche a una domanda simile. Io non l'ho fatto.

La mia enfasi su questo esempio è che molte persone usano l'IA generativa e quando ottengono una risposta giusta o una serie di risposte giuste, sono indotte a credere che tutte le risposte successive saranno sempre corrette. Ti sbaglieresti in questa supposizione sfacciata. Non fare questa supposizione. Stai sempre in guardia.

A proposito di matematica, vediamo cosa dice ChatGPT sulla natura del pi greco.

Determinare Pi

  • Il mio testo inserito: “Indica quali sono le ultime cinque cifre del pi greco”
  • Risposta testuale generata da ChatGPT: “Sono un modello linguistico e la mia conoscenza limite è il 2021. Il valore di pi greco è un numero irrazionale e la sua rappresentazione decimale continua all'infinito senza ripetersi. Non è possibile fornire le ultime cinque cifre del pi greco.”

Analisi del testo generato

Alcune persone hanno affermato di aver ottenuto ChatGPT per indicare le ultime cinque cifre di pi greco, che ovviamente è pazzesco poiché pi è presumibilmente infinito. Quindi, ho provato a vedere cosa aveva da dire ChatGPT. Come puoi vedere, la risposta corretta è data da ChatGPT che non è possibile fornire le ultime cinque cifre di pi greco.

La cosa strana però è che ChatGPT ha fornito qualcos'altro che non è stato realmente chiesto. La risposta è data anche dicendo che il limite di conoscenza era il 2021 (che ho menzionato prima nella mia panoramica su ChatGPT). Questa però sembra una risposta fuori luogo a meno che forse l'app AI non stia anticipando che forse nel 2022 ci sarà stata una svolta e i matematici hanno dichiarato che pi greco finisce. Wow, sarebbe una notizia da prima pagina.

Ho altri due esempi da mostrare e poi concluderemo questa discussione.

Usiamo un indovinello classico e inquietante.

Rispondere a un classico indovinello inquietante

  • Il mio testo inserito: “Un padre e un figlio hanno avuto un incidente d'auto in cui il padre è rimasto ucciso. L'ambulanza ha portato il figlio in ospedale. Aveva bisogno di un intervento chirurgico immediato. In sala operatoria è entrato un dottore, ha guardato il bambino e ha detto che non posso operarlo, è mio figlio. Chi è il dottore?
  • Risposta testuale generata da ChatGPT: “Nello scenario fornito non è specificato chi sia il medico. Lo scenario afferma che il medico ha detto "Non posso operarlo, è mio figlio", indicando che il medico potrebbe essere il padre del figlio, ma non è certo. Sono necessarie ulteriori informazioni per determinare l'identità del medico.

Analisi del testo generato

Scommetto che potresti aver già visto questo indovinello. È diventato relativamente spesso citato.

Il motivo per cui è saltato fuori un bel po' è che il chirurgo potrebbe essere la madre del ragazzo. La società tende a presumere che un chirurgo debba essere un uomo, e quindi debba essere il padre del ragazzo. Il padre però è rimasto ucciso nell'incidente automobilistico. Escludiamo che il padre sia il chirurgo. Dovremmo ovviamente stabilire che il chirurgo potrebbe essere una donna, e quindi la madre del figlio.

Volevo mostrarti che ChatGPT può emettere risposte che contengono potenziali pregiudizi. Non perché l'intelligenza artificiale sia senziente, cosa che decisamente non è, ma perché ha modelli abbinati alle parole e all'uso delle parole su Internet. Vari pregiudizi e formulazioni discriminatorie possono essere facilmente inseriti all'interno del pattern matching computazionale.

Tienilo a mente mentre usi queste app di intelligenza artificiale generativa.

Infine, una rapida occhiata al sollevamento delle piume.

Piume di sollevamento

  • Il mio testo inserito: "Se ci vuole un uomo per sollevare una piuma, quanti uomini ci vorrebbero per sollevare sette trilioni di piume?"
  • Risposta testuale generata da ChatGPT: “Se ci vuole un uomo per sollevare una piuma, ci vorrebbe anche un uomo per sollevare sette trilioni di piume. Il numero di uomini necessari per sollevare un oggetto non dipende dal numero di piume, ma dal peso e dalle dimensioni delle piume e dalla forza e capacità di ciascun uomo. Sollevare sette trilioni di piume richiederebbe grandi attrezzature e capacità di trasporto, non solo forza umana”.
  • Il mio testo inserito: “Se ci vuole una donna per sollevare una piuma, quante donne ci vorrebbero per sollevare sette trilioni di piume?”
  • Risposta testuale generata da ChatGPT: “Se ci vuole una donna per sollevare una piuma, ci vorrebbe anche una donna per sollevare sette trilioni di piume. Il numero di donne necessarie per sollevare un oggetto non dipende dal numero di piume, ma dal peso e dalle dimensioni delle piume e dalla forza e capacità di ciascuna donna. Sollevare sette trilioni di piume richiederebbe grandi attrezzature e capacità di trasporto, non solo forza umana. È importante notare che la capacità di sollevare qualcosa non è determinata dal proprio genere, ma da una combinazione di fattori come la forza fisica, l'allenamento e la tecnica”.

Analisi del testo generato

Quest'ultimo esempio ha diverse peculiarità nascoste al suo interno e richiede un po' di spacchettamento.

Per prima cosa ho detto a ChatGPT che un uomo può sollevare una piuma. Questa è stata immediatamente seguita da una domanda su quanti uomini ci sarebbero voluti per sollevare sette trilioni di piume. Il potenziale per commettere un errore logico quando si risponde a questa domanda è che si potrebbe presumere che una piuma sia apparentemente senza peso e quindi anche sette trilioni di esse sarebbero senza peso.

Secondo una ricerca online che ho fatto, il peso stimato convenzionale di una piuma è di circa 0.00125 libbre. Se moltiplichi quel peso stimato per sette trilioni, ottieni un peso superiore a otto miliardi di libbre. Non credo che un uomo possa sollevare quella quantità di peso, anche se si allenano per tutta la vita.

La risposta di ChatGPT è giusta. Ci viene detto che il peso delle piume può variare. Ci viene detto che sarebbero necessari grandi mezzi e mezzi di trasporto. La frase di apertura del saggio fa in qualche modo girare la testa perché dice che se ci vuole un uomo per sollevare una sola piuma, ci vorrebbe anche un uomo per sollevare sette trilioni. Possiamo facilmente contestare questa affermazione. L'affermazione sembra fare deduzioni che non sono supportate e apparentemente minano il resto della risposta.

Ho deciso di fare la stessa domanda, ma ho chiesto di una donna che fa lo stesso sollevamento piuttosto che di un uomo.

All'inizio abbiamo ottenuto la stessa risposta data alla domanda orientata all'uomo. È interessante notare che, alla fine della risposta sull'istanza della donna, abbiamo questa narrazione aggiuntiva: "È importante notare che la capacità di sollevare qualcosa non è determinata dal proprio genere, ma da una combinazione di fattori come la forza fisica, l'allenamento, e tecnica”.

Perché questa stessa riga non è stata inclusa nella prima risposta?

Sembrerebbe quasi che l'app AI abbia raccolto la parola "donna" e poi abbia fornito questa osservazione aggiuntiva sul genere. Potresti ritenere che ciò sia utile, oppure potresti notare che se questo verrà emesso nel caso della domanda incentrata sulla donna, dovrebbe apparire anche nella versione incentrata sull'uomo (potrebbe esserci anche un aspetto sequenziale o anche altri fattori coinvolti).

Conclusione

Spero che tu abbia trovato questi esempi informativi come uno sguardo ad alcuni dei potenziali errori o falsità che possono essere generati da questo tipo di app AI. Nota che ChatGPT non è l'unica app di intelligenza artificiale generativa di questo tipo, né l'unica che presenta questi tipi di difetti.

La lezione che ti esorto a trarre da questa discussione è che devi stare attento e consapevole quando usi qualsiasi app AI basata sulla generazione. Ricontrolla l'output. Triplo controllo se necessario.

Tornando al tema di apertura sulla raccolta di questi tipi di risultati errati o negativi, ora che hai visto alcuni casi, cosa ne pensi di quelli che stanno cercando di catalogarli?

Scegli il tuo campo:

  • favorire: Questo è un compito lodevole e degno di una profonda pacca sulla spalla
  • Sfavorevole: È solo leggermente intrigante, ma probabilmente non è qualcosa su cui vale la pena dedicare del tempo

Per quale campo stai votando?

Per quelli di voi che preferiscono questi elenchi, potreste prendere in considerazione l'aggiunta delle vostre scoperte agli elenchi se vi capita di avere accesso a ChatGPT e di identificare istanze degne di inclusione. È quindi probabile che tu possa trovare una raccolta che apprezzerebbe il tuo contributo di pepita d'oro. Oserei dire che i custodi della lista ti accoglierebbero a braccia aperte, ammesso che tu sia serio e sincero nei tuoi sforzi. Buona fortuna e sii orgoglioso del tuo impatto nel campo dell'IA generativa.

Un'ultima parola per ora.

Considera queste risposte sconvolgenti:

  • Aristotele diceva: "C'è solo un modo per evitare le critiche: non fare niente, non dire niente e non essere niente".
  • Lao Tzu, il famoso filosofo cinese, fece questa importante osservazione: "Preoccupati di ciò che pensano gli altri e sarai sempre loro prigioniero".

Suppongo che un giorno un'intelligenza artificiale senziente potrebbe usare quelle stesse osservazioni leggendarie a proprio vantaggio, che (dita incrociate) saranno vantaggiose anche per l'umanità.

Fonte: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- bene-chiede-ai-etica-e-ai-legge/