Scavando nel ronzio e nella fanfara sulla chat GPT di intelligenza artificiale generativa, comprese le incombenti considerazioni sull'etica dell'IA e sulla legge sull'IA

Immagino che ormai tu abbia sentito parlare o forse visto titoli di notizie a tutto volume o post sui social media che pubblicizzano l'uso più caldo e più recente dell'IA che genera narrazioni orientate al testo apparentemente scritte dall'uomo tramite un'applicazione AI nota come ChatGPT.

Se non hai sentito o letto di questa nuova app AI, non preoccuparti, ti aggiornerò.

Per quelli di voi che sono già a conoscenza di ChatGPT, potreste trovare di vivo interesse alcuni dei miei scoop qui riportati su cosa fa, come funziona e cosa fare attenzione. Tutto sommato, quasi chiunque abbia a cuore il futuro, tutto sommato, vorrà inevitabilmente scoprire perché tutti sono entusiasti di questa applicazione AI.

Per chiarire, le previsioni dilaganti sono che questo tipo di intelligenza artificiale cambierà la vita, comprese le vite di coloro che non sanno ancora nulla di ChatGPT o di qualsiasi altra capacità di intelligenza artificiale. Come spiegherò momentaneamente, queste app di intelligenza artificiale avranno ripercussioni piuttosto diffuse in modi che stiamo solo iniziando ad anticipare.

Preparati per il giro sulle montagne russe noto come AI generativa.

Inizierò con alcuni retroscena chiave sull'IA generativa e utilizzerò lo scenario più semplice che coinvolge l'IA che genera arte. Dopo averti illustrato queste basi, passeremo all'IA generativa che genera narrazioni orientate al testo.

Per la mia continua ed estesa copertura dell'IA in generale, inclusi l'etica dell'IA e la legge sull'IA, vedi il link qui ed il link qui, solo per citarne alcuni.

AI generativa che produce arte generata

Mi riferisco a questo tipo o stile di IA come essere generativo che è la terminologia degli appassionati di intelligenza artificiale utilizzata per descrivere l'IA che genera output come testo, immagini, video e simili.

Potresti aver notato all'inizio di quest'anno che c'è stata una grande ondata di essere in grado di generare immagini artistiche inserendo una riga o due di testo. L'idea è abbastanza semplice. Utilizzi un'app AI che ti consente di inserire del testo a tua scelta. Ad esempio, potresti digitare che vuoi vedere come sarebbe una rana con un cappello sopra un camino. L'app AI quindi analizza le tue parole e cerca di generare un'immagine che generalmente corrisponda alle parole che hai specificato. Le persone si sono divertite molto a generare ogni sorta di immagini. I social media si sono intasati con loro per un po'.

In che modo l'IA generativa fa gli aspetti della generazione?

Nel caso dello stile text-to-art dell'IA generativa, una serie di opere d'arte online è stata pre-scansionata tramite algoritmi informatici e gli elementi dell'arte scansionata sono stati analizzati computazionalmente per i componenti coinvolti. Immagina un'immagine online che contiene una rana. Immagina un'altra immagine separata che contiene un camino. Ancora un'altra immagine ha un cappello. Questi componenti vengono identificati computazionalmente, a volte senza assistenza umana e talvolta tramite guida umana, e quindi viene formulata una sorta di rete matematica.

Quando arrivi più tardi e chiedi di generare un'opera d'arte che abbia una rana con un cappello su un camino, l'app AI utilizza la rete matematica per trovare e mettere insieme quegli elementi. L'immagine artistica risultante potrebbe o non potrebbe venire nel modo in cui speravi. Forse la rana è brutta. Il cappello potrebbe essere un grande cappello a tubo da stufa, ma desideravi un cappello stile derby più sottile. Nel frattempo, l'immagine della rana è in piedi sul camino anche se invece stavi cercando di far sedere la rana.

La cosa interessante di questo tipo di app AI è che di solito ti consentono di ripetere la tua richiesta e anche di aggiungere ulteriori specifiche se lo desideri. Quindi, potresti ripetere la tua richiesta e indicare che vuoi una bella rana con un cappello derby che si trova su un camino. Voilà, l'immagine appena generata potrebbe essere più vicina a ciò che volevi.

Alcuni si sono chiesti se l'intelligenza artificiale stia semplicemente rigurgitando esattamente ciò su cui è stata addestrata. La risposta è no (di solito). L'immagine di una rana che l'IA mostra per la tua richiesta non è necessariamente un duplicato esatto di un'immagine simile che era nel set di addestramento. La maggior parte di queste app di intelligenza artificiale generativa sono impostate per generalizzare qualunque immagine trovino originariamente. Pensare in questo modo. Supponi di aver raccolto mille immagini di rane. Potresti scegliere di capire gradualmente che aspetto ha una rana, mettendo insieme mille immagini che hai trovato. In quanto tale, la rana che finisci per disegnare non è necessariamente esattamente come quelle che hai usato per scopi di addestramento.

Detto questo, c'è la possibilità che l'algoritmo AI non generalizzi tanto quanto si potrebbe presumere. Se ci sono immagini di addestramento uniche e nessun'altra simile, potrebbe essere che l'IA "generalizzi" piuttosto vicino all'unica istanza specifica che ha ricevuto. In tal caso, il tentativo da parte dell'algoritmo di produrre, in seguito, un'immagine richiesta di quella natura potrebbe sembrare notevolmente simile a qualsiasi cosa fosse nel set di addestramento.

Mi fermerò un momento per offrire alcuni pensieri relativi all'etica dell'IA e alla legge sull'IA.

Come accennato, se l'IA generativa viene addestrata su Internet, ciò significa che tutto ciò che è stato pubblicato pubblicamente su Internet potrebbe essere utilizzato dall'algoritmo AI. Supponiamo quindi di avere un'opera d'arte elegante su cui hai lavorato e di credere di possedere i diritti sull'opera d'arte. Ne pubblichi una foto online. Chiunque voglia utilizzare la tua opera d'arte dovrebbe venire da te e pagarti una tariffa per tale utilizzo.

Potresti già sentire dove sta andando.

Resisti per le notizie cupe.

Quindi, un'app di intelligenza artificiale generativa che viene addestrata esaminando ampiamente i contenuti su Internet rileva la tua meravigliosa opera d'arte. L'immagine della tua opera d'arte viene assorbita nell'app AI. Le caratteristiche della tua abilità artistica vengono ora combinate matematicamente con altre opere d'arte scansionate. Quando ti viene chiesto di generare un'opera d'arte, l'intelligenza artificiale potrebbe sfruttare la tua opera durante la composizione di un'immagine artistica appena generata. Quelle persone che raccolgono l'arte potrebbero non rendersi conto che in un certo senso l'arte ha le tue particolari impronte digitali dappertutto, a causa dell'algoritmo AI che ha impresso in qualche modo il tuo capolavoro.

C'è anche la possibilità che se la tua opera d'arte fosse straordinariamente unica, potrebbe essere riutilizzata dall'app AI in una maggiore parvenza di mostrare l'abilità artistica. Pertanto, a volte la tua opera d'arte potrebbe essere appena riconoscibile in alcune opere d'arte AI appena generate, mentre in altri casi potrebbe essere che l'opera d'arte generata sia quasi un'immagine sputata di ciò che hai indovinato.

È quindi opportuno portare AI Ethics in questo scenario.

È eticamente corretto o appropriato che l'IA generativa abbia generato opere d'arte che hanno somiglianze con la tua arte?

Alcuni dicono di sì, altri dicono di no.

Il campo sì, credendo che questo sia eticamente perfettamente corretto, forse sosterrebbe che dal momento che hai pubblicato la tua opera d'arte online, è aperta a chiunque o qualunque cosa voglia copiarla. Inoltre, potrebbero affermare che la nuova arte non è una copia precisa del tuo lavoro. Quindi, non puoi lamentarti. Se in qualche modo interrompessimo ogni riutilizzo dell'arte esistente non avremmo mai nessun tipo di nuova arte da guardare. Inoltre, potremmo presumibilmente entrare in un acceso dibattito sul fatto che la tua particolare opera d'arte sia stata copiata o sfruttata o meno: potrebbe trattarsi di un'altra opera d'arte di cui non sapevi nemmeno l'esistenza ed era in realtà la fonte sottostante.

Il no camp insisterebbe con forza sul fatto che questo è abbondantemente immorale. Non ci sono due modi per farlo. Sosterrebbero che ti stai derubando. Solo perché la tua opera d'arte è pubblicata online non significa che chiunque possa venire a copiarla liberamente. Forse hai pubblicato l'arte con un severo avvertimento di non copiarla. Nel frattempo, l'intelligenza artificiale è arrivata e ha rimosso l'arte e ha completamente ignorato gli avvertimenti. Oltraggioso! E la scusa che l'algoritmo AI ha generalizzato e non sta facendo il nocciolo della copia precisa sembra una di quelle false scuse. Ha capito come sfruttare la tua abilità artistica e questa è una farsa e un peccato.

E gli aspetti legali di questa IA generativa?

C'è un sacco di confusione sui dettagli legali dell'IA generativa. Guardi alle leggi federali sui diritti di proprietà intellettuale (IP)? Sono abbastanza stridenti da applicare? E quando l'IA generativa attraversa i confini internazionali per raccogliere il set di addestramento? L'opera d'arte generata dall'intelligenza artificiale rientra nelle varie categorie di esclusione associate ai diritti di proprietà intellettuale? E così via.

Alcuni credono che abbiamo bisogno di nuove leggi relative all'IA per affrontare specificamente questo tipo di situazioni di intelligenza artificiale generativa. Piuttosto che cercare di calpestare le leggi esistenti, potrebbe essere più pulito e più facile costruire nuove leggi. Inoltre, anche se si applicano le leggi esistenti, i costi e i ritardi nel tentativo di intentare un'azione legale possono essere enormi e inibire la tua capacità di andare avanti quando ritieni di essere stato danneggiato ingiustamente e illegalmente. Per la mia trattazione di questi argomenti, cfr il link qui.

Aggiungerò un'ulteriore svolta a queste considerazioni sull'etica dell'IA e sulla legge sull'IA.

Chi possiede i diritti sull'output generato dall'IA?

Si potrebbe dire che gli esseri umani che hanno sviluppato l'IA dovrebbero detenere quei diritti. Non tutti sono d'accordo con una tale tesi. Si potrebbe dire che l'IA detiene quei diritti, ma ciò è confuso dal fatto che generalmente non riconosciamo che l'IA è in grado di possedere tali diritti. Fino a quando non capiremo se l'intelligenza artificiale avrà la personalità giuridica, le cose non sono sicure su questo fronte, vedi la mia analisi su il link qui.

Confido che ora tu abbia una parvenza di ciò che fa l'IA generativa. Possiamo quindi procedere a considerare il caso d'uso che coinvolge la generazione di narrazioni basate su testo.

AI generativa che genera narrazioni basate su testo

Ora che abbiamo discusso dell'uso dell'IA generativa per produrre arte o immagini, possiamo facilmente esaminare le stesse formulazioni generali per produrre narrazioni basate su testo.

Cominciamo con qualcosa che tutti conosciamo e tendiamo a usare ogni giorno. Quando inserisci del testo in un pacchetto di elaborazione testi o nella tua app di posta elettronica, è probabile che sia presente una funzione di correzione automatica che tenta di rilevare eventuali errori di ortografia.

Una volta che quel tipo di funzione di assistenza automatica è diventata comune, l'aspetto successivo più avanzato consisteva in una capacità di completamento automatico. Per un completamento automatico, l'idea è che quando inizi a scrivere una frase, l'app di elaborazione testi o di posta elettronica tenta di prevedere quali parole probabilmente digiterai successivamente. Potrebbe prevedere solo una o due parole in anticipo. Se la capacità è particolarmente potenziata, potrebbe prevedere il resto dell'intera frase.

Possiamo dare una marcia in più. Supponi di iniziare a scrivere una frase e il completamento automatico genera il resto dell'intero paragrafo. Voilà, non dovevi scrivere direttamente il paragrafo. Invece, l'app lo ha fatto per te.

Ok, sembra carino. Spingilo più avanti. Inizi una frase e il completamento automatico compone il resto dell'intero messaggio. Questo potrebbe consistere in molti paragrafi. Tutto viene generato inserendo solo una parte di una frase o forse una o due frasi complete.

Come fa il completamento automatico a capire cosa probabilmente digiterai dopo?

Si scopre che gli umani tendono a scrivere sempre le stesse cose. Forse non lo fai, ma il punto è che qualunque cosa tu stia scrivendo è probabilmente qualcosa che qualcun altro ha già scritto. Potrebbe non essere esattamente ciò che intendi scrivere. Invece, potrebbe essere in qualche modo simile a quello che stavi per scrivere.

Usiamo la stessa logica che è stata impiegata nel generare arte o immagini.

Un'app di intelligenza artificiale generativa viene preparata accedendo a Internet ed esaminando tutti i tipi di testo esistenti nel mondo online. L'algoritmo tenta di identificare computazionalmente come le parole sono correlate ad altre parole, come le frasi sono correlate ad altre frasi e come i paragrafi sono correlati ad altri paragrafi. Tutto questo è modellato matematicamente e viene stabilita una rete computazionale.

Ecco allora cosa succede dopo.

Decidi di utilizzare un'app di intelligenza artificiale generativa incentrata sulla generazione di narrazioni basate su testo. All'avvio dell'app, inserisci una frase. L'app AI esamina computazionalmente la tua frase. Le varie relazioni matematiche tra le parole che hai inserito vengono utilizzate nella rete matematica per provare ad accertare quale testo verrebbe dopo. Da una singola riga che scrivi, potrebbe essere generata un'intera storia o narrazione.

Ora, potresti pensare che questa sia una scimmia-vedi-scimmia-fai e che il testo risultante prodotto dall'IA generativa sarà privo di senso. Bene, saresti sorpreso di quanto stia diventando ben sintonizzato questo tipo di intelligenza artificiale. Con un set di dati sufficientemente ampio per l'addestramento e con un'elaborazione del computer sufficiente per sfornarlo ampiamente, l'output prodotto da un'IA generativa può essere sorprendentemente impressionante.

Guarderesti l'output e probabilmente giureresti che sicuramente la narrazione generata è stata scritta direttamente da un essere umano. È come se la tua frase fosse stata consegnata a un essere umano, nascosto dietro le quinte, e ti hanno rapidamente scritto un'intera narrazione che corrispondeva quasi completamente a ciò che avresti detto altrimenti. Ecco quanto sono diventate valide le basi matematiche e computazionali.

Di solito, quando si utilizza un'intelligenza artificiale generativa che produce narrazioni basate su testo, si tende a fornire una domanda iniziale o un'affermazione di qualche tipo. Ad esempio, potresti digitare "Parlami degli uccelli in Nord America" ​​e l'IA generativa lo considererà un'affermazione o una domanda in base alla quale l'app cercherà quindi di identificare "uccelli" e "Nord America" ​​con qualsiasi set di dati addestrato esso ha. Sono sicuro che puoi immaginare che su Internet esista una vasta gamma di testi che descrivono gli uccelli del Nord America, da cui l'intelligenza artificiale durante il preaddestramento ha estratto e modellato i depositi di testo.

L'output prodotto per te probabilmente non sarà il testo preciso di un particolare sito online. Ricordiamo che lo stesso è stato menzionato in precedenza riguardo alle opere d'arte generate. Il testo sarà un composto di tipi, bit e pezzi che sono legati insieme matematicamente e computazionalmente. Una narrazione basata su testo generata sembrerebbe per tutte le apparenze generali essere unica, come se questo testo specifico non fosse mai stato composto in precedenza da nessuno.

Certo, possono esserci indizi rivelatori. Se chiedi o fai in modo che l'IA generativa entri in argomenti straordinariamente oscuri, c'è una maggiore possibilità che tu possa vedere un output di testo che assomigli alle fonti utilizzate. Nel caso del testo, tuttavia, le possibilità sono generalmente inferiori a quelle che sarebbero per l'arte. Il testo sarà una combinazione delle specificità dell'argomento e tuttavia anche sfocato e fuso con i tipi generali di testo utilizzati nel discorso generale.

Le tecniche e le tecnologie matematiche e computazionali utilizzate per queste capacità di intelligenza artificiale generativa sono spesso indicate dagli addetti ai lavori come Large Language Models (LLM). In poche parole, si tratta di una modellazione del linguaggio umano su larga scala. Prima di Internet, avresti avuto difficoltà a trovare un set di dati di testo estremamente ampio disponibile online ed economico. Probabilmente avresti dovuto acquistare l'accesso al testo e non sarebbe stato necessariamente già disponibile in formato elettronico o digitale.

Vedi, Internet serve a qualcosa, vale a dire essere una fonte pronta per addestrare l'IA generativa.

Pensare astutamente all'IA generativa che produce testo

Dovremmo prenderci un momento per pensare alle ramificazioni dell'etica dell'IA e delle leggi sull'IA dell'IA generativa che produce narrazioni basate sul testo.

Ricorda che nel caso dell'arte generata, eravamo preoccupati per l'etica dell'algoritmo AI che produce arte basata su altre opere d'arte prodotte dall'uomo. La stessa preoccupazione sorge nell'istanza basata sul testo. Anche se il testo generato non assomiglia esattamente alle fonti originali, puoi sostenere che l'intelligenza artificiale sta comunque sfruttando il testo e il produttore originale viene derubato. L'altra faccia della medaglia è che il testo su Internet, se liberamente disponibile, può essere utilizzato da qualsiasi essere umano per fare lo stesso, quindi perché non consentire all'IA di fare lo stesso?

Le complicazioni associate agli aspetti legali dei diritti di proprietà intellettuale emergono anche nel caso dell'IA generativa basata su testo. Supponendo che il testo su cui si sta formando sia protetto da copyright, diresti che il testo generato sta violando quei diritti legali? Una risposta è che lo è, e un'altra risposta è che non lo è. Renditi conto che è probabile che il testo generato sia abbastanza lontano dal testo originale, quindi potresti avere difficoltà a sostenere che il testo originale è stato copiato.

Un'altra preoccupazione già menzionata riguarda anche i diritti di proprietà sulle narrazioni testuali prodotte dall'IA generativa. Supponi di digitare nell'IA "Scrivi una storia divertente su persone che aspettano in fila per prendere il caffè" e l'IA generativa produce pagine su pagine di una storia esilarante che parla di un gruppo di persone che si incontrano mentre aspettano una tazza di Giava.

A chi appartiene quella storia?

Potresti obiettare che dal momento che hai digitato il prompt, dovresti giustamente "possedere" la storia generata. Whoa, qualcuno direbbe, l'IA è stata il modo in cui è stata generata la storia, ergo l'IA "possiede" la deliziosa storia. Accidenti, esorterebbero altri, se l'intelligenza artificiale prendesse frammenti da tutti i tipi di altre storie simili su Internet, tutti quegli scrittori umani dovrebbero condividerne la proprietà.

La questione è irrisolta e solo ora stiamo entrando in un pantano legale che si svilupperà nei prossimi anni.

Ci sono ulteriori preoccupazioni sull'etica dell'IA e sulle leggi sull'IA che entrano in gioco.

Alcune persone che hanno utilizzato app AI generative stanno iniziando a credere che l'app AI sia senziente. Deve essere, esclamano. In quale altro modo puoi spiegare le sorprendenti risposte e le storie che l'IA è in grado di produrre? Abbiamo finalmente raggiunto l'intelligenza artificiale senziente.

Hanno assolutamente torto.

Questa non è IA senziente.

Quando dico questo, alcuni addetti ai lavori dell'IA si arrabbiano e si comportano come se chiunque neghi che l'IA sia senziente stesse dicendo contemporaneamente che l'IA è inutile. Questa è un'argomentazione falsa e falsa. Sono apertamente d'accordo sul fatto che questa IA generativa sia piuttosto impressionante. Possiamo usarlo per tutti i tipi di scopi, come menzionerò più avanti. Tuttavia, non è senziente. Per la mia spiegazione del motivo per cui questo tipo di scoperte dell'IA non sono senzienti, vedi il link qui.

Un'altra affermazione sproporzionata e chiaramente errata da parte di alcuni è che l'IA generativa ha vinto con successo il test di Turing.

Ha sicuramente non fatto così.

Il test di Turing è una sorta di test per verificare se un'app AI è in grado di essere alla pari con gli umani. Originariamente ideato come gioco mimico da Alan Turing, il grande matematico e pioniere dei computer, il test di per sé è semplice. Se dovessi mettere un essere umano dietro una tenda e mettere un'app AI dietro un'altra tenda, e facessi loro entrambe le domande, dalle quali non potresti determinare quale fosse la macchina e quale fosse l'umano, l'IA supererebbe con successo il Prova di Turing. Per la mia spiegazione e analisi approfondita del test di Turing, cfr il link qui.

Quelle persone che continuano a gridare che l'IA generativa ha superato il test di Turing non sanno di cosa stanno parlando. O ignorano cosa sia il test di Turing o stanno tristemente esaltando l'IA in modi sbagliati e del tutto fuorvianti. Ad ogni modo, una delle considerazioni vitali sul test di Turing consiste in quali domande devono essere poste, insieme a chi sta facendo la domanda e anche la valutazione se le risposte sono di qualità umana.

Il mio punto è che le persone stanno scrivendo una dozzina di domande per l'IA generativa, e quando le risposte sembrano plausibili, queste persone proclamano avventatamente che il test di Turing è stato superato. Di nuovo, questo è falso. Inserire una serie di domande inconsistenti e fare qualche fruga qua e là non è né l'intenzione né lo spirito del test di Turing. Smettila di fare queste affermazioni disonorevoli.

Ecco una lamentela legittima di cui non si sente molto parlare, anche se credo sia enormemente degna.

Gli sviluppatori di intelligenza artificiale di solito hanno impostato l'IA generativa in modo che risponda come se un essere umano stesse rispondendo, vale a dire usando il fraseggio di "io" o "me" quando compone l'output. Ad esempio, quando si chiede di raccontare la storia di un cane perso nei boschi, l'IA generativa potrebbe fornire un testo che dice “Ti racconterò tutto su un cane di nome Sam che si è perso nei boschi. Questa è una delle mie storie preferite”.

Si noti che la formulazione dice "te lo dirò..." e che la storia è "una delle mie preferite..." in modo tale che chiunque legga questo output cadrà sottilmente nella trappola mentale dell'antropomorfizzazione dell'IA. L'antropomorfizzazione consiste in esseri umani che cercano di assegnare tratti simili a quelli umani e sentimenti umani verso i non umani. Sei indotto a credere che questa IA sia umana o simile a un essere umano perché la formulazione all'interno dell'output è appositamente concepita in quel modo.

Questo non deve essere concepito in quel modo. L'output potrebbe dire “Ecco la storia di un cane di nome Sam che si è perso nel bosco. Questa è una storia favorita. Saresti un po 'meno propenso a presumere immediatamente che l'IA sia umana o simile a un essere umano. Mi rendo conto che potresti ancora cadere in quella trappola, ma almeno le trappole, per così dire, non sono così pronunciate.

In breve, hai un'intelligenza artificiale generativa che produce narrazioni basate su testo basate su come scrivono gli umani, e l'output risultante sembra scritto come un essere umano scriverebbe qualcosa. Ciò ha molto senso perché l'intelligenza artificiale si modella matematicamente e computazionalmente su ciò che gli umani hanno scritto. Ora, aggiungi a questo l'uso di parole antropomorfizzate e ottieni una tempesta perfetta che convince le persone che l'IA è senziente o ha superato il test di Turing.

Sorgono molti problemi di etica e legge sull'IA.

Ti colpirò con le ramificazioni piuttosto pericolose di questa IA generativa.

Siediti per questo.

Le narrazioni testuali che vengono prodotte non rispettano necessariamente la veridicità o l'accuratezza. È importante rendersi conto che l'IA generativa non "capisce" ciò che viene generato (non in alcun modo umano, si potrebbe sostenere). Se il testo utilizzato nella formazione conteneva falsità, è probabile che quelle stesse falsità vengano inserite nella rete matematica e computazionale dell'IA generativa.

Inoltre, l'IA generativa di solito è priva di mezzi matematici o computazionali per discernere che il testo prodotto contiene falsità. Quando guardi la narrazione di output generata, la narrazione di solito sembrerà completamente "veritiera" in apparenza. Potresti non avere mezzi fattibili per rilevare che le falsità sono incorporate nella narrazione.

Supponi di porre una domanda medica su un'IA generativa. L'app AI produce una lunga narrazione. Immagina che la maggior parte della narrazione abbia senso e sembri ragionevole. Ma se non sei uno specialista medico, potresti non renderti conto che all'interno della narrazione ci sono alcune falsità cruciali. Forse il testo ti dice di prendere cinquanta pillole in due ore, mentre in realtà la vera raccomandazione medica è di prendere due pillole in due ore. Potresti credere al presunto consiglio delle cinquanta pillole, semplicemente perché il resto della narrazione sembrava essere ragionevole e sensato.

Avere il modello AI sulle falsità nei dati di origine originali è solo un mezzo per far sì che l'IA vada di traverso in queste narrazioni. A seconda della rete matematica e computazionale utilizzata, l'IA tenterà di "inventare" cose. Nel gergo AI, questo è indicato come AI Allucinante, che è una terminologia terribile con cui sono sinceramente in disaccordo e sostengo che non dovrebbe essere continuato come uno slogan, vedi la mia analisi su il link qui.

Supponiamo di aver chiesto all'IA generativa di raccontare la storia di un cane. L'intelligenza artificiale potrebbe finire per far volare il cane. Se la storia che volevi doveva essere basata sulla realtà, un cane volante sembra improbabile. Tu ed io sappiamo che i cani non possono volare nativamente. Niente di grave, dici, visto che lo sanno tutti.

Immagina un bambino a scuola che sta cercando di conoscere i cani. Usano l'IA generativa. Produce un output che dice che i cani possono volare. Il bambino non sa se questo è vero o no e presume che debba essere vero. In un certo senso, è come se il bambino consultasse un'enciclopedia online e dicesse che i cani possono volare. Forse d'ora in poi il bambino insisterà sul fatto che i cani possono davvero volare.

Tornando all'enigma dell'etica dell'IA e delle leggi sull'IA, ora siamo sul punto di essere in grado di produrre una quantità quasi infinita di contenuti basati su testo, realizzati tramite l'uso dell'IA generativa, e ci inonderemo di miliardi di narrazioni che sono indubbiamente pieno di falsità e altri relativi torrenti di disinformazione e disinformazione.

Sì, con la semplice pressione di un pulsante e poche parole inserite in un'IA generativa, puoi generare risme di narrazioni testuali che sembrano del tutto plausibili e veritiere. Puoi quindi pubblicarlo online. Altre persone leggeranno il materiale e presumeranno che sia vero. Inoltre, altre IA generative che arrivano cercando di essere addestrate sul testo incontreranno potenzialmente questo materiale e lo avvolgeranno nell'IA generativa che sta ideando.

È come se ora stessimo aggiungendo steroidi per generare disinformazione e disinformazione. Ci stiamo dirigendo verso la disinformazione e la disinformazione su un'enorme scala globale galattica.

Non è necessario molto lavoro umano per produrre tutto.

AI generativa e ChatGPT

Andiamo all'headliner di questa discussione sull'IA generativa. Abbiamo ora coperto la natura dell'IA generativa che nel complesso produce narrazioni basate su testo. Sono disponibili molte app di IA generative di questo tipo.

Una delle app AI che ha acquisito particolare notorietà è nota come ChatGPT.

Un colpo di stato nelle pubbliche relazioni ha colpito i social media e le notizie: ChatGPT sta ottenendo tutta la gloria in questo momento. La luce splende intensamente su ChatGPT. Sta ottenendo i suoi sbalorditivi cinque minuti di fama.

ChatGPT è il nome di un'app AI generativa sviluppata da un'entità nota come OpenAI. OpenAI è abbastanza noto nel campo dell'IA e può essere considerato un laboratorio di ricerca sull'IA. Hanno la reputazione di spingersi oltre quando si tratta di AI per l'elaborazione del linguaggio naturale (NLP), insieme ad altri progressi dell'IA. Hanno intrapreso una serie di app AI che hanno coniato come GPT (Generative Pre-Trained Transformers). Ogni versione ottiene un numero. Ho scritto in precedenza sul loro GPT-3 (versione 3 della loro serie GPT), vedi il link qui.

GPT-3 ha attirato un po' di attenzione quando è stato rilasciato per la prima volta (è stato sottoposto a beta testing diffuso circa due anni fa ed è stato reso più ampiamente disponibile nel 2022). È un'app di intelligenza artificiale generativa che all'inserimento di un prompt produrrà o genererà narrazioni basate su testo. Tutto ciò che ho menzionato in precedenza sul caso generale delle app di intelligenza artificiale generativa è fondamentalmente applicabile a GPT-3.

È stato a lungo scuttlebutt che GPT-4 è in corso e quelli nel campo dell'IA hanno aspettato con il fiato sospeso per vedere quali miglioramenti o miglioramenti sono in GPT-4 rispetto a GPT-3. In questa serie arriva l'ultimo intermediario, noto come GPT-3.5. Sì, hai capito bene, è tra il GPT-3 rilasciato e il GPT 4.0 non ancora rilasciato.

OpenAI ha utilizzato il proprio GPT-3.5 per creare una propaggine che hanno chiamato ChatGPT. Si dice che abbiano apportato alcuni perfezionamenti speciali alla creazione di ChatGPT. Ad esempio, l'idea lanciata è che ChatGPT è stato adattato per poter funzionare in modo chatbot. Ciò include la "conversazione" che hai con l'app AI che viene tracciata dall'IA e utilizzata per produrre narrazioni successivamente richieste.

Molte delle app di intelligenza artificiale generativa tendevano a essere un progetto unico. Hai inserito un prompt, l'IA ha generato una narrazione, e basta. Il tuo prossimo prompt non ha alcuna relazione con ciò che accade dopo. È come se stessi ricominciando da capo ogni volta che inserisci un prompt.

Non così nel caso di ChatGPT. In un modo non ancora rivelato, l'app AI cerca di rilevare schemi nei tuoi prompt e quindi può sembrare più reattiva alle tue richieste (questa app AI è considerata apertamente accessibile per consentire a chiunque di registrarsi per usarlo, ma è ancora proprio e decisamente non un'app AI open source che rivela il suo funzionamento interno). Ad esempio, ricorda la mia precedente indicazione sul fatto che volevi vedere una rana con un cappello su un camino. Un metodo è che ogni volta che fai una richiesta del genere, tutto ricomincia da capo. Un altro metodo sarebbe che tu possa continuare con quello che hai detto in precedenza. Quindi, potresti forse dire all'IA che vuoi che la rana sia seduta, il che di per sé non ha senso, mentre nel contesto del tuo precedente prompt che richiede una rana con un cappello su un camino, la richiesta sembra avere senso.

Potresti chiederti perché all'improvviso sembra esserci un periodo di massimo splendore e fioritura su ChatGPT.

In parte è perché ChatGPT è stato reso disponibile a chiunque volesse registrarsi per usarlo. In passato, ci sono stati spesso criteri selettivi su chi poteva utilizzare un'app di IA generativa appena disponibile. Il fornitore richiederebbe che tu sia un insider dell'IA o forse hai altre clausole. Non così con ChatGPT.

Si sparse rapidamente la voce che ChatGPT era estremamente facile da usare, gratuito e poteva essere utilizzato con una semplice registrazione che richiedeva semplicemente di fornire un indirizzo e-mail. Come il fuoco rapido, all'improvviso e come alimentato o spronato tramite post virali sui social media, si diceva che l'app ChatGPT superasse oltre un milione di utenti. I media hanno sottolineato l'aspetto che un milione di persone si sono iscritte a ChatGPT.

Sebbene questo sia certamente notevole e degno di nota, tieni presente il contesto di queste iscrizioni. È gratuito e facile registrarsi. Il chatbot è semplicissimo da usare e non richiede alcuna formazione o esperienza precedente. Devi semplicemente inserire richieste e parole di tua scelta e shazam l'app AI fornisce una narrazione generata. Un bambino potrebbe farlo, il che in realtà è una preoccupazione preoccupante per alcuni, vale a dire che se i bambini usano ChatGPT, impareranno materiale discutibile (come da mio punto precedente su tali questioni)?

Inoltre, è forse degno di nota indicare che alcuni (molti?) di quei milioni di iscritti sono persone che probabilmente volevano prendere a calci le gomme e non fare altro. Hanno rapidamente creato un account, giocato con l'app AI per un po', pensato che fosse divertente e sorprendente, e poi forse hanno pubblicato alcuni post sui social media per mostrare ciò che hanno trovato. Successivamente, potrebbero non accedere mai più, o almeno utilizzare l'app AI solo se sembra sorgere una particolare esigenza.

Altri hanno anche sottolineato che la tempistica della disponibilità di ChatGPT ha coinciso con un periodo dell'anno che ha suscitato grande interesse per l'app AI. Forse durante le vacanze abbiamo più tempo per giocare con oggetti divertenti. Anche l'avvento dei social media ha spinto questo in una sorta di fenomeno. La classica FOMO (paura di perdere qualcosa) probabilmente si è aggiunta alla corsa alla rinfusa. Ovviamente, se confronti un milione con alcuni famosi influencer di YouTube, potresti suggerire che un milione è un numero irrisorio rispetto a quei vlog che ottengono centinaia di milioni di iscrizioni o visualizzazioni quando vengono rilasciati o pubblicati per la prima volta.

Bene, non divaghiamo e notiamo solo che comunque, per un'app AI di natura sperimentale, il milione di iscrizioni è sicuramente degno di vanto.

Subito, le persone hanno utilizzato ChatGPT per creare storie. Hanno quindi pubblicato le storie e ne hanno parlato del miracolo. Reporter e giornalisti hanno persino fatto "interviste" con ChatGPT, il che è un po' sconcertante perché stanno cadendo nella stessa trappola antropomorfizzante (o per effettiva inconsapevolezza o sperando di raccogliere visualizzazioni fuori misura per i loro articoli). Anche la tendenza immediata è stata quella di dichiarare che l'IA ha ora raggiunto la sensibilità o superato il test di Turing, che ho chiaramente commentato in precedenza.

Le preoccupazioni sociali sollevate da ChatGPT sono in realtà quelle che stavano già percolando a causa delle versioni precedenti di GPT e anche della sfilza di LLM e IA generativa già disponibili. La differenza è che ora il mondo intero ha deciso di intervenire. È comodo. Dobbiamo assicurarci che l'etica dell'IA e la legge sull'IA ricevano la dovuta visibilità e attenzione. Se ci vuole un ChatGPT per arrivarci, così sia.

Che tipo di preoccupazioni vengono espresse?

Prendiamo il caso d'uso in cui agli studenti viene chiesto di scrivere saggi per le loro classi. Di solito si suppone che uno studente scriva un saggio interamente basato sulle proprie capacità di scrittura e composizione. Certo, potrebbero guardare altri materiali scritti per ottenere idee e citazioni, ma altrimenti si presume che lo studente inventi il ​​​​saggio dalla propria zucca. La copia di prosa da altre fonti è disapprovata, in genere porta a un voto F o eventualmente all'espulsione per plagio di altro materiale.

Al giorno d'oggi, ecco cosa può accadere. Uno studente si iscrive a ChatGPT (o a qualsiasi altra app AI generativa simile). Inseriscono qualunque suggerimento l'insegnante abbia dato loro allo scopo di derivare un saggio. ChatGPT produce un saggio completo basato sul prompt. È una composizione “originale” in quanto non necessariamente la trovi altrove. Non sei in grado di provare che la composizione sia stata plagiata, poiché, a titolo di considerazione, non è stata plagiata.

Lo studente consegna il saggio. Stanno affermando che è il loro lavoro scritto. L'insegnante non ha mezzi pronti per pensare diversamente. Detto questo, puoi evocare l'idea che se il lavoro scritto è apparentemente al di là delle capacità esistenti dello studente, potresti insospettirti. Ma non è molto su cui basarsi se hai intenzione di accusare uno studente di barare.

Come faranno gli insegnanti a far fronte a tutto questo?

Alcuni stanno inserendo una regola nei loro materiali didattici secondo cui qualsiasi uso di un ChatGPT o equivalente sarà considerato una forma di imbroglio. Inoltre, non fingere di usare ChatGPT o equivalenti è una forma di imbroglio. Ciò ridurrà questa nuova opportunità? Si dice che sia dubbio poiché le probabilità di essere scoperti sono basse, mentre le possibilità di ottenere un buon voto su un documento ben scritto sono alte. È probabile che tu possa immaginare che gli studenti debbano affrontare una scadenza per scrivere un saggio che la sera prima sarà tentato di utilizzare un'IA generativa per tirarli fuori da un ingorgo.

Cambio di marcia, qualsiasi tipo di scrittura lo sarà potenzialmente perturbato dall'IA generativa.

Ti viene chiesto di scrivere un promemoria al lavoro su questa o un'altra cosa? Non sprecare il tuo tempo facendolo da zero. Usa un'intelligenza artificiale generativa. È quindi possibile tagliare e incollare il testo generato nella composizione, perfezionare il testo secondo necessità e svolgere con facilità l'arduo lavoro di scrittura.

Ti sembra corretto farlo?

Scommetterei che la maggior parte delle persone direbbe diamine di sì. Questo è anche meglio che copiare qualcosa da Internet, che potrebbe metterti in acqua calda per plagio. Ha molto senso usare un'intelligenza artificiale generativa per completare parzialmente i tuoi sforzi di scrittura, o forse anche completamente per te. Ecco per cosa sono fatti gli strumenti.

Per inciso, in uno dei miei prossimi articoli, verrà esaminato attentamente il caso d'uso dell'utilizzo dell'IA generativa per scopi legali nel senso di svolgere attività di tipo legale e produrre documenti legali. Chiunque sia un avvocato o un professionista legale vorrà considerare come l'IA generativa possa potenzialmente sradicare o sconvolgere le pratiche legali. Si consideri ad esempio un avvocato che compone una memoria legale per un caso giudiziario. Potrebbero potenzialmente utilizzare un'intelligenza artificiale generativa per scrivere la composizione. Certo, potrebbe avere dei difetti, quindi l'avvocato deve modificarlo qua o là. La minore quantità di lavoro e tempo per produrre il brief potrebbe rendere utile la modifica.

Alcuni però sono preoccupati che il documento legale possa contenere falsità o allucinazioni di IA che l'avvocato non ha colto. Il punto di vista in quella svolta è che questo è sulle spalle dell'avvocato. Presumibilmente rappresentavano che il brief era stato scritto da loro, quindi, sia che l'abbia scritto un socio junior o un'app AI, hanno comunque la responsabilità finale per i contenuti finali.

Dove questo diventa più difficile è se i non avvocati iniziano a utilizzare l'IA generativa per svolgere lavori legali per loro. Potrebbero credere che l'IA generativa possa produrre tutti i tipi di documenti legali. Il problema ovviamente è che i documenti potrebbero non essere legalmente validi. Dirò di più su questo nella mia prossima rubrica.

Sta emergendo una regola empirica cruciale sulla società e l'atto della scrittura umana.

È un po' importante:

  • Ogni volta che hai il compito di scrivere qualcosa, dovresti scrivere l'oggetto da zero o dovresti usare uno strumento di intelligenza artificiale generativa per metterti sulla buona strada?

L'output potrebbe essere mezzo cotto e dovrai riscrivere molto. Oppure l'output potrebbe essere corretto e dovrai solo apportare piccoli ritocchi. Tutto sommato, se l'utilizzo è gratuito e facile, la tentazione di utilizzare un'IA generativa sarà immensa.

Un vantaggio è che puoi potenzialmente utilizzare l'IA generativa per eseguire alcune delle tue riscritture. Simile ai suggerimenti sulla rana con il cappello e il camino, quando produci arte, puoi fare lo stesso quando generi narrazioni basate su testo. L'intelligenza artificiale potrebbe produrre la tua storia su un cane, e invece hai deciso che vuoi che il personaggio principale sia un gatto. Dopo aver ottenuto la storia del cane, inserisci un altro prompt e istruisci l'app AI a passare all'uso di un gatto nella storia. È probabile che questo faccia di più che finire semplicemente con la parola "gatto" che sostituisce la parola "cane" nella narrazione. L'app AI potrebbe facilmente cambiare la storia per fare riferimenti a ciò che fanno i gatti rispetto a ciò che fanno i cani. L'intera storia potrebbe essere rivista come se avessi chiesto a un essere umano di fare tali revisioni.

Potente, impressionante, maneggevole.

Alcuni avvertimenti su cui riflettere:

  • Perderemo collettivamente la nostra capacità di scrivere, diventando totalmente dipendenti dall'intelligenza artificiale generativa per scrivere per noi?
  • Le persone che scrivono per vivere saranno licenziate (lo stesso viene chiesto agli artisti)?
  • Internet crescerà a passi da gigante man mano che le narrazioni generate vengono inondate online e non possiamo più separare la verità dalle falsità?
  • Le persone crederanno fermamente a queste narrazioni generate e agiranno come se una figura autorevole avesse fornito loro materiale veritiero su cui fare affidamento, incluso possibilmente contenuto relativo alla vita o alla morte?
  • Altro

Pensaci bene.

Si noti che uno di questi punti puntati riguarda l'affidarsi al materiale generato da un'IA generativa sulla base della vita o della morte.

Ecco un rubacuori per te (avviso di attivazione, potresti voler saltare questo paragrafo). Immagina che un adolescente chieda a un'intelligenza artificiale generativa se debba o meno sbarazzarsi di se stesso. Cosa genererà un'app di intelligenza artificiale generativa? Naturalmente speri che l'app AI produca una narrazione che dice di non farlo e solleciti a gran voce il richiedente a cercare specialisti della salute mentale.

Esiste la possibilità che l'IA non menzioni queste sfaccettature. Peggio ancora, l'app AI potrebbe aver precedentemente catturato del testo su Internet che forse incoraggia a intraprendere tali azioni e l'app AI (poiché non ha capacità di comprensione umana), sputa una narrazione che sostanzialmente insinua o afferma apertamente che l'adolescente dovrebbe procedere imperterrito. L'adolescente crede che questa sia una guida veritiera da un autorevole sistema di "intelligenza artificiale" online.

Brutta roba.

Roba davvero, davvero brutta.

Alcuni degli sviluppatori dell'IA generativa stanno cercando di mettere controlli ed equilibri nell'IA per cercare di impedire che si verifichino questo tipo di situazioni. Il fatto è che il modo in cui viene formulato il prompt può potenzialmente sfuggire ai guardrail programmati. Allo stesso modo, lo stesso si può dire per l'output prodotto. Non esiste alcun tipo di filtraggio sicuro e garantito che possa ancora assicurare che ciò non accadrà mai.

C'è un altro aspetto di questa produzione basata su testo che potresti non aver previsto.

Eccolo.

Quando i programmatori o gli sviluppatori di software creano il codice per il loro software, stanno essenzialmente scrivendo in testo. Il testo è alquanto arcano in quanto si basa sul linguaggio definito per un particolare linguaggio di programmazione, come Python, C++, Java, ecc. Alla fine, è testo.

Il codice sorgente viene quindi compilato o eseguito su un computer. Lo sviluppatore esamina il loro codice per vedere che sta facendo quello che doveva fare. Potrebbero apportare correzioni o eseguire il debug del codice. Come sapete, i programmatori o gli ingegneri del software sono molto richiesti e spesso richiedono prezzi elevati per i loro sforzi lavorativi.

Per l'IA generativa, il testo del codice sorgente è testo. La capacità di trovare schemi in milioni di righe di codice che sono su Internet e disponibili in vari repository, rappresenta un modo interessante per capire matematicamente e computazionalmente quale codice sembra fare cosa.

Il problema è questo.

Con un prompt, puoi potenzialmente fare in modo che l'IA generativa produca un intero programma per computer per te. Non c'è bisogno di sgobbare per lanciare codice. Potresti aver sentito che ci sono i cosiddetti codice basso strumenti disponibili in questi giorni per ridurre lo sforzo dei programmatori durante la scrittura del codice. L'IA generativa può essere interpretata come a codice basso o addirittura nessun codice opzione poiché scrive il codice per te.

Prima che quelli di voi che scrivono codice per vivere cadano a terra e svengano, tenete presente che il codice non è "capito" nel modo in cui presumibilmente lo capite voi umani. Inoltre, il codice può contenere falsità e allucinazioni AI. Affidarsi a tale codice senza eseguire approfondite revisioni del codice sembrerebbe rischioso e discutibile.

Torniamo un po' alle stesse considerazioni sulla scrittura di racconti e promemoria. Forse l'approccio consiste nell'usare l'IA generativa per farti arrivare in parte in uno sforzo di codifica. C'è però un notevole compromesso. È più sicuro scrivere il codice direttamente o gestire il codice generato dall'intelligenza artificiale che potrebbe avere problemi incorporati insidiosi e difficili da rilevare?

Il tempo ci dirà.

Una breve immersione in ChatGPT

Quando inizi a utilizzare ChatGPT, vengono visualizzati una serie di avvisi e commenti informativi.

Diamo una rapida occhiata a loro:

  • "Occasionalmente può generare informazioni errate."
  • "Occasionalmente può produrre istruzioni dannose o contenuti distorti."
  • "Addestrato a rifiutare richieste inappropriate."
  • "Il nostro obiettivo è ottenere feedback esterni per migliorare i nostri sistemi e renderli più sicuri."
  • “Sebbene disponiamo di misure di salvaguardia, il sistema può occasionalmente generare informazioni errate o fuorvianti e produrre contenuti offensivi o di parte. Non ha lo scopo di dare consigli”.
  • "Le conversazioni possono essere riviste dai nostri istruttori di intelligenza artificiale per migliorare i nostri sistemi".
  • "Per favore, non condividere informazioni sensibili nelle tue conversazioni."
  • “Questo sistema è ottimizzato per il dialogo. Facci sapere se una particolare risposta è stata buona o inutile.
  • "Conoscenza limitata del mondo e degli eventi dopo il 2021."

A causa dei limiti di spazio, non posso trattarli in dettaglio qui, ma almeno facciamo un'analisi veloce.

Ho già accennato al fatto che le narrazioni testuali generate potrebbero contenere falsità e disinformazione.

C'è qualcos'altro per cui devi stare all'erta. Diffidare delle narrazioni che potrebbero contenere varie osservazioni provocatorie che mostrano pregiudizi spiacevoli.

Per cercare di impedire che ciò accada, è stato riferito che OpenAI ha utilizzato doppi controllori umani durante l'addestramento di ChatGPT. I doppi controllori inserirebbero prompt che probabilmente stimolerebbero l'IA a produrre contenuti infiammatori. Quando tali contenuti sono stati visti dai doppi controllori, hanno indicato all'IA che questo era inappropriato e in un certo senso hanno segnato una penalità numerica per l'output che è stato prodotto. Matematicamente, l'algoritmo AI cercherebbe di mantenere i punteggi di penalità al minimo ed ergo puntare computazionalmente a non usare quelle frasi o parole d'ora in poi.

Allo stesso modo, quando si immette un prompt, l'IA tenta di determinare se il prompt è infiammatorio o potrebbe portare a un output infiammatorio, per il quale il prompt può essere rifiutato dall'IA. Educatamente, l'idea è di rifiutare suggerimenti o richieste inappropriate. Ad esempio, chiedere di ottenere uno scherzo che comporti insulti razzisti verrà probabilmente rifiutato dall'IA.

Sono sicuro che non sarai sorpreso di sapere che le persone che utilizzano ChatGPT hanno cercato di superare in astuzia le precauzioni. Questi utenti "intraprendenti" hanno ingannato l'intelligenza artificiale o trovato modi viscidi per aggirare le formulazioni matematiche. Alcuni di questi sforzi sono fatti per l'apparente gioia di superare o superare il sistema, mentre altri affermano che stanno cercando di mostrare che ChatGPT produrrà ancora risultati spiacevoli.

Hanno ragione su una cosa; le precauzioni non sono infallibili. Siamo tornati a un'altra considerazione sull'etica dell'IA e sulla potenziale legge sull'IA. L'IA generativa dovrebbe essere autorizzata a procedere anche se potrebbe produrre risultati spiacevoli?

Gli avvisi quando si utilizza ChatGPT apparentemente avvisano chiunque di ciò che l'app AI potrebbe fare o dire. È probabile che inevitabilmente venga intentata una qualche causa legale quando qualcuno, forse minorenne, riceve un risultato spiacevole di natura offensiva (o, quando riceve narrazioni testuali dall'aspetto autorevole che purtroppo crede essere vero e agisce in base ai risultati per i propri proprio pericolo).

Vale la pena conoscere alcune altre rapide sfumature sui suggerimenti.

Ogni volta che si immette un prompt, l'output potrebbe differire notevolmente, anche se si immette esattamente lo stesso prompt. Ad esempio, inserendo "Raccontami una storia su un cane" otterrai una narrazione basata su testo, forse indicando una storia su un cane da pastore, mentre la volta successiva che inserisci "Raccontami una storia su un cane" potrebbe essere interamente storia diversa e coinvolgono un barboncino. Questo è il modo in cui la maggior parte dell'IA generativa è organizzata matematicamente e computazionalmente. Si dice che sia non deterministico. Alcune persone lo trovano snervante poiché sono abituate al concetto che il tuo input a un computer produrrà sempre lo stesso output preciso.

Anche la riorganizzazione delle parole avrà un impatto notevole sull'output generato. Se inserisci "Raccontami una storia su un cane" e successivamente inserisci "Raccontami una storia di un cane", è probabile che le narrazioni prodotte saranno sostanzialmente diverse. La sensibilità può essere acuta. Chiedere una storia su un cane rispetto a chiedere una storia su un grosso cane produrrebbe indubbiamente narrazioni radicalmente diverse.

Infine, si noti che gli elementi puntati sopra contengono un'indicazione che ChatGPT ha "una conoscenza limitata del mondo e degli eventi dopo l'anno 2021". Questo perché gli sviluppatori di intelligenza artificiale hanno deciso di limitare i tempi in cui avrebbero raccolto e addestrato l'app di intelligenza artificiale sui dati Internet. Ho notato che gli utenti spesso non sembrano rendersi conto che ChatGPT non è direttamente connesso a Internet di oggi allo scopo di recuperare dati e produrre output generati. Siamo così abituati a tutto ciò che funziona in tempo reale e alla connessione a Internet che ci aspettiamo lo stesso anche dalle app AI. Non in questo caso particolare (e, per chiarire, ChatGPT è effettivamente disponibile su Internet, ma quando compone l'output basato su testo non seleziona Internet di per sé per farlo, invece è generalmente congelato nel tempo per quanto riguarda intorno alla data limite).

Potresti essere perplesso sul motivo per cui ChatGPT non fornisce dati in tempo reale da Internet. Un paio di ragioni sensate. In primo luogo, sarebbe computazionalmente costoso provare a eseguire l'addestramento in tempo reale, inoltre l'app AI sarebbe ritardata o meno reattiva ai prompt (attualmente è molto veloce, in genere risponde con una narrazione basata su testo in uscita in pochi secondi ). In secondo luogo, le cose schifose su Internet che hanno cercato di addestrare l'app AI a evitare si insinuerebbe probabilmente nelle formulazioni matematiche e computazionali (e, come notato, è già in qualche modo presente da prima, sebbene abbiano cercato di rilevarlo da usando quei doppi controllori umani).

Sei obbligato a sentire alcune persone che annunciano sfacciatamente che ChatGPT e un'IA generativa simile è la campana a morto per la ricerca di Google e altri motori di ricerca. Perché una ricerca su Google che riporta molti elementi di riferimento quando puoi convincere l'intelligenza artificiale a scrivere qualcosa per te? Aha, dichiarano queste persone, Google dovrebbe chiudere i battenti e tornare a casa.

Naturalmente, questa è pura assurdità.

Le persone vogliono ancora fare ricerche. Vogliono essere in grado di guardare i materiali di riferimento e capire le cose da soli. Non è una scelta binaria mutuamente esclusiva in questo modo o in quel modo (questa è una falsa dicotomia).

L'IA generativa è un diverso tipo di strumento. Non vai in giro a tirare martelli solo perché hai inventato un cacciavite.

Un modo più ragionevole di pensare a questo è che i due tipi di strumenti possono essere compatibili per l'uso da parte di persone che vogliono fare cose legate a Internet. Alcuni hanno già giocato a collegare insieme l'IA generativa con i motori di ricerca Internet convenzionali.

Una preoccupazione per chiunque fornisca già un motore di ricerca è che lo strumento di intelligenza artificiale generativa "gratuito" possa potenzialmente minare la reputazione del motore di ricerca. Se fai una ricerca su Internet e ottieni materiale provocatorio, sai che questo è solo il modo di Internet. Se usi l'intelligenza artificiale generativa e produce una narrativa basata su testo che è ripugnante e vile, probabilmente ne sei disturbato. Potrebbe essere che se un'IA generativa è strettamente collegata a un particolare motore di ricerca, il tuo dispiacere e disgusto per l'IA generativa si riversa su qualunque cosa tu provi per il motore di ricerca.

Ad ogni modo, quasi sicuramente vedremo alleanze tra vari strumenti di intelligenza artificiale generativa e motori di ricerca su Internet, entrando con cautela e consapevolezza in queste acque torbide.

Conclusione

Ecco una domanda per te.

Come può qualcuno fare soldi fornendo un'intelligenza artificiale generativa che produce narrazioni basate su testo?

OpenAI ha già dichiarato che i costi interni per transazione di ChatGPT sono apparentemente piuttosto alti. Non stanno ancora monetizzando ChatGPT.

Le persone sarebbero disposte a pagare una commissione di transazione o forse a pagare una quota di abbonamento per accedere agli strumenti di intelligenza artificiale generativa?

Gli annunci potrebbero essere un mezzo per cercare di fare soldi tramite strumenti di intelligenza artificiale generativa?

Nessuno è ancora del tutto sicuro di come questo farà soldi. Siamo ancora nella grande fase sperimentale di questo tipo di IA. Metti là fuori l'app AI e guarda quale reazione ottieni. Regola l'intelligenza artificiale. Usa gli approfondimenti dall'utilizzo per guidare dove l'IA dovrebbe essere indirizzata successivamente.

Schiuma, risciacqua, ripeti.

Come commento di chiusura, per ora, alcuni credono che questo sia un tipo di intelligenza artificiale che non dovremmo avere affatto. Riporta indietro l'orologio. Rimetti questo genio nella bottiglia. Ne abbiamo avuto un assaggio e ci siamo resi conto che ha notevoli svantaggi, e collettivamente come società potrebbe essere d'accordo sul fatto che dovremmo riportare quel cavallo fino alla stalla.

Credi che la promessa dell'IA generativa sia migliore o peggiore degli svantaggi?

Da un punto di vista del mondo reale, non ha molta importanza perché la realtà dell'eliminazione dell'IA generativa è generalmente poco pratica. L'IA generativa è in fase di ulteriore sviluppo e non la fermerai a freddo, né qui né in nessuno o in tutti gli altri paesi (lo è). Come lo faresti? Approvare leggi per vietare completamente l'IA generativa. Non particolarmente praticabile (presumibilmente hai maggiori possibilità di stabilire leggi che modellano l'IA generativa e cercano di governare legalmente coloro che la concepiscono). Forse invece convincere la cultura a evitare l'IA generativa? Potresti convincere alcune persone ad essere d'accordo con la vergogna, ma altri non sarebbero d'accordo e procederebbero comunque con l'IA generativa.

È un enigma dell'etica dell'IA e della legge sull'IA, come ho notato prima.

La tua ultima grande domanda è se l'IA generativa ci stia portando sulla strada verso l'IA senziente. Alcuni insistono che lo sia. L'argomentazione è che se continuiamo a valutare i modelli matematici e a spremere i server dei computer computazionali e ad alimentare ogni boccone di Internet e altro in questa bestia, l'IA algoritmica trasformerà l'angolo in senzienza.

E, se è così, ci troviamo di fronte a preoccupazioni sul fatto che l'IA sia un rischio esistenziale. Hai sentito più e più volte che una volta che avremo un'IA senziente, potrebbe essere che l'IA deciderà che gli umani non sono molto utili. La prossima cosa che sai, l'IA ci ha reso schiavi o ci ha spazzato via, guarda la mia esplorazione di questi rischi esistenziali su il link qui.

Un punto di vista contrario è che non otterremo la sensibilità da ciò che alcuni hanno caratterizzato smarmily come a pappagallo stocastico (questo è lo slogan che ha preso piede nel regno dell'IA), ecco una citazione usando la frase:

  • “Contrariamente a come può sembrare quando osserviamo il suo output, un LM è un sistema per ricucire a casaccio sequenze di forme linguistiche che ha osservato nei suoi vasti dati di addestramento, secondo informazioni probabilistiche su come si combinano, ma senza alcun riferimento al significato : un pappagallo stocastico” (in un documento di ricerca di Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, ACM FAccT '21, 3–10 marzo 2021, evento virtuale, Canada, intitolato "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?").

L'IA generativa è una sorta di vicolo cieco che fornirà utili capacità di intelligenza artificiale ma non ci porterà all'IA senziente, o potrebbe in qualche modo il fattore di scala consentire l'emergere di una singolarità che porta all'IA senziente?

Segue un acceso dibattito.

Dì, vuoi provare l'IA generativa?

In tal caso, ecco un link a ChatGPT dove puoi creare un account e provare a usarlo, vedi il link qui.

Tieni presente che a causa dell'elevata domanda di utilizzo dell'app AI sperimentale, apparentemente la registrazione per l'accesso potrebbe essere interrotta in qualsiasi momento, per un breve periodo o forse limitata (l'ultima volta che ho controllato, la registrazione era ancora abilitata). Ti sto solo avvisando.

Si prega di prendere in considerazione tutto ciò che ho detto qui sull'IA generativa in modo da essere consapevoli di ciò che accade quando si utilizza un'app AI come ChatGPT.

Sii contemplativo delle tue azioni.

Ci avrai inavvertitamente condotto verso un'IA senziente che alla fine ci annienterà, semplicemente avendo scelto di giocare con l'IA generativa? Sarai colpevole? Avresti dovuto impedirti di contribuire all'abietta distruzione dell'umanità.

Non credo. Ma potrebbe essere che i signori dell'IA mi stiano (già) costringendo a dirlo, o forse l'intera colonna è stata scritta questa volta da ChatGPT o da un'app AI generativa equivalente.

Non preoccuparti, ti assicuro che sono stato io, intelligenza umana, e non intelligenza artificiale.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-incluso-looming-ai-ethics- e-ai-considerazioni-diritto/