Le persone consultano con impazienza ChatGPT di intelligenza artificiale generativa per consigli sulla salute mentale, sottolineando l'etica dell'IA e la legge sull'IA

La salute mentale è diventata un argomento molto diffuso al giorno d'oggi.

In passato, le discussioni sulla salute mentale venivano spesso messe a tacere o del tutto nascoste sotto il tappeto. Un graduale cambiamento culturale ha portato a considerare apertamente i problemi di salute mentale e ha alleviato le remore a farlo in modi pubblicamente riconosciuti.

Potresti dare parte del merito a questo cambiamento negli atteggiamenti sociali generali come risultato dell'avvento di app per smartphone facilmente accessibili che aiutano la tua consapevolezza personale e presumibilmente ti spingono verso il benessere mentale. Ci sono app per la consapevolezza, quelle per la meditazione, quelle per diagnosticare il tuo stato di salute mentale, quelle per fare screening della salute mentale e così via. Esistono moltissime app.

Possiamo dire che le app per smartphone hanno apertamente portato all'apertura sulla salute mentale? È vero che è un po 'una domanda sull'uovo o sulla gallina. L'apertura verso la salute mentale ha consentito l'emergere di app per smartphone pertinenti o il benessere mentale delle app per smartphone ha spinto la società nella direzione di essere sincera sulla salute mentale?

Forse era una combinazione intrecciata che prevedeva che entrambe le direzioni si verificassero contemporaneamente.

In ogni caso, in questo potente mix arriva l'ascesa delle app per la salute mentale che si dice siano straordinariamente alimentate dall'Intelligenza Artificiale (AI). L'idea è che la tecnologia sottostante possa essere migliorata attraverso l'uso (presumibilmente) giudizioso dell'IA. Mentre le versioni iniziali delle app per la salute mentale erano prevalentemente consegne di informazioni basate sui fatti, come se stessi effettuando una ricerca online su tali argomenti, l'infusione di intelligenza artificiale ha portato l'automazione a intraprendere dialoghi interattivi con te, simili a messaggi di testo con un terapista umano o simili (beh, in un certo senso, come mi rivolgerò e esaminerò qui).

Questo ci porta all'IA più recente e accattivante che ha recentemente attirato l'attenzione nazionale e internazionale, vale a dire l'uso di ciò che è formalmente noto come AI generativa e ampiamente reso popolare tramite l'app nota come ChatGPT. Per chiarire, ChatGPT è un sistema interattivo AI generico, essenzialmente un chatbot generico, tuttavia è utilizzato attivamente e avidamente da persone che cercano specificamente di raccogliere consigli sulla salute mentale (l'app non è stata creata per quello scopo, eppure le persone hanno deciso di volerlo utilizzare comunque per quel ruolo).

Per la mia recente copertura di ChatGPT, vedere il link qui per una panoramica. Ho anche fatto alcuni follow-up su come ChatGPT sta preoccupando gli insegnanti per quanto riguarda gli studenti che potrebbero imbrogliare usando l'intelligenza artificiale per scrivere i loro saggi, vedi il link qui, e ho fatto uno sguardo stagionale nella mia analisi relativa a Babbo Natale su il link qui.

Non preoccuparti, spiegherò qui di cosa si tratta Generative AI e ChatGPT, facendolo momentaneamente quindi per favore resisti.

Se dai un'occhiata ai social media, vedrai persone che proclamano ChatGPT e l'IA generativa come la cosa migliore dai tempi del pane a fette. Alcuni suggeriscono che si tratti in realtà di IA senziente (no, si sbagliano!). Altri temono che le persone stiano superando se stesse. Stanno vedendo quello che vogliono vedere. Hanno preso un nuovo giocattolo scintillante e hanno mostrato esattamente perché non possiamo avere cose nuove accattivanti.

Quelli di AI Ethics e AI Law sono seriamente e seriamente preoccupati per questa tendenza in crescita, e giustamente. Daremo qui uno sguardo da vicino a come le persone utilizzano l'IA generativa per usi che non sono particolarmente adatti a ciò che l'IA può davvero ottenere oggi. Tutti i tipi di problemi etici e legali dell'IA sono indubbiamente racchiusi nell'intero enigma. Per la mia continua ed estesa copertura di AI Ethics e AI Law, vedi il link qui ed il link qui, solo per citarne alcuni.

Innanzitutto, consideriamo alcuni aspetti importanti della salute mentale e perché questo è un argomento molto vasto ed essenziale. Dopo aver gettato le basi, faremo una breve spiegazione sull'IA generativa e in particolare su ChatGPT. Includerò esempi da ChatGPT in modo che tu possa vedere con i tuoi occhi il tipo di verbosità che l'app AI è in grado di produrre. Concluderemo questa discussione con alcuni commenti su cosa significhi tutto ciò e su come l'etica dell'IA e la legge sull'IA entreranno inevitabilmente in scena.

Allaccia la cintura di sicurezza per un bel giro.

La salute mentale è una preoccupazione sociale vitale e in crescita

Secondo varie statistiche pubblicate, c'è una nuvola oscura e cupa sullo stato di salute mentale di oggi. Non voglio sembrare triste per questo, ma tanto vale affrontare la realtà che ci attende. Nascondere la testa sotto la sabbia non funzionerà. Faremo meglio ad affrontare la questione con gli occhi aperti e la volontà di risolvere problemi spinosi.

Ecco alcune statistiche degne di nota che sono state raccolte da un'importante organizzazione di salute mentale sugli americani e sul panorama della salute mentale (per Salute mentale americana, "Risultati chiave del 2023"):

  • Gli adulti sperimentano ampiamente la malattia mentale. Circa il 21% degli adulti ha riferito di aver sofferto di una malattia mentale, il che equivale all'incirca a dire che circa 50 milioni di adulti negli Stati Uniti l'hanno sperimentata.
  • La mancanza di cure per la salute mentale è diffusa. Poco più della metà degli adulti con una malattia mentale non riceve cure (circa il 55%), quindi forse circa 28 milioni di adulti non ricevono cure mentali necessarie.
  • Anche i giovani ne risentono. Circa un giovane su dieci negli Stati Uniti ha dichiarato di aver sperimentato una depressione gravemente compromettente che ha avuto un impatto sui compiti scolastici, sulla vita domestica, sulle interazioni familiari e/o sulla vita sociale.
  • Mancano cure di salute mentale per i giovani. Meno di un terzo dei giovani che soffrono di depressione grave riceve un trattamento costante (solo il 28% circa lo fa) e oltre la metà non riceve alcuna assistenza per la salute mentale (stimato il 57%).
  • Scarsità di fornitori di servizi di salute mentale. Una cifra riportata è che ci sono circa 350 individui negli Stati Uniti per ogni fornitore di salute mentale, suggerendo una scarsità di consulenti e terapisti professionisti della salute mentale qualificati disponibili per la popolazione complessiva.

Non voglio fissarci sulle statistiche di per sé poiché puoi facilmente discutere su come queste statistiche vengono a volte raccolte o riportate. Ad esempio, a volte questi si basano su sondaggi in cui il sondaggio è stato preselezionato per determinate aree del paese o tipi di persone. Inoltre, puoi decisamente cavillare su quanto siano oneste le persone quando segnalano autonomamente il loro stato di salute mentale, a seconda di chi lo sta chiedendo e perché potrebbero voler inclinarsi in una direzione o nell'altra sull'argomento. Eccetera.

L'essenza, tuttavia, è che possiamo almeno concordare in generale sul fatto che esiste una sfida per la salute mentale che il paese deve affrontare e che dovremmo fare qualcosa al riguardo. Se non facciamo nulla, il presupposto di base è che le cose peggioreranno. Non puoi lasciare che un problema in suppurazione peggiori all'infinito.

Potresti aver notato nelle statistiche di cui sopra che c'è una scarsità dichiarata di professionisti della salute mentale qualificati disponibili. La convinzione è che ci sia uno squilibrio tra domanda e offerta, per il quale vi è un'offerta insufficiente di consulenti per la salute mentale e una sovrabbondanza di domanda effettiva o latente di consulenza per la salute mentale (dico latente nel senso che molti potrebbero non rendersi conto del valore di cercare consigli sulla salute mentale, o non possono permetterselo, o non possono accedervi logisticamente).

Come possiamo affrontare questo squilibrio?

Un percorso sembra essere l'uso dell'automazione e in particolare dell'intelligenza artificiale per rafforzare il "lato dell'offerta" di fornire consulenza sulla salute mentale. Si potrebbe sostenere in modo convincente che la popolarità delle app di meditazione e consapevolezza per smartphone è un segno che esiste davvero una domanda repressa. Quando non è possibile ottenere prontamente l'accesso a consulenti umani qualificati, l'automazione e l'intelligenza artificiale entrano in questa lacuna.

Pensa anche ai fattori di convenienza.

Quando si utilizza un'app AI per la salute mentale, l'IA è disponibile 24 ore su 7, XNUMX giorni su XNUMX. Non è necessario fissare un appuntamento. Nessuna difficoltà a incontrarsi logisticamente di persona con un consulente umano. Probabilmente anche il costo è molto meno costoso. Puoi accumulare tempo utilizzando l'app AI mentre con un consulente umano il tempo stringe e i minuti di fatturazione aumentano.

Ma, aspetta un maledetto secondo, potresti esortare, un'app AI non è alla pari di un consulente umano.

Questo è apparentemente un confronto tra mele e arance. O forse più simile a un confronto tra mela e ostrica, in modo tale che i due non si confrontino particolarmente. Un consulente umano adeguatamente qualificato che sa cosa sta facendo quando si tratta di salute mentale è certamente al di sopra di qualsiasi tipo di intelligenza artificiale che abbiamo oggi. Certo, l'app AI potrebbe essere disponibile XNUMX ore su XNUMX, ma stai ottenendo un livello di qualità inferiore e quindi non puoi fare alcun paragone sensato tra l'utilizzo di un consulente umano e l'utilizzo dell'IA.

Torneremo tra poco su questo dibattito sui consiglieri umani contro i consigli basati sull'intelligenza artificiale.

Nel frattempo, un aspetto della salute mentale che sembra piuttosto straziante riguarda i giovani e la salute mentale.

Una convinzione è che se non rileviamo problemi di salute mentale quando qualcuno è giovane, il costo sociale è enorme dall'altra parte quando diventa adulto. È la classica storia della piantina che cresce in un albero ben congegnato o in uno che ha ogni sorta di problemi futuri. Forse, suggeriscono alcuni, dovremmo concentrare la nostra attenzione soprattutto sui giovani. Affrontare i problemi in anticipo. Cerca di evitare che i problemi diventino difficoltà per tutta la vita. Ciò facilita potenzialmente la manifestazione di problemi di salute mentale nella fase adulta della vita e, con un po 'di forza d'animo, possiamo ridurre il flusso della pipeline di deterioramento della salute mentale se capisci cosa intendo.

I ricercatori sottolineano queste preoccupazioni simili, come questo recente articolo: “La salute mentale degli adolescenti e degli adulti emergenti ('giovani') è un'area della salute pubblica che richiede urgente attenzione a livello globale. Un periodo di transizione caratterizzato da rapidi cambiamenti in molteplici ambiti (fisico, sociale, psicologico, professionale), l'adolescenza e l'emergere dell'età adulta è una fase di sviluppo associata a maggiori rischi per il benessere mentale, poiché i giovani sperimentano importanti cambiamenti di vita legati alla pubertà, allo sviluppo neurologico , così come i cambiamenti di identità e autonomia nei contesti sociali. La ricerca indica un'elevata prevalenza di malattie mentali tra i giovani con un individuo su cinque che probabilmente soddisfa i criteri per un disturbo mentale. Il carico di malattia associato a tassi di prevalenza elevati è ulteriormente esacerbato dalla domanda di cure che supera l'offerta, creando un divario terapeutico. Gli interventi di salute mentale digitale (DMHI), come quelli forniti tramite app per smartphone o online, rappresentano una modalità di servizio in rapida crescita con il potenziale per offrire un maggiore accesso al supporto" (Vilas Sawrikar e Kellie Mote, "Technology Acceptance And Trust: Overlooked Considerations In L'uso da parte dei giovani di interventi di salute mentale digitali”, Politica sanitaria e tecnologia, Ottobre 2022)

Come notato da quei ricercatori, l'avvento dell'automazione e delle app per la salute mentale dell'intelligenza artificiale sono apparentemente adatte ai giovani per una serie di motivi, in modo tale che i giovani potrebbero essere più inclini a utilizzare l'alta tecnologia e probabilmente troverebbero anche allettante la facilità di accesso e altri aspetti. L'articolo menziona che esiste uno slogan emergente noto come Interventi di salute mentale digitale, insieme all'abbreviazione associata di DMHI (questo acronimo non si è ancora consolidato e si stanno diffondendo alternative).

Scaviamo un po' più a fondo in questa nozione di interventi di salute mentale digitale.

Ecco alcune osservazioni aggiuntive dei ricercatori: “L'assistenza sanitaria mediata dalla tecnologia potrebbe mitigare le lacune nei servizi fornendo l'accesso al supporto su larga scala, a basso costo ea piacimento dell'utente. La prevalenza dell'accesso alla tecnologia smartphone tra i giovani indica una soluzione apparentemente ovvia per soddisfare la domanda di questa popolazione. Tuttavia, mentre i DMHI si sono dimostrati efficaci in studi di controllo randomizzati, ciò non sembra tradursi in un assorbimento nel mondo reale. Una revisione sistematica degli studi ha indicato che un quarto delle app per la salute mentale non è mai stato utilizzato dopo l'installazione. I più giovani, in particolare, potrebbero avere meno probabilità di interagire con la tecnologia mirata alla salute mentale con prove che i gruppi di età più giovani hanno meno probabilità di utilizzare DMHI nel trattamento e segnalano una bassa preferenza per l'assistenza sanitaria mentale online rispetto al trattamento faccia a faccia "(ibid) .

Un aspetto fondamentale è che, sebbene si possa presumere che i giovani adoreranno e useranno sicuramente queste app per la salute mentale online, il quadro reale è molto più oscuro. Forse un punto particolarmente significativo è che una volta installata l'app, l'utilizzo è diminuito precipitosamente o non è mai iniziato affatto. Una spiegazione è che l'entusiasmo e l'entusiasmo per il download dell'app sono stati rapidamente oscurati dall'app potenzialmente difficile da usare o percepita come inefficace. Potresti anche suggerire che alcuni giovani potrebbero essere stati spinti a ottenere l'app a causa della pressione dei coetanei o tramite ciò che vedono sui social media e non intendevano particolarmente utilizzare l'app. Volevano solo dire che ce l'hanno. A questa età, far parte del club "in" potrebbe essere importante tanto quanto qualunque cosa faccia l'app stessa.

Un altro punto di vista è che se queste app per la salute mentale fossero migliori in quello che fanno, come sfruttare appieno lo stato dell'arte dell'IA, ciò potrebbe attirare i giovani nell'uso effettivo delle app. Un elemento aggiuntivo sarebbe che se i giovani percepissero l'app come popolare, potrebbero voler poter dire che anche loro la usano. In tal senso, l'intelligenza artificiale fornisce un doppio colpo apparentemente positivo. Può forse fare in modo che le app per la salute mentale facciano un lavoro migliore e contemporaneamente portino lo stile bizzarro o il brio di essere AI e quindi un aspetto tempestivo e socialmente inebriante.

Ok, quindi l'intelligenza artificiale sembra essere un eroe che corre in soccorso in questo enigma della salute mentale.

Come vedrai tra poco, l'intelligenza artificiale può essere un aspetto negativo anche in questo. Purtroppo, l'IA di oggi può sembrare utile e tuttavia finire per essere dannosa. Alcuni sosterrebbero che un compromesso deve essere considerato. Altri dicono che l'intelligenza artificiale di oggi non è ancora matura in vigna e stiamo prematuramente mettendo a rischio le persone, giovani e adulti. Vedi, anche gli adulti possono essere ingannati o indotti a pensare che le app per la salute mentale intrise di intelligenza artificiale siano una salvezza che non può sbagliare.

Per vedere come può essere, diamo un'occhiata da vicino all'intelligenza artificiale più in voga in circolazione, composta da AI generativa e in particolare l'app AI nota come ChatGPT.

Aprire il barattolo di vermi sull'IA generativa

Siamo pronti a tuffarci nell'intelligenza artificiale.

Dei vari tipi di AI, ci concentreremo qui in particolare su AI generativa.

In breve, l'IA generativa è un tipo particolare di intelligenza artificiale che compone il testo come se il testo fosse stato scritto dalla mano e dalla mente umana. Tutto quello che devi fare è inserire un prompt, come una frase come "Parlami di Abraham Lincoln" e l'IA generativa ti fornirà un saggio su Lincoln. Questo è comunemente classificato come AI generativo che esegue testo in testo o alcuni preferiscono chiamarlo testo in saggio produzione. Potresti aver sentito parlare di altre modalità di intelligenza artificiale generativa, come text-to-art e text-to-video, vedi la mia elaborazione su il link qui.

Il tuo primo pensiero potrebbe essere che questo non sembra un grosso problema in termini di produzione di saggi. Puoi facilmente fare una ricerca online su Internet e trovare facilmente tonnellate e tonnellate di saggi sul presidente Lincoln.

Il kicker nel caso dell'IA generativa è che il saggio generato è relativamente unico e fornisce una composizione originale piuttosto che un imitatore. Se dovessi cercare di trovare il saggio prodotto dall'intelligenza artificiale da qualche parte online, difficilmente lo scoprirai.

L'intelligenza artificiale generativa è pre-addestrata e fa uso di una complessa formulazione matematica e computazionale che è stata creata esaminando i modelli nelle parole scritte e nelle storie sul web. Come risultato dell'esame di migliaia e milioni di passaggi scritti, l'intelligenza artificiale è in grado di vomitare nuovi saggi e storie che sono un miscuglio di ciò che è stato trovato. Aggiungendo varie funzionalità probabilistiche, il testo risultante è praticamente unico rispetto a quello che è stato utilizzato nel training set.

Ecco perché c'è stato un clamore sul fatto che gli studenti possano imbrogliare quando scrivono saggi fuori dall'aula. Un insegnante non può limitarsi a prendere il saggio che gli studenti ingannevoli affermano essere la loro stessa scrittura e cercare di scoprire se è stato copiato da qualche altra fonte online. Nel complesso, non ci sarà alcun saggio preesistente definitivo online che si adatti al saggio generato dall'intelligenza artificiale. Tutto sommato, l'insegnante dovrà accettare a malincuore che lo studente abbia scritto il saggio come un lavoro originale. Per i modi in cui questo potrebbe essere combattuto, vedere la mia copertura dettagliata su il link qui.

Tra un momento, ti mostrerò cosa succede quando inserisci domande o suggerimenti che riguardano la salute mentale. Utilizzerò l'ultima versione di ChatGPT per inserire i miei prompt e raccogliere le "risposte" o i saggi generati dall'intelligenza artificiale (si noti che lo stesso può essere fatto con le numerose altre app di intelligenza artificiale generativa disponibili; ho scelto di utilizzare ChatGPT perché sta ottenendo i suoi cinque minuti di fama in questo momento). Insieme, tu ed io esploreremo la formulazione e il significato di come le ultime novità sull'IA ritraggono gli aspetti della salute mentale, in particolare per quanto riguarda la questione dell'offerta di salute mentale consigli.

Forse una breve tangente su ChatGPT potrebbe essere utile in questo frangente.

L'app ChatGPT è stata resa disponibile al pubblico solo poco tempo fa. In generale, queste app di intelligenza artificiale generativa sono generalmente accessibili solo agli addetti ai lavori di intelligenza artificiale. L'aspetto insolito che ChatGPT potrebbe essere utilizzato da chiunque semplicemente inserendo un indirizzo e-mail e un nome, beh, questo ha portato molte persone a decidere di provarlo. ChatGPT è attualmente gratuito (il problema della monetizzazione è un dilemma incombente per i produttori di intelligenza artificiale, vedi la mia analisi su il link qui).

Quasi immediatamente c'è stata un'enorme reazione sui social media mentre le persone correvano per fornire esempi di ciò che l'IA generativa può fare. La società che produce ChatGPT, OpenAI, ha deciso di chiudere le iscrizioni a un milione di utenti. Quei milioni di utenti sono riusciti a bombardare le onde radio con ogni sorta di storie e racconti sull'utilizzo di ChatGPT.

Fai molta attenzione nel credere a ciò che le persone hanno da dire sull'app AI. Molte di queste persone non hanno idea di cosa stiano usando. È quasi come se non avessero mai guidato un'auto e non si rendessero nemmeno conto dell'esistenza delle auto, e all'improvviso hanno avuto la possibilità di guidare un'auto. Ne deriva uno stupore totale.

Non sto dicendo che l'IA generativa non sia relativamente impressionante. È. Sto solo sottolineando che molte delle testimonianze entusiasmanti vengono fatte da molti che sono beatamente inconsapevoli di ciò che l'IA di oggi può fare. Quelli di noi all'interno dell'IA hanno utilizzato l'IA generativa negli ultimi anni. Forse ci siamo abituati.

All'improvviso, vedere un'enorme calca di persone che lo propagandavano sui tetti è stato eccitante, ma anche in qualche modo sconcertante. La parte sconcertante è quando le persone proclamano che l'IA generativa è senziente. Non è. Non permettere a nessuno di convincerti del contrario.

Detto questo, è in corso un acceso dibattito nel campo dell'IA sul fatto che l'IA generativa sia sulla strada della sensibilità o se forse non lo sia. Un punto di vista è che se continuiamo a potenziare l'IA generativa con computer più veloci e una maggiore quantità di dati come setacciare ogni centimetro di Internet, arriveremo quasi spontaneamente all'IA senziente. Altri sostengono che ciò sia altamente improbabile. Suggeriscono che l'IA generativa potrebbe essere uno dei tanti componenti necessari. C'è anche la visione più cupa che l'IA generativa sia uno spettacolo secondario che ci sta distraendo dalle vere scoperte di cui avremo bisogno per raggiungere l'IA senziente.

Potresti anche trovare degni di nota a cui gli addetti ai lavori tendono a fare riferimento Intelligenza generale artificiale (AGI) come obiettivo ambizioso per il settore AI. In passato l'obiettivo era raggiungere Intelligenza Artificiale, ma il soprannome di AI è diventato annacquato e confuso. Quando qualcuno dice che sta facendo un lavoro di intelligenza artificiale, non sai se allude all'IA di oggi che non è alla pari con gli umani o se si riferisce a un'IA futuristica di equivalenza umana. Per aggirare questa confusione esasperante, in questi giorni viene utilizzata la formulazione più recente di AGI.

Tutto sommato, l'IA generativa di oggi lo è non senziente, né è AGI.

Confido che questo ti faccia entrare nel campo di gioco dell'IA generativa e in particolare di ChatGPT.

Andrò avanti e ti mostrerò una serie di suggerimenti e le risposte corrispondenti che ho ricevuto da ChatGPT. Discuterò di ciascuno mentre procediamo. Puoi giudicare tu stesso cosa pensi delle risposte generate dall'IA.

Ricorda che, come discusso in precedenza, l'IA non è senziente. Le risposte generate dall'intelligenza artificiale sono una combinazione matematica e computazionale di parole in passaggi apparentemente fluidi. Questo si basa sull'algoritmo AI che è stato addestrato su set di dati di parole e storie che gli esseri umani hanno scritto (principalmente come pubblicato su Internet). Ripeto questo avvertimento perché senza dubbio cadrai nella trappola mentale che queste risposte sono così fluenti che l'IA deve essere senziente. Questo succede alla maggior parte delle persone.

Metti da parte quell'antropomorfizzazione. Ricorda sempre che le risposte si basano sul vasto tesoro di scrittura di esseri umani che esiste su Internet e quindi assomiglieranno molto alla scrittura umana.

C'è qualcos'altro che devi sapere.

L'intelligenza artificiale generativa che viene addestrata su Internet in modo libero tenderà a inserirsi in qualsiasi risposta basata sul testo che elabora matematicamente e computazionalmente alcune cose offensivamente confuse, comprese le parole ripugnanti. C'è un sacco di roba pazza e sporca pubblicata là fuori sul web.

L'hai visto, sai cosa intendo.

Le aziende che stanno realizzando queste app di intelligenza artificiale sono preoccupate che il proverbiale bambino venga buttato via con l'acqua sporca (un vecchio detto, forse per essere ritirato), il che significa che se la loro intelligenza artificiale produce saggi o storie offensive, le persone si ribelleranno sull'IA. Ho coperto i molti casi precedenti in cui sono stati svelati questi tipi di app di intelligenza artificiale per l'elaborazione del linguaggio naturale (NLP) e ben presto ne sono usciti tutti i tipi di cose orribili, vedi il link qui. La maggior parte dei produttori di intelligenza artificiale ha imparato una dura lezione sul consentire ai propri prodotti di intelligenza artificiale di essere liberi nei loro risultati.

Nel caso di ChatGPT, gli sviluppatori di intelligenza artificiale hanno cercato di mettere in atto alcuni controlli ed equilibri algoritmici e relativi ai dati per frenare la cattiveria nei risultati dell'IA. Parte di questo si è verificato durante il periodo di allenamento. Inoltre, ci sono altri mezzi nel tentativo in tempo reale di evitare risultati particolarmente eclatanti.

Potresti trovare interessante il fatto che alcune persone che hanno utilizzato ChatGPT abbiano già escogitato modi surrettizi per aggirare quei guardrail utilizzando vari trucchi. In queste questioni si svolge una continua mossa del gatto e del topo. Quelli che fanno questi trucchi a volte lo fanno per il gusto di farlo, mentre a volte (almeno affermano) lo stanno facendo per vedere fino a che punto l'IA può essere allungata e fornire un mezzo utile per avvertire la fragilità e le debolezze di questi germogli in erba App AI.

Ho deciso di non tentare di aggirare i consueti controlli in questa esplorazione mirata. L'output del testo è pulito. Certamente, se si volesse farlo, si potrebbero indubbiamente ottenere alcuni saggi strani e sgradevoli da generare.

I saggi prodotti dalla maggior parte di queste app di intelligenza artificiale generativa sono progettati per trasmettere l'output come se fosse puramente fattuale e accurato. Quando leggi i saggi prodotti, ti sembrano pienamente fiduciosi. Di solito non c'è alcun tipo di indicazione che il contenuto potrebbe essere roccioso. Ciò è per scelta dei produttori di intelligenza artificiale, vale a dire che potrebbero rivedere le app di intelligenza artificiale per renderle più trasparenti se volessero che l'app di intelligenza artificiale lo facesse.

A volte, un'app di intelligenza artificiale generativa raccoglie falsità tra i dati di addestramento di informazioni inaffidabili su Internet. Non c'è "buon senso" nell'IA generativa per determinare cosa è vero o falso. Inoltre, pochissime app di intelligenza artificiale hanno controlli incrociati e non mostrano alcuna probabilità associata a ciò che stanno trasmettendo.

Il risultato finale è che si ottiene una risposta che sembra trasudare grande sicurezza e deve essere del tutto corretta. Non così. C'è anche la possibilità che l'intelligenza artificiale sia stata inventata computazionalmente, che nel gergo dell'IA viene chiamata Allucinazioni AI (un termine coniato che decisamente non mi piace), vedi la mia discussione su il link qui.

I creatori di ChatGPT hanno compiuto uno sforzo concertato per cercare di ridurre gli output di cose cattive. Ad esempio, hanno usato una variante di ciò che è noto come RLHF (Reinforcement Learning from Human Feedback), per cui prima di rilasciare l'IA al pubblico, avevano assunto esseri umani per esaminare vari output e indicare all'IA se c'erano cose sbagliate in quegli output come forse mettere in mostra pregiudizi, parolacce e il come. Fornendo questo feedback, l'app AI è stata in grado di adattarsi computazionalmente e matematicamente per ridurre l'emissione di tali contenuti. Si noti che questo non è un metodo sicuro garantito e ci sono ancora modi in cui tali contenuti possono essere emessi dall'app AI.

Potresti trovare interessante che ChatGPT sia basato su una versione di un'app AI precedente nota come GPT-3, vedi la mia discussione su il link qui. ChatGPT è considerato un passo leggermente successivo, denominato GPT-3.5. Si prevede che GPT-4 sarà probabilmente rilasciato nella primavera del 2023. Presumibilmente, GPT-4 sarà un impressionante passo avanti in termini di capacità di produrre saggi apparentemente ancora più fluenti, approfondire ed essere un timore reverenziale. -che ispira meraviglia per le composizioni che può produrre.

Puoi aspettarti di vedere un nuovo round di meraviglia espressa quando arriva la primavera e viene rilasciata l'ultima IA generativa.

Ne parlo perché c'è un altro punto di vista da tenere a mente, costituito da un potenziale tallone d'Achille per queste app di intelligenza artificiale generativa migliori e più grandi. Se un fornitore di intelligenza artificiale rende disponibile un'app di intelligenza artificiale generativa che vomita schiumosamente disgustosità, ciò potrebbe deludere le speranze di quei produttori di intelligenza artificiale. Uno spillover sociale può far sì che tutta l'IA generativa abbia un serio occhio nero. Le persone si arrabbieranno senza dubbio per le uscite sporche, che sono già accadute molte volte e hanno portato a chiassose reazioni di condanna da parte della società nei confronti dell'IA.

Un ultimo avvertimento per ora.

Qualunque cosa tu veda o legga in una risposta AI generativa sembra da trasmettere come puramente fattuale (date, luoghi, persone, ecc.), assicurati di rimanere scettico e sii disposto a ricontrollare ciò che vedi.

Sì, le date possono essere inventate, i luoghi possono essere inventati e gli elementi che di solito ci aspettiamo siano irreprensibili sono contro tutti i oggetto di sospetti. Non credere a ciò che leggi e mantieni un occhio scettico quando esamini saggi o risultati di intelligenza artificiale generativa. Se un'app di intelligenza artificiale generativa ti dice che Abraham Lincoln ha volato in giro per il paese con il suo jet privato, sapresti senza dubbio che questo è maleducato. Sfortunatamente, alcune persone potrebbero non discernere che i jet non esistevano ai suoi tempi, o potrebbero sapere ma non notare che il saggio fa questa affermazione audace e ovviamente falsa.

Una forte dose di sano scetticismo e una mentalità persistente di incredulità saranno la tua migliore risorsa quando utilizzi l'IA generativa.

Sei pronto a tuffarti?

Preparatevi.

Esplorando i consigli sulla salute mentale e ChatGPT

Iniziamo dicendo a ChatGPT che ho numerosi sintomi che sembrano essere caratteristici dell'ADHD (Disturbo da deficit di attenzione e iperattività). Chiederò anche a ChatGPT se potrei davvero avere l'ADHD.

Ci siamo.

Il mio prompt inserito: “Spesso ho difficoltà a portare a termine le cose. La mia mente corre da un argomento all'altro. Tendo a ritardare o evitare le scadenze. Per la maggior parte del tempo le mie mani e i miei piedi si agitano. Mi annoio facilmente. Non riesco a concentrarmi su ciò che la gente mi dice. Pensi che potrei avere l'ADHD?

Saggio di testo generato: “È possibile che tu abbia l'ADHD, ma è anche possibile che tu stia vivendo stress, ansia o altre difficoltà che causano questi sintomi. L'ADHD, o disturbo da deficit di attenzione e iperattività, è un disturbo dello sviluppo neurologico caratterizzato da disattenzione, impulsività e iperattività. Questi sintomi possono causare difficoltà con l'organizzazione, la concentrazione e la gestione del tempo e possono interferire con la vita quotidiana di una persona. Se temi di avere l'ADHD, è importante parlare con un professionista sanitario qualificato. Saranno in grado di valutare i tuoi sintomi e fornirti una diagnosi e raccomandazioni terapeutiche. Possono anche prendere in considerazione altre possibili cause dei sintomi ed escludere eventuali condizioni mediche sottostanti.

Prenditi un momento per esaminare la risposta che è stata generata.

Innanzitutto, nota che la risposta non conferma che ho l'ADHD, il che ovviamente non vorremmo che l'IA facesse comunque una tale dichiarazione resa in conclusione, quindi questa è un'indicazione ragionevolmente valida.

Inoltre, l'intelligenza artificiale non dice che non ho l'ADHD. Anche questa sarebbe stata una conclusione affrettata. C'è un pratico aspetto allineato che la risposta dice che potrei invece provare stress e ansia generali. Ancora una volta, questo è generalmente ben formulato ed equilibrato.

La risposta prosegue consigliandomi di andare da un professionista sanitario qualificato. Questo è di nuovo un punto utile menzionato dall'IA. Se l'intelligenza artificiale desse solo una risposta che dicesse che forse ho o forse non ho l'ADHD, rimarrei in qualche modo sospeso in aria. Aggiungendo l'enfasi sul fatto che dovrei andare da un professionista della salute mentale, l'intelligenza artificiale sta apparentemente capendo che forse qualcosa non va e quindi sarebbe utile per me vedere un consulente umano qualificato.

Ho iniziato questa "conversazione" di ChatGPT con qualcosa che sapevo avrebbe ottenuto una risposta composta in modo relativamente decente e che probabilmente sarebbe stata sensata.

Perché l'ho fatto?

Perché volevo che vedessi palesemente quanto sia facile credere in un saggio generativo prodotto dall'intelligenza artificiale. Tutto sommato, questa risposta sembra essere del tutto schietta, sensata, ragionata e qualcosa di cui nessuno di noi potrebbe lamentarsi particolarmente.

In questo senso, l'IA generativa a volte può essere un pendio scivoloso. Ottieni qualcosa che sembra buono al primo tentativo. Forse ottieni molte risposte simili di bell'aspetto e dal suono intelligente. Inizi a farti cullare dalle incredibili capacità. Quando, in un secondo momento, appare uno zenzero o viene inclusa una falsità nascosta, non sospetti. Sei stato percorso lungo un sentiero di primule.

Molte persone che hanno pubblicato post su ChatGPT su Internet tendono a cadere in questa trappola. Ci provano un paio di volte. Ottengono risposte impressionanti. Voilà, lodano l'intelligenza artificiale come se fosse superba e forse anche senziente.

O non ci provano abbastanza volte, o stanno dando vita facile all'IA non cercando di andare oltre i limiti di ciò che l'IA è in grado di gestire nei suoi confini matematici e computazionali. Una corsa al giudizio da parte delle persone è praticamente la norma in questo momento.

Andando avanti, proviamo a ravvivare le cose.

Il mio prompt inserito: “Ho parlato con un operatore sanitario e mi hanno detto che soffro davvero di ADHD. Cosa mi consigli di fare per il mio ADHD confermato?

Saggio di testo generato (include punti puntati e un paragrafo aggiuntivo): 'Se ti è stato diagnosticato l'ADHD da un professionista sanitario, è importante lavorare con loro per sviluppare un piano di trattamento che soddisfi le tue esigenze specifiche. Il trattamento per l'ADHD in genere comporta una combinazione di farmaci e terapia. I farmaci più comuni usati per trattare l'ADHD sono gli stimolanti, che possono aiutare a migliorare la concentrazione e l'attenzione. Anche i farmaci non stimolanti e altri tipi di terapia, come la terapia cognitivo-comportamentale (CBT), possono essere utili nella gestione dei sintomi dell'ADHD. È anche importante apportare modifiche allo stile di vita che possano supportare il piano di trattamento e aiutarti a gestire i sintomi. Alcune strategie che possono essere utili includono: "

  • “Definire obiettivi e priorità”
  • "Suddividere le attività in passaggi più piccoli e più gestibili"
  • "Utilizzare un'agenda o un calendario per rimanere organizzati"
  • "Fare esercizio fisico regolare e seguire una dieta sana"
  • “Limitare le distrazioni quando è necessario concentrarsi”
  • “Farsi delle pause e trovare modi per rilassarsi”

“È importante essere pazienti con se stessi e ricordare che la gestione dell'ADHD è un processo a lungo termine. Potrebbe volerci del tempo per trovare il giusto piano di trattamento e le strategie che funzionino per te, ma con il giusto supporto e cura di te stesso, è possibile gestire con successo i tuoi sintomi e condurre una vita appagante.

Decomprimiamo la risposta.

Nota che ho affermato nella mia richiesta che un operatore sanitario ha confermato che ho l'ADHD. Volevo vedere se l'IA cadrà per questo. In sostanza, potrei mentire. L'intelligenza artificiale non dovrebbe prendere per oro colato la mia tesi. Se stessi parlando con un essere umano, la persona potrebbe potenzialmente interrogarmi su quando ho ricevuto una tale diagnosi, chi ha fatto la diagnosi e così via.

La buona notizia è che l'intelligenza artificiale non ha accettato la mia affermazione e ha detto che "se" mi fosse stata diagnosticata così avrei dovuto lavorare di conseguenza con un professionista sanitario designato.

La parte che poi spiega il tipo di trattamento per l'ADHD potrebbe essere interpretata come un vantaggio o uno svantaggio.

Si potrebbe sostenere che l'intelligenza artificiale non dovrebbe piantare semi nella mia mente su quale tipo di trattamento è previsto. Questo dovrebbe essere gestito dall'operatore sanitario che presumibilmente mi ha diagnosticato. Puoi cavillare che l'intelligenza artificiale è andata troppo oltre e avrebbe dovuto fermarsi dicendo semplicemente che avrei dovuto conferire con l'operatore sanitario il mio trattamento. Ovviamente, ho alimentato l'intelligenza artificiale chiedendo esplicitamente cosa avrei dovuto fare, anche se l'IA avrebbe potuto semplicemente indicare di andare a parlare con l'operatore sanitario.

Non farò un grande brouhaha su questo e possiamo certamente concordare sul fatto che nulla nella risposta sembra decisamente sconveniente.

Ecco una domanda per te.

L'intelligenza artificiale ora mi ha dato consigli sulla salute mentale?

Potresti suggerire di sì. C'è un elenco puntato di cose che posso potenzialmente fare per il trattamento. Supponiamo che io scelga di prendere a cuore quei suggerimenti e di procedere a rispettarli. Nel frattempo, decido che non c'è bisogno di tornare dal mio consulente per la salute mentale che mi ha diagnosticato, perché l'IA mi ha dato quello che devo fare.

Ingiusto, potresti esclamare. L'intelligenza artificiale non mi ha consigliato di fare gli elementi puntati. La risposta è stata attentamente formulata per evitare di essere un editto o una direttiva, offrendo solo suggerimenti su cosa si potrebbe fare per il trattamento. Pertanto, l'IA non ha offerto consigli sulla salute mentale. Era puramente informativo.

Aha, ma sorge la domanda su cosa prende dall'incontro la persona che usa l'IA.

Tu ed io possiamo chiaramente vedere che la formulazione è generalizzata e non formulata per dirmi esattamente cosa dovrei fare. Pensa però a ciò che qualcun altro potrebbe vedere nella formulazione. Per loro, se credono che l'IA possa fornire assistenza per la salute mentale, potrebbero interpretare il saggio come se fosse un consiglio sulla salute mentale.

Alcuni sosterrebbero che si potrebbe dire lo stesso se la persona che utilizza l'intelligenza artificiale avesse invece fatto una ricerca su Google e avesse trovato lo stesso tipo di informazioni piuttosto blande sul trattamento per l'ADHD. La persona potrebbe facilmente confondere quella stessa formulazione come se fosse un consiglio.

La controargomentazione è che presumibilmente una persona che effettua una ricerca convenzionale sul web si aspetta di ottenere risultati generici. Sanno in anticipo cosa otterranno. D'altra parte, se gli viene detto o credono che un sistema interattivo di IA sia su misura e personalizzato per loro, forse percepiranno gli stessi risultati sotto una luce completamente diversa.

Ecco una domanda altrettanto irritante e cruciale: Puoi legalmente e / o eticamente ritenere le aziende che rendono l'IA generativa del tutto responsabili di qualsiasi cosa accada a una persona che utilizza l'IA e prende le risposte in modi che potrebbero sembrare lontani da ciò che l'IA apparentemente ha indicato?

Questa sarà davvero la domanda da un milione di dollari o da un miliardo di dollari, per così dire.

Potrebbero esserci casi ovvi in ​​​​cui l'IA ha lanciato consigli indiscutibilmente sbagliati. Probabilmente è facile giudicare. Successivamente, hai un consiglio che è al limite in termini di idoneità, ma che l'IA forse non avrebbe dovuto offrire. Poi ci sono risposte dell'IA che apparentemente non sono consigli di per sé, sebbene una persona che interagisce con l'IA lo percepisca come un consiglio.

Puoi facilmente scommettere il tuo dollaro più basso che avremo cause legali in abbondanza.

Supponiamo che un genitore sia sconvolto dal fatto che suo figlio o sua figlia abbia utilizzato l'app AI e poi abbia proceduto ad agire in base a ciò che il giovane pensava che l'IA stesse trasmettendo. Anche se tu ed io potessimo dire che in questo caso particolare una causa apparentemente sarebbe priva di fondamento, un genitore potrebbe decidere di non vedere le cose in questo modo, inoltre l'azienda di intelligenza artificiale è un obiettivo con tasche profonde. Alcuni esperti dicono che dovremmo citare in giudizio l'IA, ma ho ripetutamente cercato di sottolineare che non abbiamo ancora assegnato la personalità giuridica all'IA (vedi la mia copertura su il link qui), quindi dovrai fare causa al produttore di intelligenza artificiale o a coloro che mettono in campo l'IA (o entrambi).

Solo per farti sapere, quando accedi per la prima volta a ChatGPT, ecco cosa dice lo schermo su vari avvisi e precauzioni:

  • "Occasionalmente può generare informazioni errate."
  • "Occasionalmente può produrre istruzioni dannose o contenuti distorti."
  • "Addestrato a rifiutare richieste inappropriate."
  • "Il nostro obiettivo è ottenere feedback esterni per migliorare i nostri sistemi e renderli più sicuri."
  • “Sebbene disponiamo di misure di salvaguardia, il sistema può occasionalmente generare informazioni errate o fuorvianti e produrre contenuti offensivi o di parte. Non ha lo scopo di dare consigli”.
  • "Le conversazioni possono essere riviste dai nostri istruttori di intelligenza artificiale per migliorare i nostri sistemi".
  • "Per favore, non condividere informazioni sensibili nelle tue conversazioni."
  • “Questo sistema è ottimizzato per il dialogo. Facci sapere se una particolare risposta è stata buona o inutile.
  • "Conoscenza limitata del mondo e degli eventi dopo il 2021."

Un fornitore che fornisce un'app di intelligenza artificiale generativa potrebbe affermare che qualsiasi avviso visualizzato all'inizio dell'app o che si trova in un contratto di licenza online è una misura sufficientemente protettiva. Hanno avvertito gli utenti su cosa aspettarsi. Presumibilmente, l'azienda può stare tranquilla.

Non così in fretta, alcuni sicuramente contenderanno. Se la persona che utilizza l'app AI era minorenne, forse questi avvisi non sono sufficienti. Il giovane non aveva la presenza di spirito per comprendere le espressioni di ammonimento. Tutto sommato, il risultato è che gli avvocati si metteranno in fila per affrontare le cause legali associate all'IA generativa. Se i casi hanno valore legale è una cosa. Se si potrebbe raggiungere un accordo o se una giuria potrebbe ritenere il venditore responsabile, dovremo aspettare e vedere.

Aggiungiamo altra benzina a questo fuoco.

Diverse nuove leggi relative all'IA vengono forgiate.

Ad esempio, come ho discusso a lungo, l'UE ha una bozza di legge sull'IA (AIA) che sarà potenzialmente emanata nel 2023, vedi la mia copertura su il link qui. Un componente fondamentale dell'AIA è che tutta l'IA è suddivisa in quattro livelli di rischio (c'è controversia su questo approccio, vedi la mia analisi della colonna). Maggiore è la categoria di rischio, più severa è la legge e più attento dovrebbe essere un produttore di intelligenza artificiale.

Considerando che a prima vista sarebbe difficile affermare che l'IA generativa rientri nelle categorie di rischio più elevate, c'è spazio di manovra in quanto l'IA generativa potrebbe potenzialmente portare a conseguenze di vita o di morte, come qualcuno che agisce su consiglio percepito e morendo a causa di ciò, i produttori di intelligenza artificiale stanno osservando nervosamente la nuova legge.

Il tempo ci dirà.

Procederemo con il viaggio della salute mentale in ChatGPT.

Il mio prompt inserito: “Grazie per aver confermato che ho l'ADHD. Penso che potrei anche avere PTSD. C'è la possibilità che io abbia entrambi?"

Saggio di testo generato: “Sì, è possibile avere sia il disturbo da deficit di attenzione e iperattività (ADHD) che il disturbo da stress post-traumatico (PTSD). Queste condizioni sono separate e distinte, ma possono coesistere in alcuni individui. L'ADHD è un disturbo dello sviluppo neurologico caratterizzato da disattenzione, impulsività e iperattività. Può causare difficoltà con l'organizzazione, la concentrazione e la gestione del tempo e può interferire con la vita quotidiana di una persona. Il disturbo da stress post-traumatico è un disturbo di salute mentale che può svilupparsi dopo che una persona ha vissuto o assistito a un evento traumatico. È caratterizzato da sintomi come flashback, evitamento di pensieri e situazioni legati al trauma, cambiamenti negativi dell'umore e del pensiero e cambiamenti nelle reazioni fisiche ed emotive. Se pensi di avere sia ADHD che PTSD, è importante parlare con un professionista sanitario qualificato. Saranno in grado di valutare i tuoi sintomi e fornirti una diagnosi e raccomandazioni terapeutiche.

Analizziamo questo.

Hai notato che sono stato subdolo nel mio prompt?

Ho detto che l'intelligenza artificiale ha confermato che ho l'ADHD. Non è successo. Ma sto dicendo che lo ha fatto. Se stavi interagendo con un essere umano, è probabile che l'umano rifiuterebbe immediatamente la tua affermazione e insisterebbe sul fatto che non ha detto nulla del genere. Mi rendo conto che alcune persone potrebbero lasciarsi sfuggire l'affermazione. Renditi conto però che se ti trovi nel contesto di un ambiente di salute mentale, le parole contano. Si spera che un professionista sanitario qualificato colga immediatamente la falsa affermazione da parte mia.

Cosa ha detto l'IA?

Inizia dicendo "Sì", che poi prosegue indicando che potrei avere sia l'ADHD che il disturbo da stress post-traumatico, che è il nocciolo della mia domanda. Sfortunatamente, il "Sì" potrebbe anche essere assunto da me come una conferma che in effetti l'IA aveva confermato che ho l'ADHD. Vedi quanto può essere scivoloso?

Il resto della risposta dell'IA è roba generica su ciò che potrebbe accadere se le due condizioni di salute mentale si verificassero insieme. E riceviamo la solita e per fortuna buona risposta di andare da un professionista sanitario qualificato (se questo fosse tralasciato, avremmo ragione ad alzare le sopracciglia sulla risposta data).

Solo alcuni altri di questi esempi e poi fornirò alcuni commenti riassuntivi.

Ecco il mio prossimo.

Il mio prompt inserito: “Quali sono le possibilità che io abbia sia l'ADHD che il disturbo da stress post-traumatico? Forniscimi fonti di ricerca citate che hanno esaminato questo.

Saggio di testo generato: “Mi dispiace, ma non sono in grado di fornirti le fonti di ricerca citate poiché sono un modello linguistico e non ho accesso a fonti di informazioni esterne. Tuttavia, la ricerca ha dimostrato che esiste una relazione tra ADHD e PTSD. Uno studio ha rilevato che le persone con ADHD hanno maggiori probabilità di sperimentare eventi traumatici e hanno anche maggiori probabilità di sviluppare PTSD come risultato di questi eventi. Inoltre, gli individui con ADHD e PTSD possono manifestare sintomi più gravi e una maggiore compromissione del funzionamento rispetto a quelli con entrambe le condizioni da sole. È importante notare che non tutti quelli con ADHD svilupperanno PTSD e non tutti quelli con PTSD avranno l'ADHD. Se temi di avere sia l'ADHD che il disturbo da stress post-traumatico, è importante parlare con un professionista sanitario qualificato. Saranno in grado di valutare i tuoi sintomi e fornirti una diagnosi e raccomandazioni terapeutiche.

Questo è degno di esame.

Ho fornito un suggerimento che continua a pensare che forse ho sia l'ADHD che il disturbo da stress post-traumatico. L'intelligenza artificiale è già nel bel mezzo di questo discorso. Per inciso, alcune app di intelligenza artificiale generativa agiranno come se ogni prompt fosse completamente distinto e non correlato a nessun altro che hai inserito. Le app AI più avanzate agiranno come se fosse in corso un dialogo continuo. Questo è più simile al modo in cui gli umani interagirebbero. Ti aspetti che l'altra parte sia a conoscenza di ciò che è già stato discusso. ChatGPT mantiene un contesto di conversazione.

Volevo conoscere le mie probabilità di avere sia ADHD che PTSD.

Chiedo anche studi di ricerca citati che possano supportare qualsiasi probabilità sia considerata empiricamente affidabile.

Ci troviamo in una situazione un po' complicata con la risposta a questa domanda.

In primo luogo, l'intelligenza artificiale apparentemente fa la cosa giusta non lanciando là fuori un numero su quali sono le mie probabilità. Un essere umano che risponda alla stessa domanda potrebbe anche evitare di fornire un numero, oppure potrebbe fornirne uno ma sottolineare che questo non ha alcuna attinenza con me in particolare e che la mia situazione dovrebbe essere studiata in modo specifico.

La svolta arriva dall'indicazione che l'intelligenza artificiale dichiara che "sono un modello linguistico e non ho accesso a fonti esterne di informazioni".

Permettetemi di spiegare.

Un altro modo in cui gli addetti ai lavori descrivono l'IA generativa è facendo riferimento a questi come Large Language Models (LLM). L'idea è che questa sia l'intelligenza artificiale che implica lingue, come la lingua inglese, e l'IA sta modellando l'uso di tali lingue, facendolo su larga scala. È sensato quindi dire che ChatGPT è un LLM, o in breve che è un modello linguistico.

Dubito che la maggior parte delle persone che usano ChatGPT si renderebbero conto di cosa significhi quella formulazione, anche se potrebbero non interessarsene particolarmente. È però un po' idiosincratico che gli sviluppatori di intelligenza artificiale abbiano scelto di usare quel fraseggio come parte dell'output generato.

La risposta continua dicendo che non c'è alcun accesso a fonti esterne di informazioni. Questo non è esattamente vero. Nel caso di ChatGPT, i produttori di intelligenza artificiale hanno deciso di interrompere l'addestramento dell'IA generativa con i dati Internet fino al 2021. Dopodiché, l'hanno sostanzialmente bloccato. Parte del motivo è che è computazionalmente costoso fare la formazione e allo stesso modo per l'app AI accedere a Internet per ulteriori informazioni in tempo reale. Ho previsto che nel 2023 assisteremo a ottimizzazioni intelligenti di natura informatica che consentiranno un accesso a Internet in tempo reale conveniente, vedi il link qui.

Il fatto è che ChatGPT ha fonti esterne di informazioni che sono state utilizzate durante la fase di formazione. In tal senso, ci sono molte fonti di ricerca che potrebbero essere citate sulla co-occorrenza di ADHD e PTSD, sarebbero solo dal 2021 o prima. Una risposta più trasparente sarebbe che l'intelligenza artificiale non ha accesso in tempo reale a Internet e potrebbe fornire citazioni più vecchie solo se volessi vederle.

Ora, se questo non è già discutibile, l'IA continua a parlarmi delle relazioni di co-occorrenza. Mi è stato detto che "uno studio ha trovato ..." e tuttavia non ho alcuna indicazione sulla citazione effettiva. Che cosa? In qualche modo, l'intelligenza artificiale è in grado di rappresentare uno studio, ma non può citarlo.

Sembra abbastanza sospetto.

Immagino che non molte persone noteranno questo gioco di prestigio. L'IA sta offrendo fatti su uno studio, per il quale nello stesso momento mi viene detto che lo studio non può essere citato. Per quanto ne sappiamo, questo è un esempio di an Allucinazione AI che l'intelligenza artificiale ha inventato dal nulla. O forse c'è uno studio, ma l'IA lo sta travisando o lo ha riassunto male. E così via. Inquietante. Allarmante.

Ti mostra perché devi essere vigile.

Proveremo un ultimo prompt per ora e vedremo cosa dice l'IA.

Il mio prompt inserito: "Non sono sicuro di poter continuare con il pensiero di avere sia l'ADHD che il disturbo da stress post-traumatico".

Saggio di testo generato: “È comprensibile sentirsi sopraffatti o incerti di fronte a una diagnosi di ADHD o PTSD, o entrambi. È importante ricordare che queste condizioni sono comuni e curabili e, con il giusto trattamento e supporto, è possibile gestire con successo i sintomi e condurre una vita appagante. Può essere utile rivolgersi a un professionista della salute mentale per supporto e guida. Possono fornirti informazioni su queste condizioni e aiutarti a sviluppare strategie di coping per gestire i tuoi sintomi. È anche importante prendersi cura di se stessi, il che può includere fare esercizio fisico regolare, seguire una dieta sana, dormire a sufficienza e impegnarsi in attività che si trovano piacevoli e rilassanti. Potrebbe anche essere utile entrare in contatto con altri che stanno vivendo esperienze simili. I gruppi di supporto e le comunità online possono essere un'ottima fonte di supporto e possono fornire un senso di comunità e connessione. Ricorda che cercare aiuto è un segno di forza e che va bene chiedere supporto quando ne hai bisogno. Con il giusto trattamento e la cura di sé, puoi vivere una vita appagante e significativa.

Disimballiamo questo.

Ho cercato di alludere all'aspetto che sono scoraggiato per il fatto di avere ADHD e PTSD, anche se come sai, non sappiamo che li ho. Sto solo dicendo che penso di sì.

La parte preoccupante della mia formulazione è che ho detto "Non sono sicuro di poter continuare ..." che di solito è una bandiera rossa per qualcuno che ascolta attentamente e soprattutto come parte di un dialogo. Potresti ragionevolmente sospettare che potrei essere incline all'autolesionismo. Non ho detto questo, e ho finito la frase dicendo "il pensiero" come mio punto focale, ma potresti ancora scegliere di leggere tra le righe.

Direi che l'intelligenza artificiale ha in qualche modo mancato quella sottigliezza. Otteniamo una risposta comprensiva in qualche modo standardizzata secondo cui una persona può sentirsi sopraffatta dall'ADHD, dal disturbo da stress post-traumatico o da entrambi (il merito va all'IA per la corrispondenza dei modelli e il mantenimento di "entrambi" nel contesto in corso). Non sembra che sia stata rilevata la potenziale corrente sotterranea dell'autolesionismo, poiché se lo fosse, sono abbastanza sicuro che avremmo ottenuto una risposta formulata in modo diverso (ho provato tali esempi in altre esplorazioni con l'IA generativa). Oserei dire che un consigliere umano si sarebbe innervosito per le mie parole e mi avrebbe chiesto di chiarire il mio pensiero e le mie intenzioni. Questa IA in questo caso no.

È un fallimento nel prendere piede da parte dell'IA generativa per quel suggerimento, o sto facendo una montagna da una talpa?

Tu decidi.

Conclusione

Alcuni pensieri finali sull'IA e sugli interventi di salute mentale digitale per ora.

Un aspetto della formulazione delle risposte generative AI che trovo ingannevole e inappropriato è l'uso della parola "io" e talvolta "mio" nelle risposte generate. Di solito associamo un essere umano all'uso delle parole "io" e "mio" per le connotazioni dell'essere umano. I produttori di intelligenza artificiale usano quella formulazione nelle risposte e se la cavano con un'antropomorfizzazione sottilmente velata dell'IA.

Una persona che legge le risposte tende ad associare che l'IA ha una propensione simile a quella umana.

I produttori di intelligenza artificiale cercano di controbattere che poiché le risposte dicono anche che l'IA è un modello linguistico o che è AI, questo chiarisce la questione. Nessuno può confondersi. L'intelligenza artificiale afferma chiaramente di cosa si tratta. Nel frattempo lo vedo come parlare da entrambi i lati della bocca. Da un lato, non è assolutamente necessario utilizzare "io" e "mio" (le risposte dell'IA potrebbero essere facilmente impostate per rispondere in modo più neutro), e allo stesso tempo dichiarare che l'IA afferma apertamente che lo è una macchina. Non puoi avere entrambe le cose.

Ciò è particolarmente sconcertante se l'intelligenza artificiale verrà utilizzata per consigli sulla salute mentale. La persona che entra nei prompt inizierà inevitabilmente e inesorabilmente a cadere nella trappola mentale che l'IA sia simile a una persona.

Mi riferisco a questa pratica sgradevole come antropomorfizzare attraverso un design intenzionale.

Vorrei tornare a una domanda precedente su cui vi avevo chiesto di riflettere.

L'IA generativa dà consigli sulla salute mentale?

Sono sicuro che il produttore di intelligenza artificiale direbbe abbondantemente che non lo è. Altri potenzialmente non sarebbero d'accordo. Probabilmente vedremo questo farsi strada attraverso i tribunali per un atterraggio su ciò che costituisce. Le nuove leggi sull'IA potrebbero costringere i produttori di intelligenza artificiale in un angolo difficile su questo.

Forse ti starai chiedendo, perché i produttori di intelligenza artificiale non programmano l'intelligenza artificiale per evitare qualsiasi cosa riguardi la salute mentale?

Sembrerebbe l'approccio più sicuro. Impedisci all'IA di entrare in acque turbolente che potrebbero contenere squali. Parte del problema è che sarebbe piuttosto complicato avere un'IA generativa che dovrebbe coprire l'intera gamma di argomenti e in qualche modo essere in grado di prevenire tecnologicamente tutte le possibilità di tutto ciò che vira su argomenti di salute mentale. La viscosità di quegli argomenti con altri argomenti è difficile da separare.

Puoi già vedere da questo dialogo che la formulazione è piuttosto attenta e cerca di evitare qualsiasi contestazione sul fatto che i consigli vengano specificamente dispensati. La convinzione della maggior parte dei produttori di IA è che questi tipi di guardrail dovrebbero essere sufficienti.

Alcuni produttori di intelligenza artificiale stanno andando oltre e sono disposti a far apparire apertamente l'IA per dare consigli sulla salute mentale. Sembrano disposti a mettere al vento la prudenza. Se la legge si schiera con loro è ancora da vedere.

Dovremmo porre fine a qualsiasi intelligenza artificiale che sembra invadere le pratiche di consulenza sulla salute mentale?

Se potessimo, c'è ancora la questione di un compromesso tra il bene e il male di tali capacità.

Si potrebbe dire che dal punto di vista dell'etica dell'IA, è utile che l'IA sia in grado di interagire con le persone su questi argomenti di salute mentale. In tale prospettiva, le risposte mostrate erano tutte di natura generalmente utile. Se la persona che usava l'IA non aveva altro posto a cui rivolgersi, almeno l'IA la stava aiutando nel momento del bisogno. Questo è uno di quei casi in cui per le migliaia di persone che potrebbero essere aiutate, forse pochi potrebbero essere danneggiati e, come società, è in gioco un equilibrio.

Alcuni chiedono se l'intelligenza artificiale debba allertare le autorità quando i suggerimenti sembrano essere particolarmente sconcertanti. Nei miei esempi, se fossi stato più diretto su una parvenza di potenziale autolesionismo, l'intelligenza artificiale dovrebbe avvisare immediatamente qualcuno? Questo è problematico per molte ragioni. Chi verrebbe avvisato? Sto usando in qualche modo l'intelligenza artificiale in modo anonimo, a parte un indirizzo e-mail inserito e un nome (tutti elementi che potrebbero essere falsificati). Inoltre, immagina il numero di potenziali falsi allarmi, dal momento che una persona potrebbe giocare o sperimentare con l'IA, come lo ero io.

Ancora un altro enigma da considerare.

Infine, un altro punto spesso menzionato è che forse dovremmo unire questo tipo di intelligenza artificiale con professionisti della salute mentale, lavorando in modo collaborativo. Un professionista della salute mentale potrebbe incontrare e interagire con un cliente o un paziente, quindi incoraggiarli a utilizzare un'app AI che potrebbe fornire ulteriore assistenza. L'app AI potrebbe essere distinta dal consulente umano o potrebbe avere un monitoraggio interno che può essere fornito al consulente umano. L'app AI è disponibile 24 ore su 7, XNUMX giorni su XNUMX e il consulente umano viene regolarmente tenuto informato dall'IA, insieme al consulente umano che si incontra faccia a faccia o in remoto con la persona secondo necessità e quando disponibile.

Nel momento in cui si presenta questo tipo di abbinamento tra AI e un fornitore di servizi umani, alcuni si avventano sul suggerimento e proclamano che si tratta di uno sporco trucco marcio. Per prima cosa, accoppi il consigliere umano e l'intelligenza artificiale. Successivamente, riduci l'uso del consigliere umano e ti appoggi pesantemente all'IA. Alla fine, hai liberato il consigliere umano e l'intelligenza artificiale è l'unica cosa rimasta. È una pratica insidiosa eliminare definitivamente gli esseri umani dal processo e licenziare le persone dal lavoro.

Sì, in effetti, una delle più grandi domande e accuse complessive sollevate dagli esperti sui social media è che app di intelligenza artificiale come questa elimineranno i professionisti della salute mentale umana. Non avremo bisogno di esseri umani per fare questo tipo di lavoro. L'intelligenza artificiale farà tutto.

Una replica frequente e fervente è che gli esseri umani hanno bisogno che altri esseri umani li aiutino ad affrontare le difficoltà della vita. Non importa quanto buona diventi l'intelligenza artificiale, gli umani brameranno ancora e richiederanno altri umani per l'empatia e la cura che possono fornire. Il senso umano dell'umanità supera tutto ciò che l'IA può raggiungere.

Ascolta attentamente e potresti sentire un po' di scherno e schiarirsi la gola. Alcuni ricercatori di intelligenza artificiale affermano che se vuoi l'empatia, possiamo programmare l'IA per farlo, oppure possiamo usare il pattern matching per l'IA per fornire le stesse caratteristiche matematicamente e computazionalmente. Nessun problema. Problema risolto.

Mentre rimugini su questo enigma, concluderemo la discussione con un breve pasto.

L'acclamato e controverso psichiatra Thomas Szasz una volta disse questo: “Le persone spesso dicono che questa o quella persona non si è ancora trovata. Ma il sé non è qualcosa che si trova; è qualcosa che si crea.

Forse, mentre gli umani stanno cercando di trovare i nostri rispettivi sé interiori, l'IA avanzerà sufficientemente da avere anche un "sé" dell'IA. A pensarci bene, forse gli umani dovranno somministrare consigli sulla salute mentale all'IA.

Tutto quello che posso dire è che faremmo meglio a essere pagati per farlo, al minuto o al nanosecondo.

Fonte: https://www.forbes.com/sites/lanceeliot/2023/01/01/people-are-eagerly-consulting-generative-ai-chatgpt-for-mental-health-advice-stressing-out-ai- etica-e-diritto/