Ecco come OpenAI prevede di ripulire ChatGPT da false informazioni

OpenAI ha annunciato il 31 maggio i suoi sforzi per migliorare le capacità di risoluzione dei problemi matematici di ChatGPT, con l'obiettivo di ridurre i casi di allucinazioni di intelligenza artificiale (AI). OpenAI ha enfatizzato la mitigazione delle allucinazioni come un passo cruciale verso lo sviluppo di un'AGI allineata.

A marzo, l'introduzione dell'ultima versione di ChatGPT, GPT-4, ha spinto ulteriormente l'intelligenza artificiale nel mainstream. Tuttavia, i chatbot di intelligenza artificiale generativa hanno lottato a lungo con l'accuratezza dei fatti, generando occasionalmente informazioni false, comunemente denominate "allucinazioni". Gli sforzi per ridurre queste allucinazioni dell'IA sono stati annunciati attraverso un post sul loro sito web.

Le allucinazioni dell'IA si riferiscono a casi in cui i sistemi di intelligenza artificiale generano output effettivamente errati, fuorvianti o non supportati da dati del mondo reale. Queste allucinazioni possono manifestarsi in varie forme, come generare false informazioni, inventare eventi o persone inesistenti o fornire dettagli imprecisi su determinati argomenti.

OpenAI ha condotto una ricerca per esaminare l'efficacia di due tipi di feedback: "supervisione del risultato" e "supervisione del processo". La supervisione del risultato implica un feedback basato sul risultato finale, mentre la supervisione del processo fornisce input per ogni fase di una catena di pensiero. OpenAI ha valutato questi modelli utilizzando problemi matematici, generando più soluzioni e selezionando la soluzione con il punteggio più alto in base a ciascun modello di feedback.

Dopo un'analisi approfondita, il team di ricerca ha scoperto che la supervisione del processo ha prodotto prestazioni superiori poiché ha incoraggiato il modello ad aderire a un processo approvato dall'uomo. Al contrario, la supervisione dei risultati si è rivelata più difficile da esaminare in modo coerente.

OpenAI ha riconosciuto che le implicazioni della supervisione dei processi si estendono oltre la matematica e sono necessarie ulteriori indagini per comprenderne gli effetti in diversi domini. Ha espresso la possibilità che se i risultati osservati sono validi in contesti più ampi, la supervisione del processo potrebbe offrire una combinazione favorevole di prestazioni e allineamento rispetto alla supervisione dei risultati. Per facilitare la ricerca, la società ha rilasciato pubblicamente il set di dati completo della supervisione del processo, invitando all'esplorazione e allo studio in quest'area.

Correlato: La domanda di intelligenza artificiale catapulta brevemente Nvidia nel club da $ 1T

Sebbene OpenAI non abbia fornito istanze esplicite che hanno spinto la loro indagine sulle allucinazioni, due eventi recenti hanno esemplificato il problema in scenari di vita reale.

In un recente incidente, l'avvocato Steven A. Schwartz nel caso Mata v. Avianca Airlines ha ammesso di aver fatto affidamento sul chatbot come risorsa di ricerca. Tuttavia, le informazioni fornite da ChatGPT si sono rivelate interamente fabbricate, evidenziando il problema in questione.

ChatGPT di OpenAI non è l'unico esempio di sistemi di intelligenza artificiale che incontrano allucinazioni. L'intelligenza artificiale di Microsoft, durante una dimostrazione della sua tecnologia chatbot a marzo, ha esaminato i rapporti sugli utili e ha generato cifre imprecise per aziende come Gap e Lululemon.

Magazine: 25 trader scommettono sulle scelte azionarie di ChatGPT, l'IA fa schifo ai lanci di dadi e altro ancora

Fonte: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information