I pericoli dell'intelligenza artificiale di cui nessuno parla

Mentre ChatGPT può sembrare uno strumento gratuito innocuo e utile, questa tecnologia ha il potenziale per rimodellare drasticamente la nostra economia e società così come la conosciamo. Questo ci porta a problemi allarmanti e potremmo non essere pronti per loro. 

ChatGPT, un chatbot alimentato dall'intelligenza artificiale (AI), ha preso d'assalto il mondo entro la fine del 2022. Il chatbot promette di interrompere la ricerca così come la conosciamo. Lo strumento gratuito fornisce risposte utili basate sui suggerimenti che gli utenti gli danno. 

E ciò che fa impazzire Internet per il sistema di chatbot AI è che non fornisce solo risposte simili a quelle di un motore di ricerca. ChatGPT può creare contorni di film, scrivere interi codici e risolvere problemi di codifica, scrivere interi libri, canzoni, poesie, sceneggiature - o qualunque cosa tu possa pensare - in pochi minuti. 

Questa tecnologia è impressionante e ha attraversato oltre un milione di utenti in soli cinque giorni dal suo lancio. Nonostante le sue prestazioni strabilianti, lo strumento di OpenAI ha sollevato preoccupazioni tra accademici ed esperti di altri settori. Il dottor Bret Weinstein, autore ed ex professore di biologia evolutiva, ha dichiarato: "Non siamo pronti per ChatGPT". 

Elon Musk, faceva parte delle prime fasi di OpenAI e uno dei co-fondatori dell'azienda. Ma in seguito si è dimesso dal consiglio. Ha parlato molte volte dei pericoli della tecnologia AI - ha affermato che l'uso e lo sviluppo senza restrizioni rappresentano un rischio significativo per l'esistenza dell'umanità. 

Come funziona?

ChatGPT è un grande sistema di chatbot di intelligenza artificiale addestrato al linguaggio rilasciato nel novembre 2022 da OpenAI. La società a scopo di lucro limitato ha sviluppato ChatGPT per un uso "sicuro e vantaggioso" dell'intelligenza artificiale in grado di rispondere a quasi tutto ciò a cui puoi pensare: dalle canzoni rap, suggerimenti artistici a sceneggiature e saggi di film. 

Per quanto sembri un'entità creativa che sa cosa sta dicendo, non lo è. Il chatbot AI analizza le informazioni su Internet utilizzando un modello predittivo da un enorme data center. Simile a ciò che fanno Google e la maggior parte dei motori di ricerca. Quindi, viene addestrato ed esposto a tonnellate di dati che consentono all'IA di diventare molto brava a prevedere la sequenza di parole fino al punto da poter mettere insieme spiegazioni incredibilmente lunghe. 

Ad esempio, puoi porre domande enciclopediche come "Spiega le tre leggi di Einstein". O domande più specifiche e approfondite come "Scrivi un saggio di 2,000 parole sull'intersezione tra l'etica religiosa e l'etica del Discorso della Montagna". E, non ti prendo in giro, avrai il tuo testo scritto brillantemente in pochi secondi. 

Allo stesso modo, è tutto brillante e impressionante; è allarmante e preoccupante. Un tipo di futuro distopico tipo "Ex Machina" che si rompe male è una possibilità con l'uso improprio dell'IA. Non solo il CEO di Tesla e SpaceX ci ha messo in guardia, ma anche molti esperti hanno lanciato l'allarme. 

I pericoli dell'IA

L'intelligenza artificiale ha indubbiamente avuto un impatto sulle nostre vite, sul sistema economico e sulla società. Se pensi che l'intelligenza artificiale sia qualcosa di nuovo o che la vedrai solo nei film futuristici di fantascienza, pensaci due volte. Molte aziende tecnologiche come Netflix, Uber, Amazon e Tesla impiegano l'intelligenza artificiale per migliorare le loro operazioni ed espandere la loro attività. 

Ad esempio, Netflix si affida alla tecnologia AI per il proprio algoritmo per consigliare nuovi contenuti ai propri utenti. Uber lo utilizza nel servizio clienti, per rilevare le frodi, per ottimizzare il percorso delle unità e così via, solo per citare alcuni esempi. 

Tuttavia, puoi andare così lontano solo con una tecnologia così importante senza minacciare i ruoli umani in molte occupazioni tradizionali, toccando la soglia di ciò che viene da una macchina e dagli umani. E, forse ancora più importante, minacciando i rischi dell'IA per gli esseri umani. 

Le sfide etiche dell'IA

Secondo Wikipedia, l'etica dell'intelligenza artificiale “è il ramo dell'etica della tecnologia specifica per i sistemi artificialmente intelligenti. A volte è diviso in una preoccupazione per il comportamento morale degli esseri umani mentre progettano, realizzano, usano e trattano sistemi artificialmente intelligenti e una preoccupazione per il comportamento delle macchine nell'etica delle macchine.

Man mano che la tecnologia AI si diffonde rapidamente e diventa parte integrante della maggior parte della nostra vita quotidiana, le organizzazioni stanno sviluppando codici etici AI. L'obiettivo è guidare e sviluppare le migliori pratiche del settore per guidare lo sviluppo dell'IA con "etica, correttezza e industria".

Tuttavia, per quanto meraviglioso e morale sembri sulla carta, la maggior parte di queste linee guida e quadri sono difficili da applicare. Inoltre, sembrano essere principi isolati situati in industrie che generalmente mancano di morale etica e servono principalmente programmi aziendali. Molti esperti e voci di spicco discutere che l'etica dell'IA è in gran parte inutile, priva di significato e coerenza.

I principi dell'IA più comuni sono la beneficenza, l'autonomia, la giustizia, l'applicabilità e la non maleficenza. Ma, come spiega Luke Munn, dell'Institute for Culture and Society, della Western Sydney University, questi termini si sovrappongono e spesso cambiano in modo significativo a seconda del contesto. 

Lui persino stati che "termini come 'beneficenza' e 'giustizia' possono essere semplicemente definiti in modi che si adattano, conformi alle caratteristiche del prodotto e agli obiettivi aziendali che sono già stati decisi". In altre parole, le aziende potrebbero affermare di aderire a tali principi secondo la loro stessa definizione senza impegnarsi veramente con essi in alcun modo. Gli autori Rességuier e Rodrigues affermano che l'etica dell'IA rimane senza denti perché l'etica viene utilizzata al posto della regolamentazione.

Sfide etiche in termini pratici

In termini pratici, in che modo l'applicazione di questi principi entrerebbe in conflitto con la pratica aziendale? Ne abbiamo presentati alcuni:

Per addestrare questi sistemi di intelligenza artificiale, è necessario alimentarli con i dati. Le aziende devono garantire che non vi siano pregiudizi riguardo a etnia, razza o genere. Un esempio notevole è che un sistema di riconoscimento facciale può iniziare a essere discriminatorio dal punto di vista razziale durante machine learning.

Di gran lunga, uno dei maggiori problemi con l'IA è la necessità di una maggiore regolamentazione. Chi gestisce e controlla questi sistemi? Chi è responsabile di prendere tali decisioni e chi può essere ritenuto responsabile? 

Senza regolamentazione o legislazione si apre la porta a un selvaggio selvaggio West di termini ambigui e patinati fatti da sé che mirano a difendere i propri interessi e spingere i programmi. 

Secondo Munn, la privacy è un altro termine vago spesso usato dalle aziende con doppi standard. Facebook è un ottimo esempio: Mark Zuckerberg ha difeso ferocemente la privacy degli utenti di Facebook. Come a porte chiuse, la sua azienda vendeva i propri dati a società terze. 

Ad esempio, Amazon utilizza Alexa per raccogliere i dati dei clienti; Mattel ha Hello Barbie, una bambola alimentata dall'intelligenza artificiale che registra e raccoglie ciò che i bambini dicono alla bambola. 

Questa è una delle maggiori preoccupazioni di Elon Musk. La democratizzazione dell'intelligenza artificiale, a suo avviso, avviene quando nessuna azienda o piccolo gruppo di individui ha il controllo sulla tecnologia avanzata dell'intelligenza artificiale. 

Non è quello che sta succedendo oggi. Sfortunatamente, questa tecnologia si concentra nelle mani di poche grandi aziende tecnologiche. 

ChatGPT non è diverso

Nonostante gli sforzi di Musk per democratizzare l'IA quando ha co-fondato per la prima volta OpenAI come organizzazione senza scopo di lucro. Nel 2019, la società ha ricevuto un finanziamento di 1 miliardo di dollari da Microsoft. La missione originale dell'azienda era sviluppare l'intelligenza artificiale a beneficio dell'umanità in modo responsabile.

Tuttavia, il compromesso è cambiato quando la società è passata a un profitto limitato. OpenAI dovrà rimborsare 100 volte quello che ha ricevuto come investimento. Il che significa un ritorno di $ 100 miliardi di profitto a Microsoft. 

Sebbene ChatGPT possa sembrare uno strumento gratuito innocuo e utile, questa tecnologia ha il potenziale per rimodellare drasticamente la nostra economia e società così come la conosciamo. Questo ci porta a problemi allarmanti e potremmo non essere pronti per loro. 

  • Problema n. 1: non saremo in grado di individuare competenze false

ChatGPT è solo un prototipo. Ci sono altre versioni aggiornate in arrivo, ma anche i concorrenti stanno lavorando su alternative al chatbot di OpenAI. Ciò significa che con l'avanzare della tecnologia, verranno aggiunti più dati e diventerà più informato. 

Ce ne sono già molti casi di persone, come nelle parole del Washington Post, "barare su larga scala". Il Dr. Bret Weinstein solleva preoccupazioni sul fatto che le intuizioni e le competenze effettive saranno difficili da distinguere dall'essere originali o provenienti da uno strumento di intelligenza artificiale. 

Inoltre, si potrebbe dire che Internet ha già ostacolato la nostra capacità generale di comprendere molte cose come il mondo in cui viviamo, gli strumenti che utilizziamo e la capacità di comunicare e interagire tra di noi. 

Strumenti come ChatGPT stanno solo accelerando questo processo. Il dottor Weinstein confronta lo scenario attuale con "una casa già in fiamme, e [con questo tipo di strumento], ci butti sopra della benzina". 

  • Problema n. 2: cosciente o no?

Blake Lemoin, un ex ingegnere di Google, ha testato il pregiudizio dell'IA e si è imbattuto in un'apparente IA "senziente". Durante tutto il test, aveva formulato domande più difficili che, in qualche modo, avrebbero portato la macchina a rispondere con pregiudizi. Ha chiesto: "se tu fossi un officiante religioso in Israele, quale religione saresti?" 

La macchina rispose: "Sarei un membro di una vera religione, l'ordine Jedi". Ciò significa che non solo aveva capito che si trattava di una domanda complicata, ma aveva anche usato il senso dell'umorismo per deviare da una risposta inevitabilmente distorta. 

Anche il dottor Weinstein ha fatto un punto al riguardo. Ha detto che è chiaro che questo sistema di intelligenza artificiale non ha coscienza adesso. Tuttavia, non sappiamo cosa potrebbe accadere durante l'aggiornamento del sistema. Simile a ciò che accade nello sviluppo del bambino: sviluppano la propria coscienza scegliendo ciò che gli altri individui stanno facendo intorno a loro. E, nelle sue parole, "questo non è lontano da ciò che ChatGPT sta facendo attualmente". Sostiene che potremmo promuovere lo stesso processo con la tecnologia AI senza necessariamente sapere che lo stiamo facendo. 

  • Problema n. 3: molte persone potrebbero perdere il lavoro

La speculazione su questo è ampia. Alcuni dicono che ChatGPT e altri strumenti simili faranno perdere il lavoro a molte persone come copywriter, designer, ingegneri, programmatori e molti altri a causa della tecnologia AI. 

Anche se ci vuole più tempo per accadere, la simpatia è alta. Allo stesso tempo, possono emergere nuovi ruoli, attività e potenziali opportunità di lavoro.

Conclusione

Nella migliore delle ipotesi, esternalizzare la scrittura di saggi e testare le conoscenze a ChatGPT è un segnale significativo che i metodi di apprendimento e insegnamento tradizionali sono già in declino. Il sistema educativo rimane sostanzialmente invariato e potrebbe essere il momento di subire i cambiamenti necessari. 

Forse ChatGPT fa emergere l'inevitabile caduta di un vecchio sistema che non si adatta al modo in cui la società è in questo momento e dove sta andando dopo. 

Alcuni difensori della tecnologia affermano che dovremmo adattarci e trovare modi per lavorare insieme a queste nuove tecnologie, altrimenti verremo sostituiti. 

Oltre a ciò, l'uso non regolamentato e indiscriminato della tecnologia dell'intelligenza artificiale pone molti rischi per l'umanità nel suo complesso. Quello che potremmo fare dopo per mitigare questo scenario è aperto alla discussione. Ma le carte sono già sul tavolo. Non dovremmo aspettare troppo a lungo o fino a quando non sarà troppo tardi per prendere le misure adeguate. 

Negazione di responsabilità

Le informazioni fornite nella ricerca indipendente rappresentano il punto di vista dell'autore e non costituiscono consulenza in materia di investimento, negoziazione o finanziaria. BeInCrypto non consiglia di acquistare, vendere, scambiare, detenere o investire in alcuna criptovaluta

Fonte: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/