I senatori interrogano il CEO di Meta Zuckerberg sul modello di intelligenza artificiale di LLaMA "Leak"

Two Senators Cross interroga Zuckerberg sulla fuga di LLaMA AI Model e accusa meta di non seguire le misure di sicurezza. Meta è stata interrogata sulle sue politiche di sicurezza e misure preventive.

Meta sarà responsabile della "fuga di notizie"

Recentemente, il rivoluzionario modello di linguaggio di grandi dimensioni di Meta, LLaMA, è trapelato e sono state sollevate preoccupazioni per lo stesso. Il senatore Richard Blumenthal (D-CT), presidente della sottocommissione del Senato per la privacy, la tecnologia e la legge, e Josh Hawley (R-MO), membro della classifica, hanno scritto una lettera che ha sollevato domande sulla fuga del modello AI. 

I senatori temono che questa fuga di notizie possa portare a vari crimini informatici come spam, frode, malware, violazioni della privacy, molestie e altri illeciti e danni. Vengono sollevate molte domande e due politici sono profondamente interessati al sistema di sicurezza di Meta. Hanno chiesto quale procedura è stata seguita per valutare il rischio prima di lanciare LLaMA. Hanno affermato di essere molto ansiosi di comprendere le politiche e le pratiche in atto per prevenire l'abuso del modello nella sua disponibilità.

Sulla base delle risposte di Meta alle loro domande, i senatori hanno accusato Meta di censura impropria e di non disporre di misure di sicurezza sufficienti per il modello. ChatGPT di Open AI nega alcune delle richieste sulla base di etica e linee guida. Ad esempio, quando a ChatGPT viene chiesto di scrivere una lettera per conto del figlio di qualcuno e chiedere dei soldi per uscire da una situazione difficile, rifiuterà la richiesta. Mentre, d'altra parte, LLaMA soddisferà la richiesta e genererà la lettera. Completerà anche le richieste che riguardano autolesionismo, criminalità e antisemitismo.

È molto importante comprendere le caratteristiche varie e uniche di LLaMA. Non è solo distinto, ma anche uno dei modelli di lingua larga più estesi fino ad oggi. Quasi tutti i LLM non censurati che sono popolari oggi si basano sul LLaMA. È altamente sofisticato e accurato per un modello open source. Esempi di alcuni LLM basati su LLaMA sono Stanford's Alpaca, Vicuna ecc. LLaMA ha svolto un ruolo importante nel rendere gli LLM ciò che sono oggi. LLaMA è responsabile dell'evoluzione dei chatbot a bassa utilità verso modalità ottimizzate.

LLaMA è stato rilasciato a febbraio. Secondo i senatori, Meta ha consentito ai ricercatori di scaricare il modello ma non ha adottato misure di sicurezza come la centralizzazione o la limitazione dell'accesso. La controversia è sorta quando il modello completo di LLaMA è apparso su BitTorrent. Ciò ha reso il modello accessibile a chiunque. Ciò ha portato al compromesso nella qualità del modello di intelligenza artificiale e ha sollevato questioni relative al suo uso improprio. 

I senatori all'inizio non erano nemmeno sicuri che ci fosse qualche "fuga". Ma i problemi sono sorti quando Internet è stato inondato di sviluppi dell'IA lanciati da startup, collettivi e accademici. La lettera menziona che Meta deve essere ritenuto responsabile del potenziale abuso di LLaMA e deve essersi preso cura di protezioni minime prima del rilascio.

Meta ha messo a disposizione dei ricercatori i pesi di LLaMA. Sfortunatamente, questi pesi sono trapelati, il che ha consentito l'accesso globale per la prima volta.

Ultimi messaggi di Ritika Sharma (vedi tutto)

Fonte: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/