L'FBI mette in guardia contro le truffe di estorsione di AI Deepfake

Le capacità dell'IA generativa di creare immagini realistiche sono impressionanti, ma il Federal Bureau of Investigation degli Stati Uniti afferma che i criminali utilizzano i deepfake per prendere di mira le vittime per estorsione.

"L'FBI continua a ricevere denunce da vittime, inclusi bambini minorenni e adulti non consenzienti, le cui foto o video sono stati alterati in contenuti espliciti", ha dichiarato lunedì l'agenzia in un avviso del PSA.

L'FBI afferma che lo scorso anno le forze dell'ordine hanno ricevuto oltre 7,000 segnalazioni di estorsione online contro i minori, con un aumento delle vittime delle cosiddette "truffe di estorsione sessuale" che utilizzano deepfake da aprile.

Un deepfake è un tipo sempre più comune di contenuto video o audio creato con l'intelligenza artificiale che raffigura eventi falsi che sono sempre più difficili da distinguere come falsi, grazie a piattaforme di intelligenza artificiale generativa come Midjourney 5.1 e DALL-E 2 di OpenAI.

A maggio, un deepfake del CEO di Tesla e Twitter, Elon Musk, realizzato per truffare gli investitori in criptovalute, è diventato virale. Il video condiviso sui social media conteneva filmati di Musk di precedenti interviste, modificati per adattarsi alla truffa.

I deepfake non sono tutti dannosi, un deepfake di Papa Francesco che indossa una giacca Balenciaga bianca è diventato virale all'inizio di quest'anno e, più recentemente, i deepfake generati dall'intelligenza artificiale sono stati utilizzati anche per riportare in vita le vittime di omicidio.

Nelle sue raccomandazioni, l'FBI ha messo in guardia dal pagare qualsiasi riscatto perché così facendo non garantisce che i criminali non pubblicheranno comunque il deepfake.

L'FBI consiglia inoltre cautela quando si condividono informazioni personali e contenuti online, incluso l'utilizzo di funzionalità di privacy come la creazione di account privati, il monitoraggio dell'attività online dei bambini e l'osservazione di comportamenti insoliti da parte di persone con cui si è interagito in passato. L'agenzia raccomanda inoltre di eseguire frequenti ricerche online di informazioni personali e familiari.

Altre agenzie che lanciano l'allarme includono la Federal Trade Commission degli Stati Uniti, che ha avvertito che i criminali hanno utilizzato i deepfake per indurre vittime ignare a inviare denaro dopo aver creato un deepfake audio di un amico o di un familiare che afferma di essere stato rapito.

“L'intelligenza artificiale non è più un'idea inverosimile da un film di fantascienza. Ci stiamo convivendo, qui e ora. Un truffatore potrebbe usare l'intelligenza artificiale per clonare la voce della persona amata", ha affermato la FTC in un avviso ai consumatori a marzo, aggiungendo che tutto ciò di cui i criminali hanno bisogno è un breve clip audio della voce di un membro della famiglia per rendere reale la registrazione.

L'FBI non ha ancora risposto Decrypt di richiesta di commento

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

Fonte: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams