banner
Centro notizie
Materie prime di buona qualità, rigoroso controllo di qualità

L'FBI mette in guardia dalle truffe di estorsione AI Deepfake

Dec 10, 2023

Le capacità dell’intelligenza artificiale generativa di creare immagini realistiche sono impressionanti, ma il Federal Bureau of Investigation degli Stati Uniti afferma che i criminali utilizzano i deepfake per prendere di mira le vittime di estorsione.

"L'FBI continua a ricevere segnalazioni di vittime, inclusi minori e adulti non consenzienti, le cui foto o video sono stati modificati in contenuti espliciti", ha affermato lunedì l'agenzia in un avviso PSA.

L'FBI afferma che le forze dell'ordine hanno ricevuto oltre 7.000 segnalazioni lo scorso anno di estorsioni online contro minori, con un aumento delle vittime delle cosiddette "truffe di sextortion" che utilizzano deepfake da aprile.

Un deepfake è un tipo sempre più comune di contenuti video o audio creati con l'intelligenza artificiale che raffigurano falsi eventi che sono sempre più difficili da distinguere come falsi, grazie a piattaforme di intelligenza artificiale generativa come Midjourney 5.1 e DALL-E 2 di OpenAI.

A maggio, un deepfake di Tesla e del CEO di Twitter, Elon Musk, realizzato per truffare gli investitori in criptovalute, è diventato virale. Il video condiviso sui social media conteneva filmati di Musk di interviste precedenti, modificati per adattarli alla truffa.

I deepfake non sono tutti dannosi: un deepfake di Papa Francesco che indossa una giacca bianca Balenciaga è diventato virale all'inizio di quest'anno e, più recentemente, i deepfake generati dall'intelligenza artificiale sono stati utilizzati anche per riportare in vita le vittime di omicidi.

Nelle sue raccomandazioni, l’FBI ha messo in guardia dal pagare qualsiasi riscatto perché ciò non garantisce che i criminali non pubblicheranno comunque il deepfake.

L'FBI consiglia inoltre cautela quando si condividono informazioni personali e contenuti online, incluso l'utilizzo di funzionalità di privacy come rendere privati ​​gli account, monitorare l'attività online dei bambini e osservare comportamenti insoliti da parte di persone con cui hai interagito in passato. L'agenzia consiglia inoltre di eseguire ricerche frequenti online di informazioni personali e familiari.

Altre agenzie che lanciano l’allarme includono la Federal Trade Commission degli Stati Uniti, che ha avvertito che i criminali hanno utilizzato i deepfake per indurre vittime ignare a inviare denaro dopo aver creato un deepfake audio di un amico o un familiare che afferma di essere stato rapito.

"L'intelligenza artificiale non è più un'idea inverosimile uscita da un film di fantascienza. Ci conviviamo, qui e ora. Un truffatore potrebbe usare l'intelligenza artificiale per clonare la voce della persona amata", ha affermato la FTC in una nota. avviso ai consumatori a marzo, aggiungendo che tutto ciò di cui ha bisogno un criminale è un breve clip audio della voce di un membro della famiglia per rendere reale la registrazione.

L'FBI non ha ancora risposto alla richiesta di commento di Decrypt.