FBI avertizează cu privire la escrocherii de extorcare profundă a AI

Abilitățile AI generative de a crea imagini asemănătoare cu realitatea sunt impresionante, dar Biroul Federal de Investigații al SUA spune că infractorii folosesc deepfake-uri pentru a viza victimele pentru extorcare.

„FBI continuă să primească rapoarte de la victime, inclusiv de la copii minori și adulți fără consimțământ, ale căror fotografii sau videoclipuri au fost modificate în conținut explicit”, a spus agenția într-o alertă PSA luni.

FBI spune că agențiile de aplicare a legii au primit peste 7,000 de rapoarte anul trecut de extorcare online care vizează minori, cu o creștere a numărului de victime ale așa-numitelor „escrocii de sextorsionare” care folosesc deepfakes începând cu aprilie.

Un deepfake este un tip din ce în ce mai comun de conținut video sau audio, creat cu inteligență artificială, care descrie evenimente false care sunt din ce în ce mai greu de discernat ca false, datorită platformelor AI generative precum Midjourney 5.1 și DALL-E 2 de la OpenAI.

În mai, un deepfake al CEO-ului Tesla și Twitter, Elon Musk, făcut pentru a înșela investitorii cripto a devenit viral. Videoclipul distribuit pe rețelele de socializare conținea imagini cu Musk din interviurile anterioare, editate pentru a se potrivi înșelătoriei.

Deepfake-urile nu sunt deloc rău intenționate, un deepfake al Papei Francisc purtând o jachetă albă Balenciaga a devenit viral la începutul acestui an, iar mai recent, deepfake-urile generate de AI au fost, de asemenea, folosite pentru a readuce la viață victimele crimei.

În recomandările sale, FBI a avertizat împotriva plății oricărei răscumpări, deoarece acest lucru nu garantează că infractorii nu vor posta oricum deepfake.

De asemenea, FBI recomandă prudență atunci când partajați informații personale și conținut online, inclusiv utilizarea funcțiilor de confidențialitate, cum ar fi ca conturile private, monitorizarea activității online a copiilor și urmărirea comportamentului neobișnuit al persoanelor cu care ați interacționat în trecut. De asemenea, agenția recomandă efectuarea de căutări frecvente pentru informații personale și despre membrii familiei online.

Alte agenții care trag un semnal de alarmă includ Comisia Federală pentru Comerț din SUA, care a avertizat că infractorii au folosit deepfake-uri pentru a păcăli victimele nebănuitoare să trimită bani după ce au creat un deepfake audio al unui prieten sau membru al familiei care spune că au fost răpiți.

„Inteligenta artificiala nu mai este o idee exagerata dintr-un film SF. Trăim cu ea, aici și acum. Un escroc ar putea folosi inteligența artificială pentru a clona vocea persoanei dragi”, a declarat FTC într-o alertă pentru consumatori din martie, adăugând că toate nevoile criminalului sunt un scurt clip audio al vocii unui membru al familiei pentru a face ca înregistrarea să sune real.

FBI nu a răspuns încă lui Decriptare cerere de comentarii.

Fiți la curent cu știrile cripto, primiți actualizări zilnice în căsuța dvs. de e-mail.

Sursa: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams