Înșelătorii înfloritoare cu ajutorul AI în 2025
Poliția Română atenționează asupra unei creșteri alarmante a videoclipurilor false create cu ajutorul inteligenței artificiale (AI), utilizate de infractori pentru diverse activități ilegale. Aceste clipuri sunt folosite pentru manipulare, distrugerea reputației, provocarea de traume emoționale și inducerea în eroare în privința adevărurilor științifice. Infractorii pretind uneori că sunt polițiști, ceea ce complică și mai mult situația.
„Deepfake-urile și imaginile generate artificial au devenit instrumentele preferate ale autorilor infracțiunilor din domeniul criminalității informatice, promovate masiv pe rețelele de socializare. Cetățenii de bună-credință sunt induși în eroare de aceste capcane”, se arată în comunicatul de presă al Poliției Române.
Moduri frecvente de operare în 2025
Printre cele mai comune metode de fraudă se numără:
- Trading scam și investment fraud: Videoclipuri deepfake cu oameni de afaceri sau politicieni care „recomandă” platforme de investiții crypto sau forex, direcționând victimele către site-uri false pentru a investi bani care ajung la autori.
- Scam-uri caritabile: Deepfake-uri cu copii bolnavi sau celebrități care cer donații urgente, cu sumele ajungând la infractori.
- Romance scam îmbunătățit cu ajutorul AI: Infractorii creează profiluri false cu imagini generate de AI pentru a dezvolta relații emoționale și a cere bani pentru „urgențe medicale”.
- CEO/CFO fraud: Video-call-uri deepfake în care „șeful” cere transferuri urgente de bani.
- Impersonare celebrități: Deepfake-uri cu diverse personalități care „oferă gratuit” produse false.
Statisticile din 2025 arată o creștere semnificativă a tentativelor de fraudă cu deepfake, iar pierderile financiare globale se ridică la zeci de miliarde de dolari anual.
Consecințe ale utilizării inteligenței artificiale în scopuri ilegale
Utilizarea AI în aceste scopuri poate provoca:
- Pierderi financiare directe;
- Traume emoționale pentru victime;
- Erodarea încrederii în mass-media și instituții;
- Manipulare politică și electorală;
- Distrugerea reputației personale;
- Amenințări la securitatea națională.
Identificarea videoclipurilor deepfake
Poliția Română oferă sfaturi pentru a recunoaște videoclipurile deepfake:
- Verificarea clipitului ochilor;
- Analiza mișcărilor buzelor și sincronizarea cu sunetul;
- Verificarea iluminării și umbrelor;
- Căutarea artefactelor sau anomaliilor în imagine;
- Utilizarea reverse image search pentru a verifica autenticitatea imaginilor.
Măsuri de protecție și prevenire
Cetățenii sunt sfătuiți să:
- Nu creadă în oferte care par prea frumoase pentru a fi adevărate;
- Nu acceseze link-uri din mesaje nesolicitate;
- Nu transfere bani persoanelor cunoscute doar online;
- Verifice sursa informațiilor înainte de a acționa;
- Activeze autentificarea în doi pași pentru conturile importante;
- Raporteze conținutul suspect autorităților.
Dezinformarea prin videoclipuri AI
Infractorii folosesc, de asemenea, videoclipuri AI pentru a răspândi dezinformări legate de știință. Exemple includ:
- Videoclipuri în care „astronauți NASA” susțin că aselenizarea a fost filmată în studio;
- „Oameni de știință renumiți” care afirmă că vaccinurile conțin cipuri 5G;
- „Medici celebri” care recomandă tratamente neautorizate.
Aceste videoclipuri ajung în tendințe pe rețelele de socializare și sunt distribuite pe scară largă, inclusiv de către televiziuni care nu verifică sursele.
Imagini false cu persoane care se dau drept polițiști
Recent, au fost raportate cazuri în care videoclipuri false cu ofițeri de poliție au fost folosite pentru a induce în eroare victimele în legătură cu investiții fictive. Poliția Română subliniază că niciodată nu va apela cetățenii prin video și nu va face recomandări de investiții.
Este esențial ca cetățenii să rămână vigilenți și să adopte măsuri de protecție împotriva acestor tipuri de înșelătorii.

