„Deepfake-urile (videoclipuri false create cu AI) şi imaginile generate artificial au devenit instrumentele preferate ale autorilor infracţiunilor din domeniul criminalităţii informatice, promovate masiv pe reţelele de socializare. Cetăţenii de bună-credinţă sunt induşi în eroare de aceste «capcane» crezând că văd celebrităţi, experţi financiari sau persoane aflate la nevoie”, a explicat Poliția Română.
Cele mai frecvente capcane cu IA
Videoclipuri în care oameni de afaceri ar recomanda diferite investiții: oamenii sunt direcţionați către site-uri false unde depun bani spre a fi investiţi şi care, în realitate, ajung la autori prin diferite scheme de transfer de monede;
Situații caritabile cu protagoniști generați cu IA: oamenii donează, prin intermediul unor link-uri false, iar sumele de bani ajung direct la infractori;
Persoane atractive generate cu IA: dezvoltă relaţii emoţionale, apoi cer bani pentru ”urgenţe medicale” sau ”bilete de avion”;
Utilizarea de către infractori de video-call-uri deepfake în care şeful cere transferuri urgente de bani;
Deepfake-uri cu diverse personalităţi care oferă gratuit produse.
„Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligenţă artificială, iar pierderile financiare globale se ridică la zeci de miliarde de dolari, anual”, a subliniat Poliţia Română.
Inteligența artificială este folosită și pentru a propaga informații false. „Infractorii şi grupările de dezinformare folosesc videoclipuri A.I. hiper-realiste pentru a induce în eroare populaţia în privinţa adevărurilor ştiinţifice fundamentale.”
„Acestea nu mai sunt doar postări izolate pe grupuri conspirative. În anul 2025, astfel de clipuri ajung în trend pe reţelele de socializare, sunt distribuite de conturi cu sute de mii de followeri şi sunt preluate chiar şi de televiziuni locale care nu verifică sursele”, a adăugat Poliţia Română.
În comunicat sunt prezentate mai multe recomandări pentru identificarea unor astfel de fraude.
Cum identifici un clip deepfake
1. Trebuie verificat clipitul ochilor → în multe deepfake-uri vechi, clipitul era anormal, însă, în anul 2025, acest aspect a fost îmbunătățit considerabil, dar încă apar inconsistențe;
2. Mișcările buzelor și sincronizarea cu sunetul → adesea nu sunt perfecte, mai ales în limbi non-engleză;
3. Iluminarea și umbrele → verifică dacă lumina de pe față se potrivește cu fundalul;
4. Reflexii în ochi și dinți → adesea lipsesc sau sunt nenaturale;
5. Mâini și degete → încă o slăbiciune majoră a multor modele A.I. – aspectul degetelor este anormal, ori sunt prea multe sau prea puține;
6. Caută artefacte → pete ciudate, blur în jurul feței, tranziții nenaturale;
7. Mâini și degete deformate (apar încă frecvent la deepfake-urile prezente în anul 2025);
8. Fundal inconsistent sau obiecte topite;
9. Ochi asimetrici sau pupile anormale;
10. Păr anormal sau îmbrăcăminte care nu are sens fizic;
11. Aspecte ale unor obiecte sau bunuri din videoclip sau imagine care par deformate;
12. Foloseşte reverse image search (Google Lens, TinEye) – dacă imaginea nu apare nicăieri altundeva înainte de data postării, e suspectă.
Măsuri de prevenție
1. Regula care se aplică pentru toate măsurile de protecţie împotriva oricărei tentative de înşelăciune: Dacă pare prea frumos ca să fie adevărat (îmbogăţire rapidă, cadouri de la celebrităţi, iubire perfectă în două săptămâni etc.), este fals;
2. Nu da click pe link-uri din reclame sau mesaje nesolicitate;
3. Nu transfera bani niciodată cuiva pe care l-ai cunoscut doar online;
4. Verifică întotdeauna sursa oficială: Dacă un om de afaceri, o persoană de notorietate sau orice altă personalitate promovează ceva, caută pe contul acesteia oficial de pe reţelele de socializare verificat şi vezi dacă a postat acolo;
5. Activaţi autentificarea în doi paşi (2FA) în aplicaţiile şi conturile importante, folosind o aplicaţie de tip ”Authenticator” (nu doar SMS);
6. Este necesară raportarea conţinutului suspect pe platformele pe care apare;
7. Se pot folosi extensii browser care detectează automat deepfake-urile;
8. În cazurile în care aţi fost victima unei înşelăciuni în mediul online, sesizaţi cât mai rapid organele judiciare, întrucât o reacţie promptă poate sprijini în mod semnificativ desfăşurarea investigaţiilor.