
Înșelătoriile cu voci clonate devin o amenințare tot mai frecventă, avertizează Ministerul Afacerilor Interne, care semnalează folosirea inteligenței artificiale pentru a imita vocile unor persoane apropiate, în scopul obținerii rapide de bani.
Autoritățile atrag atenția că infractorii folosesc fragmente audio extrem de scurte, preluate de pe rețelele sociale, pentru a recrea fidel vocea unei persoane cunoscute victimei. Apelurile sunt construite astfel încât să inducă panică și să determine reacții impulsive.
Scenariul este aproape identic de fiecare dată: un presupus accident sau o urgență gravă, prezentată ca fiind imediată și imposibil de amânat. Mesajele sunt formulate pentru a crea presiune emoțională, iar solicitarea este clară – bani trimiși urgent, fără verificări.
Reprezentanții MAI subliniază că realismul acestor apeluri este dat tocmai de tehnologia folosită. Vocea pare autentică, iar modul de exprimare imită stilul persoanei imitate, ceea ce face ca înșelătoria să fie greu de depistat în primele secunde ale conversației.
Pentru a limita riscul, autoritățile recomandă o reacție fermă și rapidă: închiderea imediată a apelului și contactarea directă a persoanei respective, folosind un număr cunoscut. Sub nicio formă nu trebuie trimiși bani și nu trebuie furnizate date personale sau bancare.
MAI reamintește că astfel de tentative mizează exclusiv pe șoc și grabă, iar simpla verificare a informației poate opri frauda. În contextul extinderii utilizării inteligenței artificiale, vigilența rămâne principala formă de protecție împotriva înșelătoriilor cu voci clonate.