Oprez! Kriminalci su se dosjetili nove prevare. Pomaže im umjetna inteligencija

Milijuni bi mogli postati žrtvom prevara u režiji umjetne inteligencije kojom se kloniraju ljudski glasovi. Naime, Starling banka bazirana u Velikoj Britaniji, upozorila je da su prevaranti sposobni replicirati glas osobe. Sve što im je potrebno je audio zapis u trajanju od – tri sekunde. Takva snimka se lako može pronaći u videu koji osoba objavi, u, primjerice – Instagram priči, piše CNN, prenosi N1.

Mole bliske ljude za novac

Prevaranti tada lako identificiraju tko su njeni ili njegovi prijatelji i članovi obitelji pa potom koristi klonirani glas kako bi odglumili poziv u kojem ih mole za novac. Ovakve vrste prevara imaju potencijal da “prevare milijune”, objavila je banka u priopćenju u srijedu.Već su prevarili stotine.

Prema anketi u kojoj je sudjelovalo 3000 ljudi, više od četvrtine ispitanika kažu da su imali iskustva s prevarama koje uključuju AI kloniranje glasova unazad godinu dana.

Gotovo polovica ih nije bila svjesna da opasnost uopće postoji, a osam posto bi poslalo novac koji od njih traži prijatelj ili član obitelji, čak i u slučaju da im se poziv učini neobičnim.

Ljudi redovito objavljuju sadržaj koji sadrži snimke njihovog glasa, ne pomišljajući da bi ih to moglo učiniti osjetljivima na prevare”, rekla je Lisa Grahame, čelna osoba za sigurnost informacija Sterling Banke.


Pročitajte više: AI razvio ključnu sposobnost mozga. ‘Bit će pametniji od bilo koga na svijetu’


Kako se obraniti?

Banka sugerira ljudima da osmisle “kodnu rečenicu” koju bi mogli iskoristiti u razgovoru s bližnjima, a koja je drugačija od ostalih sigurnosnih kodova koje koriste kako bi mogli potvrditi svoj identitet. Preporučaju da takvu kodnu rečenicu dalje ne dijelite u pisanom obliku.

Kako se AI prilagođava i razvija, postaje sve sposobniji imitirati ljudske glasove. Stručnjaci su sve zabrinutiji oko njegove sposobnosti da naudi ljudima; primjerice, dijeljenjem lažnih informacija.

Ranije ove godine, OpenAI, proizvođač AI chatbota ChatGPT, predstavio je svoj alat za replikaciju glasa, Voice Engine, ali ga nije učinio dostupnim javnosti, navodeći kao razlog “potencijal za zlouporabu sintetičkog glasa”.

Foto: Canva

POVEZANI ČLANCI

PROČITAJTE JOŠ:

Komentiraj

Unesite svoj komentar!
Ovdje unesite svoje ime

Pročitajte više

- Advertisment -