Premieră: Un program de imitare a vocii cu inteligență artificială, folosit într-un jaf
Un program de imitare a vocii pe baza inteligenței artificiale a fost folosit cu succes pentru prima dată într-un jaf de sute de mii de dolari.
Directorul unei companii energetice din Marea Britanie, care a crezut că vorbeşte la telefon cu şeful lui, a trimis peste 240.000 de dolari într-un cont secret din Ungaria, în luna martie, potrivit firmei de asigurări franceze Euler Hermes, citată de The Washington Post, conform mediafax.ro.
Firma de asigurări nu a făcut public numele companiei energetice.
Directorul companiei a declarat pentru The Post că solicitarea de a trimite bani în acel cont a fost „mai degrabă ciudată”, dar vocea a fost reprodusă atât de bine, părând autentică, încât nu a avut altă opţiune decât să dea curs cerinţei.
Unii cercetători numesc incidentul drept primul jaf raportat care folosește inteligența artificială, scrie washingtonpost.com.
Wall Street Journal a oferit noi detalii asupra jefului miercuri, inclusiv un e-mail al angajatului care a fost păcălit de către „falsul Johannes”, cum a fost numit de compania de asigurări.
Fiind creat de o gamă largă de companii cu sediul în Silicon Valley și noi companii specializate în domeniul inteligenței artificiale, software-ul de sintetizare a vocii poate copia ritmurile și intonațiile vocii unei persoane și le poate folosi pentru a produce o vorbire convingătoare. Companii mari precum Google sau start-up-ul Lyrebird au ajutat la îmbunătățirea falsurilor și au făcut ca aceste instrumente să fie mai disponibile gratis pentru o folosire fără limite.
Asiguratorul nu știe ce software a fost folosit, dar un număr de sisteme care sunt oferite gratuit pe internet necesită puțină sofisticare, puține informații sau putere de procesare.
Programele de sintetizare a vocii reprezintă o ameninţare din ce în ce mai mare pentru orice este bazat pe comunicarea tradiţională, de la tranzacţii la discuţii între iniţiatori de legi, mai spune Mediafax.
Împreună cu înregistrările video create cu ajutorul inteligenţei artificiale, ele sunt parte a unui fenomen alarmant, potrivit specialiştilor, cunoscut ca “deepfake”, ce are un mare potenţial de a eroda încrederea în instituţiile publice.
Tehnologia deepfake — folosită de aplicații precum FaceApp — folosește inteligența artificială (AI) pentru a edita fotografiile sau vocile utilizatorilor astfel încât să modifice anumite trăsături. Însă în afară de partea distractivă, această tehnologia poate fi folosită și în alte scopuri, scrie startupcafe.ro.
Este posibil să nu fie prima dată când a avut loc un astfel de incident. Potrivit Washington Post, firma de securitate cibernetică Symantec susține că a întâlnit cel puțin trei cazuri de fraudă realizată cu ajutorul tehnologiei Deepfake, folosită pentru a păcăli companiile să trimită bani în conturile infractorilor. Reprezentanții Symantec spun că cel puțin unul dintre cazuri a avut ca rezultat pierderi de milioane de dolari.
Odată cu introducerea online banking, care reduce timpul petrecut la bancă și a dus la dezvoltarea tehnologiei, a apărut și un nou tip de hoț sub forma programatorilor sau hackerilor. Noile tehnici de jaf nu se bazează pe arme, ci mai degrabă pe tehnici de inginerie socială precum phishing, precum și tehnici mult mai avansate ca malware de tipul Man-in-the-Middle și Man-in-the-Browser, scrie techradar.com.
Chiar și ATM-urile și telefoanele mobile au devenit ținte ale hackerilor. Acum a apărut o nouă tehnologie, cunoscută în termeni colocviali ca Deepfake, care are origini care sunt departe de serviciile financiare. Se crede că aceasta poate fi folosită ca un nou vector de fraudă puternic. Asta deoarece serviciile financiare sunt din ce în ce mai digitale. Însă nimeni nu vrea să pună la îndoială identitatea unei persoane care arată și sună perfect normal.
Așadar, cum ne putem aștepta să detectăm că ceea ce pare real este de fapt fals. Răspunsul stă în audio-ul Deepfake și în folosirea tehnicilor avansate de biometrie vocală. Indiferent cât de real ar suna sau apărea, Deepfake este generat în mod sintetic. Chiar și video-urile Deepfake conțin o componentă audio care este cheia detecției.