Inteligența artificială ar putea fi păcălită cu imagini imprimate color VIDEO
Cercetătorii de la o universitate din Belgia au demonstrat recent că inteligența artificială poate fi păcălită cu ajutorul unor imagini imprimate color.
Inginerii Universității KU Leuven din Belgia au creat o metodă eficientă prin care pot afecta detecția obiectelor care folosește inteligența artificială susținută de algoritmul YOLOv2. Descoperirea lor a fost publicată săptămâna trecută într-o lucrare intitulată „Fooling automated surveillance cameras: adversarial patches to attack person detection” (Păcălind camerele de supraveghere video automate: părți contradictorii pentru a ataca detecția persoanei). Cercetătorii au publicat și codul sursă, conform outerplaces.com.
Metoda este una simplă: se folosește un „petic” imprimat cu mai multe culori pentru a deruta inteligența artificială care este antrenată să recunoască obiecte – iar omul este doar încă un obiect pentru sistemul de analiză care folosește inteligența artificială – dându-i sute de mii de imagini cu obiecte similare. Acea metodologie face ca sistemul să fie deschis pentru a fi exploatat. Cercetătorii explică faptul că rețeaua de analiză care folosește inteligența artificială învață cum arată o persoană prin „vizionarea” multor imagini cu alte persoane. Prin evaluarea modelului se poate determina cât de bine funcționează modelul pentru detecția persoanelor prin compararea sa cu imagini adnotate de om. Însă o astfel de evaluare a modelului nu conține, de obicei, exemple care să încerce să inducă în eroare sau să păcălească modelul.
Simplu spus, peticul de culoare păcălește inteligența artificială ca să nu recunoască obiectul, care devine invizibil pentru sistem. Asta r putea fi o problemă pentru sistemele de securitate, spre exemplu.
Un alt atac care generează contradicții pentru detecția obiectelor de către inteligența artificială este reprezentat de tricourile realizate de Simon C. Niquille pentru a păcăli recunoașterea facială.
În ceea ce privește rezultatele noului atac de contradicție, o persoană care folosește un carton imprimat cu modelul din imagine poate să se strecoare nedetectată de sistemul de supraveghere, conform documentului publicat de cercetători.
Față de sistemele de analiză video anterioare care în mare parte promiteau mai mult decât pot face, cele mai noi metode de analiză care folosesc inteligența artificială sunt mult mai avansate. Însă lucrarea publicată de cercetătorii de la Universitatea KU Leuven a arătat că păcălirea analizei video care folosește inteligența artificială este de fapt mult mai simplă, conform securityinfowatch.com.
Lucrarea se bazează pe o cercetare anterioară care a arătat că un „petic” poate fi așezat în fața unui semn de circulație pentru a păcăli sistemul de detecție al obiectelor. Cercetătorii au dorit să vadă dacă pot extinde această premisă la la detecția persoanei și aplicații de securitate. Chiar dacă pentru detecția persoanelor apar mai mulți factori (diferite haine, culoarea pielii, postură etc.) decât la un semn de circulație, cercetătorii spun că au reușit să păcălească motorul de analiză în mai multe scenarii.
Wiebe Van Ranst, care a condus cercetarea, spune că intenția lor a fost de a demonstra că sistemele de analiză pot fi păcălite astfel. „Nu ar trebui să avem încredere oarbă în motoarele de detecție ale aplicațiilor critice de securitate”, spune Van Ranst.
Deși tehnologiile de detecția a obiectelor și persoanelor au făcut mari progrese în ultimii ani, Van Ranst spune că cercetarea lor arată că acestea nu sunt infailibile și că pot fi, într-adevăr, compromise.
Brent Boekestein, CEO al Vintra, dezvoltator de analiză video care folosește inteligența artificială, spune că „astfel de proiecte de cercetare sunt bune pentru întreaga industrie și ceva ce ne place să vedem deoarece reprezintă o muncă făcută pentru a îmbunătăți încrederea în aceste modele. Cercetarea stârnește discuții importante și oferă o platformă excelentă pentru educație.”
În plus Boekestein spune că cercetarea demonstrează și importanța folosirii de soluții de analiză video brevetate față de cele care sunt gratuite precum YOLOv2.
Există și anumite aspecte care limitează folosirea „peticului de culoare”. Pentru început, acesta trebuie să fie îndreptat spre cameră. Rotirea acestuia sub un unghi l-ar putea face să fie ineficient. În plus, experimentul a fost realizat conform unei configurații specifice, ceea ce înseamnă că este nevoie de un nou petic pentru fiecare nouă configurație, iar atacatorul trebuie să știe ce detector și model sunt folosite. Van Ranst spune că în prezent lucrează la găsirea unei metode care să facă astfel de petice mai generale pentru a păcăli mai multe detectoare simultan precum și o metodă de a păcăli soluțiile de analiză brevetate.