[simple_tooltip content='SPAccess'] [/simple_tooltip] [simple_tooltip content='SPAccess'] [/simple_tooltip] [simple_tooltip content='SPAccess'] [/simple_tooltip]
Business & Tehnologie

Inteligența artificială ar putea fi păcălită cu imagini imprimate color VIDEO

Cercetătorii de la o universitate din Belgia au demonstrat recent că inteligența artificială poate fi păcălită cu ajutorul unor imagini imprimate color.

Inginerii Universității KU Leuven din Belgia au creat o metodă eficientă prin care pot afecta detecția obiectelor care folosește inteligența artificială susținută de algoritmul YOLOv2. Descoperirea lor a fost publicată săptămâna trecută într-o lucrare intitulată „Fooling automated surveillance cameras: adversarial patches to attack person detection” (Păcălind camerele de supraveghere video automate: părți contradictorii pentru a ataca detecția persoanei). Cercetătorii au publicat și codul sursă, conform outerplaces.com.

Metoda este una simplă: se folosește un „petic” imprimat cu mai multe culori pentru a deruta inteligența artificială care este antrenată să recunoască obiecte – iar omul este doar încă un obiect pentru sistemul de analiză care folosește inteligența artificială – dându-i sute de mii de imagini cu obiecte similare. Acea metodologie face ca sistemul să fie deschis pentru a fi exploatat. Cercetătorii explică faptul că rețeaua de analiză care folosește inteligența artificială învață cum arată o persoană prin „vizionarea” multor imagini cu alte persoane. Prin evaluarea modelului se poate determina cât de bine funcționează modelul pentru detecția persoanelor prin compararea sa cu imagini adnotate de om. Însă o astfel de evaluare a modelului nu conține, de obicei, exemple care să încerce să inducă în eroare sau să păcălească modelul.

Simplu spus, peticul de culoare păcălește inteligența artificială ca să nu recunoască obiectul, care devine invizibil pentru sistem. Asta r putea fi o problemă pentru sistemele de securitate, spre exemplu.

Un alt atac care generează contradicții pentru detecția obiectelor de către inteligența artificială este reprezentat de tricourile realizate de Simon C. Niquille pentru a păcăli recunoașterea facială.

În ceea ce privește rezultatele noului atac de contradicție, o persoană care folosește un carton imprimat cu modelul din imagine poate să se strecoare nedetectată de sistemul de supraveghere, conform documentului publicat de cercetători.

Față de sistemele de analiză video anterioare care în mare parte promiteau mai mult decât pot face, cele mai noi metode de analiză care folosesc inteligența artificială sunt mult mai avansate. Însă lucrarea publicată de cercetătorii de la Universitatea KU Leuven a arătat că păcălirea analizei video care folosește inteligența artificială este de fapt mult mai simplă, conform securityinfowatch.com.

Lucrarea se bazează pe o cercetare anterioară care a arătat că un „petic” poate fi așezat în fața unui semn de circulație pentru a păcăli sistemul de detecție al obiectelor. Cercetătorii au dorit să vadă dacă pot extinde această premisă la la detecția persoanei și aplicații de securitate. Chiar dacă pentru detecția persoanelor apar mai mulți factori (diferite haine, culoarea pielii, postură etc.) decât la un semn de circulație, cercetătorii spun că au reușit să păcălească motorul de analiză în mai multe scenarii.

Wiebe Van Ranst, care a condus cercetarea, spune că intenția lor a fost de a demonstra că sistemele de analiză pot fi păcălite astfel. „Nu ar trebui să avem încredere oarbă în motoarele de detecție ale aplicațiilor critice de securitate”, spune Van Ranst.

Deși tehnologiile de detecția a obiectelor și persoanelor au făcut mari progrese în ultimii ani, Van Ranst spune că cercetarea lor arată că acestea nu sunt infailibile și că pot fi, într-adevăr, compromise.

Brent Boekestein, CEO al Vintra, dezvoltator de analiză video care folosește inteligența artificială, spune că „astfel de proiecte de cercetare sunt bune pentru întreaga industrie și ceva ce ne place să vedem deoarece reprezintă o muncă făcută pentru a îmbunătăți încrederea în aceste modele. Cercetarea stârnește discuții importante și oferă o platformă excelentă pentru educație.

În plus Boekestein spune că cercetarea demonstrează și importanța folosirii de soluții de analiză video brevetate față de cele care sunt gratuite precum YOLOv2.

Există și anumite aspecte care limitează folosirea „peticului de culoare”. Pentru început, acesta trebuie să fie îndreptat spre cameră. Rotirea acestuia sub un unghi l-ar putea face să fie ineficient. În plus, experimentul a fost realizat conform unei configurații specifice, ceea ce înseamnă că este nevoie de un nou petic pentru fiecare nouă configurație, iar atacatorul trebuie să știe ce detector și model sunt folosite. Van Ranst spune că în prezent lucrează la găsirea unei metode care să facă astfel de petice mai generale pentru a păcăli mai multe detectoare simultan precum și o metodă de a păcăli soluțiile de analiză brevetate.

Stiri Recente

Conferința de Analiză de Risc – Ediția a V a

Ediția a V-a a Conferinței de analiză de risc va avea loc pe data de…

March 5, 2020

The Power of Video 2020

Roadshow-ul Power of Video, organizat de Milestone Systems, va demonstra diferite moduri în care conținutul…

March 5, 2020

Reținuți pentru complicitate la furt și tâlhărie

La data de 18 decembrie., polițiștii de investigații criminale din cadrul Poliției municipiului Roman au…

December 20, 2019

De ce să nu folosești rețelele WiFi publice gratuite și ce riști dacă o faci

Într-o lume cu abonamente la cu trafic de internet nelimitat, nu mai ai nevoie neapărat…

December 20, 2019

Atacuri de phishing şi malware, apărute în contextul celui mai nou film din seria ”Star Wars”

Cel mai recent film care continuă seria ”Star Wars” a atras atenţia atacatorilor chiar înainte…

December 20, 2019

Cercetați de polițiști pentru furturi din genți și buzunare

Polițiștii ieșeni au identificat trei bărbați și o tânără, bănuiți de furturi din genți și…

December 20, 2019