Impactul negativ și noile provocări ale inteligenței artificiale pe piața securității fizice
Folosirea inteligenței artificiale în domeniul securității fizice nu este mereu văzută într-o lumină pozitivă.
Sourcesecurity a întrebat mai mulți experți care este impactul negativ sau care sunt noile provocări în folosirea inteligenței artificiale pentru securitatea fizică, se arată într-un articol.
Sean Lawlor de la Genetec susține că suntem departe de a crea o tehnologie care este cu adevărat inteligență artificială și că folosirea termenului poate crea confuzie. El spune că tehnologia Machine learning este cea care astăzi ajută la automatizarea sarcinilor de lucru.
John Davies de la TDSi spune că nu crede că există un impact negativ din partea inteligenței artificiale asupra securității fizice, ci este privită negativ de anumite persoane. „În unele grupuri inteligența artificială este văzută ca o amenințare asupra locurilor de muncă, cu o teamă că oamenii vor fi înlocuiți de aparate. De fapt, inteligența artificială nu poate înlocui oamenii care se ocupă de o situație”, spune el. Davies precizează că inteligența artificială îi salvează pe cei care trebuie să realizeze activități precum verificarea imaginilor video, iar oamenii oricum trebuie să revizuiască informațiile oferite de inteligența artificială pentru investigarea incidentelor.
Jim Katsifolis, The Ava Group, spune că una dintre principalele provocări care sunt de multe ori omise de tehnicile de învățare ale inteligenței artificiale este calitatea. Sisteme de securitate de astăzi generează multe informații, iar majoritatea informațiilor generate nu sunt sortate pe categorii deoarece operatorul este de multe ori interesat doar de alerte sau o mică parte din informații. Informațiile care nu sunt etichetate corect, precum alertele false sau intruziunile neobservate vor avea un impact asupra inteligenței artificiale. „Așadar, în vreme ce inteligența artificială continuă să transforme sistemele de securitate fizică, întregul său potențial nu va fi folosit decât dacă provocarea privind calitatea informațiilor este învinsă.”
Hank Monaco, Johnson Controls, spune că inteligența artificială poate îmbunătăți eficiența operațională și securitatea, dar numai împreună cu perspicacitatea și expertiza profesioniștilor din domeniul securității.
În luna iunie, o cercetare realizată la Universitatea Cambridge, National Institute of Technology și Indian Institute of Science din India a atras atenția asupra unor probleme etice ale folosirii inteligenței artificiale, conform securityportal.ro.
Într-o lucrare intitulată „Eye in the Sky”, cercetătorii prezintă un o dronă cu patru rotoare, Parrot AR, care trimite imagini video pentru o analiză în timp real. Algoritmii analizează imaginile și observă pozițiile în care stau oamenii. Sistemul poate recunoaște anumite gesturi și posturi care au fost desemnate ca fiind violente. Au fost sugerate cinci posturi ale corpului pentru: a sugruma, a lovi cu pumnul, a lovi cu piciorul, a împușca și a înjunghia.
În teorie este considerată o idee foarte bună deoarece poate ajuta agenții de securitate și echipele de intervenție să ajungă mai repede la locul producerii unui incident, dar problema constă în definirea violenței și în pregătirea sistemului de inteligență artificială ca să o recunoască cu exactitate. Nu se dorește ca depistarea violenței să depășească această limită și să se transforme în alt tip de supraveghere.
De asemenea, Uniunea Libertăților Civile din SUA a testat Rekognition, software-ul de recunoaștere facială al Amazon. Astfel, fețele celor 535 de membrii ai Congresului american au fost comparate cu o bază de date cu 25.000 de fețe ale persoanelor arestate pentru diverse infracțiuni. În cadrul acestui experiment, trei senatori și 25 de membrii au Casei Reprezentanților au fost identificați ca fiind persoane cu antecedente penale. Deși unii oameni sunt supărați din cauza acestui incident, Dave Loebsack, unul dintre membrii Congresului care a fost identificat greșit este îngrijorat că această problemă s-ar putea repeta și în cazul altor oameni, aceasta fiind una dintre problemele recunoașterii faciale, conform securityportal.ro.
Loebsack atragea atenția că trebuie găsită o metodă potrivită care să asigure faptul că nimeni nu este acuzat pe nedrept, dar și că poliția își face treaba și păstrează oamenii în siguranță.