Tech hvg.hu 2018. szeptember. 10. 11:03

Kiderült, hogy az IBM titokban megfigyelte New York lakóit, bőrszín alapján is profiloztak

Egy titokban tartott megállapodás keretében az IBM a New York-i rendőrség (NYPD) biztonsági kameráinak felvételeit használta saját megfigyelési rendszere trenírozásához.

Életkor, nem és bőrszín alapján is képes szűrni a tömegben az embereket az IBM rendszere. Ez annak köszönhető, hogy a technológiai vállalat éveken át hozzááférést kapott az NYPD köztérfigyelő kamerahálózatához, hogy annak felvételei segítsék a megfigyelőrendszer gépi tanulását – tudta meg a The Intercept, miután a lap újságírói a vállalat több volt kutatójával és rendőrökkel is beszéltek.

A riport szerint az IBM még 2007-ben vásárolt a Microsoft-leány Vexceltől egy videoanalitikai szoftvert, melyet aztán saját szakembereivel fejlesztetett tovább. New York város terrorelhárító központjával 2010 márciusában kezdődött az együttműködésük, melynek keretein belül a központ 512 kamerájából „kevesebb mint 50” képkimenetét kapta meg a vállalat szoftvere. Erre azért volt szükség, hogy valós környezetben tanulmányozhassák a járókelőket, és megfelelő mennyiségű gyakorlás és tanulás után a megfigyelőrendszer képes legyen arra, hogy ha kezelője meg szeretne találni valakit egy tömegben, akkor életkor, nem, hajszín, arcszőrzet és bőrszín alapján is évgezhessen szűréseket. Megfelelő paraméterezés után így egy nagyobb tömegben is gyorsan kiszűrhető egy élő videó képén néhány ember, akik közül már másodpercek alatt ki lehet választani a célszemélyt.

Pexels

Az NYPD a The Intercept kérdésére úgy válaszolt, élesben sose használták ezt a szoftvert, illetve semmilyen olyan programot, ami lehetővé tesz faji alapokon történő profilozást – noha kaptak ilyesmi rendszerrel kapcsolatos ajánlatokat.

A New York-i rendőrség 2016-ban állította le a mindmáig titokban tartott projektet, amellyel kapcsolatban az IBM a The Verge-nek mindössze annyit nyilatkozott: továbbra is elkötelezettek az új technológiák felelősségteljes fejlesztése mellett.

A hasonló megfigyelőrendszerek régóta aggasztják a civil jogvédőket. Egy arcfelismerő algoritmus tévesztése elméletben megmosolyogtató, gyakorlatban szomorú következményekkel járhat. De akkor sem feltétlenül aludhatunk nyugodtan, ha jól működik a technológia. Különösen aggasztó néhány szakember szerint az a rendszer, melyet emberi cselekedetek felismerésére terveztek.

Ha máskor is tudni szeretne hasonló dolgokról, kövesse a HVG Tech rovatának Facebook-oldalát.