Az ESET globális kutatása kimutatta, hogy a mesterséges intelligenciát és a gépi tanulást övező felhajtás eredményeként az informatikai döntéshozók háromnegyede csodafegyverként tekint ezekre a technológiákra a kiberbiztonság területén. A biztonsági megoldásokat fejlesztő vállalat szakemberei úgy vélik, hogy ez a népszerűség zavart okozhat az informatikai csapatok körében és a hamis biztonságérzet miatt még nagyobb veszélyt is jelenthet a vállalatok számára.
Az elmúlt évben jelentősen megnőtt az mesterséges intelligencia kiberbiztonságban betöltött szerepéről szóló cikkek és közösségi bejegyzések száma, divatossá váltak a mesterséges intelligenciához (artificial intelligence, AI) és a gépi tanuláshoz (machine learning, ML) kapcsolódó kifejezések. A technológiát övező felhajtás azonban félrevezető lehet a vállalatok és az informatikai szakemberek számára – állítja az ESET, ezért a kiberbiztonsági cég szakemberei 900 informatikai döntéshozót kérdeztek meg az Egyesült Államokban, Németországban és az Egyesült Királyságban az AI és az ML megoldásokkal kapcsolatos véleményükről és hozzáállásukról.
A kutatást összefoglaló tanulmány szerint a legnagyobb arányban az amerikai döntéshozók tekintenek csodafegyverként az említett technológiákra (82%), akiket az Egyesült Királyság (67%) és Németország (66%) követ. A válaszadók nagy része szerint az AI és az ML segíthetne szervezetüknek a fenyegetések gyorsabb felderítésében és a reagálásban (79%), illetve megoldhatná a szakképzettségbeli hiányosságokat is (77%).
Különbségek és határok
A szakemberek szerint problémát jelenthet, hogy sok döntéshozó már a fogalmak jelentésével sincs egészen tisztában. A mesterséges intelligencia egy gép, program vagy mesterségesen létrehozott tudat által megnyilvánuló intelligencia, a gépi tanulás pedig az AI egyik ága, amely a tanulni képes rendszereket foglalja magában. Az ML rendszer a példaadatok vagy minták alapján képes önállóan szabályokat felismerni vagy meghatározni. Sajnos a felhasználók és a döntéshozók nagy része nem tudja, hogy pontosan mit takarnak a kifejezések és a kutatásban résztvevők alig több mint fele (53%) mondta, hogy szervezete teljesen érti a két technológia közötti különbséget. A tanulmány szerint ennek oka részben az, hogy a technológiai vállalatok is gyakran félrevezető kifejezéseket hasznlnak kommunikációjuk során, illetve a médiában sem mindig választják megfelelően el a fogalmakat.
AZ ESET kutatása rámutat: komoly félreértésekre adhat okot, hiszen az informatikai döntéshozók egyfajta csodafegyverként tekintenek az AI és ML megoldásokra, miközben a kutatásban résztvevők jelentős része már jelenleg is alkalmazza a gépi tanulást a saját kibervédelmében: a németek 89%-a, az amerikaiak 87%-a, a britek 78%-a mondta, hogy végpontvédelmi megoldásaik gépi tanulást alkalmazva védik szervezetüket a támadásoktól.
A kiberbiztonsági vállalat szerint fontos, hogy a szervezetek megértsék a gépi tanulás határait. Bár rengeteg segítséget nyújt, az ML esetében továbbra is szükséges a folyamatos emberi megerősítés az osztályozás során, hogy a hamis pozitív jelzések száma hatékonyan csökkenthető legyen. Az ML algoritmusok szűk fókusszal és a szabályok szerint működnek, a hackerek azonban folyamatosan képezik magukat ezek feltörésére. Egy kreatív kiberbűnöző képes olyan helyzetet előidézni, amely teljesen új az ML, és így a rendszer számára is. A gépi tanulás számos módon félrevezethető, a hackerek pedig olyan új típusú kódokat készíthetnek, amelyeket tévesen jóindulatúnak érzékelhet a rendszer.
Ha máskor is tudni szeretne hasonló dolgokról, kövesse a HVG Tech rovatának Facebook-oldalát.