A rosszindulatú felek is érdeklődnek az MI-alapú eszközök iránt: amellett, hogy lopják a felhasználói adatokat, maguk is fejlesztenek ilyen eszközöket a saját illegális céljaikra.
A ChatGPT és más chatbotok népszerűsége a bűnözők érdeklődését is felkeltette, és már a sötét (dark) weben is egyre jobban elterjednek az ezzel kapcsolatos rosszindulatú tevékenységek.
Mint a Bleeping Computer írja, már több ezer, a ChatGPT használatához szükséges OpenAI-fiók belépési adatait árusítják ezeken az illegális, sötét webes piactereken: a Flare kutatói szerint több mint 200 ezer ilyen, lopott fiókadatot találtak a lopott adatokról szóló naplókban.
Bár ez nem tűnhet nagy számnak a ChatGPT sokmilliós felhasználói bázisához képest, de jól mutatja, hogy a rosszindulatú felek is érdeklődnek már az MI-alapú szolgáltatások iránt, ha adatok ellopásáról van szó.
Mégis miért tiltják meg sorban a nagy cégek a mesterséges intelligencia használatát az alkalmazottaiknak?
Egymás után érkeznek a hírek, hogy neves techvállalatok, például az Apple vagy az Amazon tiltják meg a dolgozóiknak a generatív mesterséges intelligencia használatát. De vajon mi állhat e szigor hátterében? Mitől tartanak a cégek?
Erre utal egy másik, a Group-IB kiberbiztonsági vállalattól származó júniusi jelentés is, miszerint a sötét weben több mint 100 000 megszerzett ChatGPT-fiókadatot árultak a hackerek.
Azonban, nem csak az ilyen adatok ellopására fókuszálnak a bűnözők, hanem a hasonló eszközök készítésére is: mint arról beszámoltunk, a sötét weben már árulnak egy új, WormGPT nevű mesterségesintelligencia-alapú eszközt, amellyel különféle támadásokat lehet végrehajtani, ráadásul nagyobbakat, mint valaha.