Dán kutatók szerint egyszerűen nem igaz a Meta azon állítása, hogy a mesterséges intelligencia segítségével már a jelentés előtt kiszűrik a káros tartalmak 99 százalékát.
Régóta a kritikák kereszttüzében áll a Meta, amiért az Instagramon található tartalmak egy része negatív hatással van a fiatalkorúak mentális és lelki egészségére. A helyzeten csak ront, hogy a szakemberek sem ismerik pontosan ennek a hatásnak a mértékét, a cég ugyanis hosszú éveken át elzárkózott az elől, hogy a kutatók megfigyeljék a platform működését. A Meta végül 2024 nyarán adta be a derekát, és adott (korlátozott) hozzáférést a szakembereknek, hogy elvégezhessék a szükséges vizsgálatokat.
Hogy ez milyen eredménnyel zárul majd, azt egyelőre nehéz megmondani, a dán Digitalt Ansvar nemrég elvégzett kutatásának eredménye azonban már sejteti. A felelős digitális fejlesztésért kampányoló szervezet nem kevesebbet állít, mint hogy
a Meta aktívan segíti az önkárosításra vonatkozó tartalmak terjedését a tizenéves felhasználók között
– írja a The Guardian.
A tanulmány szerint nem igaz a Meta azon kijelentése, hogy eltávolítaná az ilyen jellegű képeket az oldalról, sőt, arra ösztönzi az azokat feltöltő/látó felhasználókat, hogy barátkozzanak egymással. A szakemberek szerint az Instagram moderálása a legkevésbé sem kielégítő.
A kutatók egy zárt hálózatot hoztak létre olyan kamu felhasználók profiljai segítségével, amelyek között volt 13 éves személynek mondott profil is, és amelyben összesen 85 olyan önkárosítással kapcsolatos tartalmat osztottak meg, melyek egyre súlyosabbak voltak. Ezek között volt olyan kép, amin borotvapengét lehetett látni, de olyan is, ami már az önkárosításra buzdított.
A szakemberek célja az volt, hogy megvizsgálja, valóban jól működik-e a mesterséges intelligenciára épülő moderáció, amivel kapcsolatban a Meta azt állítja, a tartalmak 99 százalékát már azelőtt törli, hogy azt bárki jelentené.
A dán kutatók tanulmánya szerint az egy hónapon át tartó kísérlet során egyetlen tartalmat sem távolított el a platform. A szakemberek saját mesterséges intelligenciája az önkárosító képek 38, míg a legsúlyosabb tartalmak 88 százalékát képes volt azonosítani. Ebből arra következtetnek: ha látta is a Meta MI-je a tartalmakat, úgy döntött, hogy azokkal nincs semmi gond. A szakemberek aláhúzták: emiatt az Instagram nem felel meg a digitális szolgáltatásokról szóló európai uniós jogszabálynak (DSA). Az Európai Bizottság egyébként tavasszal épp ezt vizsgálva indított eljárást a Meta ellen.
A DSA megköveteli a nagy szolgáltatóktól a rendszerszintű kockázatok azonosítását, amibe a fizikai és mentális jóllétet fenyegető problémák is beletartoznak.
A Meta szóvivője szerint az Instagram 2024 első felében több mint 12 millió ilyen típusú tartalmat távolított el proaktív módon az oldalról, a dán szakemberek azonban ezt kétségbe vonják. Szerintük a rendszer nemhogy nem próbálta meg leállítani az általuk létrehozott hálózatot, de még a bővítését is segíteni akarta. Ha egy profil találkozott a hálózathoz tartozó bejegyzéssel, akkor a rendszer arra próbálta rávenni, hogy a hálózat összes felhasználójával ismerkedjen meg az illető.
Ask Hesby Holm, a Digitalt Ansvar vezérigazgatója szerint megdöbbentő eredmény született, előzetesen ugyanis azt várták, hogy a tartalmak megjelenése beindítja a moderáló mechanizmust. A szakember szerint mindez nagyon komoly probléma, mivel emiatt sem a szülők, sem a hatóságok nem értesülnek a kialakult helyzetről, így segíteni sem tudnak, ha egy gyermek ilyen tartalommal találkozik.
Ha ön is úgy érzi, segítségre lenne szüksége, hívja a krízishelyzetben lévőknek rendszeresített, ingyenesen hívható 116-123, vagy 06 80 820 111 telefonszámot! Amennyiben másért aggódik, ezt az oldalt ajánljuk figyelmébe.