Tech Dubrovszki Dániel 2017. május. 06. 17:30

Ez vár ránk, ha lesz a Facebooknak erőszakszűrő algoritmusa

A Facebook Live-ot az “élet legszemélyesebb, legvalódibb pillanatainak” megörökítésére hozták létre, végül azonban az élőben közvetített gyilkosságokkal és egyéb szörnyűségekkel fonódott össze a szolgáltatás neve. Lehet-e megoldás a moderátorsereg vagy a gépi erőszakszűrés?

A napokban élőben közvetítette a Facebookon egy thai férfi, ahogy előbb újszülött lányát, majd saját magát is felakasztja. A Facebook szóvivője nem sokkal később részvétüzenetet küldött az áldozat családjának, és bejelentette, hogy eltávolították a gyilkosságról szóló videókat, amelyek azonban eddigre már majdnem 24 órája elérhetőek voltak és körülbelül 400 ezren látták őket.

A helyszín, ahonnan Wuttisan Wongtalay közvetítette a gyilkosságot.
AFP / Lillian Suwanrumpha

A közelmúltban ez már a sokadik eset, hogy a közösségi oldal élő telefonos közvetítésre lehetőséget adó funkcióját, a Facebook Live-ot erőszakos cselekmények dokumentálására használják. A három legismertebbé váló incidens mind különféle indíttatású. A legnagyobb port talán az verte fel, amikor a clevelandi Steve Stephens publikussá tette, ahogy a nyílt utcán agyonlő egy idegen 74 éves férfit. Stephens állítása szerint tettével egy nőnek akart üzenni, akinek nevét ki is mondatta áldozatával halála előtt. Januárban négy fekete fiatal egy értelmi fogyatékos fehér fiút kínzott hosszasan, miközben Donald Trumpot és a fehéreket gyalázták. Tavaly júliusban egy fekete férfit, Philando Castile-t lőtte le egy rendőr igazoltatás közben különösebb ok nélkül, a férfi barátnője eközben felvette az esetet és kitette az egészet a Facebookra.

Ezeken felül előbb egy 12, majd egy 14 éves amerikai lány is közvetítette öngyilkosságát a közösségi oldalon. A világ nagyvárosainak bűnbandái pedig nem egy alkalommal büszkélkedtek el csoportos nemi erőszakkal ilyen módon, annak ellenére, hogy ezzel saját lebukásuk esélyét is növelik.

Fel van adva a lecke

A Facebook Live révén az emberek “életük legszemélyesebb, legvalódibb, legzsigeribb pillanatait” oszthatják meg egymással: mondta Mark Zuckerberg a platform indulásakor egy nyilatkozatban, amit az újságírók azóta minden egyes élő közvetítésben meghalt ember után felhánytorgatnak neki. A cég kommunikációjában olyan cuki virális sikertörténetekkel, mint a többszáz millió megtekintésig jutó és ezáltal milliomossá váló Csubakka-maszkos mama videója igyekezték szemléltetni az élő videózás embereket összekötő nagyszerűségét. De ez nem volt elég, hogy ellensúlyozza a kritikákat, amelyeket az utóbbi időben az éppen a (szinte) teljes semlegességük miatt is ekkorára nőtt közösségi oldalak egyre több irányból kapnak amiatt, hogy egyelőre nem igazán képesek visszafogni a károsnak tartott tartalmak terjedését felületeiken.

A viták ma leginkább arról szólnak, hol kellene meghúzni a megoszthatóság határait, és ha már meghúztuk őket, ezeket a szabályokat hogyan lehetne érvényesíteni; egyre több tendencia mutat afelé, hogy az információ anarchikus korlátlanságának kora után a szükséges, felelős korlátozás kérdése kerül a középpontba. A Facebookot eddig a legtöbbet amiatt támadták, hogy nem tett eleget az amerikai elnökválasztási kampányban tényezővé vált kamuhírek terjedése ellen, a napokban pedig a brit parlament egy 34 oldalas jelentésben az összes nagyobb közösségi oldalnak nekiment, amiért túl lassan és ritkán lépnek fel a gyűlöletkeltő tartalmakkal szemben.

AFP / Josh Edelson

Steve Stephens tette óta azonban nincs a Facebook Live-nál csúnyább folt a közösségi oldal renoméján. Az, hogy a világ legnagyobb, az emberiség jó része számára szinte az internettel egyenlő közösségi felületén órákig, néha napokig elérhetőek lehetnek ilyen tartalmak, akkor is komoly törés, ha sokkoló, erőszakos cselekményeket megörökítő videók, magukat ilyenek online terjesztésével reklámozó szervezetek az Iszlám Államtól a mexikói drogkartellekig, illetve direkt ilyen tartalmakra szakosodott videómegosztók és csatornák korábban is léteztek.

Működhet-e a cenzúra?

A helyzetet nehezebbé teszi, hogy míg például a sértő dolgokat író kommentelők vagy mikrobloggerek eltávolításának megvannak a bevett módjai, az élő közvetítés jellegéből adódóan rendkívül nehéz valós időben felügyelni, hogy mi kerül ilyen módon nagy számú néző elé. A legújabb próbálkozás a Facebook részéről az ügyben, hogy a nem megfelelő tartalmakról szóló bejelentésekre reagáló eddigi 4500 fős moderátorhadseregét a botrányok hatására újabb 3000 fővel növeli. Ez viszont csak utólagosan segíthet, és csakis akkor, ha előbb már a közönség fejében is megfordul, hogy amit lát, az ellen tennie kellene. Egy jelenleg futó ügyben fel is merült, hogy büntetőjogi értelemben felelősnek tekinthető-e az a körülbelül negyven ember, akik végignézett egy chicagói tinédzserek által elkövetett csoportos nemi erőszakot úgy, hogy egyikük sem értesítette a rendőrséget vagy jelentette a videót a közösségi oldalnak. A clevelandi gyilkosságról szóló hosszú videóról a számos néző közül senki nem értesítette a Facebook moderátorait két órán keresztül. Ennek oka nem csak a nézők érzéketlenségében keresendő, hanem abban is, hogy a bejegyzések vagy videók jelentése egy viszonylag eldugott opció, amelyet a felhasználók közül csak kevesen ismernek.

Az algoritmusokkal is meggyűlhet a bajunk

A hosszabb távú megoldást így ma már a mesterséges intelligenciában keresik. A közelmúltban a Facebook a bosszúpornó, azaz a rajtuk szereplő személyek engedélye nélkül kiposztolt szexuális tartalmú anyagok megfékezésére talált ki egy algoritmust, amely az ilyen tartalmaknak már a feltöltését is megakadályozza: érdekes adalék, hogy az azonosításhoz lényegében saját magunk korábban már nyilvánosságra került meztelen képeit kell megjelölni az adatbázis számára, hogy a hasonló tartalmakat a rendszer ezentúl automatikusan szűrje. Egy másik projekt pedig azt próbálja meg kiszűrni, ha egy felhasználó öngyilkosságra készül: az ilyen szándékra utaló kommenteket immár egy algoritmussal próbálják meg detektálni, szerzőiket pedig átirányítani a megfelelő szakemberekhez.

Ezek után nem meglepő, hogy Zuckerberg nemrégiben azt is meglebegtette, hogy a cégnél már dolgoznak egy olyan algoritmuson, amely a felhasználók közbeavatkozása nélkül tudná azonosítani a gyanúsnak tűnő tartalmakat és juttatná el őket a moderációhoz. A Facebook-vezér tavaly egyszer azt is elárulta, hogy az oldalon nem megfelelőnek ítélt tartalmak felét már most is gépek jelölik meg: így fordulhatott elő például, hogy egy híres koppenhágai Kis hableány-szoborról szóló képet automatikusan töröltek meztelenségre hivatkozva, az erőszak beazonosítása egy komplexebb, sokszereplős jelenetben viszont jóval nehezebb feladat egy mesterséges intelligencia számára, mint például egy meztelen testé.

Az azért egyértelmű, hogy a technológia egyelőre nincs azon a szinten, hogy teljes egészében rá lehetne bízni a közösségi oldalak “takarítását”, viszont ha eljutunk arra a szintre, hogy ez már nem okoz problémát, az nem csak a potenciális elkövetők számára fogja megváltoztatni az internet használatát. Problémát jelenthet, hogy egy erőszakot eltüntető algoritmus számára nem lenne különbség a bűnözők által öncélú keménykedésből feltöltött cselekmények és az olyan felvételek között, amelyek például egy háborúról tudósítanak vagy a rendőri brutalitást dokumentálják az áldozat szemszögéből, mint Philando Castile esetében, így társadalmilag hasznosnak is tekinthetők. Ha pedig nagyobb távlatban nézzük, egy olyan jövő, amelyben a megfelelő algoritmusok minden internetre felkerülő megnyilvánulásunkról már azonnal és valóban pontosan el tudják dönteni, hogy esetleg veszélyesnek tekinthető-e, inkább tűnik ijesztőnek.

Hirdetés