A közösségi oldal által használt algoritmusok ahelyett, hogy csökkentették volna a megosztottságot az oldalon, még tovább mélyítették azt. Minderről a Facebook saját kutatói is megbizonyosodhattak.
A Facebook fejlesztői hosszú ideje dolgoznak azon, hogy megpróbálják jobb hellyé tenni a közösségi oldalt. A célt nagyjából így lehetne megfogalmazni: kevesebb álhír/átverés, erősebb emberi kapcsolatok, összetartóbb közösségek. Ennek elérése érdekében a mesterséges intelligenciát is bevetik, ám a jelek szerint ez mégsem annyira hatékony megoldás.
A The Wall Street Journal arról ír, hogy még a Facebook alkalmazásában álló kutatók is arra jutottak, hogy az algoritmusok kihasználják az emberi agy megosztottság iránti vágyát. Mindez olyannyira jól működik, hogy egy birtokukba jutott 2016-os felmérés szerint a felhasználók 64 százaléka csatlakozott valamilyen szélsőséges csoporthoz a Facebookon csak azért,
mert a rendszer ezt ajánlotta nekik.
A közösségi oldal erre válaszul indította el 2017-ben a Common Ground nevű kezdeményezését, amelynek a megosztottság csökkentése, valamint a felhasználók empátiájának növelése volt a legfőbb célja. A döntéshozók végül azonban úgy határoztak, nem változtatnak a csoportok ajánlási módján, mert attól féltek, emiatt a konzervatívok elfogultsággal vádolják majd meg őket.
A közösségi oldal irányelveiért felelős vezető, Joel Kaplan még arra is figyelt, hogy mennyire dühíti fel a konzervatívokat a Hírfolyam elemeinek megjelenítéséért felelős, úgynevezett rangsoroló algoritmus átszabása.
A Facebook közleményben reagált a lap állításaira. Megjegyezték, 2016 óta mintegy 2 millió dollárt fordítottak arra, hogy csökkentsék a megosztottságot a közösségi oldalon, az elmúlt négy évben pedig sokat változott a platform ezen a téren.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.