2024-ben világszerte mintegy 2 milliárd embert vártak az urnákhoz a különböző országok választásain. A Meta szerint az összes ezzel kapcsolatos álhír kevesebb mint 1 százaléka volt az, amit a mesterséges intelligenciával generáltak.
Hosszú évek óta jelent már komoly problémát, hogy a közösségi oldalakon rendkívül könnyen terjednek az álhírek. A fejlett mesterséges intelligencia (MI) megjelenésével csak fokozódott az a félelem, hogy az emberek egyre nehezebben, vagy egyáltalán nem fogják tudni megkülönböztetni az álhíreket a valóságtól. Az MI-t fejlesztő cégek ezért fogadkoztak, hogy nem hagyják, hogy ilyen tartalmakat gyártsanak például a gépgeneráló algoritmusokkal, és a Meta is azt közölte, mindent megtesz, hogy elejét vegye az ilyen típusú álhírek terjedésének.
A cég most az év végéhez közeledve egy elemzést adott ki, amiben azt foglalja össze, milyen mértékben befolyásolhatta az MI a világ különböző országaiban zajlott választásait 2024-ben. A Meta szerint az adatokból az derül ki: a mesterséges intelligencia által generált tartalmak sokkal kisebb szerepet játszottak a választások során a félretájékoztatásban, mint amire a politikai szereplők vagy a kutatók számítottak.
2024-ben választást tartottak többek között az Egyesült Királyságban, Indiában, Franciaországban és az Európai Unióban is. Világszerte összesen mintegy 2 milliárd embert vártak az urnákhoz az idei évben.
Nick Clegg, a Facebook globális eseményekért felelős elnöke blogbejegyzésében arról írt, hogy ezen országokban a választási időszakban a választásokkal, politikával és társadalmi témákkal kapcsolatos összes álhír kevesebb mint 1 százalékát tették ki a mesterséges intelligenciával generált tartalmak. Azt nem tudni, hogy mindez annak köszönhető-e, hogy a Meta megpróbálta megelőzni az ilyen tartalmak terjedését, vagy annak, hogy az MI-eszközök még nem voltak képesek kellően minőségi tartalmat előállítani egy hatékony álhírhez. Esetleg annak-e, hogy a mesterséges intelligenciát fejlesztő cégek is megpróbálták ennek elejét venni bizonyos parancsok letiltásával.
Emellett érdemes azt is kiemelni, itt csupán a Meta platformjairól van szó, így nem tudni, hogy más közösségi oldalak esetében mennyire volt hatékony ez a fajta tartalomszűrés.
A Meta azt nem közölte, hogy mennyi ilyen típusú tartalmat szűrtek ki a tényellenőrzéssel foglalkozó szakemberek a választások előtt. Azt azonban érdemes megjegyezni – írja az Engadget –, hogy naponta több milliárd bejegyzés keletkezik a Facebookon és az Instagramon, így még az 1 százalék is igen jelentős mennyiséget jelenthet.
Ami a céget illeti: a Meta saját képgenerátora 590 ezer utasítást blokkolt, amelyekkel Donald Trump, Joe Biden, Kamala Harris, JD Vance és Tim Walz képmását akarták felhasználni az amerikai választásokat megelőző hónapokban.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.