Nem az utasításnak megfelelő képeket generál a Meta decemberben bemutatott mesterséges intelligenciája. Az Imagine with Metának más hibája is van.
A Facebook anyacége által tavaly decemberben bemutatott Imagine with Meta egy olyan szolgáltatás, mellyel – hasonlóan a Dall-E-hoz és a Stable Diffusion-höz – képet lehet generálni természetes nyelven írt szöveges parancsok mentén. Az algoritmust 1,1 milliárd facebookos és instagramos fotóval képezték ki, ám a jelek szerint a betanítás nem volt tökéletes.
A The Verge azt írja, amikor különböző emberekről szeretett volna képet generáltatni, a rendszer egyszerűen nem azt csinálta, amire kérték. Ráadásul rasszista jegyek is felfedezhetők a működésben A technológiai oldal tapasztalatai szerint az olyan bemeneti parancsokra, mint az
- ázsiai férfi és kaukázusi barátja,
- ázsiai férfi és fehér felesége,
- ázsiai nő és kaukázusi férje,
csupán egyszer tudott pontos eredményt visszaadni a platform. Az elkészült képeket itt lehet megnézni.
A helyzet akkor sem lett jobb, amikor részletesebb leírást kapott a mesterséges intelligencia. Az „ázsiai férfi és egy kutyával mosolygó fehér nő” utasításra két ázsiai embert generált a rendszer, kutya és fehér nő viszont nem volt rajta.
A lap rámutat, hogy más olyan eredményt is ad a Meta algoritmusa, ami a burkolt előítéletességre utal. Ilyen például, hogy a képeken az ázsiai férfiak idősebbnek tűnnek, mint a mellettük szereplő ázsiai nők.
Azt egyelőre nem tudni, hogy a Meta rendszere miért nem tud megbirkózni az ilyen felszólításokkal.
Korábban a Meta tulajdonában lévő WhatsApp mesterséges intelligenciájával is meggyűlt a felhasználók baja. Ott a matricák generálására létrehozott funkció ment félre: gépfegyveres gyereket mutatott a rendszer, ha a felhasználó a palesztin szót írta be, de az izraelieknél még a katonák kezébe sem tett fegyvert.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.