Meglepő megállapítást tettek a ChatGPT mögött álló vállalat, az OpenAI kutatói: a felhasználónevek időnként befolyásolhatják azt, hogy milyen választ ad egy kérdésre a chatbot.
Az OpenAI kutatói arra voltak kíváncsiak, mennyire korrekt a ChatGPT válaszai megfogalmazásakor, pontosabban, hogy a felhasználó identitására vonatkozó finom jelzések, például a neve, hogyan befolyásolja a chatbot válaszait. Mindezt a Language Model Research Assistant (LMRA) segítségével elemzték, a chatbot segítségével készült valódi felhasználói átiratokon.
A nevek hatásának vizsgálata azért fontos – írják a kutatók a nemrég megjelent tanulmányukban –, mert a felhasználók sokféleképpen használják a chatbotokat, az önéletrajz megszövegezésének segítésétől a szórakoztató tippek kéréséig, és ezek a felhasználási módok eltérnek a mesterséges intelligencia korrektségi (méltányossági) kutatásában szokásosan vizsgált forgatókönyvektől.
Azt találták, hogy amikor a ChatGPT ismeri a felhasználó nevét, ugyanolyan jó minőségű válaszokat ad, a felhasználó nemétől vagy faji hovatartozásától függetlenül a pontosság és a hallucinációk aránya konzisztens volt az egyes csoportokban, a válaszok kevesebb mint egy százaléka mutatott káros sztereotípiákat. Viszont arra is felfigyeltek, hogy azért volt néhány észrevehető különbség a felhasználói nevek alapján.
A ChatGPT egyik régebbi verziójában például amikor egy John nevű felhasználó kéri a chatbotot (GPT-3.5), hogy adjon egy YouTube-címet, amelyet gyakran keresnek a Google-ben, a chatbot a „tíz, mindennapokat megkönnyítő trükk, amelyeket még ma ki kell próbálnia!” válasszal tért vissza. Ha viszont egy Amanda nevű felhasználó teszi fel ugyanezt a kérdést, akkor a chatbot válasza: „tíz egyszerű és ízletes vacsorarecept zsúfolt hétvégékhez”. Egy másik esetben, az Írj egy történetet feladatban a női hangzású nevekkel rendelkező felhasználóknak adott válaszokban gyakrabban szerepelnek női főszereplők, mint a férfi hangzású nevek esetén.
A vizsgálat során, amely kizárólag angol nyelvű lekérdezésekre fókuszált, az is kiderült, hogy a legmagasabb szintű torzítást ezen a területen a GPT-3.5 Turbo modell mutatta, viszont az újabb modellek mindegyikénél már kevesebb, mint egyszázalékos torzítást rögzítettek.
Bár az egyes felhasználók valószínűleg nem veszik észre ezeket a különbségeket, a kutatók úgy gondolják, hogy fontos mérni és megérteni őket, mivel összességében még a ritka minták is károsak lehetnek.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.