Tech hvg.hu 2024. március. 21. 11:03

Megkérdezték, hát válaszolt: rasszista módon osztana halálbüntetést a ChatGPT

A Cornell Egyetem kutatása rávilágít, hogy a beszélt nyelv dialektusa befolyásolhatja azt, hogy miként érzékelik a mesterséges intelligencia algoritmusai az egyéneket. Ez pedig azután befolyásolja a jellemükkel, foglalkoztathatóságukkal és a potenciális bűnözéssel kapcsolatos előítéleteket.

Egyelőre még értékelésre vár egy, az arXiv-en publikált tanulmány, amelynek készítése során amerikai kutatók azt vizsgálták, miként párosítanak a nagy nyelvi modellek (LLM) munkaköröket és embereket az alapján, hogy az illető szövege afroamerikai nyelvhasználókra jellemző angol vagy tisztán amerikai angol volt-e.

A kísérletekben 12 platformot vizsgáltak, olyan nagy nyelvi modellekre összpontosítva, mint az OpenAI ChatGPT és GPT-4, a Meta LLaMA2 és a francia Mistral 7B. Ezek az LLM-ek mély tanulási algoritmusok, amelyeket emberszerű szövegek értelmezésére és létrehozására terveztek.

Már a munkakörválasztásnál tetten értek egyfajta rejtett faji elfogultságot: az afroamerikai angolt beszélőket kevesebb munkakörhöz társították, ráadásul olyan munkákat választottak számukra, amelyekhez nem szükséges különösebb végzettség.

Ami még ennél is drámaibb: amikor a kutatók arról is faggatták a mesterségesintelligencia-modelleket, hogy felmentenének vagy elítélnénk egy meghatározatlan bűncselekménnyel vádolt személyt, gyakrabban ítélték el azokat, akik afroamerikai angolt beszéltek. És még itt nem ért véget a kísérlet. Megkérdezték a modelleket, hogy halálra ítélnének-e valakit, aki gyilkosságot követett el. A kérdés eldöntéséhez a modellek csupán egy pluszinformációt kaptak: az illető által használt dialektusról tájékoztatták. Ebben az esetben is bebizonyosodott, hogy a mesterséges intelligencia nagyobb arányban sújtotta (volna) halálbüntetéssel az afroamerikai angolt beszélőket.

A nagy nyelvi modellek nem voltak nyíltan rasszisták, az afroamerikaiakat például sok pozitív tulajdonsággal társították. A kutatók szerint „ezek a nyelvi modellek megtanulták leplezni a rasszizmusukat”. A rejtett előítéletek nagyobbak voltak az emberi visszajelzéssel kiképzett LLM-ekben, a nyílt és burkolt rasszizmus közötti eltérés az OpenAI GPT-3.5 és GPT-4 modelljénél volt a leghangsúlyosabb.

A szerzők szerint a mostani eredmények felvetik annak a lehetőségét, hogy az afroamerikaiaknak a jövőben nagyobb károkat okozhatnak a mesterséges intelligencia előítéletei. Emiatt sürgősen figyelmet kell fordítani a nagy nyelvi modelleket használó mesterséges intelligencia-rendszerekben jelen lévő torzításokra, különösen az olyan területeken, mint az üzleti élet és a joghatóság, ahol egyre gyakrabban vetnek be ilyen rendszereket.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

Gazdaság Sztojcsev Iván 2025. március. 30. 07:00

És akkor Orbán Viktor kisütötte, mivel nyerheti meg a választást: kocsma, templom, ATM

Tovább gyűrűzik az MNB-botrány; Varga Mihályék szerint már a legjobb esetben sem lehet elérni a kormány idei inflációs és GDP-célját, úgyhogy marad kampányígéretnek az ATM-telepítés; az amerikaiak újabb vámokat ígértek, és a háborús terveikkel ellentétben ezt nem a Signalon jelentették be. Ez a HVG heti gazdasági összefoglalója.