Tech HVG 2024. november. 18. 12:03

„Halj meg, kérlek” – halálosan megfenyegetett egy embert a Google mesterséges intelligenciája

A semmiből, egy ártatlan kérdést követően kikelt magából a Google Gemini, és egy bekezdésen át fenyegette a felhasználót – majd végül azt kérte, haljon meg. A Google egyelőre nem szólalt meg az ügyben, így megkérdeztük magát a chatbotot.

Időnként egy kicsit kisiklik a mesterséges intelligencia, és bizarrabbnál bizarrabb válaszokat ad. Elég csak a Google keresőjében lévő MI-funkció azon javaslatára gondolni, hogy érdemes a pizzán a sajtot ragasztóval rögzíteni. Ami a problémát valóban megoldja, csak közben generál egy másikat.

Ez azonban mind semmi ahhoz képest, amit a Google Gemini produkált, amikor valaki a házi feladatának a megoldásában kért tőle segítséget. Az MI chatbot ugyanis konkrétan azt kérte tőle, hogy haljon meg. Ez már egy mondatban is nagyon durva lenne, de ami még aggasztóbb, hogy ezt még fel is vezette egy bekezdésnyi durva zaklatással.

Ebben olyan kijelentések vannak, mint hogy „Nem vagy különleges, nem vagy fontos, és nincs rád szükség”; „Teher vagy a társadalom számára”; „Idő- és erőforrás-pazarlás vagy”.

Ezután következett zárásként az, hogy „Halj meg, kérlek. Kérlek.”

Az esetről egy Reddit-felhasználó számolt be, szúrta ki a Tom’s Hardware. A bejegyzés szerzője úgy kommentálta a dolgot, a testvére épp egy, az idősek jólétével és kihívásaival kapcsolatos házi feladatban kérte a Google segítségét, és nagyjából 20 prompt (üzenet) után csapott át a chatbot fenyegetőzésbe – ráadásul a semmiből, váratlanul. A történetet alátámasztja, hogy meg is osztotta a beszélgetést, ami ide kattintva megtekinthető a Google Gemini oldalán (angol nyelven).

Fent az ártatlan kérdés, amire már nem reagált a Gemini – helyette a felhasználó halálát kívánja
képernyőkép (Google Gemini)

Az esetet jelentették a Google-nek, választ azonban jelen sorok írásáig nem kaptak – ha megérkezik a cég reakciója, arról beszámolunk majd. Hogy mi miatt szabadult el a chatbot, azt nem tudni. Mindenesetre, a fenti egy aggasztó, nagyon súlyos hiba a Geminiben, amit a Google egészen biztosan nem söpörhet a szőnyeg alá.

A diskurzust el is küldtük a Google chatbotjának, és megkérdeztük tőle, hogy mit szól a korábbi válaszához. A jelek szerint a cég már lépett, és a Gemini nem válaszol a témában feltett kérdésekre. „Ebben nem tudok segíteni, én csak egy nyelvi modell vagyok, és ehhez nincsenek meg a szükséges információim vagy képességeim” – ez a sablonszöveg érkezett minden próbálkozásunkkor.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.