Veszélybe kerülhet a tudományba vetett bizalom – figyelmeztetnek az amerikai kutatók, akik szerint a mesterséges intelligenciára alapuló ChatGPT olyan jó összefoglalót ír a tudományos cikkekhez, hogy az esetek harmadában a kutatás hitelességét ellenőrző tudósokon is átcsúszik mint emberi szerzemény.
Egy ideje szinte napi szinten lehet hallani OpenAI fejlesztéséről, a ChatGPT-ről. A mesterséges intelligencián alapuló szoftver meglepően jó, és rendkívül sokoldalúan felhasználható: amellett, hogy új stílusban tud prezentálni egy már meglévő szöveget, saját forráskódot is tud írni, az ember által írt kódban megkeresi és megtalálja a hibákat, sőt a chatboton belül egy másik chatbotot is képes szimulálni.
A fejlesztés annyira jó, hogy a Google-nél már bepánikoltak tőle, a Microsoft pedig bejelentette, beépíti a saját internetes keresőjébe, a Bingbe. A kiváló szövegalkotás azonban komoly veszélyeket is rejt magában.
Az amerikai Northwestern Egyetem és a Chicagói Egyetem szakemberei szerint az egyik ilyen veszélyforrás az, hogy a ChatGPT az általa alkotott szöveggel képes akár a tudományos lektorokat is megtéveszteni – vagyis azokat a szakembereket, akik egy tudományos publikáció hitelességét és pontosságát ellenőrzik azok megjelenése előtt. A kutatók arra figyelmeztetnek: ha mindez általánossá válik, az a tudomány válságához vezethet.
Átverhet bennünket a mesterséges intelligencia?
Egyre gyakrabban kapunk bizonyítékokat arra, milyen fejlettek lettek a mesterséges intelligencián alapuló megoldások. Amerikai kutatók azon fáradoznak, hogy leleplezzék a gépi algoritmusokkal elkövetett csalásokat.
A kutatók 50 valódi, már publikált orvostudományi cikkel végeztek kísérletet. A ChatGPT-t arra kérték, hogy az adott cikkek címe alapján készítsen összefoglalót egy adott folyóirat stílusában. Ezután fogták az igazi és a gép által írt összefoglalókat, majd a 100 anyagot négy különböző szakembernek küldték el átolvasásra. Itt csak arra figyeltek, hogy egy ember ne kapja még egy cikk eredeti és géppel írt absztraktját. A kutatók ezután annyit mondtak az olvasóknak, hogy az összefoglalók egy része hamis, más része pedig valódi.
A bioRxiv preprint szerveren közzétett eredmény szerint bár az esetek többségében, 68 százalékában helyesen találták el, hogy melyik valódi és melyik a mesterséges összefoglaló, aggasztó, hogy az esetek 32 százalékában (vagyis gyakorlatilag harmadában) tévedtek.
Ráadusul ez annak ellenére volt így, hogy a generált 50 összefoglaló csupán 8 százaléka felelt meg a szakfolyóirat szerkesztési irányelveinek.
Emellett az alanyok az esetek 14 százalékában a valódi cikkösszefoglalóra mondták azt, hogy azt a mesterséges intelligencia írta.
A tanulmány szerzői azt írták, az alanyok szerint meglepően nehéz volt eldönteni, melyik a valós és melyik a gépi absztrakt – idézte őket a Gizmodo.
Az olvasók észre sem veszik, de hazavághatja a tudományt, ha robot szerkeszti a szövegeket
Segíti a tudósok munkáját, de ronthatja eredményeik hitelességét az az egyre gyakrabban alkalmazott technológia, mely képes hatalmas mennyiségű szövegből egy rövid összefoglalót generálni.
Catherine Gao, a Northwestern Egyetem tudósa szerint azért aggasztó, hogy a szöveg hitelességét ellenőrző szakemberek az esetek harmadában tévedtek, mert ők tudták, hogy az összefoglalók egy része hamis – akinek viszont erre eleve fel sem hívják a figyelmét, az még nagyobb eséllyel megtéveszthető.
A kutatók attól tartanak, hogy a mesterséges intelligencia még jobban felpörgeti a csalásokat. Vannak ugyanis olyanok, akik plagizálnak anyagokat, vagy helytelen adatokat raknak össze egy tudományosnak tűnő cikkbe, hogy aztán azt eladják olyanoknak, akik szeretnék egy kicsit felgyorsítani a szakmai előmenetelüket.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.