A Kaliforniai Egyetem kutatóinak kísérlete szerint a ChatGPT mögött dolgozó GPT-4 nagy nyelvi modell minden második embert képes meggyőzni arról, hogy az illető egy emberrel beszélget.
René Descartes francia filozófus 1637-ben vetette fel először a kérdést, hogy a gépek egy napon vajon képesek lesznek-e arra, hogy gondolkodjanak. Bő 300 évvel később Alan Turing brit matematikus ezt a kérdést gondolta tovább, amikor felvetette, hogy a számítógép vajon képes lesz-e meggyőzni az embert, hogy ő egy valós személy.
Ennek kiderítésére egy egyszerű kísérletet vázolt fel: le kell ültetni egy embert egy számítógép elé, aki egy billentyűzet segítségével két entitással beszélget – egy emberrel és egy géppel. Az alany nem tudja, épp kivel cseveg, miközben mindkettő arra törekszik, hogy meggyőzze őt, ő a valódi ember, a másik pedig a gép. Ha a kísérlet résztvevője 5 perc beszélgetés után sem tudja eldönteni, hogy ki kicsoda, akkor kijelenthető, hogy a gép képes meggyőzni az embert arról, hogy ő a valódi személy. A felvázolt kísérlet a jól ismert Turing-teszt.
A Kaliforniai Egyetem kutatói nemrég több résztvevővel is elvégezték a Turing-tesztet, amelybe többféle mesterséges intelligenciát is bevontak. Az arXiv preprint szerveren megjelent tanulmányukban azt írják, a tesztalanyok 5 perc beszélgetés után tudták azonosítani, melyik partnerük a GPT-4 modell, ami azt sugallja, hogy a mesterséges intelligencia a jelenlegi fejlettségi szinten már el tudja magáról hitetni, hogy ő egy ember.
A szakemberek szerint ugyanakkor azt is érdemes figyelembe venni, hogy magának a Turing-tesztnek is vannak korlátai. Például az, hogy az ember képes bármit antropomorfizálni, vagyis emberi tulajdonságokkal felruházni – legyen szó egy kutyáról vagy egy robotról, hajlamosak vagyunk empatizálni velük. Ez a tény befolyásolja, hogy mennyire szól a Turing-teszt sikere a gépnek, és mennyire a pszichológiai hatásnak.
A szakemberek azt is kiemelték, hogy a ChatGPT-4 és a szintén tesztelt ChatGPT-3.5 csak az esetek 50 százalékában győzte meg az alanyokat, vagyis az eredmény nem sokkal jobb annál, mintha pusztán találgatott volna az illető.
Hogy az eredmény ennek ellenére miért figyelemre méltó, azt érdemes egy kicsit távolabbról megvizsgálni. A Massachusettsi Műszaki Egyetem tudósai az 1960-as évek közepén hozták létre az Eliza nevű rendszert, ami előre megírt válaszokból dolgozott, és már alkalmas volt arra, hogy megtéveszthesse a beszélgetőpartnerét. Ugyanakkor a legnagyobb probléma éppen ez, egy 5 percen túli beszélgetésnél ugyanis az előre megírt válaszok miatt már egyértelművé válhat, hogy valójában egy géppel cseveg az ember.
A nagy nyelvi modellek, mint amilyen a GPT-4 viszont már maguktól rakják össze a választ, figyelve a kontextusra, és lényegében bármiről szabadon lehet beszélgetni velük. Mindez nagyon komoly előrelépés az MIT Elizájához képest, ami a Turing-teszten 22 százalékot ért el.
A fejlődést látva valószínűleg nem túl nagy merészség azt kijelenteni, hogy a jövőbeni rendszerek ennél is jobb eredményt érnek majd el.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.