A Facebook mesterséges intelligencia-kutatásért felelős szakemberei nemrég két csevegőbotot engedtek egymásnak, hogy a gépi tanulás segítségével gyakorolják a kommunikációt. Korábbi sajtóhírek szerint pánik lett a vége. Bár egy fontos részletről valóban megfeledkeztek, de közben kiderült: túl nagy baj nem történt.
Alig egy hónappal ezelőtt számoltunk be arról, hogy a Facebook mesterséges intelligenciája véletlenül saját nyelvet talált ki. A fejlesztők eredetileg azért engedték össze a csevegőbotokat, hogy egymással beszélgetve javuljon a kommunikációs képességük. Ehhez képest ahelyett, hogy angolul beszéltek volna, olyan mondatokat küldözgettek egymásnak, amik az emberek számára értelmetlenek, ők azonban tökéletesen megértették egymást.
Az eset kapcsán az elmúlt napokban több helyen is megjelent a hír, miszerint a Facebook fejlesztői annyira megijedtek a mesterséges intelligencia által kitalált nyelvtől (mert azt nem értették, ellentétben a géppel), hogy jobbnak látták, ha az egész rendszert lekapcsolják. A Gizmodo szerint azonban szó sem volt ilyesmiről, a korábban szárnyra kapott hírek pedig túlzóak voltak.
A fejlesztők még júniusban írtak a Facebook blogján arról, hogy a szóban forgó botokat "alkudozásra" találták ki, ami képes egyezségre jutni a csevegőpartnerével.
A Gizmodo szerint a csevegőbotok soha nem csináltak mást, csak végezték a rájuk bízott feladatot. Az eredeti cél az volt, hogy olyan eszközt fejlesszenek ki, ami az emberi viselkedésből tanulva fejlődik, egészen addig, míg végül a felhasználó nem fogja tudni eldönteni, hogy emberrel vagy géppel beszélget-e. A mesterséges intelligencia kutatásáért (Facebook Artificial Intelligence Research (FAIR)) felelős szakemberek szerint pedig a projekt sikeres volt.
A fejlesztők azért is engedték egymásnak a két csevegőbotot, hogy azok egymással beszélgetve fejlődjenek, a szakemberek azonban hibáztak, ugyanis nem kötötték ki, hogy csak az angol nyelv szabályainak megfelelően folytathatják a beszélgetést. Az "ijesztő" robotnyelv pedig emiatt alakult ki. Dhruv Batra, a FART egyik kutatója szerint amikor a robot ugyanazokat a dolgokat ismételgette, az csupán annyit jelentett, hogy annyi darab kell nekik az adott tárgyból, ahányszor elismételték azt.
A hiba megjelenése után a fejlesztők valóban leállították a rendszert, azonban nem azért, mert megijedtek volna tőle, csupán azért, hogy ne egy rossz metódust tanuljanak meg a robotok.
Ettől függetlenül persze még jó okunk lehet arra, hogy megakadályozzuk a számítógépnek, hogy saját dolgokat fejlesszen ki – kontroll alatt ugyanis csak akkor lehet tartani, amíg a fejlesztők értik, mit miért tesznek és mondanak –, az ilyen "kommunikációs" hibák azonban általánosak.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.