Gyakorlatilag „megőrül” a mesterséges intelligencia, ha olyan adatokon tanítják be, amelyet nem más generált, mint egy másik mesterséges intelligencia.
Nem hétköznapi kísérletet végeztek a Rice és a Stanford Egyetem szakemberei: a mesterséges intelligencia által generált tartalmakon tanítottak egy mesterséges intelligenciát. Igen, pontosan – és kiderült, hogy ez bizony nem jó ötlet, mert a kimeneti eredmény minőségére igencsak rossz hatással lesz.
Pedig ez nem egy lehetetlen dolog: ahogy az interneten elterjednek majd a mesterséges intelligencia által generált tartalmak, úgy tanulhat egy másik MI-modell is ezekből, miközben az interneten kutat.
Pedig nagyon úgy fest, hogy mindez nem kifejezetten tetszik a mesterségesintelligencia-modellnek, ami voltaképpen „megőrül” ettől.
Félnek a magyarok a mesterséges intelligenciától?
A magyar közösségimédia-felhasználók mindösszesen 13 százaléka használt már olyan alkalmazásokat, mint a szövegelő ChatGPT vagy a képgeneráló DALL-E 2. A mesterséges intelligencia használatát óvatosság és félelem kíséri, derül ki a Sophos felméréséből, amely szerint 3 válaszadóból 2 úgy véli, hogy az ilyen programokba bevitt adatokkal visszaélhetnek az alkalmazások tulajdonosai vagy a kiberbűnözők.
Mint kiderült, „friss és valós” adatok hiányában – ami valódi emberek által készült –, ha csak az MI által generált dolgokat kap egy másik modell a betanításakor, akkor a kimenet „drasztikusan megsérülhet”.
Az arXiv folyóiratban publikált tanulmányt egyelőre még nem lektorálták. A Futurism szerint azonban öt ilyen, mesterséges adatokkal történő tanítási körre volt szükség ahhoz, hogy annak látható eredménye legyen a kimeneten.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.