Tech hvg.hu 2023. október. 30. 10:03

Felállt a szakértői szupercsapat, amelyik kivizsgálja, lehet-e katasztrófa a mesterséges intelligenciából?

Komoly veszélyeket rejthet a mesterséges intelligencia, ezzel a terület legismertebb szolgáltatását, a ChatGPT-t fejlesztő OpenAI is tisztában van. A vállalaton belül létre hoztak egy csapatot, amely ezeket a kockázatokat hivatott felmérni és kiértékelni.

Sokan tartanak a mesterséges intelligenciától, egészen pontosan annak veszélyeitől – árulkodó, hogy az MI „keresztapja”, Geoffrey Hinton is óvatosságra int, ugyanis meglátása szerint a technológia akár az irányítást is átveheti.

A jelek szerint az egyik legnépszerűbb MI-technológiát (GPT nyelvi modell) és eszközt (ChatGPT) fejlesztő OpenAI sem veszi félvállról a dolgot, és életre hívott egy új csapatot az MI-modellek „katasztrofális kockázatainak” felmérésére és kiértékelésére – írja a TechCrunch. Az új csapat a Preparedness (készenlét/felkészültség) nevet kapta, vezetője pedig Aleksander Madry, az MIT gépi tanulással foglalkozó központjának igazgatója lett.

Ez a mesterséges intelligencia 12 legnagyobb veszélye, a britek szabályozást sürgetnek

Bár a mesterséges intelligencia a jövőben sokkal jobbá teheti az életünket, jó volna mielőbb szabályozni a lehetséges veszélyek miatt. Hogy melyek ezek, arról a napokban tájékoztatták a brit képviselők Rishi Sunak miniszterelnököt.

A Preparedness feladata konkrétan az lesz, hogy segítsen felmérni, megjósolni az új MI-rendszerek veszélyeit, és védekezni azok ellen. A kockázatok közé sorolhatók az emberek becsapására használt képességek, vagy a kártékony kódok gyártása.

Az igazán érdekes kockázatok azonban, melyeket a Preparedness vizsgál, kicsit aggasztóbbak, mint a fentiek: kémiai, biológiai, radiológiai és nukleáris veszélyeket is említ az OpenAI, legalábbis ezeket tartják a legnagyobb kockázatnak, ha a mesterséges intelligenciáról esik szó.

Vészfék kerülhet a mesterséges intelligenciába

Michelle Donelan brit digitális miniszter szerint a cégeknek nemcsak a mesterséges intelligenciával kapcsolatos veszélyekre kellene figyelmeztetniük, de meg is kell akadályozniuk, hogy a fenyegetésekből valóság legyen.

Természetesen ez nem azt jelenti, hogy ezentúl rettegnünk kell az MI-rendszerektől, sőt: az ilyesmi épp a jobb megértést szolgálja, hogy az adott cég széles körűbb ismeretekkel rendelkezzen a technológiáról, és arról, hogy az esetlegesen milyen veszélyeket rejthet. Ez pedig éppen a megelőzést és az elkerülést szolgálhatja, hogy megfelelő határokat húzzanak a technológiának.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.