Sam Altman, a ChatGPT-t is fejlesztő OpenAI vezetője egy londoni sajtóbeszélgetésen azt mondta, ha túl szigorú lesz a mesterséges intelligencia (MI) szabályozása Európában, a cég kivonulhat erről a piacról.
Az Európai Unió döntéshozói május elején fogadták el azt a törvénytervezetet, amelyből a Nyugat első átfogó MI-törvénykezése lehet. A BEUC uniós fogyasztóvédelmi hatóság szerint ez nem sokat nyom a latba: mire a regula – vélhetően évek múlva – hatályba lép, addigra a felhasználók egy sor olyan veszélynek lehetnek kitéve, melyekre nincsenek felkészülve.
Sam Altman, a szövegalapú ChatGPT és a képgeneráló Dall-E mögött is álló OpenAI vezetője mástól fél: szerinte túl szigorú lesz az uniós szabályozás. A Gizmodo szerint a vezető egy londoni panelbeszélgetésen arról beszélt, hogy bár a cége megpróbál majd megfelelni az uniós előírásoknak, az EU által definiált „magas kockázatú rendszerek” meghatározása meglehetősen zavarja.
Az uniós tervezet jelenleg alapvetően három kockázati csoportba sorolja a mesterséges intelligencián alapuló rendszereket.
A legerősebb besorolást az „elfogadhatatlan kockázatú” rendszerek jelentik, a legenyhébbet pedig a „magas kockázatúak”. Előbbi kategóriába tartozik például a közösségi kreditrendszer – ami például Kínában működik –, vagy a manipulatív mesterséges intelligencia, illetve bármi, ami sérti az alapvető emberi jogokat.
Egy durva bemutató: így működik Kínában a mindenkit figyelő, mindenről tudó rendszer
Több mint 200 millió térfigyelő kamera előtt zajlik a kínai állampolgárok élete. A cyberpunk művekből ismerhető jövő a szemü(n)k előtt épül ki: a technológiai fejlesztéseket hosszú ideje prioritásként kezelő kínai állam megértette, hogy elérkeztünk ahhoz a rendszerfejlettséghez, amelynél már mindenhol mindenkit meg lehet figyelni, nyilván lehet tartani és automatikusan ki is lehet értékelni.
Ezzel szemben a „magas kockázatú MI-rendszer” besorolást attól függően kapja meg egy fejlesztés, hogy milyen felhasználásra tervezték. Fontos, hogy ezeknek a rendszereknek is átláthatónak és felügyelhetőnek kell lenniük.
Altman szerint a jelenlegi törvényjavaslat alapján a ChatGPT, valamint a GPT-4 nyelvi modellek is magas kockázatúnak számítanak. Ezzel kapcsolatban az fogalmazott úgy, hogy
igyekeznek majd megfelelni a törvénynek, de észszerű keretek között nem sikerül, akkor egyszerűen leállítják az EU-ban a szolgáltatás működését.
Vagyis a ChatGPT – és az OpenAI egyéb fejlesztései – elérhetetlenné válnak az Európai Unióban, a cég kivonul a piacról.
A Samsung után az Apple is letiltotta dolgozóit a ChatGPT-ről - saját mesterséges intelligencián dolgozhatnak
Érzékeny vállalati adatok kiszivárgásától tart az Apple, így letiltották a ChatGPT és a Microsoft-féle GitHubhoz tartozó Copilot használatát a munkában a cégnél. Állítólag már saját nyelvi modellen (LLM) dolgoznak.
A Gizmodo megjegyzi: az MI-törvényt (Ai Act) eredetileg a kínaihoz hasonló társadalmi kreditrendszer, vagy épp az arcazonosítás használata elleni kockázat miatt hívják életre. Időközben viszont jött az OpenAI – és a hozzá hasonló cégek –, ezért az uniós döntéshozók 2022 decemberében új rendelkezésekkel egészítették ki a tervezetet. Ezek szigorú ellenőrzést és kockázatkezelést írnának elő az „alapmodelleket” – például a mesterséges intelligenciára épülő chatbotokat –, működtető cégekre. Az Európai Parlament vonatkozó bizottsága ezt a törvénytervezetet hagyta jóvá még május elején. Altman valószínűleg azért fogalmazott ennyire erősen, mert a mostani törvénytervezeten még lehet módosítani.
Az uniós adatvédelmi testület vezetője korábban úgy nyilatkozott, figyelemmel kísérik a ChatGPT-t, hogy a bizottság megbizonyosodjon arról, hogy az megfelel az adatvédelmi törvényeknek.
Megjelent, ingyenesen letölthető a ChatGPT hivatalos alkalmazása
Nem kell majd böngészőből megnyitni a ChatGPT-t, az OpenAI által kiadott hivatalos mobilalkalmazásból kényelmesebb lesz hozzáférni a chatbot valamennyi funkciójához.
Altman egyébként az amerikai Szenátus előtt nemrég arról beszélt, hogy a mesterséges intelligencia azonnali szabályozására lenne szükség, mert az beavatkozhat a választásokba. Most, Londonban már úgy fogalmazott, hogy az amerikai és az európai megközelítés között kellene megtalálni az arany középutat a szabályozásban – jelentsen ez bármit is.
Altman azt is kijelentette a panelbeszélgetésen, nem akar olyan szabályozást, amely korlátozza a felhasználók hozzáférését a technológiához, és olyan sem, amely árthat a kisebb cégeknek vagy a nyílt forráskódú MI-mozgalomnak. (Az OpenAI egyébént a piaci versenyre hivatkozva ebben a tekintetben rendkívül zárkózott cég.)
"A mesterséges intelligencia veszélyes, ezért szabályozni kell"
Erről beszélt Washingtonban a kongresszus előtt Sam Altmann, a ChatGPT-t kifejlesztő Open AI főnöke. Közben kiderült: a ChatGPT jobban kereskedik részvényekkel, mint az emberek. "Komoly károkat okozhat a világnak a mesterséges intelligencia. Ha rossz irányba fejlődik, akkor az nagyon rossz lesz" - hangsúlyozta Sam Altmann a szenátus albizottságában, amely az új technológiák jogi problémáival foglalkozik.
A Gizmodo megjegyzi: valójában minden új szabályozás eredendően előnyös lenne az OpenAI számára, mert ha valami balul sül el, a cég mutogathat a törvényekre, hogy valójában mindent betartott. Ráadásul emiatt drágább lenne egy cég számára az új MI kifejlesztése, ami megint az OpenAI malmára hajtaná a vizet.
Hogy milyen szabályozás születik majd Európában, egyelőre nem tudni. Ami biztos: a világon elsőként Olaszország döntött úgy, hogy betiltja a ChatGPT használatát, és már egyre több ország vizsgálja ugyanezt a lehetőséget.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.