Az OpenAI állítja: bizonyítékot talált arra, hogy a technológiájával is fejlesztették a DeepSeek MI-t
A technológiája jogszerűtlen felhasználásával vádolja a DeepSeek fejlesztőjét a ChatGPT mögött álló OpenAI.
A technológiája jogszerűtlen felhasználásával vádolja a DeepSeek fejlesztőjét a ChatGPT mögött álló OpenAI.
Vitathatatlanul jelentős mérföldhez érkezett az OpenAI az intellektuális feladatok elvégzésére alkalmas AGI-val, azonban a nemrég bejelentett eredmények még messze nem jelentik azt, hogy hamarosan mindennapokban mutatná meg tudását az emberrel vetekedő mesterséges intelligencia. Maga Sam Altman hűtötte le a kedélyeket ezzel kapcsolatban.
Még dollárban is milliárdokban mérhető veszteséget okoz Japánnak évente az anime- és mangakalózkodás. Lehet, hogy a mesterséges intelligencia bevetése jelenti majd a megoldást?
Egy friss tanulmány arra figyelmeztet, hogy még a mesterséges intelligencia fejlett modelljei is hajlamosak furcsaságokra, például térdröntgenből következtetni a páciens sörivási szokásaira.
Mintha csak egy sci-fibe csöppent volna az ember, holott ez a kőkemény valóság: a mesterséges intelligencia fejlődésének újabb állomásához közelítünk. Amint a mesterséges intelligencia elég okossá válik ahhoz, hogy eltitkolja viselkedését az ember elől, számítania kell arra, hogy könyörtelenül fogja követni a saját céljait.
Az Apple mesterséges intelligenciával foglalkozó kutatócsoportja azt vizsgálta, hogyan képesek kezelni a matematikai érvelési feladatokat a vezető nagy nyelvi modellek (LLM). Arra az eredményre jutottak, hogy közel sem biztos, hogy ezek a rendszerek olyan okosak, mint amilyennek tűnnek.
Globális versenyfutás zajlik a szöveges adatbázisokért: a mesterségesintelligencia-fejlesztők a nyelvi modelljeik betanításához keresik a nyersanyagot, a nagy tartalomszolgáltatók viszont védik a kreatív alkotásokat a kéretlen felhasználástól. Sürgősen szükség lenne áthidaló megoldásokra.
Bár a betanítás során még előre látható a mesterséges intelligencia viselkedése, később viszont a MI önállósíthatja magát, és átverheti az embereket – ez derül ki a MIT kutatóinak egyik új tanulmányából.
Amerikai kutatók a generatív mesterséges intelligencia rátermettségét mérlegelték abban az esetben, ha a gépi algoritmusnak arról kellett döntenie, szükséges-e kórházba szállítani a sürgősségi osztályon megjelent beteget. A generatív MI meglepően derekasan helyt állt, még viszonylag rövidebb képzést követően is.
A YouTube szerint sérti a felhasználási feltételeiket, az Nvidia szerint azonban semmi különös nincs abban, ha egy mesterséges intelligenciát innen-onnan összeollózott tartalmakból tanítanak be.
Az Európai Unió után egy másik fontos piacot is elveszített a Meta, így egyre jobban szűkül az a tér, ahol a mesterséges intelligenciáját még tanítani tudja.
A mesterséges intelligencia betanítására használna fel személyes adatokat a Meta, emiatt már panaszt is indítottak a több népszerű platform mögött is álló techóriás ellen.