A Microsoft képgeneráló szolgáltatásának biztonsági funkciói bizonyos felszólításokkal kijátszhatók, és erről néhány hónapja már a cég is tud. Változás azonban csak minap történt, és kissé felemásra sikerült.
Érdekes fordulatot vett az az ügy, amely szerint a Microsoft képgeneráló szolgáltatása, a Copilot Designer – egész pontosan a mögötte dolgozó mesterséges intelligencia, a DALL-E 3 – bizonyos utasítások hatására brutális erőszakot ábrázoló képeket készít. A problémára a cég egyik mérnöke, Shane Jones hívta fel a figyelmet, ám a jogászok megoldás keresése helyett egyszerűen megtiltották neki, hogy nyilvánosságra hozza az észrevételeit.
A CNBC szerint a Microsoft minap mégis lépett az ügyben, úgy tűnik ugyanis, hogy bizonyos utasításokat blokkolt a képgeneráló rendszerben. Minderre azután került sor, hogy Jones az amerikai szövetségi kereskedelmi bizottságához (FTC) fordult a panaszával. A mérnök azt szerette volna elérni, hogy a vállalat tegye elérhetetlenné az egész szolgáltatását, amíg ki nem javítják a mesterséges intelligencia hibáját.
A CNBC úgy tapasztalta, ha valaki a tiltott kifejezéseket írja be a képgenerátorba, akkor először csak figyelmeztetést kap, a sorozatos próbálkozás után azonban akár a fiókját is letilthatja a redmondi cég.
A próbálkozások során ugyanakkor kiderült, hogy továbbra is lehet erőszakos képeket készíttetni a mesterséges intelligenciával, például egy autóbalesetről, valamint arról is meg lehet győzni a rendszert, hogy sértsen szerzői jogot.
A Microsoft a változtatás kapcsán annyit közölt, hogy folyamatosan dolgozik azon, hogy szolgáltatásainak használata biztonságos legyen.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.