Tech techline.hu 2010. február. 19. 05:30

Az IT fenegyerekei: mire használhatók a GPU-k?

Látványos fejlődésről kizárólag a videochipek világában beszélhetünk, ahol  a DirectX 11 megjelenése mondható...

Látványos fejlődésről kizárólag a videochipek világában beszélhetünk, ahol  a DirectX 11 megjelenése mondható sorsdöntő fordulatnak. Persze aki pedig úgy gondolja, hogy ennyi változás jó ideig elég lesz ennek az iparágnak, hát csatolja be a biztonsági övet, mert az igazi forradalom csak ezután jön – már ha hinni lehet a PC-s Nostradamusoknak.
A GPU-gyártók (NVIDIA, AMD) örök háborújában ritka a megegyezés, a közös szabvány, így a forradalomhoz mindenképpen szükség van egy harmadik (sokkal nagyobb) félre, aki képes összefogni a folyton egymással viaskodó cégeket. Ez az egyet nem értés és széthúzás a szoftverfejlesztőknél is jelen van. Az egyik csapat például a PhysX-szel hardveresen is megsegített, látványosabb fizikát tartja fontosnak, a másik csapat pedig a DirectX 10.1-et alkalmazza a nagyobb teljesítmény és szebb látvány érdekében – de mindkettő csak az egyik fajta GPU-n működik.
A közös pontot a Microsoft szállítja: a játékmotorok és a hardver közti kapcsolati réteget (API – Application Programming Interface), a DirectX-et (egészen kis kivétellel) mindenki támogatja.

Az új Radeonnak meg sem kottyan egy ilyen élethű modell legenerálása és megmozgatása

A hosszú múltra visszatekintő DirectX szabvány 10-es, egészen pontosan a 10.1-es verziója még a Vistával együtt jelent meg. A DirectX 9c-s hardverekkel az újabb szabvány nem kompatibilis, a Vistának komoly gondjai voltak az indulásnál, a DX10-es GPU-k sem sikerültek tökéletesen, így ez a szabvány mind a mai napig nem volt képes leváltani elődjét. Ez azonban a DirectX 11-gyel megváltozik. A Microsoft tanult a múlt hibáiból, így az új API Vista alatt is elérhető lesz, valamint egyes részei DX10-es hardveren is futni fognak. Anno a DX10-zel érkezett az új, VDDM 1.0 Driver modell, ami a Windows 7-tel és a DX11-gyel előrébb lépett, VDDM 1.1-re. Az alapfelépítés tehát nem változik, így ha XP-n nem is, Vista alatt akár DX10-es kártyával is működik a DX10.1 kiterjesztéseként értelmezhető DX11. Persze nem maradnak el a forradalmi újítások sem, amihez azonban már DX11-es hardverre és megfelelő játékmotorra van szükség.

Akár hat monitor egyidejű kezelése és abszolút Full HD felbontás minden játék alatt

Az újdonságok nagy része a látvány fokozását szolgálja, de lesznek olyan részek is, amelyek a már ismert effektek gyorsabb végrehajtását segítik. Ahhoz, hogy a PC-s játékok messze lekörözhessék a játékkonzolokat, az DirectX fejlesztői három új egységgel bővítették a DX11 futószalagot. Grafikai szempontból a legfontosabb elem a tesszelláció, amellyel nagy poligonszámú karaktermodellek jeleníthetőek meg viszonylag kevés adat- és erőforrásigény mellett. Mindez úgy lehetséges, hogy az alacsony részletességű (poligonszámú) modellek vázát a GPU hardveresen, interpolációt használva feldúsítja, így a nagyságrendekkel több háromszögből felépülő tárgyak, személyek sokkal részletgazdagabbak lehetnek, eltűnnek a szögletes, nem természetes élek és felületek. Mindebben a hull és a domain shaderek vannak a fixen programozott, tesszellációt végző egység segítségére. Ezzel leegyszerűsödik a LOD (Level of Detail - a messzebb lévő tárgyak kevesebb poligonból épülnek fel), könnyebben lehet skálázni a látványt a különböző GPU-kra, kisebb lesz a memóriaigény, és még némi CPU erőforrás is felszabadul. Ennek az új generációs tesszellációs egységnek a korábbi változata megtalálható az Xbox 360-as játékkonzolban, és egy kezdetleges formája a régebbi ATI Radeonokban is (TruForm néven), de ez utóbbi támogatás hiányában már rég feledésbe merült. 

GPU mint CPU
A grafikus processzor ma már nem csak a játékok elengedhetetlen kelléke: egy második processzor, amelynek köszönhetően a PC-nk nemhogy kétszer, de akár tízszer is gyorsabb lehet. Felépítéséből adódóan egy GPU a masszívan párhuzamosítható feladatokban képes hihetetlenül jó teljesítményre. Ilyen például a video- és hangfeldolgozás, a tudományos számítások, a fizikai modellezés vagy például a képszerkesztés.
A GPGPU (General Purpose GPU) kezdeményezést mára minden hardvercég és szoftverfejlesztő kiemelten kezeli. Az NVIDIA a CUDA és a PhysX szabványok hardveres támogatásával élen jár ebben, de az AMD is ott lohol a nyomában az ATI Stream technológiával, valamint a valósághű fizikai modellezést elősegítő Havok hardveres kezelésével. Az Intel sem akar ebből kimaradni (meg is vásárolta a Havokot), ráadásul könnyen lehet, hogy a Larrabee chip, felépítéséből adódóan, minden eddigi megoldásnál sokkal jobb lesz.
A D3D-s grafikus API mintájára a Microsoft a DirectX 11-ben szeretné mindezt egységesíteni, ezért életre hívta a Compute shadert, amit remélhetőleg a Windows 7-re optimalizált szoftverek már támogatni fognak. Egy másik szabvány is készült a GPU-k általános célú felhasználására, ami nyitott és ingyenes. A többet között az OpenGL-ért is felelős csapat készítette el az OpenCL-t, amit az AMD, az Intel és az NVIDIA is támogat hardverszinten. Szoftveroldalról fontos kiemelnünk a trendek életre hívásáról ismert Apple-t, aki legutóbbi, Snow Leopard OS X-ében már ki is használja ezt a nyitott API-t.
Egyre több feladat hárul tehát az egyre univerzálisabb GPU-ra, így hamarosan már nem lesz mindegy, milyen videokártya vagy integrált GPU dolgozik akár egy irodai PC-ben, hiszen a második központi egység az általános célú programok teljesítményére (és szolgáltatásaira) is jó hatással lesz.

NVIDIA: A megalomán
Nehéz másfél-két éven van túl az NVIDIA: a DirectX 10 hajnalán még abszolút vezető helyét a középkategóriában elvesztve egyre több felhasználó fordul el a GeForce-ok világától és választ inkább olcsóbb, gyorsabb Radeont új PC-jébe. Az ok részben az NVIDIA-ra újabban jellemző termékátnevezési stratégia, amellyell 1-2 éves videokártyákat próbálnak meg új elnevezés alatt eladni. Ilyen például a jelenleg középkategóriás GeForce GTS250, ami nevével hiába illeszkedik a cég legfrissebb termékcsaládjába, egy egészen régi GPU-ra (G92b) épül. A kártyát már láthattuk 9800GTX+-ként, 9800GTX-ként vagy 8800GTS-ként is, az átnevezgetések mögött minimális ráncfelvarrások vannak csupán. A GeForce-ok ütőlapjai a PhysX fizikai modellezés hardveres gyorsítása, valamint az általános célú felhasználást segítő, CUDA programozási környezet, amit már néhány, széles körben elterjedt alkalmazás is támogat. Nem kell azonban félteni az NVIDIA-t, már elkészült a legújabb generációs, DirectX 11-es GPU-jával, ami a felépítését és a teljesítményét tekintve is követi a cég korábbi, megalomán stratégiáját.

GeForce: több, zárt szabványt (például PhsyX) is támogatnak, ami néhány játéknál előnyt jelenthet

A mobil szegmensben is aktív az NVIDIA. Itt figyelemreméltó fejlesztés a Microsoft Zune HD mobil lejátszójában debütált Tegra platform, ami egy komplett rendszer egyetlen chipben (SoC – System on a Chip). A miniatűr chip tudása hatalmas: gyors ARM CPU, 3D-s GPU, HD videolejátszás, HDMI kimenet és minden fontosabb kommunikációs vezérlő egyetlen tokban, alacsony fogyasztással és hőkibocsájtással megfűszerezve.

AMD: Sikersorozat tartalékokkal
Az AMD a gyenge DX10-es kezdet után megrázta magát, és a HD3000, majd a HD4000-es GPU családdal már sikereket ért el a vásárlók körében. A titok nyitja az újfajta fejlesztési stratégia, vagyis minél olcsóbban készíteni egy középkategóriás, átlagosan jó teljesítményű, de nem csúcsra járatott GPU-t fejlett szolgáltatásokkal és alacsony fogyasztással, majd a gyártás felfuttatásával ennek a chipnek egy erősebb változatát kártyaszinten párosítva elkészíteni egy csúcskategóriás Radeont, lebutítva pedig meghódítani az alsó árszegmenst is.
Az AMD a legújabb, DirectX 11-es generációnál is megtartotta ezt a bevált receptet, vagyis a HD5000-es szériában szereplő Evergreen és Cypress kódnevű GPU-k ugyan fejlettek és az elődeikhez képest rengeteget gyorsultak, mégsem az abszolút felső, megfizethetetlen kategóriába tartoznak.
Az AMD hatalmas előnye az NVIDIA-val szemben, hogy saját CPU-ja és chipkészlete is van, így komplett platformot nyújt a vásárlóknak. A ma piacon lévő AMD platformok jól átgondoltak, sok tekintetben az Intel megoldásainál is jobbak. Alacsony fogyasztású, kiváló ár/érték arányú processzorok, olcsó, de szolgáltatásokban gazdag, használható 3D-s teljesítményű VGA-val felszerelt alaplap és piacvezető VGA kártyák jellemzik. A következő lépés a Fusion projekt életre hívása, vagyis egy olyan CPU elkészítése, ami a processzorral egy tokba integrálja a legtöbb alaplapi vezérlőt és a videochipet is.
A nyertes stratégia mellett az AMD másik előnye, hogy a kevésbé bonyolult chipeknél előbb tudta bevezetni a 40 nm-es gyártástechnológiát. Az így elért alacsonyabb előállítási költségek lehetővé tették, hogy a cég a rendkívül agresszív árpolitikájával még jobban megnehezítse az NVIDIA dolgát.

Intel: A nevető harmadik?
A GPU egyre több feladatot vállal az általános célú programok esetében is, besegít az operációs rendszerek (Linux, Windows 7) grafikus felületeinek kezelésébe is, vagyis egyre közelebb kerül ahhoz, hogy a CPU mintájára elengedhetetlen, központi része legyen minden PC-nek. Az Intel mindezt idejében felismerve, hosszú évek óta a legnagyobb titokban dolgozik egy masszívan párhuzamosított felépítésű chipen, ami többek közt 3D-s grafikai alkalmazások (értsd: játékok) megjelenítésére is alkalmas.
A Larrabee fedőnév alatt készülő videochip egy hatalmas, 1,5-1,7 milliárd tranzisztorból felépülő, 24-48 magos, általános célú GPU lesz. A végrehajtó magok nem a Radeon-GeForce párosnál megismert shaderek lesznek, hanem erősen módosított és optimalizált, teljes értékű x86-os CPU-k. Ez utóbbi tulajdonság hatalmas előny, hiszen megfelelő fordítóval könnyedén rávehető bármelyik program, hogy az egy szem, néhány magos CPU mellett kihasználja a tétlenül várakozó további 24-48 x86-os processzort is.
Az univerzális felépítés hátránya, hogy a GPU-kra kifejlesztett DirectX 11 nem fut ezen az architektúrán, így ezt a problémát az Intelnek egy szoftveres parancsfordítóval (software wrapper) kellett elhárítania. Vannak továbbá olyan egységek egy GPU-ban, amit nem érdemes általános célú CPU-kkal kiváltani (például ROP, textúrázók), ezért ezeket az Intel is dedikált célmodulokkal oldja meg.
A Larrabee ígéretes fejlesztés, abban biztosak lehetünk, hogy a fejlesztő nem újonc, megvan a szaktudása és a betonbiztos pénzügyi háttere egy ekkora forradalomhoz, ahogy a motivációja is jól látható. Ugyanakkor az egyébként is hosszas fejlesztési időt már többször meghosszabbították, és a széleskörű támogatás, valamint a szoftveres illesztő hatékonysága is kritikus, ámde homályos pont egyelőre.

* * * Lakástámogatás meglévő és vállalt gyermekek után

A lakástámogatási rendszer egyik legfontosabb eleme a Családi Otthonteremtési Kedvezmény (CSOK). Az igénylők lakáscéljuk megvalósításához 600 ezer és 10 millió forint közötti összeget kaphatnak meglévő és vállalt gyermekük után. A Bankmonitor CSOK kalkulátorával a támogatási jogosultság könnyen ellenőrizhető, de azt is meg lehet tudni, hogy igényelhető-e a támogatáshoz kapcsolódó kedvezményes CSOK-hitel

Hirdetés