Egyenesen a Gigabytetól érkezett a tesztlaborba az NVIDIA legújabb fejlesztésű grafikus magjával ellátott csúcs grafikus kártya. Sajnos, ahogy arra már korábban is számítottunk, a gyártástechnológia nem frissült, a GT200-as mag továbbra is a TSMC 65 nanométeres gyártósorán készül, ellenben a tranzisztorok száma rettenetesen nagyot ugrott a régebbiekhez képest (1,4 milliárd, szemben az eddigi 734 millióval). Ennek következtében természetesen a mag mérete is megnőtt, tehát a kártya nem lett kisebb, így véleményünk szerint nem ártott volna egy gyártástechnológia vérfrissítés -- ám nem véletlen, hogy nem történt meg, az NVIDIA inkább maradt a biztos 65 nanométeren.
Most pedig jöjjön egy kis "hardcore" technológia azok számára, akiket nem csak a teljesítménymutatók érdeklik! A technológiát vizsgálva, a GeForce GTX 280 a G200-as magra épül, melynek alapját a régebbi 8-as és 9-es sorozat (G80 és G92 magok) alkotják. Ami fontos, hogy a skalár feldolgozó egységek száma az új kártyánál már nem 128, hanem 240. Ezt úgy érték el, hogy a fürtbe rendezett textúrafeldolgozók (TPC) számát nyolcról tízre, a benne lévő streaming multiprocesszorokat (SM) kettőről háromra növelték, de az abban található stream processzorok (SP) száma változatlanul nyolc maradt (összesen 10×3×8=240 stream processzor).
Lényegében a kiosztás nem változott, csak a tömböket növelték meg, ami talán azt sugallja, hogy nem várhatunk igazán nagy teljesítményelőnyt – pláne nem a GX2-höz képest, ahol 2×128 stream processzor állt szolgálatban. Valójában az NVIDIA ennél sokkal többet is hozzáadott az új kártyához, ami jelentős gyorsuláshoz vezetett. Például az új architektúra kiválóan kezeli a feldolgozásra váró szálakat és a késleltetéseket, ráadásul jelentősen megnövelték az erre irányuló feldolgozás hatékonyságát. A gyakorlatban ez azt jelenti, hogy a GTX 200 GPU Stream multiprocesszora 32 párhuzamos szálcsoportból 32-t képes kezelni, szemben a régebbi széria 32×24 kiosztású szálkezelésével. Ha még inkább utánaszámolunk, akkor már látható, hogy a kártya „lelke” összesen 30 720 szál együttes kezelésére képes (32×32×3 SM×10 TPC), ami pont két és félszerese a GeForce 8 és 9 teljesítményének.
Nagy figyelmet fordítottak az új GPU-nál a Shader-intenzív feldolgozások gyorsítására, ezért a regiszterfájlok méretét is megkétszerezték, így a regiszter hosszánál nagyobb kódok esetén sem kell az egyébként lassabb memóriához fordulni. Ehhez még az is hozzáadódik, hogy a kimeneti stream pufferstruktúrát is a hatszorosára növelték, ezzel tovább gyorsítva a számításokat és a műveleteket.
Ugyancsak érdekes újítás, hogy a memóriavezérlő immár 512 bites, ami a G92 után meglepetés – bár a GX2 2×256 bittel büszkélkedhetett, de ez nem ugyanaz. Az NVIDIA ugyanis változtatott a raszterizáló egységeken (ROP), pontosabban ennek számát növelte nyolcra (a G80-ban hat, a G92-ben négy ROP van) és ezeket egyenként egy 64 bites puffer egységhez kötötték – 8×64=512 bit.
Az architektúrában található újításokon felül sokkal fontosabb dolgokat is tartogat számunkra az új grafikus lapka. Ennek alapja a CUDA (Compute Unified Device Architecture) szoftverplatform, amellyel az NVIDIA lehetővé tette, hogy a lebegőpontos párhuzamos feldolgozásban erős magot ne csak játékokra használhassuk, hanem célzott alkalmazások gyorsítására, jelfeldolgozásra, matematikai számításokra. Fontos megemlíteni, hogy az NVIDIA felvásárolta az Ageiát, és integrálta kártyáiba a PhysX tudását, tehát a kártya a fizikai gyorsító szerepét is átvállalja, mindezt pedig a GPU erejével számítja. Arra viszont már most felhívjuk a figyelmet, hogy a fizika számolása alaposan igénybe veszi a GPU-t, tehát a megjelenítéssel kapcsolatos számítások csökkenhetnek – erre megoldás lehet majd az SLI PhysX megoldás, ahol az egyik kártya számítja a fizikát, a másik a megjelenítést.
A Folding@Home fut PS3-on is (nagyítható!)
Beszámolók szerint a kártya együttműködik majd az Adobe képszerkesztő alkalmazásokkal, és képes lesz videót konvertálni. Nagy durranásnak számít, hogy az AMD (ATI) után az NVIDIA is támogatja a Folding@home kutatást, egyelőre még csak béta-állapotban.
A kártya felépítése -- méretben -- megegyezik a 9800 GTX-szel, viszont ezen a kártyán már 6+8-as tápcsatlakozó található, tehát ennek megfelelően kell megválasztanunk a tápegységet. Örömmel konstatáltuk, hogy az NVIDIA-nak végre sikerült úgy kialakítani a helyet a tápcsatlakozók körül, hogy gond nélkül lehessen használni a csatlakozókat. Mivel a GTX 280 mérete nem lett kisebb a korábbi társakénál, ezért csak hosszú számítógépházakban fér el.
Ami viszont ennél sokkal lényegesebb: amikor terhelés alatt van, akkor a kártya hangos (akárcsak az említett 9800 GTX), ellenben alapjáraton szinte hangtalanul üzemel.
Hat népszerű és a tesztelők által is kedvelt játékprogrammal vizsgáltuk az új kártya képességeit, amelyeket az előző GeForce széria csúcskártyáihoz és az AMD Radeon HD3870X2-höz mértünk kifejezetten nagy felbontásban.
Tesztkörnyezet:
- Gigabyte P35T-DQ6
- Intel Core 2 Duo E8500
- 2×1GB Samsung DDR3 1066 MHz
- 1×40GB Samsung SATA HDD, 1×320GB WD SATA HDD
- OCZ Silencer 750 W
- Samsung SyncMaster 2693HM
- Gigabyte GV-N28-1GH-B (NVIDIA GeForce GTX 280)
- Gigabyte GV-NX98X1GHI-B (NVIDIA GeForce 9800GX2)
- Gigabte GV-NX98X512H-B (NVIDIA GeForce 9800GTX)
- Palit GeForce 9600GT Sonic (NVIDIA GeForce 9600 GT)
- ASUS EAH3870X2/HTDI/1G/A (AMD Radeon HD3870X2)
- Microsoft Windows Vista US SP1 Integrated
A teszteredmények ismertetése előtt lássuk a kártyák fogyasztását teljes terhelésen.
Fogyasztás tekintetében a komplett rendszerből – amelynek lelke egy Intel Core 2 Duo E8500-as processzor – összesen (maximum) 283 wattot fogyasztott, ebből kivonva a processzor 65 wattos TDP-jét és egyéb részegységek fogyasztását körülbelül 200 watt lenne az eredmény, a tápegység veszteségét is beleszámítva. Ezt levonva nagyjából 175-180 watt jönne ki, ha lehetne maximumokkal számolni (a processzor sem pörög mindig teljes fogyasztással), a maximumot ezért 200-210 watt környékére tesszük, tehát nem lehetetlen a csúcsfogyasztásként megadott 236 watt elérése sem.
Tesztelt játékszoftverek:
- World In Conflict – 1920×1200, Maximális beállítások
- Crysis – 1920×1080, High, 2×AA
- UT3.0 – 1920×1200, Maximális beállítások
- COD4 – 1920×1200, Maximális beállítások
- FEAR – 1920×1200, Maximális beállítások
- Devil May Cry 4 – 1920×1080, Maximális beállítások
*: A Crysis és 9600GT párosításnál az élsimítást kikapcsoltuk!
Jól látszik, hogy az átalakított, vagyis inkább csak kibővített streamprocesszor-kiépítés mennyire erőssé tette a kártyát az élsimításban. A legjobb példa erre a Crysis, ahol direkt kétszeres élsimítást alkalmaztunk, aminek hatására a 9800-as NVIDIA-k rendre alulmaradtak a GTX 280-nal szemben. Mivel ezt a programot leszámítva az összes többinél maximális beállításokat használtunk (élsimítás és szűrők is), így jól látszik az 1,4 milliárd tranzisztorban lakozó teljesítményplusz. Az egész kártya olyannyira jól sikerült, hogy a Call Of Duty 4 kivételével mindenhol elveri a kétmagos 9800 GX2-t.
Fel kell hívnunk a figyelmet a HD3870X2-re is: az AMD kártyája remekül teljesített, és 86 ezer forintos vételárával igen erős konkurenciát jelenthet, habár itt lép képbe az is, hogy a 9800 GTX ára 60 ezer forintra zuhant, tehát még az sem rossz választás..sőt!
Összegezve az itt leírtakat, jelen pillanatban az NVIDIA, és ennek megfelelően a nálunk járt Gigabyte GTX 280 a leggyorsabb kártya, tehát megérdemli a leggyorsabb címet. Az igazán izgalmas meccs azonban a HD 4000-es sorozat megjelenésével várható, amely az előzetesek szerint sok borsot törhet az NVIDIA orra alá, főleg ha 45-50 ezer forintos vételárát nézzük -- a GTX 280 körülbelül 140 ezer forint körül várható. Kíváncsian várjuk viszont, hogy mit főztek ki az AMD boszorkánykonyhájában, amire hamarosan megadjuk a megfelelő választ -- a HD4850 már itt dolgozik tesztkonfigurációnkban.
A Gigabyte GTX 280 és 9800 GX2 kártyákat a Gigabytetól, a Gigabyte 9800 GTX-et a Cédrus Kft-től, az ASUS HD3870X2-t az Expert Computer Kft-től, a Palit 9600GT a Mercury ImpEx Kft-től kaptuk. Köszönjük!