A GPU-k folyamatosan növekvő teljesítménye ellenére nagyon is szükség van például a DLSS-re, hogy a mesterséges intelligencia segítségével jobb teljesítményt sajtolhassunk ki ugyanabból a hardverből. Ennek az egyik oka a ray tracing megjelenése az utóbbi néhány évben, amivel még a fejlesztők nem igazán tudnak jó frame rate-et elérni, pláne a normál raszteres eljárásokhoz képest.
Ebben a jövőben némi segítséget kaphatnak az Nvidiától, ahol a videokártyák architektúrájának a finomhangolásán dolgoznak, hogy feljebb kúszhassanak a sarokban látható fps számok. Az újítás még csak kísérleti fázisban van, és egy tanulmányban olvashatunk róla a gyártó honlapján.
Ebben a tesztben egy Turing-alapokra épülő videokártyát módosítottak az Nvidia munkatársai, a kísérleti darabon pedig egy subwarp interleaving nevű új technikát próbáltak ki. Ennek a lényege, hogy a korábbinál máshogy osztja szét a grafikus processzor egyes szekciói között a feladatokat.
Az összes rendelkezésre álló szálat a mostani GPU-k harminckét csoportra osztják fel, amiket warpoknak hívnak, a felmerülő számítási feladatokat pedig ezek között osztják fel.
A sugárkövetés viszont némileg máshogy terheli a videokártyákat, mint a raszteres renderelés, általában egy warp kapacitását sokkal ritkábban használja ki teljesen, viszont ilyen, nem teljes kapacitást igénylő feladatokat mindegyik warp kap.
Tehát egy idő után nem marad szabad warp, aminek új feladatot lehetne kiosztani, a videokártya mégsem fut teljes kihasználtság mellett. Erre nyújthat megoldást a subwarp interleaving, ami a warpon belül teszi hatékonyabbá a feladatok kiosztását, ez a megoldás pedig már a korai tesztekben is átlagosan hat, de esetenként akár húsz százalékos teljesítményjavulást is hozott.
Az Nvidia kísérletét végző szakemberek viszont jelzik azt is, hogy az új technológia tényleges alkalmazásától még messze állnak, egyrészt annak gyermekbetegségei miatt, másfelől pedig azért, mert architekturális változtatásokra van szükség hozzá.
Ezért a subwarp interleaving nem is az Nvidia következő, Lovelace kódnevű videokártya-sorozatában jelenhet meg, hanem legkorábban a következő architektúra tervezésénél vehetik figyelembe az új technológia igényeit. De addigra sem biztos, hogy sikerül tökéletesíteni az eljárást, így tényleg nem tudjuk még, mikortól élvezhetjük az általa nyújtott teljesítménybeli előnyöket.