"Ráadásul ettõl a GPU-k sem fognak eltûnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni."
Nem, ray-trace algoritmusok futtatására még nem, vagy csak nagyon nem hatékonyan alkalmasak. Itt az "általános" egyelõre nem azt jelenti, hogy bármilyen kód, vagy akár csak bármilyen mat. számítási kód hatékonyan futtatható, vagy egyátalán futtatható, hanem azt, hogy nem csak konkrétan shader számítások végezhetõk, hanem más hasonló számítások is. Tehát amik sok adattal dolgoznak, sok számítást végeznek, de kevés a rekurzió, ugrás bennük. Olyan mûveletekbõl sem szerencsés, ha sok van, mint pl. gyökvonás, ami tay-trace kódban igen sûrûn fordul elõ (távolságmérés).
Magyarán, hiába képes egy G80 vagy egy R600 500 GFLOPS körüli szám. teljesítményt leadni, ez drasztikusan visszaesik összetettebb algoritmusoknál, mint pl. ray-tracing. Ellentétben pl. a Larrabee-vel (vagy a Cellel), nem beszélve egy jópár magos szokványos CPU-ról. Éppen ezért nyomatja az Intel a ray-tracinget, mert abban az Nvidia és az ATI (önmagában) nem versenyezhet vele...
"Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene."
Ray-tracing esetén ez a kisebb gond. (Régen, még az FPU-k elterjedése elõtt elég jól elvoltak a ray-tracer programok 32 bites precizitással is.)