View Single Post
  #65  
Old 08-04-2004, 15:35
Matt Matt is offline
Super modérateur
1 Highscore
 
Join Date: 24-12-2002
Posts: 4,453
Re: Comment vous en sortez vous avec Far Cry ?

Quote:
Originally Posted by Gargamelch
Entièrement faux , tombe raider est un jeux "It's meant to be played"
>> Optimisé nVidia, sans doute, mais optimisé ATI, encore plus, ce qui lui a vallu d'être distribué en bundle avec certaines cartes ATI

Quote:
Originally Posted by Gargamelch
Cependant, et c'est là ou tu te trompes Matt, c'est que dans les jeux utilisant massivement des shaders de dernière génération (c'est a dire les prochains jeux) les fx sont complètement à la ramasse du au fait qu'elle ne sont pas complètement dx9 compatible...
>> Et là c'est encore toi qui te trompes ...
1) J'ai reconnu le fait que sur le Pixel Shader 2.0, les FX sont plus au niveau des R9700 que des R9800, mais ...
2) ... ceci est du au fait que les FX gèrent des shaders très complexes, dépassant largement les spécifications DirectX 9.0 (et non pas comme tu le dit, qu'elles ne sont pas au niveau des spécifications DirectX 9.0), là où ATI se contente des shaders 2.0 de DirectX 9.0 (et pour cause, le standard 2.0 dde DirectX 9.0 a été défini par ATI)




Donc pour l'instant, c'est plus lent chez nVidia en raison de leurs choix stratégiques, mais dans les jeux DX10, mais aussi dans les heux OpenGL (qui ne sont pas limités par la version de DirectX au niveau de la complexité des shaders), c'est les cartes ATI actuelles qui seront à la traine ...

Quote:
Originally Posted by Gargamelch
Un dernier exemple: la démo Dawn , utilisée et développée par nvidia pour mettre en avant les capacités techniques de sa dernière création tourne nettement plus rapidement sur les carte ati...
>> Cette démo étant codée en DirectX 9.0, elle ne permet pas d'exploiter les vrais capacités de la bête, puisqu'elle se limite aux Shaders 2.0. Si nVidia faisait une démo Shaders 2.0+ sous OpenGL, la tendance s'inverserait ...

Quote:
Originally Posted by Gargamelch
on verra bientôt la nouvelle nvidia, dotée d’une architecture complètement différente de sa petite sœur, d’ici un mois.
>> Et ATI prépare d'ores et déjà une réponse au prochain GPU nVidia
Reply With Quote