Information om PC hardware
find
sidste nyt søg arkiv statistik om os
Emner
Andet (50)
Bundkort (83)
Emulator (38)
Grafikkort (277)
Harddisk (19)
Køling (18)
Processorer (128)
RAM (25)
Software (86)

Links
Drivere
Emulator
Hardware
Spil
Download

Kommentarer
Lukning af HardwareTidende (stand-by på ubestemt tid) (341)
(2004-11-30 23:59:59)

Half-Life 2 - årets spil 2004 (100)
(2004-11-30 23:58:49)

Specifikationer på ATi Radeon R480 (Radeon X850) (39)
(2004-11-30 23:15:03)

Betydning af ramtimings, FSB og taktfrekvenser (64)
(2004-11-30 22:54:53)

The Elder Scrolls IV: Oblivion - tidlige billeder fra fortsættelsen til Morrowind (33)
(2004-11-30 22:51:58)

Hovedtelefoner med surround sound - introduktion og test (221)
(2004-11-30 21:03:22)

Test af 45 cpukølere til Athlon XP (socket A/462) (56)
(2004-11-30 20:33:15)

Bundkort til Athlon 64 - ATi Radeon Xpress 200 mod Nvidia nForce4 Ultra og VIA K8T800 Pro (21)
(2004-11-30 19:38:15)

Omfattende test af Athlon 64 cpu'er til socket 939 (120)
(2004-11-30 19:30:02)

Test af 5 bundkort til socket 939 (nForce3 Ultra mod K8T800 Pro) (90)
(2004-11-30 19:23:37)

DOOM3 på GeForce3 (15)
(2004-11-30 17:38:17)

Maj 2000 grafikkort-test (2)
(2004-11-30 15:23:46)

Guide til LCD-skærme (fladskærme) (290)
(2004-11-30 00:46:39)

Støjmålinger på 6 mellemklasse og high-end grafikkort (54)
(2004-11-30 00:01:19)

Test af stort antal grafikkort i 1600x1200 (juni 2004) (76)
(2004-11-29 18:35:19)

Ekstrem ydelse med grafikkort - første resultater med Nvidia SLI (95)
(2004-11-29 15:36:13)

Athlon 64 4000+ og Athlon 64 FX-55 mod Intels hurtigste cpu'er (56)
(2004-11-28 15:10:20)

Drivere til ATi grafikkort - Catalyst 4,8 mod 4,7 (44)
(2004-11-27 00:37:49)

Test af 12 forskellige bundkort med i925X eller i915 chipsæt - hvilke er bedst? (28)
(2004-11-25 22:22:53)

Test af ydelse i Half-life 2: High-end grafikkort og cpu'er (79)
(2004-11-25 22:21:44)


Forskelle på Radeon X800 og GeForce 6800 hinsides ydelse og effektforbrug
Grafikkort af Webmaster Thursday den 27 May 2004 kl. 15:09 [ Grafikkort ]
Nye grafikkort fra ATi og Nvidia er på vej og forventes hos danske forhandlere om få dage eller uger. Det kan dog være svært at beslutte sig for, hvilket grafikkort, som virker bedst, idet flere faktorer end blot billedraten i aktuelle 3D-spil samt effektforbrug og støjniveau kan spille ind. I denne artikel ser vi nærmere på betydningsfulde forskelle mht. billedkvalitet på ATi Radeon X800-serien (R420) og Nvidia GeForce 6800-serien (NV40).

1.0 INDLEDNING

Overvejer man at ofre måske kr. 5.000,00 på et nyt Radeon X800XT Platinum Edition eller Nvidia GeForce 6800 Ultra grafikkort, så er der mange tanker, man kan gøre sig. Dels ønsker mange sikkert, at grafikkortet 1) ikke bliver hurtigt forældet, 2) besidder høj billedrate i aktuelle 3D-spil samt 3) har lavt effektforbrug og støjniveau.

Mht. effektforbrug er der imidlertid sket det, at Nvidia officielt har udtalt, at ønsker man ikke stor overclockning af grafikkortet, så vil GeForce 6800 Ultra kun kræve ét strømstik samt en strømforsyning på blot 350 watt:

"The card, as Nvidia's own Jen Hsun [=Nvidias øverste leder, red.] said, needs only one power plug if you don't want to overclock and 350W should be enough he told to its investors. 480W requirements are only meant for overclockers he said."
Kilde: http://www.theinquirer.net/?article=16101

Grundlaget for at kritisere GeForce 6800 Ultra for at kræve kraftigere strømforsyning og dobbelt så mange strømstik som Radeon X800XT er således smuldret, selv om GeForce 6800 Ultra naturligvis stadig bruger ca. 25 watt mere end X800XT ved maksimal belastning. Konklusionen er dog, at det næppe er specielt relevant at kritisere GeForce 6800 Ultra mht. strømforsynings-krav og brug af to strømstik.

Endvidere tyder alt på, at både Radeon X800XT og GeForce 6800 Ultra vil udkomme med særligt støjsvage kølesystemer (under 30 dBA), såfremt man køber grafikkort fra velvalgt producent, hvilket vi har været inde på i denne artikel:

http://www.hardwaretidende.dk/hard/artikel/04/05/17/0316793

Der er således ikke nødvendigvis grund til at lade støjniveau eller effektforbrug afgøre, hvilket grafikkort, som man vælger.
Ydelse, dvs. opnået billedrate i diverse aktuelle 3D-spil, er et andet parameter, som mange formodentlig vælger ud fra. Og her tyder meget på, at Radeon X800XT generelt er 5 - 13 % hurtigere end GeForce 6800 Ultra (med og uden FSAA og ANI i 1600x1200 eller 1280x1024), jf. disse artikler:

http://www.hardwaretidende.dk/hard/artikel/04/05/05/1323191

http://www.hardwaretidende.dk/hard/artikel/04/05/06/6335728

Men ydelse er ikke alt, eftersom billedkvaliteten bestemt er mindst lige så afgørende for spiloplevelsen, så derfor vil vi i denne artikel se nærmere på betydningsfulde områder, hvor ATi X800 og Nvidia 6800 ser ud til at adskille sig.

2.0 BILLEDKVALITET

Både Nvidia og ATi er blevet kritiseret for uheldige optimeringer (primært trilineær vs. brilineær), men disse er ikke genstand for denne artikel. Dvs., der er forskel på, hvorledes ATi og Nvidia implementerer kantudglatning, anisotropisk filtrering og trilineær filtrering, men generelt er disse forskelle nærmest umulige at se, når f.eks. et populært 3D-spil afvikles i høj billedrate. Så denne artikel handler ikke om de forskelle i billedkvalitet på ATi og Nvidia grafikkort, som kun de færreste lægger mærke til, men derimod om forskelle, der er så markante, at de straks kan ses med det blotte øje. Med andre ord handler denne artikel om områder, hvor ATi X800 og Nvidia 6800 adskiller sig i særlig grad mht. billedkvalitet; så resten af denne artikel er fokuseret på betydningen af ATis "3Dc" komprimering af normal maps (som er en særlig avanceret form for bump mapping) og Nvidias Shader Model 3.0. Vi vil således fokusere på, hvilke særligt alvorlige konsekvenser for billedkvaliteten i 3D-spil, som valg af X800 eller 6800 kan forventes at medføre.

2.1 FORSKELLE PÅ DIRECTX-SPECIFIKATIONER

Flere steder kan man læse, at X800-serien blot virker som et overclocket R300-grafikkort (R300 var navnet på den chip, der blev anvendt i ATi Radeon 9500 og 9700 (Pro) grafikkort). Selv Nvidia er inde på dette aspekt i et hemmeligt dokument (som dog ikke er specielt hemmeligt længere):


Kilde: http://www.elitebastards.com/page.php?pageid=4929&head=1&comments=1

Da understøttelse af avancerede DirectX9-egenskaber kan have stor betydning for billedkvaliteten i diverse særligt avancerede 3D-spil vil vi starte med at se nærmere på, hvorvidt det er korrekt, at X800 blot er gode gamle Radeon 9700 Pro på steroider.

The Tech Report har netop interviewet David Nalasco, som er "Technology Marketing Manager" hos ATi. Vi bringer nedenstående et uddrag fra dette interview, som netop omhandler, hvor Radeon X800 adskiller sig fra Radeon 9700/9800-serierne mht. DirectX-specificationer:

"TR: Tell us about Shader Model 2.0b. This spec was created to expose the new abilities of the Radeon X800 series, right?

Nalasco: Yeah. As you probably know, in DirectX 9 there's different shader models. There's a Shader Model 2 and a Shader Model 3 that are part of DirectX 9. There's also a 2.x kind of generic shader model which allows you to specify through caps bits, one by one, you can support a set of instructions that your particular hardware supports that are in between the 2.0 and 3.0 feature sets... the 2.a and 2.b are basically shader profiles that you can use when you're compiling HLSL shader code... 2.b was designed to reflect the hardware capabilities, specifically, of the X800 series... The main improvements in 2.b versus 2.0 are increased instruction counts. As I said, we increased it from 160 instructions in the 9800 which supports 2.0 to 1,536 instructions in 2.b... [In 2.0b] You can have up to 512 arithmetic instructions, 512 texture instructions, and also those 512 arithmetic instructions can be divided up into both scalar and vector instructions, so you can have 512 scalar and 512 vector instructions, whereas in 2.0 it was limited to a total of 96 instructions for the vector and scalar and 32 for the texture instructions. Another thing that was added was a facing register that allows you to determine which direction a given polygon that you're rendering is facing... I guess those are the main improvements in 2.b versus 2.0. Oh, sorry, the other was increasing the temp registers. We increased the number of temporary registers we support from 12 to 32—12 in 2.0 and 32 in 2.0b."
Kilde: http://techreport.com/etc/2004q2/nalasco/index.x?pg=1

Allerede her er det klart, at Radeon X800 bestemt er meget mere end blot en overclocket version af Radeon 9700 Pro eller Radeon 9800XT. Tom's Hardware har tidligere publiceret et skema, der dækker flere forskelle på Shader Model 2.0, 2.0A, 2.0B og 3.0:


Kilde: http://www4.tomshardware.com/graphic/20040414/index.html

Shader Model 2.0 er højeste niveau for Radeon 9800XT (R360), 2.0A er højeste niveau for GeForce FX 5950 Ultra (NV38), 2.0B er højeste niveau for Radeon X800XT (R420), mens 3.0 er højeste niveau for GeForce 6800 Ultra (NV40). Mht. egenskaber, så minder X800 således meget mere om NV38 end om R300-R360. Radeon X800XT er derfor meget mere end blot en turbo-version af Radeon 9700 Pro, men understøtter dog langt færre avancerede egenskaber end GeForce 6800 Ultra. At X800-serien ikke understøtter Shader Model 3.0 kan blive et problem, såfremt flere spil kommer til at understøtte Shader Model 3.0. Allerede nu ser det ud til, at disse spil vil få implementeret understøttelse af Shader Model 3.0:

FarCry
Painkiller
Everquest II
STALKER: Shadow of Chernobyl
Splinter Cell X
Madden 2005
Tiger Woods 2005
Lord of the Rings: Battle for Middle-Earth
Vampire: Bloodlines
Driver 3
Grafan
Kilde: http://www.pcper.com/article.php?aid=34&type=expert

Imidlertid findes der ikke mange billeder fra 3D-spil, der dokumenterer, at Shader Model 3.0 vil medføre nogen stor revolution mht. billedkvalitet ifht. Shader Model 2.0/A/B; men lidt er der dog dukket frem mht. Far Cry, hvilket vi vil se nærmere på i det følgende afsnit:

2.2 FORSKEL PÅ SHADER MODEL 2.0 OG 3.0 I AKTUELLE SPIL

Både ATi og Nvidia er begyndt at udgive specielle realtime software-præsentationer af deres produkter, og man kan naturligvis nemt lade sig tryllebinde af de fantastisk effekter, som er basis for Nvidias "Shader Model 3.0"-baserede Nalu-præsentation:


Nalu-havfruen (eller sirenen...), hvor håret alene skulle være udgjort af 170.000 polygoner

Desværre findes der ikke mange gode 3D-spil, der kun består af en figur og stort set ingen omgivelser, hvorfor Nalu næppe er at regne for mere end en avanceret screen-saver og reelt intet er værd, såfremt man ønsker at vide mere om spil baseret på Shader Model 3.0. Mere interessant er dog disse billeder fra Far Cry, som understøtter egenskaber ved Shader Model 3.0:


Far Cry med Shader Model 3.0 effekter via GeForce 6800 Ultra; dvs. bemærk skyggen af palmerne på standen

Det er uvist, hvorvidt tilsvarende effekter vil kunne opnåes med Radeon X800XT; endvidere kunne man forestille sig, at Far Cry, som er en del af "Nvidia - The Way It's Meant To Be Played"-kampagne ville kunne opnå tilsvarende skygge-effekter via Shader Model 2.0, men at patchen kun vil aktivere disse, såfremt Shader Model 3.0 er fuldt understøttet (hvorved Far Cry ville favorisere og blive argument for GeForce 6800 Ultra). Det hidtil mest overbevisende argument for betydningen af Shader Model 3.0 er vel denne sammenligning fra HardOCP:


Kilde: http://www.hardocp.com/article.html?art=NjA5

Billedet er ikke helt ensartet (to forskellige statuer), men indikerer alligevel, at der er stor forskel på overfladerendering med Shader Model 2.0 og 3.0. Mens Shader Model 2.0 får figurens overflade til at ligne smeltet plastik, så minder den "Shader Model 3.0"-renderede overflade langt mere om sten. Flere steder i Fr Cry gælder, at det er vanskeligt at se markant forskel på Shader Model 2.0 og 3.0:


Kilde: http://www.hardocp.com/article.html?art=NjA5

Ovenstående billede er atter ikke taget samme sted, men indikerer, at der her ikke er markant forskel på Shader Model 2.0 og 3.0. ATi har endvidere tidligere forsvaret sig med disse ord:

""It's pretty much impossible to make a sm3.0 game look noticeably different to a sm2.0 game, which is why Nvidia was comparing the 2.0/3.0 path with a 1.1 path." A CryTek representative responded on this matter with this answer: "Was Nvidia showing SM3.0 vs. SM2.0 or SM1.1?" He replied to his own question by saying that Nvidia was showing 3.0/2.0 vs. 1.1."
Kilde: http://www.theinquirer.net/?article=15502

Imidlertid tyder resultaterne fra HardOCP mht. de to stenstatuer på, at Shader Model 3.0 kan komme til at se meget flottere ud end 2.0. En faldgrube kan dog være, at der reelt stort set ingen Shader Model 2.0-effekter er i Far Cry, hvilket vi tidligere har været inde på, men vel godt kan gentage her:

"After further analysis with Far Cry, it turns out the game isn’t quite the technological tour de force we suggested... In fact, from what we can tell, Far Cry mainly uses 1.1 shaders to achieve the jaw-dropping visuals we discussed in the intro. In laymen’s terms, this means that NVIDIA’s three-year old GeForce3 GPU is capable of reproducing most of Far Cry’s brilliant eye candy, although at a significantly reduced frame rate... It turns out that Far Cry uses 1.1 shaders for rendering water, even in ultra high quality mode, which renders even more reflections on the water than the other modes"
Kilde: http://www.firingsquad.com/hardware/far_cry_nvidia/

Dette kan indikere, at stort set hele Far Cry er baseret på Shader Model 1.1, hvorfor det reelle spørgsmål må være, hvorvidt "SM3.0"-stenfiguren på billedet fra HardOCP reelt kræver Shader Model 3.0, eller måske i virkeligheden er baseret på Shader Model 2.0+, mens "SM2.0"-stenfiguren måske reelt er baseret på Shader Model 1.1. Dette får vi næppe afklaret, før ny patch udkommer til Far Cry. Konklusionen må indtil videre være, at vælger man GeForce 6800 Ultra, så burde man være sikret fantastisk flot grafik i Far Cry, mens det aktuelt er uvist, hvorvidt valg af X800XT vil medføre tilsvarende flot grafik i dette spil. Flere spil er også på vej, som nævnt i forrige afsnit, men vi har ikke kunnet opstøve flere beviser på særlige Shader Model 3.0-effekter.


Everquest 2 - er Shader Model 2.0 nok til at producere dette billede?

ATi er trods mangel på Shader Model 3.0 langt fra fortabt, hvilket skyldes understøttelse af 3Dc komprimeringsteknologi, som vi ser nærmere på i næste afsnit:

2.3 BETYDNING AF 3Dc KOMPRIMERINGSTEKNOLOGI

Vi kan her starte med et billede fra ATi's Ruby-præsentation, som netop understøtter 3Dc-komprimeringsteknologi (men som derudover hverken er mere eller mindre interessant end Nvidias Nalu-præsentation):


Pigen ved navn Ruby anvender normal mapping, som også anvendes i Doom3, Far Cry, Half-Life 2 mm.

Flere ejere af ATi Radeon 9500-9800 grafikkort har måske undret sig over, at de ikke har kunnet afvikle Ruby-præsentationen. Tidligere kunne ejere af Radeon 9500-9700 nemlig fint afvikle diverse præsentationer i forbindelse med lancering af Radeon 9600-9800, men selv ikke ejere af 9800XT kan afvikle Ruby-præsentationen. Dette skyldes primært, at uden 3Dc komprimeringsunderstøttelse, så kræver Ruby-præsentationen meget mere end 256MB ram på grafikkortet - men med 3DC komprimeringsteknologi (som komprimerer med op til en faktor 4), så virker Ruby-præsentationen fint med 256MB:

"The demo occupies about 249MB of video memory and uses the new 3Dc compression technique. Without 3Dc support the VRAM budget would go up dramatically and no hardware could store the whole thing in local vid mem. I do not think that the code currently attempts to cope in the absence of 3Dc."
Kilde: http://www.elitebastards.com/page.php?pageid=4641&head=1&comments=1

Der er dog kommet en "Ruby-wrapper", så denne demo kan afvikles på ældre grafikkort, men kvaliteten er milevidt fra afvikling på ægte X800-grafikkort. Men nuvel, Ruby-præsentationen er principielt ligegyldig mht. estimering af 3Dc-effekt på kommende 3D-spil. Lad os derfor se lidt nærmere på konkret bevismateriale, så som Serious Sam 2 (den rigtige 2'er, ikke "The Second Encounter"), som netop understøtter 3Dc:


Serious Sam 2 - til venstre uden 3Dc og til højre med 3Dc - sammenlign arme, hals osv.

Her er endnu et billede med 3Dc aktiveret:


3Dc muliggør langt højere detaljeniveau end uden 3Dc

Set fra en anden vinkel, så diverse resultater med og uden 3Dc således ud:


Til venstre er 3Dc aktiveret, men ikke til højre

Zoomer vi ind på ovenstående billede omkring nakken ses:


Forskellen ser ud til at svare nogenlunde til en faktor 4 i detaljeniveau

I Serious Sam 2 er der således en meget stor forskel på at anvende 3Dc eller ej; se evt. også denne videofilm fra Serious Sam 2 (118MB):

http://files.seriouszone.com/download.php?fileid=867

Half-Life 2 vil også understøtte 3Dc, men desværre findes der stort set ingen billeder af, hvorledes 3Dc vil påvirke Half-Life 2. Vi har dog lokaliseret 2 billeder, med og uden 3Dc; men desværre er billederne taget fra en Half-Life 2 præsentationsfilm, hvilket betød, at billedet med 3Dc blev utydeligt (grundet film i bevægelse), mens billedet uden 3Dc blev taget, hvor filmen ikke var i bevægelse. Dette betyder, at billedet med 3Dc er uskarpt, mens billedet uden 3Dc er skarpt - men lad ikke dette snyde til at tro, at 3Dc medfører uskarpe billeder - i stedet er der helt bestemte elementer, som vi faktisk kan se på disse billeder fra Half-Life 2:

Half-Life 2 med 3Dc

Kilde: http://www.neoseeker.com/Articles/Hardware/Reviews/r420preview/

Selv om ovenstående billede desværre er uskarpt, som prøv at lægge mærke til vandoverfladen (der er en lille sø midt på billedet, som rumvæsnet står i, og som bålet i baggrunden afspejles i). Prøv nu at se, hvad der sker, når 3Dc deaktiveres:

Half-Life 2 uden 3Dc

Kilde: http://www.neoseeker.com/Articles/Hardware/Reviews/r420preview/

Vandet mister nu alt sit liv og virker langt mindre realistisk. Disse billeder indikerer således, at der vil være markant forskel på spiloplevelse i Half-Life 2 med og uden 3Dc. Flere spil er endvidere på vej, som understøtter 3Dc - såsom:

Darksector (Digital Extremes)
Half-Life 2 (Valve)
Kommende spil fra Ritual
Kommende spil fra Pseudo Interactive
Pirates (Firaxis)
Serious Sam 2 (Croteam)
Tribes Vengeance (Irrational Games)
Kilde: http://www.firingsquad.com/hardware/ati_radeon_x800/default.asp

Doom3 og Far Cry anvender også normal mapping på omfattende måde, men det er indtil videre uvist, hvorvidt disse spil også vil drage fordel af 3Dc. Interesserede i mere tekniske specifikationer kan læse mere om 3Dc her:

http://www.ati.com/products/radeonx800/3DcWhitePaper.pdf

3.0 KONKLUSION OG AFSLUTTENDE BEMÆRKNINGER

At vælge grafikkort er ikke nødvendigvis blevet nemmere efter udgivelse af Radeon X800 og GeForce 6800. Vælger man GeForce 6800, så må man leve med reduceret billedkvalitet grundet manglende 3Dc komprimeringsteknologi i særligt vigtige spil som Half-Life 2 og Serious Sam 2; men vælger man derimod Radeon X800, så mistes fuld understøttelse af Shader Model 3.0, hvorved særligt vigtige spil som Far Cry og STALKER: Shadows of Chernobyl muligvis vil få forringet billedkvaliteten markant. Der er således fordele og ulemper ved både Radeon X800-serien og GeForce 6800-serien, og vi søger med denne artikel ikke at kåre en vinder, men i stedet blot at gøre vore læsere opmærksomme på disse aspekter, så ens beslutningsgrundlag og købsargumenter kan være så velunderbyggede som muligt.



kQleskabsindianer skrev Thursday den 27 May 2004 kl. 15:28: [ svar | nyeste ]
Kald mig sm3.0luder whatever - jeg vil ha 6800 U !! :)



Adam skrev Friday den 28 May 2004 kl. 22:56: [ svar | nyeste ]
Du har måske vundet i Lotto??!! ;-) Du gjorde ellers nar af det for et par dage siden...! (Hvis du ved hvor jeg vil hen!)



Sand skrev Thursday den 27 May 2004 kl. 15:29: [ svar | nyeste ]
Uha det bliver spændende når kortene kommer i handelen. Egentlig var jeg mest hooked på et X800-kort, selvom jeg altid har kørt NVidia, men med de kvaliteter der ser ud til at være i PS3, så tror jeg sgu bare jeg bliver hos NVidia...


d40a7c0f.rev.stofanet.dk skrev Thursday den 27 May 2004 kl. 15:30: [ svar | nyeste ]
ATI styrer hele vejen... Shader model 3.0 er overreklameret og er først aktuelt når spil udviklerne begynder at bruge det... på det tidspunkt har ATI forlængst kommet med et kort der understøtter dette. Nvidia er ved at skride i svinget... og så må vi håbe at de kan nå at kompensere for det inden det er for sent.


Mick skrev Thursday den 27 May 2004 kl. 16:18: [ svar | nyeste ]
Lidt uenig ;o) - SM3.0 er først interessant når der findes HW som kan afvikle spil der bruger det med mindst 85 fps!


FCK MESTRE 2003/2004 skrev Thursday den 27 May 2004 kl. 15:37: [ svar | nyeste ]
Det kan så hvis man ser lidt sort/hvidt på det være ligemeget hvad man vælger da man mister det ene med ATI og noget andet med Nvidia. Jeg tror nok hellere jeg ville favorisere højeste ydelse da jeg godt nok kan lide grafisk nydelse men her gør Nvidia og ATI det virkelig svært for forbrugerne. Synes godt nok det var lidt et provokerende dokument som Nvidia har hemmeliggjort. Virker mere som en parodi på ATI, noget jeg ikke kan tage seriøst ihvertfald.


Jesper skrev Thursday den 27 May 2004 kl. 15:48: [ svar | nyeste ]
Som prisen ser ud til at blive, køber jeg nu et X800Pro kort. Det er sgu okay til prisen, faktisk rigtig godt.


red_martians skrev Thursday den 27 May 2004 kl. 15:49: [ svar | nyeste ]
hmm...jeg er bange for at det ATi-3Dc bliver lidt som deres trueform. Dvs. praktisk taget ingen succes i længden. Jeg er også til, at DX-Microsoft, har langt mere betydning for udviklingen af software, end specifike ekstra-goder fra producenterne selv. De dage med 3dfx glide, er forbi. Desuden virker PS 2.0a mere avanceret end PS2.0b, så reelt burde et FX5900XT kunne rendere det samme som et X800XT, hvis vi ser bort fra 3Dc. Jeg tænder også mest på PS3.0 så Geforce 6800GT til mig tak:-) Men jeg venter lige pænt til deres NV41 er på gaden, eller for den sags skyld, til vi ser nogle benches af non-ultra!!


Mick skrev Thursday den 27 May 2004 kl. 16:17: [ svar | nyeste ]
3Dc er noget GANSKE andet end TruForm. Såvidt jeg kan læse rundt omkring anses 3Dc generelt for at være en rigtig god ide. Du kan se at flere allerede vil understøtte det (noget du ikke så ved ret mange spil vedk. mht. til TruForm).


red_martians skrev Thursday den 27 May 2004 kl. 20:50: [ svar | nyeste ]
Der var også mange der anså true-form for et gennembrud. og der kom en del patches og nye spil det brugte det. Men det var så det!!.. Så så vi ik mere til det derefter. 3Dc synes jeg mere tyder på et modspil til Geforce6 og PS3.0. Det vil det aldrig blive, da PS3.0 også er understøttet af microsoft, og da metoden er frit tilgængelig. Jeg tror 3Dc løber ud i grusset. Trueform så også sindsygt flot ud. Og jeg tror, at alt dette kan gengives ved hjælpe af shaders, bumbmapping og frem for alt displacementmapping.


62.79.44.60.adsl.vby.tiscali.dk skrev Tuesday den 01 June 2004 kl. 05:31: [ svar | nyeste ]
Hvis Half-Life 2 bliver bare halvt så populært som Half-Life 1 er, bliver 3Dc så afgjort ikke fraskrevet som en ubetydelig fordel. En komprimerings faktor på 4 taler sit eget sprog, og lyder bestemt ikke som noget spil producenter vil skrive af som ubrugeligt.


kb skrev Thursday den 27 May 2004 kl. 15:59: [ svar | nyeste ]
#rune, nu ved jeg godt at du siger at du ik vil kåre en vinder, men vilket kort ville du vælge, hvis du have valget? skal guskelov først købe gfx om en 2 måneders tid, men har heldt rigtigt meget til x800t, men hvad ville du personligt vælge?


Rune skrev Thursday den 27 May 2004 kl. 17:28: [ svar | nyeste ]
Jeg vil nok favorisere det grafikkort, som giver mig bedst samlet ydelse og billedkvalitet i Half-Life 2 og Doom3, men eftersom disse spil ikke er udkommet endnu, så er spillet naturligvis stadig åbent. Og skulle der være stor forskel på NV40 og R420 i disse spil, så vil Half-Life 2 nok få mest vægt - men nu må vi se. Skulle jeg vælge her og nu, så oplever jeg nok 3Dc i Half-Life 2 og Serious Sam 2 som mere interessant end Shader Model 3.0 i Far Cry og STALKER (sidste store trailer fra STALKER imponerede mig ikke, og Far Cry er efterhånden lidt "been there, saw that", som de siger i Kanada :-) Doom3 ser desværre ikke ud til at understøtte hverken 3Dc eller Shader Model 3 - men det kan måske nå at ændre sig... Det største aktuelle argument for Shader Model 3 er efter min opfattelse Everquest II, men de billeder jeg har set fra Everquest II, får mig til at tvivle på, hvorvidt Shader Model 3 virkelig får stor betydning i dette spil. Unreal 3 enginen tror jeg får lige så stor betydning for GeForce 6800 Ultra, som Doom3-præsentationen i Tokyo 2001 fik for GeForce3.


Christian H. Frost skrev Thursday den 27 May 2004 kl. 15:59: [ svar | nyeste ]
Tjo.. De giver begge god billedkvali, men ATi's ydelse er altså 13% højere i gennemsnit, plus at HL2 nok skal blive et hit..

Helt klart X800 chippen :D



Mick skrev Thursday den 27 May 2004 kl. 16:15: [ svar | nyeste ]
X800XT er iflg. Gabe Newell (Valve) op til 40% hurtigere til HL2 end 6800U!

Dog ... jeg så et sted at 6800U pixel pipelines er af sådan beskaffenhed at man ved driveroptimering skulle kunne hive noget mere ud af.

Hvor meget melder historien ikke om, men ideen var at 6800U er superskalær mht. til sine pipelines. Og det skulle efter det jeg læste kræver en hel den erfaring og optimering inden at man lærer hvordan de udnyttes optimalt.

Det er ikke noget spiludviklerne skal tænke på - det er noget driveren gør når den skal udføre opgaverne.

Så hvis det er rigtigt er det meget muligt at der kan hentes en hel del mere ydelse ud af NVIDIAs nye superkort. Nu ER det muligt at det samme gælder for ATI ;o)

Så derfor bør man nok se tiden lidt an en måneds tid endnu.



Thomas P skrev Thursday den 27 May 2004 kl. 16:13: [ svar | nyeste ]
Hmmmm, trode sgu, der var støre foreskeld på de to kort. Jeg blev ikke meget klogere på hvilket man skal vælge


mail.nuuk.gl skrev Thursday den 27 May 2004 kl. 16:15: [ svar | nyeste ]
d40a7c0f.rev.stofanet.dk skrev: "Shader model 3.0 er overreklameret og er først aktuelt når spil udviklerne begynder at bruge det..."

Man kan vist også sige det samme om ATI's 3Dc ;o)



Thuun skrev Thursday den 27 May 2004 kl. 16:29: [ svar | nyeste ]
Det hele kan næsten være lige meget efterhånden, med om man er til Ati eller Nvidia. For de snyder garanteret begge 2 et eller andet sted og de gør det så pisse svært at være forbruger. hvorfor lave alt deres nonultra, ultra og gt pis, det er der da ikke en skid der fatter noget af før man har læst en anmeldelse og når man så har læst den anmeldelse, bliver man bare endnu mere forviret. Det skulle da ikke undre nogen at de en dag trækker hinanden i retten for at have stjålet hinandens ideer, ligesom gode gamle 3dfx blev :(

først var jeg til Nvidia, så til Ati... JEg finder mit gamle voodoo 3 frem igen!!!



0x50a2524e.naenxx7.adsl.tele.dk skrev Thursday den 27 May 2004 kl. 16:34: [ svar | nyeste ]
Køber et X800 Pro fra SHG.dk idag! - det er jo for nice! skal SÅ MEGET spille HL2 med 3Dc!


GWiZ skrev Thursday den 27 May 2004 kl. 16:56: [ svar | nyeste ]
Man kan jo også sige at Shader model 3.0 bliver brugt nu i far cry (omend ikke fantastisk meget) modsat 3dc som slet ikke bliver brugt endnu. :-)

Det billede fra Half-life 2 uden 3dc er jeg lidt tvivlsom overfor. Vi har da set meget bedre vand-effekter uden noget som helst 3dc, så man kunne tro at det vra en sammenligning på ligeså fårlige præmisser som nvidia's SM 1.1 vs. SM 2.0/3.0 fra far cry. Men nuvel, jeg ville gerne se om 3dc gjorde nogen forskel i doom3 da det jo også bruger normal maps i store mængder.

Iøvrigt, 3dc giver vel _kun_ mulighed for større normal maps? Det giver ingen hastighedsforøgelse... Derved kan de ikke nytte noget med mindre man bruger større normal maps end normalt - dvs. hvis man har normal maps i en størrelse som geforce også kan have i rammen, så er der vel ikke forskel?



Rune skrev Thursday den 27 May 2004 kl. 17:12: [ svar | nyeste ]
Hvad jeg har umiddelbart har læst mig frem til, så medfører 3Dc, at op til ca. 4 gange så detaljerede normal maps kan gengives; jeg går ud fra, at diverse spil skal forsynes med disse særligt detaljerede normal maps, før det giver mening at bruge 3Dc. Men der er næppe tvivl om, at 3Dc gør diverse spil utroligt meget flottere og langt mere detaljerede end uden 3Dc - det samme kan dog også siges om Shader Moder 3.0 - dog burde 3Dc være "gratis" at aktivere mht. billedraten, mens det er uvist, om aktivering af Shader Model 3 formindsker billedraten markant. Dvs. dette billede illustrerer vel meget godt effekten af 3Dc:



Billederne fra Serious Sam 2 med og uden 3Dc kan iøvrigt downloades her i 1024x768:

http://www.hardwaretidende.dk/hard/artikelimages/ss2_3dc1.jpeg

http://www.hardwaretidende.dk/hard/artikelimages/Ss2_3dc2.jpeg

Munden på Ruby ser i øvrigt således ud med aktiveret 3Dc (men om Ruby er mere detaljeret her end Nalu aner jeg ikke - dvs. jeg har ikke set Nalu så tæt på):


Kilde: http://www.firingsquad.com/hardware/ati_radeon_x800/default.asp




træulven skrev Thursday den 27 May 2004 kl. 17:04: [ svar | nyeste ]
" mail.nuuk.gl skrev torsdag den 27 maj 2004 kl. 16:15: [ svar | nyeste ]

d40a7c0f.rev.stofanet.dk skrev: "Shader model 3.0 er overreklameret og er først aktuelt når spil udviklerne begynder at bruge det..."

Man kan vist også sige det samme om ATI's 3Dc ;o) "

Kan man deeeeeeet? jeg har nu ikke hørt noget om 3Dc før nu, hvor jeg der imod har hørt tonsvis om PS3.0

BTW. Jeg ville personligt vælge R420...



Binary skrev Thursday den 27 May 2004 kl. 17:06: [ svar | nyeste ]
Men der er så bare ét problem, HL2 er sQ ikke udkommet - så dit X800Pro når nok at blive uddateret :S

Desuden kan det som regel bedst betale sig at vente en måneds tid eller to fra et gfx-kort er lanceret før man køber det, da prisen normalt er en stor del højere lige ved lancering.



Lars Rune skrev Thursday den 27 May 2004 kl. 17:11: [ svar | nyeste ]
Det lyder sandsynligt at SM3 slår stærkere igennem end 3Dc, fordi SM3 er en microsoft teknologi, og 3Dc er ATIs egen feature. Og det taler da tydeligt til 6800 U's fordel.


mail.nuuk.gl skrev Thursday den 27 May 2004 kl. 17:11: [ svar | nyeste ]
Ok, jeg skulle nok have undladt at citere "overreklameret" ;o)


Søren skrev Thursday den 27 May 2004 kl. 17:56: [ svar | nyeste ]
The plot thickens.

Jeg tror nu at jeg vil investere i et brugt 9800pro, hvilket burde være til at opstøve til ca. en tusse. Så kan jeg trygt vente på HL2 og Doom3 (selv om jeg ikke regner med at købe Doom3, men snarer kommende spil bygget på Doom3 enginen). Til den tid er der nok kommet en opdateret udgave fra både ATI og nVidia.



Alf skrev Thursday den 27 May 2004 kl. 19:30: [ svar | nyeste ]
Man må da håbe at Ati og Nvidia mødes igen på et tidspunkt, ellers kan det være det ender med at man skal til at have 2 grafikkort alt efter hvilket spil man skal spille! Desuden gør de det jo også svære for spiludviklerne, hvis de skal til at tage hensyn til begge grafikkort producenter hver gang de skal udvikle et spil, det burde være den anden vej. Men nu er det heller ikke fordi Nvidia har monopol på deres SM 3.0, hvad måske Ati tilgengæld har. De har bare lavet hver deres prioritering og det er der jo heller ikke noget i vejen for. Man kan jo ikke bebrejde den ene producent for at være hurtigere end den anden. Når bare målet vil blive det samme.


Gandalf skrev Thursday den 27 May 2004 kl. 21:07: [ svar | nyeste ]
Hvis der er nogen, der gør det sværre for spiludviklerne, så er det da Ati ville jeg mene. I stedet for at følge "udviklingens gang", så laver de deres helt egen teknologi, 3Dc, i stedet for SM3.0, som har været på vej længe :)


0x50a59b03.hknxx1.adsl-dhcp.tele.dk skrev Thursday den 27 May 2004 kl. 20:24: [ svar | nyeste ]
he he Alf

så skal du vist kigge på Alienwares nye ALX serie som netop undetstøtter 2 GFX'er (dog kun det samme...)

men alligevel..!



Asger skrev Thursday den 27 May 2004 kl. 21:44: [ svar | nyeste ]
Mht til 3dc-demoen i HL2 er jeg en del i tvivl om hvilken effekt 3dc kan have på forskellen mellem de to billeder! 3dc giver mulighed for højere detaljegrad på teksturer, men reflektion i vand er en pixelshaderberegning. Det er længe siden at vand blev fremstillet med teksturer... Når det er sagt så husk på at her er meget på spil for begge firmaer, så de vil ikke stå tilbage for noget som helst... En SM3.0 patch til Farcry har enorm marketingsværdi, men det kune tænkes at det eneste SM3 er fine skygger på palmer... Hvor længe har PS2 været fremme - snart 2 år - og først nu er der et spil (FarCry) som understøtter PS2, men 90% af effekterne bruger PS1.1. Well, hvis man har læst blot få ting om spiludviklere fremgår det tydeligt at de først lægger et seriøst arbejde i nye teknologier når der er hardware nok på markedet til at retfærdiggøre tidsforbruget. Så jeg spår at SM3.0 er et must om minimum 18 mdr. Rart at have nu, men ikke et must...


(Mis)bruger skrev Thursday den 27 May 2004 kl. 22:04: [ svar | nyeste ]
Nvidia har deres Shader Model 3 og ATI har 3Dc, spørgsmålet er bare hvormeget ydelse man mister på at benytte sig af henholdsvis Shader Model 3.0 og 3Dc. Hvis sidstenævne komprimere optil faktor 4, så har jeg altså mere end svært ved at se hvordan ydelsen skulle forblive på et acceptabelt niveau.

På papiret ser Pixel Shader 3.0 til at være yderst imponerende da det kan indeholde 65535 instruksioner (aka. unlimited) ifht. Pixel Shader 2's 96 instruktioner. Men så er det så om NV40 overhovedet kan kører så lange shaders uden at miste betydeligt meget i performance. I forvejen er nVidia's kort langsommere end ATI's kort når det kommer til shader performance, og man er endnu ikke begrænset med Pixel Shader 2, hvorfor behovet vel egentlig ikke er der for Pixel Shader 3.0 på nuværende tidspunkt.

Bottom line er, at uanset om ATI eller Nvidia benytter sig af deres forskellige teknologier, så ville det være mere end svært at spytte nok FPS ud, og det hele ville falde til jorden.

Når næste generation kommer kan vi snakke om det, ligenu ser jeg begge teknologier som betydningsløse.



Rune skrev Thursday den 27 May 2004 kl. 22:23: [ svar | nyeste ]
3Dc ser nu ud til at svare til andre komprimeringsformer, såsom S3TC og DXTC, som normalt er stort set gratis at aktivere - ATi underbygger også dette i deres 3Dc White Paper:

"3Dc is designed to resolve these issues by going beyond the capabilities of DXTC, and offering efficient and effective compression of new types of texture data. Whereas DXTC is optimized for compressing 3- and 4-channel data formats, 3Dc focuses on 2-channel data formats. It is particularly effective at two increasingly common tasks – compressing normal maps, and packing multiple pieces of data into a single compressed texture... 3Dc makes it possible to use much higher resolution and more detailed normal maps than would otherwise be possible due to memory restrictions. Since the decompression of 3Dc compressed textures is hardware accelerated, the performance cost of achieving this higher level of detail is minimal." (min fremhævning, red.)

Kilde: http://www.ati.com/products/radeonx800/3DcWhitePaper.pdf

Så det vil undre mig, hvis aktivering af 3Dc mindsker billedraten - derimod er det ikke sikkert, at aktivering af diverse Shader Model 3.0 effekter er gratis mht. billedraten.

Endvidere ser det ud til, at 3Dc snart bliver almindelig på diverse grafikkort, hvis vi skal tro på disse citater:

"Whether or not 3Dc will be incorporated into DirectX the way S3TC was remains to be seen and is completely up to Microsoft, but it seems to be ATi's goal. At any rate, the company calls its technique an open standard, meaning it can be used by anyone without royalty payments."

Kilde: http://www.tomshardware.com/graphic/20040504/ati-x800-07.html

og (direkte fra ATi):

"3Dc is basically a new texture format that can be recognized by our hardware. DirectX 9 has a facility for supporting custom texture formats called 4CC code. You can basically specify one of these codes, and our driver will recognize it and take advantage of our hardware capabilities when you read that instruction. So the only thing that is not currently in DirectX 9 is sort of a way to gracefully fall back. We basically want to promote 3Dc as an open standard, which means we have no proprietary kind of specification for this compression standard."

Kilde: http://techreport.com/etc/2004q2/nalasco/index.x?pg=3

Så intet tyder på, at 3Dc er forbeholdt ATi, men derimod kan blive ny generel komprimeringsstandard.


Søren skrev Thursday den 27 May 2004 kl. 22:53: [ svar | nyeste ]
Så må vi håbe at nVidia kan sluge kamellen og implementere 3Dc i deres nye kort, hvilket teknisk ikke burde være uoverkommeligt da ATI jo allerede har gjort alt "forarbejdet". Alternativt kan det være at nVidia kan tage teknologien og vidreudvikle den.


Christian H. Frost skrev Thursday den 27 May 2004 kl. 23:13: [ svar | nyeste ]
jeps! Detsto mere konkurrence, detsto bedre for os forbrugere :D


Satyr skrev Friday den 28 May 2004 kl. 02:36: [ svar | nyeste ]
vi vil have glide tilbage!


Pixel^ skrev Friday den 28 May 2004 kl. 09:12: [ svar | nyeste ]
jeg ville nok vælge et X800 kort da jeg nok kommer til at spille HL2 og HL2 baseret spil og Mods ( som Counter-Strike ), ved ik hvorfor men syntes stadig det ligner at Radeon kort er bedre i dx9 baseret spil, men er sikkert bare mig der er faldet for ATi :)


Xp3rt skrev Friday den 28 May 2004 kl. 09:32: [ svar | nyeste ]
Jeg vil helt klart tro at ATi udkommer med et kort der understøtter PS3.0, men lad os nu se. Det ser ud som om det betyder en hel del med den opgradering. Men vil da helst have et X800 XT :D


terfy skrev Friday den 28 May 2004 kl. 10:38: [ svar | nyeste ]
Jeg køber en lille Geforce FX'er til at starte med her om lidt, så venter jeg med det store kort til de fede spil er udkommet.. (HL2 & DOOM3) så kan jeg se til den tid hvilket kort der vil yde bedst til mit behov.. det er ALT for tidligt for mig at bedømme det.. Men et godt kort til normal brug indtil de vilde spil, så vælger jeg nok FX5200 ribbekølet, den skulle være god nok til mit behov indtil da..

--> terfy.



Saitek skrev Friday den 28 May 2004 kl. 10:48: [ svar | nyeste ]

Jeg har det!

Jeg skal have et af de der dobbeltdækker bundkort fra Alienware kaldet X2. Det har 2 PCI EXPRESS slot, afløseren for AGP 8x. Så skal jeg have et PCI EXPRESS kort fra AII og et dito fra NVIDIA. ÒG så har jeg med et slag både SM 3.0 fra Nvidia og 3Dc fra ATI! Og kan spille lige hvad jeg vil! Og jeg har den sidste nye teknologi ud i grafik slots som jo alligevel vil fortrænge AGP i de næste 2 år.

Kan høre Rune brumme noget med at det nok ikke kan lade sig gøre og at jeg har misforstået noget. Og at dette iøvrigt er en seriøs drøftelse omkring grafikort.

Nå, ok, sorry, troede da lige at jeg havde fået en god ide. (suk)



Ra skrev Friday den 28 May 2004 kl. 13:19: [ svar | nyeste ]
Høhø, jeg tror nu kun at Alienware laver bundkort til sig selv.


Kiwi skrev Friday den 28 May 2004 kl. 11:06: [ svar | nyeste ]
Hmmmm, hvis man læser HardOCP's artikel om SM3.0 kommer det da temmelig tydeligt frem at den primære fordel ved den nye shader model er muligheden for at optimere/ gøre koden hurtigere. Det vil sige at hvis spillet understøtter SM3.0 vil 6800ultra i teorien kunne lukke hullet ydelses mæssigt op til X800xt og bruge Virtual Displacement Mapping funktionen til at få mere realisme. Men i forhold til at der er ret så mange SM2.0 kort på markedet tror jeg ikke man skal regne med at programmører vil kaste sig frående over version 3 da de ikke engang udnytter version 2 endnu.... Det som bekymrer mig lidt er at diverse programmører siger at SM3.0 i dets NUVÆRENDE form ikke giver mulighed for meget andet end optimeringer og Virtual Displacement Mapping. Det kan sagtens betyde at der om 1 års tid f.eks. kommer en SM3.0a hvor 6800 serien så ikke vil understøtte de nye funktioner.... Btw. i et interview med en Far Cry programmør ( http://www.pcper.com/article.php?aid=36&type=expert) kommer det frem at der ikke er nogen effekter i Far Cry SM3.0 screenshoots'ne som ikke kunne være lavet med SM2.0. Udfra ovenstående forventer jeg mig en del mere af 3Dc, da man tydeligt kan se forskel på grafikken i Serious Sam 2. Desuden mener jeg at have læst at programmører også kan vælge at køre med samme detaljegrad på textures og så udnytte den nye kompression til højere hastighed.... Men lad os nu se.... Om 3Dc bliver en succes kommer i høj grad an på om ATI kan fedte så meget for MS at de tager funktionen med i den nye DX9, ellers vil den nok ende som TrueForm...


Rune skrev Friday den 28 May 2004 kl. 11:34: [ svar | nyeste ]
En anden fordel ved 3Dc, udover at aktivering af denne egenskab formodelig ikke påvirker billedraten negativt, ser ud til at være, at 3Dc er uhyre nem at implementere:

"In virtually two hours, Croteam added support for the 3Dc into their "Serious Sam 2" demo version, which is possible provided there are detailed models."
Kilde: http://www.digital-daily.com/video/ati-radeon-x800xt/index04.htm

Og:

"Indeed, when ATI discussed this with Croteam, makers of Serious Sam and the upcoming Serious Sam 2 engine, and provided them with hardware within three days Croteam had independently supplied ATI with a demo rendered in the Serious Sam 2 engine showing the detail they could achieve with 3Dc compression."
Kilde: http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=11

Crytek brugte ca. 3 uger på at implementere SM3.0-understøttelse (som måske i virkeligheden mest er SM2.0-understøttelse) ifølge Nvidias NV40-introduktion i San Francisco. Så selv om 3 uger er kort tid, er få timers/dages arbejde naturligvis langt at foretrække.


0x50a06188.arcnxx13.adsl.tele.dk skrev Saturday den 29 May 2004 kl. 00:49: [ svar | nyeste ]
nu er der vel forskel på at implementere en ny feature i en demo versus et helt spil?


Gripen90 skrev Friday den 28 May 2004 kl. 12:07: [ svar | nyeste ]
Jeg har før købt GFX med henblik på kommende spil som HL2 og DoomIII... Dengang købte jeg R9500Pro - men spillene kom fandme ikke !. Den fejl vil jeg IKKE begå igen, så derfor intet nyt GFX til mig FØR HL2, S.T.A.L.K.E.R og Doom3 er udkommet.

Indtil da skal mit R9800Pro 256MB nok forette mig tro tjeneste.



Gripen90 skrev Friday den 28 May 2004 kl. 12:14: [ svar | nyeste ]
Sidst så synes jeg dette er en ret så væsentlig pointe inden man sidder og savler over de nye GFX:

"I must admit, game developers are working at a serious time lag before new technologies are introduced into their projects. There are objective reasons for that - the time taken for creating a game may last as long as 3-5 years while generations of graphic chips change once every 9 months. Recall that version 2.0 shaders were first demonstrated in the revolutionary R300 core (Radeon 9700) which was released 20 months ago. And only now we can somehow feast our eyes looking at them"

http://www.digital-daily.com/video/ati-radeon-x800xt/index04.htm



Rune skrev Friday den 28 May 2004 kl. 12:28: [ svar | nyeste ]
Dog kan måske pointeres, at spil som Far Cry, Prince of Persia - Sands of Time, Deus Ex - Invisible War, Tomb Raider AOD mm. aktuelt afvikles med relativt lave billedrater i 1600x1200 med fuldt detaljeniveau (uden FSAA og ANI), så et ønske om hurtig investering i X800 eller 6800 Ultra behøver intet have at gøre med kommende spil samt SM3.0 eller 3Dc - dvs. der findes allerede mange spil på markedet, der får selv 9800XT til at gispe efter vejret i høje opløsninger. Men du har vel helt ret i, at det næppe kan anbefales at købe SM3.0-baseret grafikkort, fordi man ønsker at være klar til de første ægte SM3.0-baserede spil (såsom spil baseret på Unreal 3 enginen), eftersom disse næppe udkommer før 2006-2007 (hvor aktuelle high-end grafikkort formodentlig vil befinde sig i low-end-afdelingen).


Gripen90 skrev Friday den 28 May 2004 kl. 15:56: [ svar | nyeste ]
Det er korrekt. Men det er faktisk de færreste der spiller i 1600x1200 opløsninger !. Den mest anvendte er 1024x768 !. Tror ikke der er så mange med 21" skærme som spiller 1600x1200 100Hz :P Jeg selv har en 19" som kan køre 1600x1200, MEN jeg hader at køre en skærm med mindre end 100Hz så derfor holder jeg mig til 1024x768 med noget FSAA.


Anders skrev Friday den 28 May 2004 kl. 13:23: [ svar | nyeste ]
Bemærk at Radeon X800 PRO kan fåes i Danmark allerede nu, men kun hos www.prc-data.dk som har ganske få tilbage på lager.


50c56a33.flatrate.dk skrev Friday den 28 May 2004 kl. 14:04: [ svar | nyeste ]
God artikkel, dog synes at shader model 3.0 sammenligningerne er latterlige, man kan jo ikke sammenligne to forskellige ting og så sige at den ene er pænere grundet shader model 3.0 det er som at sammeniggne en hvid mand og en sort mand...


Rune skrev Friday den 28 May 2004 kl. 14:36: [ svar | nyeste ]
Tak, jeg mener nu sagtens, at man kan sammenligne SM3.0 med SM2.0 - dvs. SM3.0 er, hvad du kan vinde med 6800 Ultra, og SM2.0 er, hvad du kan risikere at blive begrænset til med X800XT - i Far Cry.


Thue skrev Friday den 28 May 2004 kl. 14:31: [ svar | nyeste ]
Fin artikel, som blot gør jeg tænker dobbelt så meget over hvad jeg skal vælge. ATI X800XT eller Geforce 6800ultra. Jeg hælder mest til X800XT, men det skyldes mest den gode performance, samt mindre støj og varmeudvikling. Så vidt jeg har læst på diverse sider. Men det med SM 3.0 og 3Dc er da til at blive godt forvirret over.


129.142.216.83 skrev Friday den 28 May 2004 kl. 16:15: [ svar | nyeste ]
Glem ikke kortenes længder. 1km eller ½km... vælg selv


Christian H. Frost skrev Friday den 28 May 2004 kl. 17:39: [ svar | nyeste ]
Er der da stor forskel på, hvor store kortene er ? (fysisk set)


christian skrev Friday den 28 May 2004 kl. 22:25: [ svar | nyeste ]
Om det så lige er Ati eller Nvidia, der er det beste, så glæder jeg mig personligt over det flotte performance hop siden nuværende kort. Ofte er der pressemeddelser om at "nyt kort" er 2-3 gange hurtigere end end "gammelt kort", men reelt holder det ikke rigtigt når det nye kommer ud. Synes det er et flot hop for begge.

Andre der stadig venter på "film quality" done "realtime" ???



Gandalf skrev Saturday den 29 May 2004 kl. 01:44: [ svar | nyeste ]
ahem... Flop hop?! Hvad snakker du om? I nogle tilfælde er forøgelsen faktisk på X3 ift. de tidligere kort, men i de fleste tilfælde er det da en X2 performance hop? Enten har du generelt usandsynlig høje forventninger til nye grafikkort, eller også er det en af dem, der bare ikke kan spille et spil, som ikke køre med 1600*1200 max details med 85 FPS. Så synes i hvert fald liige at kalde det flop hop er at overreagere :)


Grosen skrev Saturday den 29 May 2004 kl. 01:54: [ svar | nyeste ]
@Gandalf: Det gjorde han så heller ikke.....


Sven skrev Saturday den 29 May 2004 kl. 02:50: [ svar | nyeste ]
Gispen90 skrev: Men det er faktisk de færreste der spiller i 1600x1200 opløsninger !. Den mest anvendte er 1024x768 !. Tror ikke der er så mange med 21" skærme som spiller 1600x1200 100Hz :P Jeg selv har en 19" som kan køre 1600x1200, MEN jeg hader at køre en skærm med mindre end 100Hz så derfor holder jeg mig til 1024x768 med noget FSAA.

Ja, jeg spiller nu næsten altid i 1600x1200 85 hz, da jeg dels ikke kan se forskel på 85 hz og 100hz, og dels koster det jo fps at køre med højere refreshrate. Prøv f.eks en timedemo i Quake3 med samme opløsning, grafikindstilling osv, og kun ændre refreshrate fra 60hz til f.eks 120hz, så vil du se en nedgang i fps. Ikke fordi videokortet skal lave mere, tror jeg, men fordi hver gang skærmen skal refreshes, skal der læses fra skærmbufferen, og i den tid kan videokortet ikke selv skrive til samme buffer. NB: dette er kun en teori fra min side, men faktum er, at fps falder når refreshraten stiger.



Anders skrev Thursday den 24 June 2004 kl. 23:36: [ svar | nyeste ]
ville lige komme med en kommentar til det du siger.... hvis du kører med din skærm i 60Hz kan du ikke få mere ud en 60fps vist men hvis du kører med 100Hz kan du få op til 100fps vist på skærmen. og det er ikke indforstået i at spillet kun kører med 60 el. 100fps Det har bare noget at gøre med hvor flydende billedet kører. Så min mening er at det burde ikke have noget med refresh raten på skærmen at gøre, men nu har jeg ikke lige prøve at teste det selv så kan ikke være helt sikker... men tror det ikke :)


Thomas L skrev Saturday den 29 May 2004 kl. 11:01: [ svar | nyeste ]
Hmmmmm, jeg synes nu, at Radeon X800 XT er det bedste kort... I næsten alle punkter er den bedre end GeForce 6800 Ultra, det eneste proplem er, at den ikke understøtter SM 3.0.

Det kunne være interessant, at sammenligne nogen billeder fra Stalker, og se forskellen på SM 3.0. og SM 2.0.

Måske NV45, kunne gå hen og tag første pladsen? Eller hvis ATi lige pludselig kom med et eller andet...



Ra skrev Saturday den 29 May 2004 kl. 12:00: [ svar | nyeste ]
Næppe, da NV45 er fup! Det er slet ikke en ny og forbedret chip, det er bare NV40 med PCI-Express.

Der bliver ikke noget ydelseshop som fra NV20 -> NV25 og fra NV30 -> NV35...



Mads skrev Saturday den 29 May 2004 kl. 14:49: [ svar | nyeste ]
Bare et spørgsmål, er der nogen som ved om x800 pro versionen understøtter de samme funktioner, 3Dc og shader, som xt modellen ?



Asger Højland Jensen skrev Saturday den 29 May 2004 kl. 16:03: [ svar | nyeste ]
Det gør den. Den har blot lavere clockfrekvens og færre pipelines end XT


Unterhossen skrev Saturday den 29 May 2004 kl. 18:56: [ svar | nyeste ]
Jeg har på fornemmelsen at dette kun er det første skridt mht til avanceret grafik. Udvilklingen er kun lige begyndt. Jeg tror jeg venter til næste udgivelse af gfx kort.


terfy skrev Saturday den 29 May 2004 kl. 19:53: [ svar | nyeste ]
jeg har hørt noget om at der kommer kort i fremtiden som man kan sætte sammen og får større ydelse ud af det.. tror i at man kan sætte et Geforce og et ATI kort sammen til et ???

det kunne være total fedt..

--> Terfy..



213.150.61.8 skrev Saturday den 29 May 2004 kl. 20:11: [ svar | nyeste ]
det tjoer jeg ikke??


213.150.61.8 skrev Saturday den 29 May 2004 kl. 20:16: [ svar | nyeste ]
hej der? hvis i vil se nogen af di nye Game Trailers så kik for bi dene side http://www.gametrailers.com/


Ezekiel skrev Sunday den 30 May 2004 kl. 00:14: [ svar | nyeste ]
X800XT til mig i december - som nævnt et par gange allerede skal udviklerne jo bruge et par år på at lave spil baseret på den nye teknologi, og selv der vil langt de fleste vælge at basere deres produkt på teknologi af ældre dato, da det simpelthen ikke kan betale sig at bruge tid og penge på understøttelse af det nyeste nye, da stort set ingen ejer kort der kan trække det.


GWiZ skrev Sunday den 30 May 2004 kl. 02:00: [ svar | nyeste ]
terfy: Alienware arbejder på at lave et bundkort der kan tage 2 PCI-express kort... dog SKAL de være samme type. Det virker vist nok på samme måde som 3DFX's SLI til Voodoo2.

Andet end det er der vist ikke nogen der tænker i de baner



Ra skrev Sunday den 30 May 2004 kl. 21:44: [ svar | nyeste ]
Efter hvad jeg har læst skal virke ved at kortene tegner hver sin halvdel af skærmen - delt lodret. Ved SLI tegnede hvert kort hver anden linie, vandret, så det er et helt andet princip.


GWiZ skrev Sunday den 30 May 2004 kl. 07:53: [ svar | nyeste ]
http://www.elitebastards.com/page.php?pageid=4929&head=1&comments=1

Det er virkelig herlig læsning. (den første kilde i artiklen) When marketing goes ugly... :-D Jeg vil se svar fra ATi og have pisket benzin på flame-war'en.



0x50a43742.hrnxx4.adsl-dhcp.tele.dk skrev Monday den 31 May 2004 kl. 01:00: [ svar | nyeste ]
Nvidia er klart desperate, og har prøvet at udvikle et kort med den nyeste teknologi. Men, men, men. De har slet ikke gennemtestet kortet. Diverse artikler viser at kortet fra Ati faktisk slet ikke bruger lige så meget strøm som kortet fra Nvidia. Desuden er det bevist at Ati kortet er hurtigere! Men OK Nvidia har nyere teknologier. Men hvem gider betale for et kort der er langsommere og bruger meget mere strøm????

Til den tid, de teknologier Nvidia benytter sig af, bliver brugt af spil-udviklerne, der vil Ati have det næste kort klar. Sorry Nvidia i er blevet udspillet!

Ati er stadigvæk kongen!



helena.kollegienet.dk skrev Monday den 31 May 2004 kl. 01:58: [ svar | nyeste ]
Nvidia er da ikke udspillet...hvorfor skulle de være det? Bare fordi de allerede nu har SM3.0 i deres kort og ATI ikke har det, det vil jeg da mene er et plus for Nvidia. Men ok ATI har så 3Dc, problemmet er bare, at det ikke er en standard. Det er netop det stor problem i pc verden. Der er så stor forskel på pc til pc, at det er et "must" at have hardware der understøtter alle former for standarder (tænk bare på alle de problemmer der var med DVD brænder på et Tidspunkt)

Men lige meget hvad, så er det et svært valg. For det ser jo meget godt ud med 3Dc. Men hvis der ikke er nogen som benytter det, jamen så er det lige fedt.



Christian H. Frost skrev Monday den 31 May 2004 kl. 11:42: [ svar | nyeste ]
Nu er det så sådan, at man kan slå 3dc til i alle spil. I de fleste spil vil man kunne mærke forskellen. Og 3dc trækker heller ikke særlig meget ned på grafikchippen. Derfor er ATi stadigvæk konge!

Desuden er ATi's kort billigere og bruger som sagt mindre strøm og larmer mindre osv.



0x50a447c5.arcnxx10.adsl-dhcp.tele.dk skrev Monday den 31 May 2004 kl. 12:32: [ svar | nyeste ]
Billedet med titlen "Pixel Shader Summary" siger at version 2.0, 2.0a, og 2.0b brugte 2+8 Interpolated Registers, og den nye version 3.0 bruger 10. Hvad er forskellen? For 2+8 er åbenbart ikke altid lig med 10.


GWiZ skrev Monday den 31 May 2004 kl. 15:19: [ svar | nyeste ]
Christian H. Frost: 3Dc vil KUN komprimere normal maps. Dvs. at det eneste den gør er at udvide video-ram størrelsen (så at sige). Det bliver aldrig hurtigere med 3Dc. I spil som ikke bruger større normalmap end der kan være i rammen (såsom Doom3, skulle jeg mene) vil det eneste 3Dc gør være at give plads til andre ting, sådan at du evt. kan køre højere opløsning med meget AA, da dette fylder meget i rammen.

Selvfølgelig NÅR 3Dc bliver udnyttet, som i Ruby demoen, så er det absolut nice.

Jeg læste i et interview med David Kirk (chefingenør hos nvidia) at SM 3.0 og bare kan køre alt SM 2.0 uden der gøre noget ved det, og at det skulle gøre det hurtigere.

Men nuvel, jeg tror kun man virkelig kan se hvad der gør en forskel når det har været på markedet et stykke tid. Så vi må vel bare vente lidt og se kortene an.

At udnævne en "konge" er imo lidt for tidligt, da kortene ikke er ude endnu. (såvidt jeg ved)



helena.kollegienet.dk skrev Monday den 31 May 2004 kl. 15:51: [ svar | nyeste ]
Helt enig GWIZ. Det er lidt for tidligt at udnævne en "Konge".

Vil 3Dc ikke kræve at der bliver lavet særlige textures osv. til folk der således benytter 3Dc?? En ting jeg synes der taler for SM3.0 er at man undgår "smeltet plastik". Prøv bare at se på Serious Sam 2 (ATI 3Dc), det ser lidt "Vandet/plastik" ud. Men ok, jeg ved ikke hvor meget man ligger mærke til det i spil. Jeg synes ikke at dette er en kamp mellem Nvidia eller ATI, men mere en kamp mellem SM3.0 og 3Dc, jeg er "pisse" ligeglad med om jeg har et ATI eller Nvidia kort, bare jeg kan kører de nyeste spil bedst muligt. Men jeg tror, at det er bedst at vente lidt. Vi må se hvilken spil der kommer ud, hvad benytter de sig af SM3.0 eller 3Dc? og hvordan påvirker de hver især spiloplevelsen osv. Så i sidste ende må man gøre op med sig selv hvad man helst vil undvære, SM3.0 eller 3Dc? Nvidia og ATI gør det jo ikke nemt for os bruger, når man endeligt vælger sit nye grafikkort...så kommer de ud med et nyt. hmmmm...det burde være muligt, at bytte sit gammel kort med et nyt, hvor man så betaler lidt for det nye.

Men lige meget hvad....så vælger jeg først mit nye kort , når jeg har set test, spil osv. Jeg håber for Nvidias skyld, at de har lavet nogen forbedringer på deres Tv-out...for der er ATI klart bedst pt. Jeg bruger Tv-out lige så meget som 3D, hvis ikke mere...så det skal også med i mine overvejelser.

Det var det jeg ville sige.... :)



Christian H. Frost skrev Monday den 31 May 2004 kl. 15:57: [ svar | nyeste ]
Jeg vil sige, at SM 3.0 i et 6800 måske er lidt ironisk. Når der kommer sådan nogle spil (om 2-3 år) vil sådan et kort være lowend.


GWiZ skrev Monday den 31 May 2004 kl. 16:16: [ svar | nyeste ]
2-3år!? Jeg vil godt satse en hund på at der inden sommeren er over er flere spil der udnytter SM 3.0 (og 3Dc forresten).

Man kunne håbe at i næste generation er begge features implementeret i begge firmaers kort.



Christian H. Frost skrev Monday den 31 May 2004 kl. 21:33: [ svar | nyeste ]
Ja, 2-3 år.. Du skal tænke på at alle grafikort (eller de fleste) skal have understøttet teknologierne. Dvs både high, mid og lowend grafikkort skal kunne understøtte SM 3.0


EP skrev Tuesday den 01 June 2004 kl. 10:53: [ svar | nyeste ]
Der er faktisk et argument for at vi ikke skal vente 2-3 år før spil undstøtter sm3.0, og det er at det ikke kræver en enorm produktions-pipeline for at implementere det, hvis altså spillet der udvikles på, benytter shaders. Hver shader er så at sige et modul der "loades" ind og kompileres til grafikkortet og vil du ændre shader-koden behøver du ikke ændre i arkitekturen af 3D enginen, men simpelthen bare loade en anden shader. Der skal naturligvis lige enumereres shader support og tages højde for hvilke grafikkortet undstøtter, men det er virkelig i småtingsafdelingen. Det medfører altså at det er forholdsvis enkelt at tilføje support for sm3.0 i koden. Tilgengæld er det jo naturligvis mere tidskrævende at udvikle shadere til alle shader-modeller, men det kommer an på om udviklerne vurderer om det i sidste endne giver en gevinst der er værd at bruge tid på... Lad os nu se, men samtidigt klappe hesten. Det er jo ikke nyt at nye smarte teknologier præsenteres som noget helt igennem fantastisk som vil ændre vores liv, og måske endda få kaffen til at smage meget bedre... ;) .. Umiddelbart lyder 3Dc som en MEGET interessant teknologi, men hvis det kun er ATI kort der understøtter det (pga. f.eks. patenter) har teknologien latterlige fremtids-perspektiver.. (med det forbehold at det rent faktisk er implementeret så det så at sige er transperent i.fht. pixel-shaders... Må indrømme at jeg ikke har set konkrete specs på 3Dc)..


Ra skrev Tuesday den 01 June 2004 kl. 11:41: [ svar | nyeste ]
3Dc er lanceret som åben standard - uden patenter eller noget - så Nvidia kan bare snupse den hvis de kan se en fordel i det!


Christian H. Frost skrev Tuesday den 01 June 2004 kl. 13:04: [ svar | nyeste ]
Det er et eller andet med det komprimerer polygonerne 4:1!


EP skrev Tuesday den 01 June 2004 kl. 15:45: [ svar | nyeste ]
Nej.. Det er normal-maps der komprimeres i forholdet 4:1!.. Det kan best sammenlignes med en texure der indeholder information om normaler på en overflade som bruges til at beregne reflektion af lys.!.. Her er hvad der står op ATI's hjemmeside om 3Dc:

http://www.ati.com/companyinfo/glossary/includes/list.html#3Dc

3Dc is an exciting new compression technology designed to bring out fine details in games while minimizing memory usage. It is the first compression technique optimized to work with normal maps, which allow fine per-pixel control over how light reflects from a textured surface. With up to 4:1 compression possible, this means game designers can now include up to 4x the detail without changing the amount of graphics memory required and without impacting performance.



Kiwi skrev Wednesday den 02 June 2004 kl. 10:17: [ svar | nyeste ]
Efter mine oplysninger kan 3Dc godt gøre kortet hurtigere.... Det er jo meget logisk at komprimerede textures er nemmere/ hurtigere at behandle end ukomprimerede. Derfor kan man som udvikler vælge to ting. 1. Komprimere de eksisterende textures med højere hastighed til følge 2. Lave mere detaljerede textures og så køre med samme hastighed.


EP skrev Wednesday den 02 June 2004 kl. 10:32: [ svar | nyeste ]
Logisk set skal der udføres lang flere operationer på komprimerede textures end rå-textures. Det svarer til at du skal pakke en zippet exe-fil ud hver gang du vil eksekvere den, hvilket jo tager længere tid og kræver mere CPU-tid, end hvis du bare at klikker på en exe-fil. Til gengæld kan man jo ved at komprimere textures udnytte bussen mellem ram og GPU mere optimalt, idét det måske kan være en fordel at GPU'en pakker data ud ifht. at den bare streamer rå data over ram bussen. Uden at vide hvordan komprimerings algoritmerne ser ud, kan man jo tilmed forstille sig at de indeholder interpolerings data, som kan spare nogle operationer.. men det er nu ren tankespind fra min side. Til sidst kan komprimerede textures lævne bus-tid til andre opertationer, som f.eks. at opdatere skærm-bufferen eller hvad man nu kan finde på (shaders.. whatever).


EP skrev Monday den 07 June 2004 kl. 11:12: [ svar | nyeste ]
Øv.. Har lige læst den her artikkel på Toms Hardware Guide!... Det er jo dejligt!.. Nu har ATI så rodet med driverne igen, og den her gang er der vist gået lidt PR og test-manipulation i den!.. Læs evt. selv:

http://www6.tomshardware.com/graphic/20040603/index.html

Det er især flot at de beder testere slå optimeringer fra i konkurrenters produkter, når de selv snyder med optimeringerne. Her tænker jeg især på snyd med mipmap/trilinear/brilinear og detektering af mipmap indhold (farver blokke vs. grafik blokke). Jeg synes der ok med sådanne optimeringer, så længe man som bruger har mulighed for at slå dem til og fra (og det iøvrigt ikke sker automatisk), og iøvrigt bliver informeret om dem, når de nu er blevet så almindelige at implemetere. Læg også mærke til at de (ATI) snyder med anso-filtering samt trilinear/bilinea-filtering i forskellig texture stages (i.e. texturelag).. ..



Rune skrev Monday den 07 June 2004 kl. 16:27: [ svar | nyeste ]
Extreme Tech har også netop undersøgt billedkvalitet med X800 og GeForce 6800, og skriver i deres konklusion:

"What's important is not what you can see by PhotoShopping the heck out of a still screenshot, it's what you see while you're in there playing. The fact that we couldn't see substantial image quality differences even when zoomed in on stills makes us very confident that we can call the visual quality during actual gameplay a "tie." And yes, of course we played quite a few games on both cards and honestly can't see the difference. So what will set the two cards apart? Truthfully, the frame rate in upcoming graphics-intensive games like Doom 3, EverQuest 2, and Half-Life 2 will have more to do with image quality than AA or AF settings. Whichever card can run future games at a higher resolution with everything cranked up to full will look better."

Læs det hele her:

http://www.extremetech.com/article2/0,1558,1607374,00.asp

Men selv om forskellen på ægte trilineær og brilineær ikke nødvendigvis kan ses med de blotte øje i aktuelle 3D-spil, så er det naturligvis meget uheldigt, at ATi via X800 benytter en filtreringsmetode, som ATi tidligere har kritiseret Nvidia for at anvende, jf. EP's indlæg.



EP skrev Tuesday den 08 June 2004 kl. 10:44: [ svar | nyeste ]
Ja, og iøvrigt beder testere om at slå optimeringer fra på konkurrenters kort med det argurment at deres (ATI's) kort gør det på det "korrekte" måde!.. Men det er jo ikke ene om at bøje reglerne, men det viser bare hvor rådent hardware producenterne agerer når det gælder om at opnå markedesandele!


Rune skrev Tuesday den 08 June 2004 kl. 10:56: [ svar | nyeste ]
Digit-Life har i øvrigt også netop publiceret omfattende resultater mht. filtrering på X800 og GeForce 6800, som kan ses her (en af forskellene ser ud til at være, at diverse optimeringer kan deaktiveres på NV40, mens dette ikke gælder for R420):

http://www.digit-life.com/articles2/gffx/nv40-rx800-4-p1.html


GWiZ skrev Tuesday den 08 June 2004 kl. 16:25: [ svar | nyeste ]
Bah, så leder jeg som en gal efter et link til en lignende test jeg havde set tidligere, så viser det sig at den er linket til 3 posts oppe. D'oh!

Her er så lidt andet fra Tom's Hardware guide: http://www.tomshardware.com/graphic/20040504/ati-x800-36.html



Robotech-Master skrev Tuesday den 15 June 2004 kl. 11:38: [ svar | nyeste ]
syntes selv der er så lidt foreskel på X800 og GeForce 6800 så jeg venter til en af dem kommer med en kort der har det hele og spakker RØV selv er jeg mest til nvidia men det er fordi Driverne bare vikker som de skal har været flere problemer med ATI´s driver syntes jeg.... men held og lykke med jagten på det ultimative Kort..... (er ord blind så der er nok lidt stavefejl....


Psst skrev Tuesday den 15 June 2004 kl. 14:06: [ svar | nyeste ]
jeg tror nu at 6800 kortene er bedre, de er x800 langt overlegne ang. nye funktioner, altså de er meget mere avanceret.

x800 har ikke alle de samme funktioner, men de køre hurtigere

jeg vil tro at 6800 kortene vil holde længere end x800, og når 6800 bliver for langsomt, så oc'er man bare

men allerbedst ville være at købe volari, bare for at gøre oprør mod både at og nvidia ;-)



Jesper skrev Tuesday den 15 June 2004 kl. 15:10: [ svar | nyeste ]
Tjah... Før eller siden vil spil kræve SM3.0 Derimod er det tvivlsomt om 3Dc nogensinde vil blive krævet for at køre et spil. Dermed kan man vel sige at SM3.0 er en "vigtigere" feature. Selvfølgelig er det først interessant når der rent faktisk bliver brugt, men det samme gælder vel for 3Dc.

Derudover har GF6800 altså lige et par andre lækre features, som geometry instancing og displacement mapping.

Nogen der har set Unreal 3 demoen? Den kører på 6800, og udnytter SM3.0, displacement mapping og diverse andre lækre features, som X800 desværre ikke har. Og rent grafisk det ser altså bare bedre ud end HL2 og Doom3 tilsammen... ;)

Endelig kører 6800-kortet vist stadig på beta drivere...

Til gengæld ser det jo ud til at X800 er hurtigere...

Så jeg tror bare jeg venter et par måneder (vil alligevel have PCI-E versionen, hvilket betyder resten af maskinen også lige skal opgraderes først)

Til den tid må vi jo se. NVidia's drivere er generelt lige den tand bedre, og kortet har liiige et par ekstra features, men hvis X800 har tænkt sig at være hurtigere er det jo også en betydelig fordel.



Mick skrev Tuesday den 15 June 2004 kl. 15:25: [ svar | nyeste ]
Naturligvis får vi SM3.0 generelt ;o) - men jeg tror godt du kan regne med at 3Dc også slår an. Alle burde se fidusen - incl. NVIDIA - i at bruge 3Dc til at spare dyrebar båndbredde.


Rune skrev Tuesday den 15 June 2004 kl. 15:31: [ svar | nyeste ]
"Nogen der har set Unreal 3 demoen? Den kører på 6800, og udnytter SM3.0, displacement mapping og diverse andre lækre features, som X800 desværre ikke har. Og rent grafisk det ser altså bare bedre ud end HL2 og Doom3 tilsammen... ;)"

Der kan være mange grunde til at favorisere 6800 Ultra, men jeg ville være meget påpasselig med at benytte Unreal 3, Nalu mm. som købsargumenter. GeForce3 blev introduceret som "Toy Story on Chip" - og hvem husker ikke den absolut fantastiske demonstration, som Carmack i 2001 gav af Doom3 på GeForce3. Men hvor mange kommer reelt til at nyde Doom3 på GeForce3 - formodentlig lige så mange, som kommer til at nyde Unreal 3 med 6800 Ultra... Dvs. demo'er som Unreal3, Ruby, Nalu osv. er ren propaganda, og lader man sig forblænde af sådanne præsentationer, så kan man komme til at foretage sine dyre hardware-indkøb på et grundlag, som man måske senere fortryder. Favoriserer du derimod GeForce 6800 Ultra grundet SM3.0 i Far Cry, STALKER, Everquest II mm., så vil jeg opfatte dette som langt bedre beslutningsgrundlag (især fordi Far Cry allerede er udkommet, og fordi STALKER ser meget færdigt ud på E3-videoerne). Belært at de sidste års udvikling tyder meget på, at det gamle danske ordsprog "den, der gemmer til natten, gemmer til katten" passer glimrende - især mht. spil, der tidligst udkommer om ca. 2 år. Og derfor finder du ingen billeder fra Unreal 3 i ovenstående artikel - der er jo ingen grund til at gentage denne fadæse mere end højst nødvendigt:

http://www.hardwaretidende.dk/hard/artikel/01/02/22/7595866


Mick skrev Tuesday den 15 June 2004 kl. 15:17: [ svar | nyeste ]
"..så overclocker man bare"....

Det har NVIDIA jo egentligt allerede gjort.

6800 Ultra Extreme er taktet 50 Mhz højere - et forkølet forsøg på at indhente gabet op til X800 XT (forkølet fordi det ikke er var nok). Men måske skyldes det at der er problemer med produktionen (det er IBM som fabrikerer 6800 chippen for NVIDIA og der var noget med at der var problemer med yield).

Selv ATI har udtrykt undren over at NVIDIA's udspil ikke clockes højere.

Forøvrigt afventer vi stadig at se om PS3 giver nogen forskel som PS2 ikke kan levere. At chippen kan trække flere hundre steps lange shadere betyder intet hvis det resultatere i 2 fps... ;o)

Historien gentager sig IMO. Tænk på Geforce 1 - der gik *lang* tid inden T&L blev den store fordel NVIDIA råbte om (på nær naturligvis deres egen TreeMark).

Næste spring var så Geforce 3 (og DX8) - vi fik pixel shadere. Men de fleste spil brugte stadig kun vertex shadere (DX7). Der gik igen lang tid inden vi så spil der rigtigt brugte pixel shader features.

Formodentligt skal vi 1-2 generationer længere frem igen inden vi ser DX9 bliver anvendt "meget".

Selv i FARCRY er det meste lavet med shader 1.1. Så jeg vil faktisk tro at vi skal hen i nærheden af det tidspunkt hvor Unreal 3 enginen releases. Men hvad - U3 enginen ser ud til at være helt utroligt fremragende.... ;o)



Masterbrew skrev Tuesday den 15 June 2004 kl. 23:57: [ svar | nyeste ]
Hold kæft en dum diskussion, folk aner jo ikke hvad de snakker om.

GF6 kan også lave komprimeret normal mapping som ATi's 3dc, nogen der har set Unreal 3 demoen? Ligesom X800 også kan lave Displacement mapping. Far Cry spiller i Nvidias grønne farver og er en del af deres TWIMTBP program og derfor laver de den der SM3 patch med effekter som et x800 ellers godt ville kunne kapere. Ligesom Half Life 2 spiller i ATi's røde uniform, hvorfra der kommer de lamme påstande om at GF6 er 40% langsommere, 3dc supporten kun til X800 kortne osv.

Personlig vil jeg vælge X800 fordi det har et lavt strømforbrug(og derfor lavt støjniveau) og de der fine effekter i allesammen går så meget op kommer i sidste ende ikke til at gøre en forskel!

Med det sagt skal det siges, at Geforce 6 er et fedt kort og det er da også det der har hastigheds rekorden i 3d marks på imponerende 17000(!) 3d marks i 3dmark 03, så pt er det jo det hurtigste hvis man da går efter 3dmarks måleenhed ;). Og jeg er sikker på at nogle patches ville kunne hive nogle flere ting ud af dets ærmer.



Rune skrev Wednesday den 16 June 2004 kl. 00:48: [ svar | nyeste ]
Jeg har intetsted set dokumenteret, at NV40 understøtter 3Dc, hvad er din dokumentation for denne påstand? - Tværtimod er 3Dc netop beskrevet som unik egenskab ved R420 ifht. NV40:

"But ATi also has a feature that Nvidia lacks, 3Dc compression, which is a step up from DXTC, S3TC and is an open standard introduced with the R420 architecture and the X800 series of ATi graphics cards."
Kilde: http://www.hardwareanalysis.com/action/printarticle/1710/

"... And that seems to be just the niche for 3Dc, although it is bad for developers that it is not yet supported by NVIDIA."
Kilde: http://www.digit-life.com/articles2/radeon/r420.html

"ATI would really like this compression scheme to catch on much as ST3C and DXTC have. Of course, the fact that compression and decompression of 3Dc is built in to R420 (and not NV40) won't play a small part in ATI's evangelism of the technology."
Kilde: http://www.anandtech.com/printarticle.html?i=2044

"NV40 also supports shaders version 3.0, and R420 supports 3Dc, the company's proprietary technology of normal map compression."
Kilde: http://www.digit-life.com/articles2/gffx/nv40-rx800-4-p1.html

"It remains to be seen whether the GeForce 6800 Ultra, with its support for ShaderModel 3.0 and 32-bit fps precision, will enjoy any tangible performance advantages in practice. For now, ATi's shader quality definitely gives no grounds for complaint. And not to forget 3Dc, which can improve the game experience."
Kilde: http://graphics.tomshardware.com/graphic/20040504/index.html

"ATI delivers what gamers want. While 3Dc (obviously based on DXT5) looks like quite a poor improvement compared to it's competitor's floating point TMUs, FP frame buffers, RAMDACs capable of applying tone mapping, full shader model 3.0 support including texture access from the vertex shader etc., normal map compression can be used instantly by developers and can boost performance in games using large amounts of bump mapping."
Kilde: http://www.3dcenter.de/artikel/r420_technik/index_e.php

"And, as anticipated, the Radeon X800 Pro, which ATI launched today, does not support DirectX 9's Pixel Shader 3.0 - unlike its rival, the GeForce 6800, unveiled by Nvidia last month. Instead, ATI believes that its 3Dc technology will prove of more use to games developers and games players alike."
Kilde: http://www.theregister.co.uk/2004/05/04/ati_confirms_no_shader_3/

Også ExtremeTech skriver på nedenstående side, at 3Dc indtil videre er unik egenskab ved R420:

http://www.extremetech.com/article2/0,1558,1583549,00.asp

osv.

Med andre ord så ser jeg gerne fuldt ud dokumenteret, at ejere af GeForce 6800 Ultra vil kunne aktivere 3Dc i både Half-Life 2 og Serious Sam 2 - kan du ikke det, så vil dit indlæg miste en stor del af sin relevans og troværdighed.


GWiZ skrev Wednesday den 16 June 2004 kl. 06:07: [ svar | nyeste ]
Og Rune hiver sin "Hammer of Documentation" frem og hugger igennem Masterbrews "Red-green Cloak of Delusions". :-D

Masterbrew: "folk aner jo ikke hvad de snakker om" <- den er da ikke smart at lægge ud med, når du åbenbart ikke ved mere (læs: mindre) end os andre. ;-)

On a related note, er 3Dc noget der er hardcoded (altså noget der skal laves i hardwaren) eller er det gjort i driveren, og accelereret af PS eller noget? Jeg kan ikke huske om S3TC og DXTC er noget der skal være direkte i hardwaren.. Enlighten me.



bottleboy skrev Wednesday den 16 June 2004 kl. 13:25: [ svar | nyeste ]
Det er sku ikke til at blive klog på før div. producenter får lagt kortne på bordet og der foreligger en række opjektive/troværdige tests. Har lige et spørgsmål da jeg er lidt "ny" i pc-universet. Er der grund til at foretrække den ene producent frem for den anden? (her tænkes ikke på Nvidia overfor ATI, men det forskellige kortproducenter som sapphire, asus, leadtec osv.) Yder de flere frames eller er de blot mere stabile? Der er jo temmelig stor forskel på priserne, så hvorfor ikke købe et billigt? Hvilken producent laver så henholdsvis gode nvidia & ati-baserede kort?



Søren EG skrev Wednesday den 16 June 2004 kl. 20:29: [ svar | nyeste ]
Der er den forskel, at nogle producenter gør mere ud af køling og støjreduktion end andre. Det gør fx HIS/Enmic, Sapphire og MSI.

Læs mere i disse to artikler:

http://www.hardwaretidende.dk/hard/artikel/04/05/17/0316793

http://www.hardwaretidende.dk/hard/artikel/04/03/05/8223649



ZybeR Cool skrev Thursday den 17 June 2004 kl. 12:00: [ svar | nyeste ]
jeg tror efter hånden så udgiver de nok nogen driver hvor de laver SM 3,0 for ati elr. 3dc til nvidia...hvis ikke så må man da leve med at man kan sætte anti fuldt op og køre med 88fps...det synes jeg går os ;)


ThaViol8oR skrev Thursday den 17 June 2004 kl. 12:38: [ svar | nyeste ]
Hvis man undersøger sagen vil man finde ud af at Microsoft har lavet en "anden version" af 3Dc eller noget tilsvarende. Det hedder Geometry Instancing og det kan man se 'in action' i en video på nVIDIA's hjemmeside i en video fra udgivelsen af 6800 Ultra. Der viser de en demo hvor man ser ude fra rummet og nogle astroider og når de lægger flere astroider ind lagger det naturligvis. Men så aktivere de Geometry Instancing og så ryger frameraten meget højere op. Man ser ser også palmerne i FarCry og man kan se at skyggerne på standen bevæger sig samtidig med palmerne. Man ser også den nye teknik fra Unreal Engine 3 hvor de viser efekterne Virtual Displacement Mapping får med SM3.0. Jeg er ligeglad med hvad i mener om denne sag. Jeg er overbevist og håber på at have fået nogle flere med. Jeg køber et 6800 Ultra og det kommer jeg ikke til at fortryde. Nu har jeg gjort hvad jeg kunne for at i vælger rigtigt og jeg synes det er synd for jer hvis i køber et X800- kort, men så er det også jeres egen skyld...


ZybeR Cool skrev Thursday den 17 June 2004 kl. 13:16: [ svar | nyeste ]
6800 ultra kan godt køre med en 400psu... skal højre op hvis oc... Rune det du skriver til er masterbrew ikk? hmm han siger ikke at nvidia understøtter 3Dc han siger at de har nogen der menner om det(som tha viol8or taler lidt om)

har også hørt jer som siger at ultra kortet skal bruge en stør psu det passer ikke.. kun hvis man skulle oc som jeg skriv i starten



Rune skrev Friday den 18 June 2004 kl. 18:18: [ svar | nyeste ]
Denne sætning indikerer efter min opfattelse, at "Masterbrew" direkte skriver, at 3Dc understøttes via GeForce 6800 Ultra:

"...hvorfra der kommer de lamme påstande om at GF6 er 40% langsommere, 3dc supporten kun til X800 kortne osv."



GWiZ skrev Thursday den 17 June 2004 kl. 17:20: [ svar | nyeste ]
ZybeR Cool: Oprindeligt var det officielle krav fra nVidia en 480Watt PSU, men såvidt jeg husker har de ændret det til 350 Watt.

ThaViol8teR: Har du et link til den video..? den ville jeg gerne se :)



Ust skrev Thursday den 17 June 2004 kl. 18:53: [ svar | nyeste ]
Zyber Cool(eh?): Det der fan-pis tror jeg ikke der er særlig mange, som er hooked på; Simpelthen for tyndt at høre på.


HairyBeaver skrev Thursday den 17 June 2004 kl. 20:08: [ svar | nyeste ]
>>>ThaViol8oR

Jaja - Synd synd siger du... Den synes jeg at have hørt til folk, der overvejer et Ati kort i HighEnd klassen, alt for mange. Nivia har ikke andet en stor-skuffet siden Ati udkom med deres 9700pro - Men lovet stolpe og ned med "vores næste kort", det har de.. Den kredit skal de da have :-P



bottleboy skrev Friday den 18 June 2004 kl. 08:34: [ svar | nyeste ]
Hvilket nivida-baseret kort kan man så være tryg ved at købe? Både mht. kvalitet, ydelse, køling, stabilitet osv. Hvilke erfaringer har der været med tidligere producenter? Ved nu at man ikke går galt i byen med sapphire, His og ASUS mht. ATI-kort, men hvad med nvidia?



Søren EG skrev Saturday den 19 June 2004 kl. 21:13: [ svar | nyeste ]
bottleboy: Der er længe siden, jeg har haft et Nvidia-kort, men jeg ved da at Asus og Gainward har et godt ry, men jeg ved så ikke, om de laver særligt støjsvage udgaver af det nye GeForce 6800. Rune gjorde for nylig opmærksom på, at MSI kommer med et Geforce 6800 Ultra, der skulle være rimeligt støjsvagt.

Man kan læse om det her:

http://www.digit-life.com/news.html?105892#105892



GWiZ skrev Sunday den 20 June 2004 kl. 02:15: [ svar | nyeste ]
Hmm, Nvidia er vist ude med flamer-riven igen

http://www.theinquirer.net/?article=16651

Men det ser dog ud til at holde... nogen der kan finde hele dokumentet det er taget fra?



12k skrev Monday den 21 June 2004 kl. 08:42: [ svar | nyeste ]
Nu synes jeg liiiige at man skal tænke på at ATI's drivere er fuldt udviklede hvilket BESTEMT ikke er tilfælde med nvidia's - så mon ikke de 5-13% bliver ændret kraftigt? - Og tror også den fejl med 3Dc skyldes driverne ikke er færdig udviklede....

BTW... har ikke tænkt mig at tjekke herinde sådan helt af mig selv, hvis i vil poste threads - så smid en mail: mobil12k@hotmail.com



Rune skrev Monday den 21 June 2004 kl. 14:30: [ svar | nyeste ]
Hvad er din argumentation for at påstå, at ATi's drivere er fuldt udviklede, og hvad mener du med "den fejl med 3Dc"?


Erik Winther skrev Monday den 21 June 2004 kl. 14:24: [ svar | nyeste ]
Der er ikke den store pris forskel, skal man tro på Edbpriser, fra ca 4300kr listes både 6800 Ultra og X800 XT, så det afgør vel ikke købet, men jeg vil se hvordan Catalyst Driverne slår an på X800 XT, før jeg skifter, de små 1000kr der evt. Kunne spares som prisen ser ud nu, ved køb i USA, betaler jeg dog gerne for at have forhandleren inden for rækkevidde, jeg havde dog ikke regnet med 4300kr, nærmere de 4800kr som ASUS koster, var jeg forberedt på.

Det kan dog være at de seneste Catalyst Driver's problemer med Toca Race Driver 2, ikke opleves på X800 Serien, men det må tiden vise, så længe jeg hænger på Cat 4.4 bliver jeg også på 9800XT.

Mit valg bliver derpå helt sikkert X800 XT, Ydelse og Design af Kort/Køler her specielt ICE-Q Fønen, som er suveræn, er et godt alternativ til en H2O Blok, skulle der ske ændringer her, afgør det for mit vedkommende, samt forventningen at der også til X800 Serien kommer/er Driver ude der kan køre alle mine spil med én opsætning.



Kristian skrev Monday den 21 June 2004 kl. 14:34: [ svar | nyeste ]
12k mener nok, at NV40 er mere forskellig fra NV35 end R420 er forskellig fra R350, og derfor mener han, at ATI har kunne genbruge mere af driveren end nvidia kunne; men det er jo alt sammen spekulationer :)


Thomas L skrev Wednesday den 23 June 2004 kl. 18:56: [ svar | nyeste ]
-------------------------DOOM III TÆT PÅ UDGIVELSE------------------------------ "Ifølge VoodooExtreme vil spillet "Doom III" stå til udgivelse d. 3 august 2004. Idsoftware spil vil ligeledes tilbyde support for shadermodel 3.0 ligesom Far Cry næste patch 1.3. De nyeste rygter vi høre er at Half life 2 ligeledes vil tilbyde Shadermodel 3.0. nVIDIAs nye 6800 serie er de eneste kort som tilbyder denne feature! ATIs Radeon x800 serie må nøjes med 2.0+ support."

Kilde: http://www.hardinfo.dk/

Det skriver HARDINFO på forsiden, under "Nyheder" og laver selvføgelig linket til der, hvor de har læst det... Altså

VoodooExtreme.com



Rune skrev Friday den 25 June 2004 kl. 02:32: [ svar | nyeste ]
En anden og muligvis særdeles vigtig detalje kan omhandle Doom3:

"This game [=Doom3, red.] is very important for Nvidia since this is where its rendering marchitecture will actually pay off. From NV30 upwards all Nvidia GPUs are able to render texture values without Z or Color information. The NV40, Geforce 6800 series has full 16 pipelines that can process one texture and can render as much as 32 textures without Z or Color info. This means that in Doom 3, Nvidia's tech is likely to be much faster then ATI's R420. We heard as much as 50 per cent faster but we'll have to wait for the official release and do our own tests to verify that."
Kilde: http://www.theinquirer.net/?article=16782

Endvidere tilbyder Nvidia fortsat fuld driverunderstøttelse til Win9x/ME, mens Win9x/ME-festen sluttede med Catalyst 4.3 hos ATi - hvilket jeg ser som et alvorligt minus hos ATi.

Derudover kan jeg ikke finde bekræftet, at Half-Life 2 understøtter Shader Model 3 - tværtimod skriver HardOCP:

"One of the most anticipated games this year Half Life 2 uses Shader Model 2.0 extensively but only has a shader length of 30-40 instructions, not even coming close the 96 instruction limit in Pixel Shader 2.0."
Kilde: http://www.hardocp.com/article.html?art=NjA5LDI=

Personligt har jeg dog ikke travlt, og før Doom3 eller Half-Life 2 er udkommet og testet på forskellige grafikkort, regner jeg bestemt ikke med at købe hverken X800XT eller 6800Ultra - der er jo ingen grund til at købe skindet, før bjørnen er skudt...



ZybeR Cool skrev Wednesday den 23 June 2004 kl. 21:06: [ svar | nyeste ]
UST: "A good quality 350 Watt power supply with a sufficient 12V rail pull can support the 6800 Ultra standard clocks of 400/550"

http://www.hardwaretidende.dk/hard/artikel/04/05/17/0316793

så luk r****...inden du siger at vi er fans vi siger bare det vi læse på selv samme side [redigeret, webmaster]



Anders skrev Friday den 25 June 2004 kl. 00:52: [ svar | nyeste ]
Hmm jeg er sq ikke blevet klogere på hvilket kort man skal købe, man bliver bestemt ikke klogere ved at folk er begyndt at modsige hinanden og begyndt at starte en lille krig om hvem er bedst... men nok om det.. jeg hænger godt nok mest til X800 serien, men aligevel så har man ikke det, som det andet kort tilbyder osv.. tuff dessision.. måske ATI og Nvidia bare skulle slå sig sammen om denne her og lave et kort med det hele :) men ser vi nok først engang når jorden går under.


_-=LyngE=-_ skrev Saturday den 26 June 2004 kl. 19:35: [ svar | nyeste ]
ATI har valgt at fortsætte med at bruge Pixel Shader 2 i X800, og er derfor bagefter Nvidia på den konto. Dog er det nu muligt at bruge Pixel Shader programmer som har op til 1.500 instruktioner, og det vil være nok i X800´s levetid, så det er reelt ikke noget stort problem!!!


ZybeR Cool skrev Monday den 28 June 2004 kl. 13:29: [ svar | nyeste ]
nu har jeg os gået og tænkt men jeg har ved godt hva for et jeg vil købe, jeg vil købe asus dugaven af 6800ultra'et ikke fordi jeg har noget i mod ati. synes det er et kanon godt kort.. os at en jeg kender har det. men som sagt tror jeg ikke der er så meget forskell på korte os hvis i kigge på edbpriser.dk

lægger priserne os meget sammen, men ingen har tænkt på at de kan være lige gode og forskellen er kun i 3dmax??. det er hva jeg tror :P

synes lige jeg vil smide linket til asus: http://www.edbpriser.dk/Listprices.asp?ID=92043



Skøt skrev Wednesday den 30 June 2004 kl. 23:09: [ svar | nyeste ]
Hej Rune - Tak for en virkelig god og meget vigtig artikel, det er nok den mest betydningsfulde artikel jeg har læst omkring introduktionen af de to nye gpuér.

Begge kort er jo super hurtige - hurtige nok til at performance ikke er det eneste købs-parameter, især ikke på gt/pro level - hvor de pt. ser ud til at ligge utroligt tæt. (og jeg kan ikke få mig selv til at smide en tusse mere for topmodellerne)

Cpu-begrænsning: Også meget fint at du fastslår det med Cpu-begrænsningen, alt for mange sites har anmeldt med fx. p4-2.8 som tydeligvis begrænser ydelsen drastisk, navligt på x800xt, fx. fik guru3d.com en del kritik for en anmeldelse af 6800gt hvor den flere gange tangerede x800xt på en p4-2.8ghz, de har nu smidt en sammeligning op med hhv. P4-2.8ghz og AMD64 3800+ her kan man virkeligt se hvor glad x800xt er for en stor cpu - ja måske har vi endnog ikke set "toppen" af de nye kort endnu, pga. hastigheden på de nuværende cpu'er ? guru3d.com Highend CPU's vs High End Graphics cards http://www.guru3d.com/article/article/136/

Understøttelse og vigtighed af sm3.0/3dc: Dette er nok min største bekymring når jeg skal vælge mellem 6800gt eller x800pro (efterfulgt af støjniveau), jeg har defor søgt rundt på nettet efter yderligere informationer om dette, hvad understøttelsen angår er der jo fyldt med annonceringer af enten patch eller native-support for hhv. 3dc/sm3.0 fra diverse spil, såvel eksisterende som kommede. Desværre kan man frygte at sponsor-aftaler og lignende vil resulterre i en del "papir-understøttelser" der ikke reelt giver brugeren noget. Hvad vigtigheden af de to teknikker angår, er det straks sværre at finde lødig information, diverse forums er fyldt med fanboys der kaster om sig med udokumenterede og urealistiske påstande.

Jeg har dog fundet to (engelske) artikler hos 3dcenter.de der ananlysere de to chipsets, virkelig interesant læsning, der dog indimellem går over hovedet på mig: 3dcenter.de - Inside ATI's R420: http://www.3dcenter.de/artikel/r420_technik/index_e.php 3dcenter.de - inside nVidia NV40: http://www.3dcenter.de/artikel/nv40_technik/index_e.php

De lader til at underbygge påstandende om at nVidia formentligt har mere at hente ved fremtidige driver-optimering end Ati (idet nv40 er ny-designet, hvorimod store dele at r420 er bygget på den "gamle" arkitektur) De konkluderer at ATI er performance-kongen (dog med mindre afstand til nVidia denne gang) men at nVidia er feature-kongen (dog uden at det nødvendigvis gavner nogen her og nu)

Men hvad der er mere interresant, er at de underbygge et par påstande om hhv. 3dc/sm3.0 som jeg også er stødt på i forums, og som kom lidt bag på mig efter at have læst din artikel.

3dc: Her nævner de dels, at de mener at der nærmere er tale om en 2:1 ratio end en 4:1 for kompression af normal.maps: "It looks a bit strange to us, how ATI claims a compression ratio of 4:1. A tile with 4 x 4 = 16 values compressed with 3Dc takes 16 bytes. Since a common normal map has not necessarily to store alpha, these 16 values are using only 48 bytes . The actual ratio is 3:1 then. The trick with reconstructing Z is possible independent by 3Dc, so the effective compression is 2:1 only. DirectX already expose two-channel texture formats usable for storing normal maps." Og mere interresant, så lader de til at mene at funktionen primært vil blive brugt til performance optimering af de "normale" normal-maps, fremfor at implementere større normal-maps (og dermed ikke give os mere eye-candy, men "blot" en optimering, der ikke er så interresant, idet kortne jo allerede er yderst hurtige: "3Dc needs to be supported by the developers. The chip can only decompress such textures, the content has to be provided already compressed. ATI offers such tools free of charge. So, it is no big deal to implement it even for existing games: The application / engine has to determinate hardware support for 3Dc, then utilize a special FourCC texture format, and somebody has to compress all existing normal maps. Due to the lower memory consumption, this comes in handy for cards with "only" 128 MB. In addition, lower storage space means less bandwidth requirements, which can also result in a nice performance boost." Og igen i konklusionen: "While 3Dc (obviously based on DXT5) looks like quite a poor improvement compared to it's competitor's floating point TMUs, FP frame buffers, RAMDACs capable of applying tone mapping, full shader model 3.0 support including texture access from the vertex shader etc., normal map compression can be used instantly by developers and can boost performance in games using large amounts of bump mapping" Nogen der tør spå lidt om hvordan vi mest kommer til at se funktionen anvendt (i nye games) ?

Sm3.0: Her lader de til at understøtte en påstand jeg også har set på forums: "sm3.0 kan ikke (pt.) producere noget der ikke kan laves med 2.x - men det kan gøre det samme hurtigere, og er let at implementere, enddog i eksisterende games (patch) så vidt jeg forstår begrundes dette med at den har en "branch-funktion" der kaldes early-out: "Pixelshader 3.0 can speed up future and (with patches) existing games. It depends. We expect that Pixelshader 3.0 will be used in the not too distant future. Fortunately, this shader version is easy to implement. Even if ATI's new part will not support PS3.0, there are good chances that Pixelshader 3.0 will be used anyway." Og igen: "Overall, Shader Model 3.0 is a nice next step in the evolution. Compared to ATI's shader model, it's way more advanced. The common gamer of course does not need the features today. Developers, though, will be very pleased about their new toys." Hvad mener i, kan det tolkes derhen at sm3.0 i det næste lange stykke tid primært vil blive anvendt til at sætte farten op på effekter, der kunne være opnået med 2.x og først senere (hvis overhovedt) betyde ny "eye-candy" ? Og får de mon ret i at sådanne optimeringer ret hurtigt vil blive almindelige ? Endelig nævner de en funktion hos nv40 som kaldes HDR/MDR og som r420 tilsyneladende skal emulere, mens NV40 har den "indbygget" men her går det altså over hovedet på mig: "Take so-called HDR (which is in our books in fact Medium Dynamic Rendering, MDR). R420 has to fetch at least four FP texture samples, filter them in the pixelshader, and render to an FP texture. NV40 has built-in FP filtering up to 16x AF (done by TMU, offloading the pixelshaders) and can render to an FP frame buffer (this disables multisampling AA, we should mention). The "back-end" in HDR/MDR, tone mapping, can be done in NV40's RAMDAC-Logic while R420 has to utilize its pixelshaders. NV40 offers partly OpenEXR-support built-in with the chip. Real cinematic effects relying on such technologies (whatever names they may have). While R420 can render such content, it is not really designed for it. So we have to consider the R420 as an intermediate step." Nogen der kan give en pædagoisk forklaring,s amt vurdering af hvor meget betydning det måtte have/få ?

Jeg beklager den super lange post, men syntes indholdet var relevant nok til at undskylde det :-)



Rune skrev Thursday den 01 July 2004 kl. 10:56: [ svar | nyeste ]
Skriv du blot løs, det er bestemt intet uvæsentlig indlæg. Jeg har også læst disse artikler, problemet er efter min opfattelse blot, at man på papiret kan forestille sig meget udfra diverse specifikationer, men reelt er disse forestillinger komplet ligegyldige, såfremt de ikke direkte bakkes op af spil/programmer, hvor postulerede effekter kan ses. Eksempelvis indikerer billederne fra Serious Sam 2, at der er tale om ca. 4x forøget detaljeniveau og ikke 2x (lidt samme effekt som at nedskalerer eller opskalere teksturer i andre 3D-spil), omvendt ser Far Cry også fantastisk ud med NV40-understøttelse af SM3.0, men før Far Cry udgiver ny patch, så er det svært at vide, hvorvidt R420 også vil kunne udnytte denne i stort omfang. Dvs. tidligere fokuserede mange også på F-bufferen hos R350, men reelt var denne komplet ligegyldig (virker aktuelt kun under OpenGL), så jeg vil lade ydelse og billedkvalitet afgøre slaget, når ny patch til Far Cry samt Doom3 og Half-Life 2 ankommer - dvs. før dette sker, at alt blot (tomme?) gisninger om, hvad vi egentlig får ud af 3Dc og SM3.0. Og så må vi til den tid se, hvorvidt f.eks. 3DCenter har fat i den lange ende... Her er f.eks. endnu et billede, der illustrerer effekten af 3Dc (venstre side uden 3Dc, højre side med 3Dc:


Kilde: http://www.extremetech.com/article2/0,1558,1583549,00.asp

Dvs. uanset komprimeringsfaktor osv., så ser 3Dc ud til at kunne bibringe en væsentlig forøgelse og forbedring af detaljeniveauet (og så længe dette kan ses tydeligt med det blotte øje, og fungerer fint i praksis, så kan mange personer formodentlig være ubekymrede over, hvorledes denne effekt er relateret til hardwaren mm.)


ZybeR Cool skrev Wednesday den 30 June 2004 kl. 23:22: [ svar | nyeste ]
Men nu skal vi os huske at vilket folk vælger er grafikken ikke grimer med nogen af dem :P... alså tror sku hva for et x800 eller 6800 jeg vælger sparker den mit geforce 3 ti200 langt op i r**** (tror gerne webmasteren vil have det sådan) :D


Rune skrev Thursday den 01 July 2004 kl. 12:29: [ svar | nyeste ]
Såfremt enkelte af vore læsere skulle være i besiddelse af X800-baseret grafikkort, så er der netop udkommet et real-time demo, hvor effekten af 3Dc kan ses:

"This demo illustrates the use of the new 3Dc texture compression format, which is particularly suitable for normal map compression. It lets you compare quality between 3Dc and DXT5 normal maps, and it lets you compare the performance of using 3Dc and DXT compression over using uncompressed textures. The performance increase of 3Dc and DXT is well worth the effort. Some benchmark numbers:

No compression: 125fps
3Dc: 146fps (+17%)
DXT: 136fps (+9%)
3Dc & DXT: 158fps (+26%)

That's with a fairly advanced shader, and overhead for the shadowmap which moves lot of workload where textures aren't used. Without shadows the difference is even larger:

No compression: 164fps
3Dc: 210fps (+28%)
DXT: 195fps (+19%)
3Dc & DXT: 239fps (+46%)

Quality-wise the DXT5 is often usable, but in some situations it just won't cut it. 3Dc on the other hand gives very good quality for all normal maps I've tried. The demo also illustrates how to implement detail normal mapping. One normal map adds the large features, and on top of that another normal map is added that's sampled at a much higher frequency that adds the small details. Like with standard detail mapping for base textures this means you don't need to use very large textures to get a detailed image. A generic small or medium size detail normal map can be used together with a medium size normal map to get a final image that's easily comparable to a 4x4 times larger normal map. It will run with 3Dc on by default on Radeon X800 cards. On Radeon 9500 and up, and on GeForce 5200 and up, it will run but with DXT5 as the only normal map compression option."

Kilde og henvisning til download:

http://esprit.campus.luth.se/~humus/3D/index.php

Billede fra demo'en:



Rune skrev Friday den 02 July 2004 kl. 10:24: [ svar | nyeste ]
Så er NDA'en vedrørende patch 1,2 til Far Cry ophævet, og Shader Model 3 understøttelse er nu en realitet og virker kun på NV40-baserede grafikkort. Der er dog et par detaljer, dvs. der er ingen forskel i billedkvalitet, så Far Cry er ikke flottere grundet den nye patch. Den eneste forskel er, at SM3.0 medfører højere ydelse end SM2.0 - så i Far Cry handler SM3.0-understøttelse ikke om billedkvalitet men om billedrate. Efter mange forskellige test-resultater konkluderede Anandtech:

Both of our custom benchmarks show ATI cards leading without anisotropic filtering and antialiasing enabled, with NVIDIA taking over when the options are enabled. We didn't see much improvement from the new SM3.0 path in our benchmarks either... Even some of the benchmarks with which NVIDIA supplied us showed that the new rendering path in FarCry isn't a magic bullet that increases performance across the board through the entire game.
Image quality of both SM2.0 paths are on par with eachother, and the SM3.0 path on NVIDIA hardware shows negligable differences. The very slight variations are most likely just small fluctuations between the mathematical output of a single pass and a multipass lighting shader. The difference is honestly so tiny that you can't call either rendering lower quality from a visual standpoint."

Kilde: http://www.anandtech.com/video/showdoc.html?i=2102

Så Far Cry bliver næppe et markant argument for SM3.0 eftersom ydelsen ikke afviger særlig markant mellem 6800U og X800XT, og især da billedkvaliteten er den sammen. Nuvel, så kan man da håbe, at STALKER, HALF-LIFE 2 eller DOOM3 i større grad kan skille 6800U og X800XT, så det bliver nemmere at vælge...


Rune skrev Friday den 02 July 2004 kl. 13:27: [ svar | nyeste ]
Tech Report er nu også ude med vurdering af Far Cry 1,2:

"The new Far Cry patch does indeed seem to be a decent showcase for Shader Model 3.0's potential. The GeForce 6800 cards gain up to about 10% in average frame rates when using the SM3.0 code path. No, the differences aren't going to convert the masses into NVIDIA fanboys overnight, but they do show NVIDIA wasn't kidding about Shader Model 3.0 offering some advantages."

Læs det hele her:

http://techreport.com/etc/2004q3/farcry/index.x?pg=1


Skøt skrev Friday den 02 July 2004 kl. 10:42: [ svar | nyeste ]
Har også lige læst anandtech (men selvfølgelig var Rune hurtigere ;-)

Når man "kravler ned" på GT/PRO-niveau syntes jeg nu egentligt at der er en pæn performance forbedring, ikke noget helt vildt, men pænt.

Det jeg virkeligt gerne ville vide, er hvorvidt 3dc i fremtidige spil, primært vil blive anvendt til at "booste performance" på "normale" normal.maps, eller til at inkluderer mere detaljerede normal.maps - men det skal man jo nok være spåmand for at kunne svare på.

Og så er der stadig det spændende spørgsmål om hvorfor nvidia er konge over AA/AF i farcry, når det tilsyneladende er omvendt i andre games ?



Snekker`n skrev Sunday den 04 July 2004 kl. 04:08: [ svar | nyeste ]
Jeg har bestemt meg ,venter på 800 XT


GWiZ skrev Sunday den 04 July 2004 kl. 04:50: [ svar | nyeste ]
Skøt: jeg vil da umiddelbart tro at det kommer an på implementøren, hvad 3Dc skal bruges til. Det virker som det kan bruges til begge dine forslag.


Skøt skrev Sunday den 04 July 2004 kl. 09:30: [ svar | nyeste ]
@GWiZ: ja netop... det er jo derfor det er spændende om det primært vil blive brugt til pænere normal.maps (hvilket i min bog ville gøre det til en vigtig feature). Eller primært vil blive anvendt til et performance gain (mindre vigtigt i min bog). Så hvis bare jeg havde en krystal-kugle, eller 200 telefonnumre til game.developers ;) - så ville det blive letere for mig at vælge mellem x800pro og 6800gt :)


zkum skrev Tuesday den 20 July 2004 kl. 16:05: [ svar | nyeste ]
Lækker artikel, vildt nyttig :D


speed skrev Friday den 20 August 2004 kl. 09:51: [ svar | nyeste ]
køb geforce, så er i sikker på alle spil kan kører. for mange problemer med ting der ikke kan køre på radeon kortene!!!


Rune skrev Friday den 20 August 2004 kl. 10:01: [ svar | nyeste ]
Hvilke applikationer mener du?

Her kan du se omfattende test af fejl i PC-spil, og Nvidia er bestemt ikke bedre stillet end ATi (GeForce 6800 Ultra associeret med 4 uløste fejl (Forceware 61.77), X800Pro med 3 uløste fejl (Catalyst 4.7):

http://www.digit-life.com/articles2/digest3d/0704/itogi-video-gallery-bugs.html

Af de 3 problemer med X800Pro skulle den nye Catalyst 4,8 driver have fjernet mindst 1 problem (Thief 3), så formodentlig risikerer du flere fejl i 3D-spil med GeForce 6800 Ultra end X800-baseret grafikkort (baseret på fund hos Digit-Life).


Rune skrev Thursday den 28 October 2004 kl. 10:35: [ svar | nyeste ]
Som en af vore læsere ved navn J. Skøt skrev, så har HardOCP netop set nærmere på Far Cry med og uden patch 1,3:

http://www.hardocp.com/article.html?art=Njc4

Der var dog ikke megen ekstra ydelse at hente, og det mest interessante var således muligheden for aktivering af High Dynamic Range Rendering (HDR) på Nvidia NV40 grafikkort. Det korte af det lange ser således ud til at være, at Far Cry og Doom3 nu er særligt gode argumenter for NV40, mens vi fortsat må afvente betydningen af Half-Life 2 og Serious Sam 2.


Gandalf skrev Thursday den 28 October 2004 kl. 13:52: [ svar | nyeste ]
Jeg må give forfatteren til den artikel ret: Selvom HDR vireligt koster performance, så kan jeg udemærket godt spille i 1280*1024 @ HDR, hellere end 1600*1200 uden HDR. Og det kan virkelig kun ses in-motion, hvis man vil have et ordentlig intryk af, hvordan det ser ud. Jeg bliver gladere og gladere for mit 6800GT som tiden går :)

Fik også 74 FPS i Source Stress Testen med følgende settings: 1600*1200 4XAA 8XAF absolut ALT på max, ingen vertical sync (det fraråder Valve faktisk også). Prøvede samme settings, bare med 2XAA, fik så 88 FPS, så jeg kommer nok til at spille med 4XAA. 19 dage :D



Kiwi skrev Thursday den 28 October 2004 kl. 15:27: [ svar | nyeste ]
Her er der en demo af HDR som kan køre på alle DX9 kort: http://www.daionet.gr.jp/~masa/rthdribl/ . Vil godt indrømme at jeg godt ville have haft HDR i Far Cry. Men selvom HDR i OpenEXR udgaven ser kanon ud, kræver det også ekstremt meget af hardwaren. Det ser mere eller mindre ud til at man kan vælge mellem 4xAA/ 8xAF og HDR, de "koster" nogenlunde det samme. Dvs. selvom 6800 nok har mulighed for OpenEXR, vil det nok ikke blive en efterlyst feature i forhold til andre udgaver af HDR. Har du husket reflect world Gandalf? ;-) Er dog ikke i tvivl om at nVidia nok skal komme til at spille HL2 godt, bare se hvor meget ATI efterhånden har vundet i D3... Har ikke selv mulighed for at køre VST da jeg først får internet derhjemme i forbindelse med udgivelsen af HL2.



Gandalf skrev Thursday den 28 October 2004 kl. 22:34: [ svar | nyeste ]
OpenEXR er efter hvad jeg har læst, den aktuelt mest populære måde, at implementere højkvalitets-HDR i realtime grafik, dvs. i spil, fordi den kan levere en glimrende HDR-effekt, samtidig med at ydelse ikke ryger totalt ud af vinduet. Og så er det endda stadig kun i betastadiet, så man kan da håbe på forbedret ydelse i eventuelle kommende patches. Om jeg har husket Reflect World? Jeg har skam husket Reflect All ;) Det er sjovt, som ATI's fordel falder og falder i HL2. Først sagde Gabe Newell 40% i en udtalelse for et stykke tid siden. Så sagde Doug Lambardi (eller hvad han nu hedder) 30% i et interview på IGN. Og så har Doug nu sagt 20% i det seneste interview... De ender garanteret med at stå meget lige, især 6800GT og X800 Pro. Og jeg må indrømme at jeg ikke længere tror på, at 3Dc kan gøre sådan en stor forskel. Har egentlig slet ikke hørt om, hvordan 3Dc endte med at se sig ud i Tribes: Vengeance, er der nogen her, der ved det?


Kiwi skrev Friday den 29 October 2004 kl. 11:33: [ svar | nyeste ]
Jeg er ikke klar over hvor mange udviklere der har valgt at bruge OpenEXR i deres titler. Men det er en forholdvis ny teknik på PC platformen og, efter mine oplysninger, skal du stadig konvertere slutresultatet til sRGB HDR for at vise det på skærmen. Dvs. OpenEXR bruges i beregnings fasen, mens sRGB bruges i renderings fasen. ATI har ikke direkte hardware support for OpenEXR men kan sagtens lave det med en lille smule tilpasninger fra programmørens side, derimod har ATI hardware (inklusive alt andet R300 baseret hardware) hardware support for sRGB HDR. Grunden til at Crytek ikke har lavet support for ATI er at de har valgt at bruge floating point blending, det understøtter ATI kortene ikke. Hvorfor de har valgt denne måde er fordi det skulle give den bedst mulige kvalitet. Det er i den forbindelse værd at bemærke at tidlige interviews med Crytek programmører nævnte at nVidia ville bruge FP32 blending, men de bruger kun FP16 i patchen. Det kunne være et udtryk for at hardware implementeringen af OpenEXR ikke fungerer så godt som ventet (måske er den permanent i stykker som deres video processor ;-)). Så jeg tror stadig ikke at "only nVidia HDR" bliver særlig populært..... En anden ting, hvis nVidia er så sikker på deres "overlegne" implementering af HDR hvorfor så ikke bare bede Crytek om at lave OpenEXR FPP16/32 og nakke X800 ydelses mæssigt?

Nice nok med dine VST resultater, de ligger i samme område som 6800ultra med 66.81 driver :-) Det er dog stadig beta drivere og der er ingen garanti for at de ikke laver artifacts (i stil med den shimmering mange 6800 brugere ser i CS Source), når først mange forskellige effekter skal køre sammen i Halflife 2. Hvis man nu tager Far Cry er det et TWIMTBP spil, det bruger bla. DST og Crytek har arbejdet tæt sammen med nVidia. Alligevel ligger ATI tit øverst i benchmarks, så hvordan mon ydelsen bliver i et lignende spil hvor de ikke har haft mulighed for at påvirke programmørerne? Men ok, jeg har ingen problemer med at spille D3 i 1600x1200 ultra high med 2xAA. Så mon ikke nVidia vil klare sig ok i HL2 også?

Mht. 3DC i Far Cry kan man kigge på den forrige patch (1.2) der var 65mb stor, dvs. kun 10mb mindre end 1.3.... På de 10mb har de formået at implementere 3DC til X800, HDR og V8U8 til 6800. Nu er jeg ikke klar over hvor mange normal maps der er erstattet i Far Cry eller hvor store de er, men 10mb er godt nok ikke ret meget til to nye texture formater og HDR..... Så logisk set burde det heller ikke give det store udslag i benchmarks.... Der er ingen tvivl fra programmørers side at 3DC vil kunne give et hastigheds boost, dog mest kvalitets boost i forhold til DXT5. Men 3DC har et problem, det er ikke nemt at slippe af med mipmapping artifacts. Den mest brugte måde til at slippe af med disse artifacts er at variere længden på normal maps, men da 3DC ikke har en seperat længde komponent men derimod udregner den fra de to andre komponenter kan man ikke bruge den metode.... (Ved dog ikke om jeg har fattet det helt korrekt ;-)). Så selvom folk er enige om at 3DC afgjort er at godt format, ser det ud til at spillet fra starten af skal laves til at understøtte 3DC.

Jeg har faktisk Tribes Vengeance :-) Jeg har dog ingen anelse om hvordan jeg laver en benchmarks, men det kører perfekt i 1280x1024 absolut max i alt, 4xAA/ 16xAF. Jeg har heller ikke kunnet finde nogen info om 3DC, der er en på deres forum der har spurgt om det men der er ikke kommet noget svar endnu....



MaLk^ skrev Wednesday den 17 November 2004 kl. 11:52: [ svar | nyeste ]
Gandalf: har du ikke et link til der hvor valve fraråder at bruge vsync?


Rune skrev Wednesday den 17 November 2004 kl. 12:51: [ svar | nyeste ]
Under alle omstændigheder vil manglen på vsync forårsage en uacceptabel billedkvalitet, eftersom billedraten ikke synkroniseres med skærmen (hvilket er årsag til "screen tearing", dvs. fremvisning af ufuldstændige billeder). Så deaktiveret vsync er udelukkende interessant for entusiaster, såfremt man ønsker at teste cpu eller grafikkort - under normal spilafvikling er det uhyre vigtigt, at vsync altid er aktiveret.


Info
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:

Om os

Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.



Startside
Lad HardwareTidende blive din startside: Klik her

Eller hvis du kun vil tilføje os til dine foretrukne: Klik her

Copyleft © 2000-2004 HardwareTidende