Radeon X800Pro og X800XT Platinum Edition mod GeForce 6800 Ultra
af Webmaster Wednesday den 05 May 2004 kl. 14:48 [ Grafikkort ] Både ATi R420 (Radeon X800) og Nvidia NV40 (GeForce 6800) er nu langt om længe udkommet. Oprindelig havde flere nok regnet med at se bl.a. R420 i efteråret 2003, men der skulle dog gå mere end 6 måneder, før ATi løftede sløret for deres næste generation af high-end grafikkort. I denne omfattende artikel ser vi nærmere på, hvorledes Radeon X800Pro og X800XT, der begge er baseret på R420-chipsættet, klarer sig mod GeForce 6800 Ultra, GeForceFX 5950 Ultra og Radeon 9800XT.
Radeon X800Pro og X800XT ser begge således ud og kan kun adskilles ved at nærstudere diverse ram-chips
1.0 INTRODUKTION
Der findes allerede et meget stort antal artikler på internettet om R420, hvorfor vi i denne artikel først og fremmest vil være fokuseret på ydelse. Det kan dog nævnes, at R420 umiddelbart virker som en stærkt forbedret version af R300 (f.eks. Radeon 9700 Pro), dvs. R420 tilbyder op til en fordobling af pixel pipelines (X800XT har 16 pixel pipelines, mens 9700 Pro har 8) og 50% flere vertex shadere (X800XT har 6 vertex shadere, 9700 Pro har 4). Dette skema opsummerer flere forskelle:
Nvidia introducerede med GeForce 6800 Ultra understøttelse af Shader Model 3.0, mens ATi ikke tilbyder dette med Radeon X800-serien. Dvs. udover mere råstyrke, så ser R420 ikke ud til at tilbyde flere avancerede egenskaber ifht. 9800XT, end 9800 Pro gjorde ifht. 9700 Pro. Flere sites nævner dog, at R420 tilbyder "temporal" FSAA (kantudglatning) og anisotropisk flitrering, men også dette skulle principielt være noget, som selv Radeon 9700 Pro understøtter - læs evt. mere her:
Som noget nyt besidder R420 dog "3Dc Normal Map Compression", hvilket burde kunne medføre forbedret ydelse i spil som Far Cry, der netop benytter sådanne egenskaber (Doom3 og Half-Life 2 ser ligeledes kunne drage nytte af dette, da også disse spil ser ud til at understøtte denne avancerede form for bump mapping).
Det springende punkt, når vi sammenligner NV40 og R420, ser således fortsat ud til at være betydningen af Shader Model 3.0. Nvidia har allerede fremvist flere spil, der angiveligt skulle drage fordel af Shader Model 3.0, men indtil videre er der ingen klare beviser for, at Shader Model 3.0 understøttelse det næste års tid skulle være bedre end den understøttelse af Shader Model 2.x, som R420 tilbyder. Og eftersom spilprogrammører nu vil kunne få Shader Model 2.0 effekter til at virke optimalt på meget stort anntal grafikkort, mens Shader Model 3.0 kun vil virke på NV40-baserede grafikkort, så kan man gætte på, at kun få programmører vil opleve det som tidssvarende at investere arbejdstid i understøttelse af Shader Model 3.0. Faktisk understøtter meget få spil aktuelt Shader Model 2.0 - dvs. selv i Far Cry kunne Firingsquad ikke se forskel på Shader Model 1.1 (GeForce4 Ti) og Shader Model 2.0:
"After further analysis with Far Cry, it turns out the game isn’t quite the technological tour de force we suggested... In fact, from what we can tell, Far Cry mainly uses 1.1 shaders to achieve the jaw-dropping visuals we discussed in the intro. In laymen’s terms, this means that NVIDIA’s three-year old GeForce3 GPU is capable of reproducing most of Far Cry’s brilliant eye candy, although at a significantly reduced frame rate... It turns out that Far Cry uses 1.1 shaders for rendering water, even in ultra high quality mode, which renders even more reflections on the water than the other modes"
Kilde: http://www.firingsquad.com/hardware/far_cry_nvidia/
Så meget tyder på, at understøttelse af Shader Model 2.0 langt fra er hverdagskost selv i Far Cry, som vel er det hidtil mest avancerede PC-spil. Vi vil dog lade denne diskussion ligge, da alt er ganske spekulativt, før vi ser første implementeringer af Shader Model 3.0; men indtil videre tyder meget på, at blot omfattende understøttelse af Shader Model 2.0 ville være et stort fremskridt. Ønsker man at kende flere detaljer mht. X800-serien, så anbefaler vi gennemlæsning af disse artikler:
Et af de mest alvorlige problemer ved GeForce 6800 Ultra er effektforbruget, som Nvidia har estimeret til max. 110 watt (og dermed formodentlig 120 - 125 watt for GeForce 6800 Ultra Extreme), hvorfor Nvidia implementerede to strømstik i dette grafikkort og aktuelt anbefaler strømforsyning på 480 watt. Senere har det dog vist sig, at en god strømforsyning på f.eks. 350 watt sagtens kan klare GeForce 6800 Ultra:
"To test our 12V rail theory out, I installed the GeForce 6800 Ultra Extreme in my personal system. It’s an Epox KT333-based motherboard with an Athlon XP 2100+, 512MB DDR266 memory, SB Live!, Promise RAID controller card, and 3Com 10/100 NIC. I also have my system outfitted with four hard drives, a DVD-ROM drive, and a CD-R/RW burner (for those of you who were wondering, I’ve been running it with a RADEON 9800 PRO 256MB). On the power side, the real gem is the Enermax Whisper Quiet EG365P-VE PSU I purchased over a year ago to go with my Cooler Master aluminum case (it’s one of the later model ATC-110 series cases with exhaust/intake fans, before they messed it all up with the Wavemaster line). This PSU is only 350 watts total, but capable of delivering up to 26A on the 12V rail, four amps more than the Antec TruePower I bought at Fry’s a few weeks ago for the 6800 Ultra test bed. As theorized in our 6800 Ultra preview article, the system ran flawlessly with this setup. 3DMark 03, Call of Duty, and UT 2004 all ran with complete stability on a 350-watt power supply with GeForce 6800 Ultra. Clearly, NVIDIA’s 480-watt PSU recommendation errs on the side of extreme caution, as a high quality sub-$50 350W PSU like the Enermax EG365P-VE can be used with no problems."
Kilde: http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/
Og også dette spanske site anvendte Enermax 350 watt strømforsyning uden problemer (endda med Northwood 3,4 GHz cpu):
Benytter man en hurtig Prescott cpu (dvs. P4 med 1MB cache), så er det dog sandsynligt, at strømforsyning på 400 watt eller bedre er påkrævet. Nuvel, denne artikel handler ikke specielt om NV40, men om R420, blot blev vi nødt til at nævne ovenstående, så vi ikke kom til at kritisere GeForce 6800 Ultra for at kræve 480 watt strømforsyning på usagligt grundlag. Nuvel, tilbage til R420; formodentlig grundet lavere transistorantal, GDDR3-ram og en "low-k" 0,13 mikron fabrikationsproces, der svarer til den fabrikationsproces, som Radeon 9600XT blev baseret på, er det lykkedes for ATi at reducere effektforbruget ganske betragteligt på X800XT (og især X800Pro); dvs. generelt bruger selv X800XT mindre effekt end 9800XT, men mht. spidsbelastning kræver X800XT dog en smule mere effekt end 9800XT:
Her måles effektforbruget for en hel PC; vi kan dog se, at GeForce 6800 Ultra medfører medforbrug på 25 watt. Det interessante er dog, at der kun er 1% forskel på at anvende Radeon 9800XT og X800XT - og dette er vel en fantastisk nyhed, da ejere af 9800XT således burde kunne skifte direkte fra 9800XT til X800XT uden skyggen af problemer. Endvidere gælder, at kølesystemet på X800Pro og XT var relativt støjsvagt (allerede nu er de første ICEQ-modeller endvidere på vej); her er oplevelse af standardkøleren på X800-baserede grafikkort:
"At first glimpse, the cooler is reminiscent of that of the Radeon 9800XT. Closer inspection reveals that it is slightly smaller, however, since the heatsink does not additionally cool the memory modules on the X800 series. Thanks to the fact that the chip doesn't produce a large amount of heat, this comparatively moderate cooling solution is completely sufficient."
Kilde: http://www.tomshardware.com/graphic/20040504/index.html
Og:
"The same ducted design used on the RADEON 9800 XT is still in place on both X800 cards. Air enters through the card’s fan where it passes between the heatsinks fins before exiting out the right side and upper portion of the duct. The fan itself is large yet quiet. With many more fins present the fan doesn’t have to spin up to the high RPMs used by GeForce 6800 Ultra, resulting in a card that generates a lower noise level."
Kilde: http://www.firingsquad.com/hardware/ati_radeon_x800/
Det korte af det lange er således, at ATi X800XT er milevidt foran Nvidia GeForce 6800 Ultra, når det gælder lavt effektforbrug og støjniveau med standardkøler. Dermed ikke skrevet, at der ikke vil ankomme særligt støjsvage udgaver af GeForce 6800 Ultra (Extreme), men effektforbruget vil Nvidia ikke kunne konkurrere med. Dog vil enkelte nok mene, at højt effektforbrug kan tilgives, såfremt ydelsen er tilsvarende god. I det følgende vil vi derfor se nærmere på ydelse i forskellige 3D-spil i 1600x1200-skærmopløsning med og uden 4xFSAA og 8xANI, eftersom både NV40 og R420 direkte er rettet mod høj ydelse i meget høje opløsninger. Bemærk, at vi har udvalgt resultater fra flere forskellige testsites, som alle har anvendt high-end cpu, ram og bundkort samt nyeste drivere. Ønsker man at se fuldstændige specifikationer mht. de hardwareopsætninger, der er basis for bestemte testresultater, så følg den kildehenvisning, der står under hvert billede.
2.0 YDELSE I AKTUELLE 3D-SPIL
Vi har valgt ikke at inkludere mere end ét spil, der er baseret på Quake3 Arena enginen, da vi anser denne 3D-engine for at være ganske forældet. Dog er Call of Duty modificeret i stor grad, så dette spil får hermed lov til at repræsentere diverse Q3A-baserede spil (kun resultater fra sites, der har testet X800XT, X800Pro, GeForce 6800 Ultra, GeForceFX 5950 Ultra og Radeon 9800XT er inkluderet, så eksempelvis resultater fra Firingsquad kan desværre ikke bringes):
Der er flere forskellige målinger fra Call of Duty, og hos XBitLabs vinder X800XT stort i dette spil. X800XT taber til GeForce 6800 Ultra hos Tom's Hardware i dette spil (uden FSAA og ANI), så vi lader Tom's Hardware tilføje lidt balance:
Et spil kan medføre ganske forskellige resultater afhængigt af, hvor i spillet en test afvikles. Derfor kan man opleve ganske modstridende resultater fra samme spil, hvis man sammenlinger resultater fra flere sites; men i stedet for at præsentere et stort antal billeder fra Call of Duty, så vil vi i stedet præsentere kun to billeder fra hvert spil i denne artikel (med og uden 4xFSAA og 8xANI) og til slut se nærmere på, hvilket grafikkort der udviser bedste gennemsnitlige tendenser. Vi fortsætter med Far Cry:
Atter stort nederlag til GeForce 6800 Ultra, så meget vil formodentlig afhænge af, hvor vigtig Shader Model 3.0 bliver i dette spil. Mens vi er ved de særligt krævende spil, så lad os fortsætter med Tomb Raider AOD:
Endnu en sejr til X800XT, der dog også har meget stor fillrate (jvf. andet billede i denne artikel). Lad os se, hvor meget det betyder at aktivere 4xFSAA og 8xANI:
Dette spil understøtter ikke FSAA korrekt, så her inkluderer vi kun resultater uden FSAA og ANI (eftersom billedraten er under 60, så ville 4xFSAA og 8xANI endvidere næppe være ønskeligt i dette spil):
I dette OpenGL-baserede spil vinder 6800 Ultra, dog ser det ud til, at 6800 Ultra er cpubegrænset i dette spil. Lad os se, hvad der sker, når 4xFSAA og 8-16xANI aktiveres:
Forspringet til X800XT er markant ifht. 6800 Ultra, hvilket indikerer, at ATi atter har været særligt gode til at implementere FSAA og ANI. Vi fortsætter med Half-Life 2 i alfa-udgave:
Her er X800XT næsten 2,5 gange hurtigere end 9800XT, hvilket må siges at være en fantastisk bedrift. Med 110 FPS i 1600x1200 (her på Athlon 64 3400+) burde det endvidere være muligt at aktivere 4xFSAA og 8xANI:
Begge X800-varianter vinder her over 6800 Ultra, mens 9800XT og 5950 Ultra atter beviser, at disse grafikkort nu tilhører den nye mellemklasse. Hvad med gode gamle Tron 2.0, som kun er testet af XBitLabs?
Sådanne resultater indikerer, at vi nu skal op i ca. 2048x1536-skærmopløsning, hvis vi uden FSAA og ANI skal se størst mulige forskelle på aktuelle high-end grafikkort. Men aktiveres 4xFSAA og 8xANI, så er 1600x1200 stadig en stor kamel at sluge - medmindre man anvender X800-baseret grafikkort:
For at mindske vægten af testresultater fra XBitLabs (der også har testet dette spil med og uden 4xFSAA og 8xANI), så medtager vi her også resultater med 4xFSAA og 8xANI fra Tom's Hardware:
Denne test virker også cpubegrænset i noget omfang, så der er desværre næppe blevet testet i snevejret på planeten Hell, som nok er det mest grafikkortsbegrænsede sted i spillet. Nuvel, resultater med 4xFSAA og 8xANI presser dog diverse grafikkort til det yderste:
Der er mange andre spil, som vi kunne bringe uddrag fra, dog vil vi stoppe her og lade S.T.A.L.K.E.R. - The Shadow of Chernobyl (alfa) få de sidste billeder:
Her er X800XT samlet vinder, men er dog kun 5% foran 6800 Ultra. X800Pro kunne ikke helt følge med 6800 Ultra, dvs. 6800 Ultra er 8% hurtigere i gennemsnit end X800Pro. De store tabere er 9800XT og 5950 Ultra, som kun leverede ca. halvdelen af, hvad X800XT kunne præstere. Alt tyder således på, at ATi atter har leveret det hurtigste grafikkort i 1600x1200 uden FSAA og ANI, men lad os se, hvad der sker, når 4xFSAA og 8-16xANI inkluderes i 1600x1200:
Med 4xFSAA og 8-16xANI forøger X800XT forspringet til GeForce 6800 Ultra, så forskellen bliver på 13%, hvilket selv ikke GeForce 6800 Ultra Extreme burde kunne indhente. Atter kan X800Pro ikke indhente 6800 Ultra, men må acceptere, at 6800 Ultra er 9% hurtigere. Hverken 9800XT eller 5950 Ultra formår at yde mere end max. ca. halvdelen af X800XT.
Konklusionen må således være, at X800XT tilbyder bedste ydelse og laveste effektforbrug, mens GeForce 6800 Ultra som eneste grafikkort tilbyder understøttelse af Shader Model 3.0. Eftersom der ikke findes sikre eksempler på, at Shader Model 3.0 vil få stor betydning foreløbigt, så må vi afslutningsvis konkludere, at X800XT Platinum Edition aktuelt virker som mere attraktivt grafikkort end GeForce 6800 Ultra. Diverse Radeon X800-baserede grafikkort vil formodentlig ankomme til Danmark i starten af juni og sandsynligvis koste ca. kr. 3.500,00 - 4.000,00 for Radeon X800Pro og ca. kr. 4.500,00 - 5.000,00 for Radeon X800XT Platinum Edition.
Tobias skrev Wednesday den 05 May 2004 kl. 14:59: [ svar | nyeste ]
God og omfattende testresultater, der viser det de fleste nok havde forventet. Men lur mig om nVidia ikke snart disker op med et eller andet kram, der slår X800XT.. (nok efterfulgt af ATI..osv. osv. osv.) :)
port255.ds1-ry.adsl.cybercity.dk skrev Wednesday den 05 May 2004 kl. 14:59: [ svar | nyeste ]
Prut og pølle det er et hurtigt kort, men mon ikke at Nvidia har et eller andet i ærmet!?.
M skrev Wednesday den 05 May 2004 kl. 15:00: [ svar | nyeste ]
Det var da på tide!
Det ser jo næsten uhyggeligt ud. Godt gået ATI!
Nu ved jeg hvad der mangler i min PC her til efteråret :)
M skrev Wednesday den 05 May 2004 kl. 15:03: [ svar | nyeste ]
......men Rune, tror du det kan betale sig at vente på PCI-express versionen?
Rune skrev Wednesday den 05 May 2004 kl. 15:23: [ svar | nyeste ]
Det vil undre mig, hvis PCI Express medfører større forskel end AGP8x gjorde ifht. AGP4x, så mit umiddelbare svar vil være et "nej".
Anarchy skrev Wednesday den 05 May 2004 kl. 15:04: [ svar | nyeste ]
Sig mig, har du fået penge af ATi ???
Den artikel er totalt biased....
Enhver idiot ved jo at nVidia er tilbage på tronen og har slagtet ATi...
Aldrig nogensinde ATi med deres lortedrivere...
nVidia all the way!!!
Rune skrev Wednesday den 05 May 2004 kl. 15:21: [ svar | nyeste ]
Diverse testresultater er tilfældigt udvalgt, dvs. vi har ingen anelse om det færdige resultat, før diverse resultater sluttelig blev lagt sammen. Havde du forventet, at Nvidia ville vinde, så siger dette vel en del om, hvem der besidder "bias" :-) Her på sitet er vi i øvrigt ganske ubekymrede over, hvilken virksomhed, der producerer bedste grafikkort - det eneste som er centralt er bedste ydelse, design og kvalitet, og her har vi ingen logiske argumenter for at favorisere Nvidia fremfor ATi mht. drivere - tværtimod ser det ud til, at Nvidia har problemer med deres drivere, se evt. disse resultater fra Star Wars - Knights of the Old Republic, som vi dog undlod at inkludere i ovenstående artikel:
Se nu artiklen igennem og lig mærke til at resultaterne kommer fra mange store internationale sites... men dem har ATI vel også købt.
Men naturligvis er du skuffet, nu har nvidia fået røv af ATI i mange år, og så havde du lige forventet modsat, men sådan gik det jo så ikke.
Se det på den lyse side, jo mere konkurrence, jo lavere priser.
ang. drivers, så vil jeg ikke røre nvidia med en ildtang, inden for den sidste md. er de blevet bustet for 3 snyd-optimeringer i deres drivers S:
Fedt at købe et kort til 5k, og så får man et kort der er hurtigt på bekostning af IQ :S
port182.ds1-sdb.adsl.cybercity.dk skrev Wednesday den 05 May 2004 kl. 15:06: [ svar | nyeste ]
Super fed artikel, der elegant koger alle de andre reviews ned til noget overskueligt. Og tjahh - "lille" ATI viser igen storebror Nvidia hvordan man laver grafikkort :)
Nvidia har foretaget omfattende ændringer i deres design for at lave NV40; men ATI har ikke ændret deres design på omfattende måde siden r300 - det synes jeg siger noget om forholdet mellem ingeniørerne i de 2 firmaer!
Det er da mest sandsynligt, at ATI har nogle (grafik)kort i ærmet :)
Ja de skubbede r420 til r500, meeeen jeg tror ikke bare lige de smider det ud nu her med det samme, de skal jo også tjene penge på den nuværende r420, men måske omkring jul, medmindre de kan presse r420 mere ud og lave nogle XT XT modeller :)
Niels skrev Wednesday den 05 May 2004 kl. 15:29: [ svar | nyeste ]
Fin artikkel Rune....
Det ser umiddelbart ud til, at ATI tager røver på nVIDIA igen, men lad os nu se hvad nVIDIA finder på. De kan da ikke tolerere at få bank igen...
Jeg tror ikke Nivdia har flere kort på ærmet, bagefter GeForce 6800 Ultra, kom: "GeForce 6800 Ultra Extreme", som jeg tror var det sidste kort de havede på ærmet... Der er simpelhen ikke andet en at sige: "ATi vandt igen!"
Her når jeg snart skal til at opgradere, vil jeg sikkert købe et dejlig Hightech IceQ X800XT 256RAM, som er rimeligt støjsvagt.
apfe skrev Wednesday den 05 May 2004 kl. 15:33: [ svar | nyeste ]
God artikel!!!
Burde der ikke være mellemrum "procent-rang-fordelingen" (?) og kommentaren til testen, i den test af breed demo'en med 4XFSAA og 8XAniso i 1600x1200?
Rune skrev Wednesday den 05 May 2004 kl. 15:35: [ svar | nyeste ]
Det er ikke særligt smart at beskylde andre for at være "biased" når man selv slutter af med denne sætning: "nVidia all the way!!!"
Og nej.. jeg er ikke en ATI-Fanboy. Jeg er fan af ydelse pr pris :)
(Hvilket så betyder at min PC park har ca lige mange ATI og nVidia kort da jeg køber et nyt kort ca hvert halve år fra mellemklassen)
Generelt: Hvorfor har folk sådan et forhold til et hardware-mærke ? (Man ser det samme med AMD <> Intel) Det er åbenbart ikke nok for dem at de skal betale for ydelsen.. de er også nødt til bagefter at overbevise andre (og sig selv) om at de i hvert fald har valgt det eneste rigtige.
hold da kæft det er hurtigt! det første shock kom da vi så geforce 6800... men nu det her?!! det er noget af en revolution der er kommet på grafikkort markedet, men den har vi jo også ventet på siden vi så 9700 første gang.
og til folk som anarchy:
hvae', har du ligget under en sten de sidste år, eller er du virkelig så blind?!
PeterA skrev Wednesday den 05 May 2004 kl. 15:51: [ svar | nyeste ]
Så er der dømt vand på møllen igen drenge: Nvidia fik ikke mange dage på "tronen" som nr. 1...
Man skulle næsten tro at det var med vilje at de ventede en uges tid med at "slå til" - bare så Nvidia lige kunne få armene op...
Det er jo lige som et skakspil: Skakmat!!!
Jeg er på ingen måde skadefro, eller tilhænger af den ene frem for den anden, MEN en god konkurrence hvor vi som forbrugere får nogle super grafikkort - til en rimelig pris (i hvert fald en gang til efteråret)
Tak for det ATI & Nvidia!
Cheers
sol skrev Wednesday den 05 May 2004 kl. 16:13: [ svar | nyeste ]
som man kan se er nvida 6800U hurtigere end 800pro.... hvis prisen bliver den samme jeg så er nvidia klart mit køb........
jeg tvivler dog på at nvidia 6800UE kan vinde over 800xtP... (måske uden fsaa og ani) men nok ikke med alt slået til....
6800 Ultra er i øjeblikket 100$ dyre end X800 Pro.
Og taget i betragtning af det, og at X800 Pro i visse tilfælde er hurtigere end 6800 Ultra må det siges at være rigtig godt gået af ATI.
Plus du ikke behøver at ofre penge på ny PSU, hverken til X800 XT Platinum Edit. eller X800 Pro.
Hehe ja lad os da endelig få en diskution om Nvidia vs ATI.
Men 3500 til 4000 kr, er de da helt forykte, det er der da ingen, med sine fulde fem, der vil ryste op med, hva ?? :-)
Men er der ikke en som kan fortælle mig hvornår det så falder til 2500 kr, så vi andre fattigrøve kan være med. :-)
0x50c53033.albnxx10.adsl-dhcp.tele.dk skrev Wednesday den 05 May 2004 kl. 16:53: [ svar | nyeste ]
Du kan købe 9800XT til omkring 3.000 kroner nu, så hvis du vil vente med at købe til et af de nye High-end kort falder til 2.500kroner, skal du nok vente i _lang_ tid. Jeg kunne forestille mig omkring 6 måneder mindst, ihvertfald indtil der kommer noget nyt fra producenterne :]
PS. jeg kunne godt forestille mig at bruge 3-4.000 kroner på et x800pro, hvis det medfører at jeg kan spille de fleste spil i 1600x1200 ;]
sol skrev Wednesday den 05 May 2004 kl. 16:46: [ svar | nyeste ]
-holgerdanske- 800pro er nu, ikke lige så hurtig som 6800U, 68ooU er noget hurtigere i mange ting, og i farcry er 800pro kun 2 fps bedre... men som artiklen siger 6800 Ultra er 8% hurtigere i gennemsnit end X800Pro... men 100 dollers er godt nok meget.... men den ligger jo mellem 800pro, og 800xt så det gør prisen vel også??? oder was??
Indtil videre er Geforce 6800 Ultra prissat på samme niveau som ATI X800XT.
Det er så svært at sige om prisen bliver fasthold, med påsagnet om at 6800 er DirectX 9c (Shader Model 3 osv.) kompatibelt og det så opvejer hastighedsforskellen.
Men det kan også ende med en priskrig, og det kan vi jo så kun håbe.. ;-)
Jeg mener nu at shader v.3 ikke kun er en del af 9c, men har været der fra første version af directX9.. I al fald ifølge dokumentationen!
Mick skrev Sunday den 09 May 2004 kl. 20:37: [ svar | nyeste ]
NV40 er dyrere at producere end R420 tror jeg - pga. lavere yield (flere transistorer -> højere fejlprocent). Så prisen falder næppe ret meget.
Ser ud til at X800PRO bliver det nye super-mellemklasse kort... - men det ser
ud til at der står X800XT på mine grunker når kortet er dukket op engang.
Geforce 6800 Ultra Extreme - 16 - ca. June - ukendt.
Geforce 6800 Ultra - 16 - sidst i maj - $499
Geforce 6800 GT - 16 - midt juni - $399
Geforce 6800 - 12 - sidst i maj - $299
Iøvrigt ret morsomt, at Nvidia bliver nød til at have et 16 pixel pipeline kort (GT) for at kunne konkurrerer op med ATI's 12 pixel pipeline kort.
Nvidia's chips er også dyrere at producere end ATI's, da de er større, og der derfor bliver færre pr. batch..
Nvidia folkene ska da ha lavet nogen drivermirakler, ellers står der osse ATI på min næste gpu?"
Rune. Nice opsummering, som altid.
Nvidia.. der går 3dfx over jer :/ kom nu ffs!! Gf6800U EXstreme. ud NU!
@ Anarchy "" Lol man.. piv :) piv piv
Fat nu det du ikke fattede sidste år :)
Btw rune.. Ved du om nvidia har boostet taktfrekvenser endnu? Læste om det et eller andet sted, at de vil hæve dem på gf6800 U til på den anden side af 450->>++ kom nu da
Rune skrev Wednesday den 05 May 2004 kl. 18:24: [ svar | nyeste ]
Efter hvad jeg umiddelbart kan læse mig frem til, så vil GeForce 6800 Ultra Extreme anvende 450 MHz VPU og 1100 MHz ram (dvs. VPU'en er 12,5% hurtigere end GeForce 6800 Ultra, mens rammen benytter samme hastighed). Tech Report har derfor forvandlet et "GeForce 6800 Ultra" til "GeForce 6800 Ultra Extreme" ved at overclocke VPU'en med 50 MHz - resultaterne kan du se her:
Synes nu at der er nogle her der er hurtige til at dømme Nvidia. Min holdning er: Intet er afgjort endnu. Kortene er splinter nye så jeg tager ikke test resultaterne for særlig meget nu. Jeg venter et par måneder (Så jeg osse lige kan havde sparet op, he he) og ser så hvordan de 2 kort ser ud. Skulle nødig begå den brøler at købe X800XT lige når den kommer ud og en uge efter at finde ud af at Geforce 6800 U er lige det hurtigere. Det skulle ikke undre mig at om en måned så viser det sig at det er Geforce 6800 U der er lige en tand hurgtere end X800XT.
Bare min mening.
Gandalf skrev Wednesday den 05 May 2004 kl. 18:01: [ svar | nyeste ]
Lige præcis. Hverken kortene eller driverne er i deres endelig form endnu, så jeg mener også vi skal vente helt med den endelige vurdering :)
Ole skrev Wednesday den 05 May 2004 kl. 18:19: [ svar | nyeste ]
Rune >>
"der angiveligt skulle frage fordel af Shader Model 3.0"
der skal vel stå drage fordel af...
:)
Rune skrev Wednesday den 05 May 2004 kl. 18:57: [ svar | nyeste ]
Ja, det er rettet nu, tak for hjælpen.
huse skrev Wednesday den 05 May 2004 kl. 18:28: [ svar | nyeste ]
jeg sagde jo at den der ler sidst ler bedst se selv.ATIIIIIIIIIIIIIIII
For 2 år siden sagde jeg selv det samme som dig. "Aldrig ATI, med de lorte driver"
Jeg gik så fra et Geforce 3TI500 til et 9800pro og jeg må sige, at jeg har aldrig haft problemer med ATI driver, lige fra 3.5 til 4.3 jeg køre nu.
Så du kan rolig tage et ATI kort, men hvis du er Nvidia FAN, som nogle er det en fin grund, men bedøm ikke på deres driver mere, de er UP TO DATE... :)
Nøgternt set, så kan hverken Nvida eller ATI's nye vidundere beskyldes for at være langsomme. Uanset hvad man køber, tror jeg ikke man får problemer med hastigheden (men hvad mon HL2 og Doom3 siger til det :-)
Min umiddelbare fortolkning er, at ATI har det mest effektive design (jævnfør meget lavere strømforbrug med stort set samme ydelse som Nvidia). At ATI ikke understøtter Pixel Shader version 3.0 har sgu nok ikke den store betydning. Når der begynder at komme spil der understøtter PS3.0 så er der nok kommet nye og endnu bedre grafik chips.
Gad vide hvor hurtigt Nvidia 6800 er ved brug af PS3.0.
Jeg kan tydeligt huske, da Riva TNT kom frem med 32 bit farver og Z-buffer. Det var understøttet, men kortet var langsomt til at det rigtigt kunne bruges i praksis.
Ep skrev Friday den 07 May 2004 kl. 18:15: [ svar | nyeste ]
God pointe!..
Da GeForce3 kom frem, var det jo det første kort med understøttelse for pixel shadere, men det er først for nyligt (relativt set) at der rigtigt er udgivet spil der benytter sig af dem...
x1-6-00-0e-a6-25-35-e0.k201.webspeed.dk skrev Wednesday den 05 May 2004 kl. 18:43: [ svar | nyeste ]
Godt at de er på banen Ati og Nvida nu ,så lad os få lidt priskrig på kortene
Så får nvida bølle bank når man skal bruge en ekstra tusse på mere strøm.
en Ati fan
en lille ting... ATi har en optimeret driver allerede!!
Det har nvidia ikke.
ATis's kort, er meget li' Radeon9800
Hvor nVidia's er helt nyt.
Så jeg tror helt sikkert vi vil se flere driveroptimeringer fra nVidia end fra ATi!!
Så lad os hellere se på hvordan det swer ud om et par måneder.
Desuden er jeg ikke nVidia-fan. har selv ATi!!
Men jeg kan godt forestille mig at der ligger flere skjulte krafter i nvidia's kort, udfra deres afstamning, og tidligere erfaringer!!
Jaaa ikke helt enig der, det kan godt være den er bygget på samme kerne, men der er ændret meget i deres design, vi snakker ikke om en lille opdatering, at gå fra 4 til 16 pipelines, plus alle de nye teknologier de har implementeret, så vil jeg skyde på der er plads til mange optimeringer.
F.eks. virker den nuværende 3dmark ikke med XT, futuremark har lavet en update som fixer dette, pga. designet er så anderledes.
Det er de samme pipelines der bruges til både Radeon9800 og X800. De ligger i blokke af 4x1, således at de kan slåes fra en efter en. Så slår du 2 af de 4 blokke fra, Har du reelt et Radeon9800 der er clocket lidt højere!!
Ja, der er faktisk ikke mere forskel. og TAA(den nye FSAA) er faktisk også indbygget i 9500 og opefter.
De støsrte forbedring skal nok se i pixelshaderes, der er blevet kraftigt optimere. Men faktisk er forskellen på X800XT og 9800pro, ikke ret meget større end forskellen mellem 9500 og 9800pro. dobbelt pipelines, og forbedret shaders!!
Ra skrev Wednesday den 05 May 2004 kl. 23:32: [ svar | nyeste ]
Da ATI med X800 er flyttet til .13micron med low-k vil det efter min mening være mere oplagt at sammenligne X800-XT-PE med de pipelines der bruges i R9600XT. Hovedsageligt består X800-XT af pixel-pipelines fra 4 9600XT-kerner, der enkeltvis kan slås fra, så man får X800Pro/X800SE.
Jeg synes nu ikke Anarchy har helt uret... Ifølge denne artikkel skulle ATIs kort være klart hurtigere end nVIDIAs, men hvis i prøver at gå ind og læser de originale artikler som resultaterne kommer fra, konkludere stort set samtlige at de to kort er lige hurtige... og den egentlige forskel ligger i features...
Desuden skal man huske på nVIDIAs kort understøtter ps 3.0 hvilket skulle give en god øgelse af ydelse i de spil der bliver gen-compiled med det (fx Far Cry). Og ydermer, så bruger ATIs kort kun 24-bits precision, hvor nVIDIAs bruger 32-bit. Osv.
På den anden side har ATI opfundet det smarte 3Dc, som også vil give det fordele i fremtiden, plus andre features...
Jeg mener ikke at nVIDIAs er hurtigere eller bedre, men at man heller ikke skal tro at ATIs enegyldigt er...
-Zar
Gandalf skrev Wednesday den 05 May 2004 kl. 18:51: [ svar | nyeste ]
"Godt at de er på banen Ati og Nvida nu ,så lad os få lidt priskrig på kortene Så får nvida bølle bank når man skal bruge en ekstra tusse på mere strøm. en Ati fan"
Har du overhovedet læst hvad Rune har skrevet i artiklen?
"Et af de mest alvorlige problemer ved GeForce 6800 Ultra er effektforbruget, som Nvidia har estimeret til max. 110 watt (og dermed formodentlig 120 - 125 watt for GeForce 6800 Ultra Extreme), hvorfor Nvidia implementerede to strømstik i dette grafikkort og aktuelt anbefaler strømforsyning på 480 watt. Senere har det dog vist sig, at en god strømforsyning på f.eks. 350 watt sagtens kan klare GeForce 6800 Ultra."
Better luck next time, Ati fan...
Jeg har ligesom red martians et ATi grafikkort (Radeon 9800 PRO), og det har jeg været godt tilfreds med. Jeg vil dog gerne lige sige, at jeg i hvert fald har haft problemer med driverne, eftersom de nye drivere ikke altid har været de bedste, specielt i Far Cry. Og liugesom red martians glæder jeg mig til at se, hvordan Nvidia's kort yder efter driver optimeringerne :)
Ra skrev Wednesday den 05 May 2004 kl. 23:42: [ svar | nyeste ]
"Better luck"??? At der findes gode 350W-strømforsyninger er da ikke et argument mod at 6800U bruger mere strøm!!!
Ser man også på strømforbruget ved Idle, bliver 6800U sgu en god forretning for strøm-mafiaen. Måske skulle man bede NESA sponsorere billigere 6800U (og P4-Prescotts); på samme måde som mobiltelefoner fås billigt pga. binding til udbyder;-)
Gandalf skrev Wednesday den 05 May 2004 kl. 19:19: [ svar | nyeste ]
Jeg faldt lige over denne lille artikel, som jeg synes giver et perfekt billede af de to nye kort. Læs den her:
Han rammer præcist plet i sin beskrivelse om mine følelser omkring GF6800 Ultra og Radeon X800 XT. Nu i er derinde kan i jo også læse deres test af de to kort:
Meget sober og seriøs artikkel du linker til, og er helt enig ... som en kommentar til artiklen kan man jo sige, at nok kommer ATIs kort på gaden før nVIDIAs, men kortet på mange måder jo også bare er en opdatering af forrige kort... Og hvis man tænker lidt tilbage, skulle det overraske mig noget hvis nVIDIA denne gang ikke formår at skubbe en god slat flere pixels ud af sit kort med software magi...
Man burde næsten kalde det grafikkortenes mantra: "Vi får se..."
-Zar
Rune skrev Thursday den 06 May 2004 kl. 14:06: [ svar | nyeste ]
Dette er dog desværre en meget uheldig artikel; dvs. det er ikke GeForce 6800 Ultra, som blev testet, men hvad der formodentlig vil svare til GeForce 6800 Ultra Extreme:
"This GeForce 6800 Ultra sample board is different only by the clockspeed it runs at, 450-MHz instead of 400-MHz."
gukker skrev Wednesday den 05 May 2004 kl. 19:41: [ svar | nyeste ]
hehe ved ikke rigtigt hva de har brugt til det review,for det er den eneste site overhovedet der har nv 40 til at vinde i farcry......¨men kan da oxo finde en....her vinder selv 9800xt over 6800 ultra..når man snakker om max settings
og som der står så fint i den her artikkel,så vinder 800xt så snart der er max settings ialt:)
Jais skrev Wednesday den 05 May 2004 kl. 20:14: [ svar | nyeste ]
OBS!!!
Nu har www.shg.dk X800Pro kort til 3999,- Dog først til levering primo juni
R fe skrev Wednesday den 05 May 2004 kl. 20:28: [ svar | nyeste ]
4000??? åhh nejj...så kommer 6800u og x800xt helt sikkert op på 5000.....suukk....
Gandalf skrev Wednesday den 05 May 2004 kl. 20:55: [ svar | nyeste ]
gukker:
Jeg har læst et sted, at HardOCP bruger de gamle 60.72 drivere i deres review, derfor ser jeg ikke deres farcry test som pålidelig. Desuden synes jeg mærkelig nok, at Geforce 6800 Ultra både har flere max- og average FPS end Radeon X800 XT i deres test? Men det er måske bare mig, der ikke kan tyde deres tabeller og koordinatsystemer? :)
Gandalf skrev Wednesday den 05 May 2004 kl. 20:57: [ svar | nyeste ]
Ok, jeg har lige set, at det er fordi spaderne kører det i 1024*768. Hvad fanden tænker de på? Først at bruge de gamle drivere, og nu det her? Oh well, der røg min tillid til HardOCP én gang for alle...
Ra skrev Wednesday den 05 May 2004 kl. 23:53: [ svar | nyeste ]
Som [H]ardOCP skriver:
"The GeForce 6800Ultra performed best at 1024x768 4XAA/4XAF with performance only dropping below 30fps once. To achieve close to the same performance as the X800Pro the 6800Ultra has to be run at one resolution lower than the X800Pro, 1024x768 versus 1280x1024."
De vælger dér at teste ud fra bedste, spilbare opløsning, hvilket de altså kommer frem til er 1024x768 når der skal AA/AF på. De har deres egen måde at teste på, som jeg finder mere relevant end andre tests der bare viser, at man ikke kan spille det i dén og dén opløsning.
Jeg synes det siger ret meget om dig selv, at du kalder dem spader, mens du ikke selv fatter hvad det er de vil/gør.
Jokke skrev Wednesday den 05 May 2004 kl. 21:05: [ svar | nyeste ]
spændende med lidt ny hardware, men bare en skam at man ikke har penge til den slags. jeg kom lige i tanke om at jeg har læst følgende på www.edbpriser.dk:
//Grafikkort med Radeon X800 Pro-chippen og 256 megabyte ram skulle blive sendt til forhandlerne allerede i dag, og de kommer til at koste 399 dollar, hvilket svarer til cirka 2.500 kroner, dog uden dansk moms.
X800 XT Platinum Edition med 256 megabyte ram bliver sendt til forhandlerne den 21. maj og vil koste 499 dollar, cirka 3.100 kroner, igen uden dansk moms.//
om man så skal tro på det er et godt spørgsmål
/Jokke
Rune skrev Wednesday den 05 May 2004 kl. 21:38: [ svar | nyeste ]
Ja, det plejer dog at være således, at en US$ skal sættes til ca. kr. 10,00, eftersom transport, told, moms samt forhandler-avancer også ser ud til at skulle dækkes (hvilket atter passer med, at danske pris for første X800Pro er ca. kr. 4.000,00).
Morten skrev Wednesday den 05 May 2004 kl. 21:15: [ svar | nyeste ]
fedt artikel !
jeg vil nu også vente og se hvad de kan efter et stykke tid og ikke mindst se hvor meget de kan OC'ed, og derfor ville jeg nok ikke købe et 6800ultra extreme da man da ligeså godt selv kan OC en normal 6800 ultra til et extreme... men lad os nu se hvad der sker...
Rune skrev Wednesday den 05 May 2004 kl. 21:15: [ svar | nyeste ]
Beyond3D har publiseret et interview med Dave Orton fra ATi, som bl.a. omhandler R420, læs mere her:
Det Rune konkludere er at X800XT er hurtigere end GF6800 Ultra i 1600x1200 opløsningen! De to kort kan sagtens være lige hurtige, men så er det også i en opløsning på 1024x768, som ingen med respekt for sig selv kommer til at spille på når man har et kort af nyere generation!
Iøvrigt er det nu fremme at Nvidia måske har snydt med deres drivere, se selv her:
Jelle skrev Wednesday den 05 May 2004 kl. 22:30: [ svar | nyeste ]
nice test!... jeg vil sige en ting... x800 pro koster i usa 489 $ svarende til 3100 kr. pt<-- man gå ind på http://www.americanshop.dk og betsille den vare man ønsker fra usa. jeg spurgte via mail hvad de skulle have for et x800 pro med fragt og hele svineriet. pris: 3600 ca. og de ku sende det som en "gave" så dansk moms ikke skulle medregnes. det synes jeg er fair nok :)
jelle skrev Wednesday den 05 May 2004 kl. 22:34: [ svar | nyeste ]
Dette er ganske vist "off topic", men køb fra USA fortjener en kommentar med på vejen. Det hjælper ikke (hvor jeg understreger IKKE) at sende varer fra ikke EU-lande som "gaver". Toldvæsenet har for længst gennenskuet denne fremgangsmåde, og selv "gaver" med en værdi over et par hundrede kroner er momspligtige.
R fe skrev Thursday den 06 May 2004 kl. 00:58: [ svar | nyeste ]
en ting er at ydelsen bliver fordobblet osv det er jo godt nok...men det er altså også rimelig skodet at prisen også kommer til at stige så meget. suuuk...hvad bliver det næste? kommer næste generations high end til at koste 6000kr??? 7000kr???
det er måske ikke helt utænkeligt...9700pro kostede ca 3000?? x800xt bliver 5000kr?? r500 chippen rammer vel 6000-7000 kr???
...suuukkk.....
Rune skrev Thursday den 06 May 2004 kl. 09:32: [ svar | nyeste ]
Tja, jeg gav kr. 4.700,00 for mit Asus GeForce3 Deluxe i 2001 og kr. 4.000,00 for mit aktuelle Hercules Radeon 9700 Pro, så alt er vel blot ved det gamle :-)
Mandak skrev Thursday den 06 May 2004 kl. 02:27: [ svar | nyeste ]
Morten: Det vil da være mere fedt at OC et 6800GT til Ultra eller E Ultra :-)
R fe: Hvis jeg ikke tager meget fejl, så var prisen på R9800 Pro/XT 250MB ca. 5000kr da det kom til DK. Så det er ikke noget nyt i, nærmere standart.
Rune: Nu er det ikke for at være skadefro, da vi nok alle er blevet overrasket af både nVidia og ATI ang. ydelse. Men var der ikke noget med Far Cry og "Indendørs går der formodentlig mange år, før vi kan opleve 1600x1200 i 85 FPS under særligt krævende forhold"
http://www.hardwaretidende.dk/hard/artikel/04/03/25/3036165
så... nyt grafikkort? Er det ikke ved 100% ekstra ydelse du skifter ;-)
Man...
Rune skrev Thursday den 06 May 2004 kl. 09:35: [ svar | nyeste ]
Jo, jeg tror nu ej heller, at X800XT kommer mege over 20 FPS i den særligt krævende test, som jeg foretog i forbindelse med Far Cry anmeldelsen, men eftersom Radeon 9700 Pro 350/648 aktuelt ligger på 8 FPS (uden FSAA og ANI), så regner jeg bestemt med at investere i GeForce 6800 Ultra eller X800XT Platinum Edition :-)
Det kan man heller ikke med hverken 6800UE eller X800XT... Rune mener nok at de. 85+fps skal være hele tiden og ikke kun gunstige steder i spillet.....
AllanD skrev Thursday den 06 May 2004 kl. 03:58: [ svar | nyeste ]
Jeg ved godt at ingen af de nye kort bliver beskyldt for at larme som en Fakta støvsuger men jeg forstår ikke at begge firmær sælger så dyre kort med forholdsvis primitive kølesystemer. Hvis Nvidia eller Ati levede en aftale med Zalman eller Artic Cooling at samtlige af deres nye kort kom med en "silent" solution ville det ikke koste en dansk køber mere end 100 eller 200 kr ekstra og det er peanuts når man kigger på de priser. Jeg tror at det ville stjæle en del af tordenen fra konkurrencen og imponere mange købere. Se hvor meget der bliver skrevet i forums om 9800 pro IceQ kortet.
Dvs. du kan ikke blot trække de forskellige ydelser fra hinanden; derimod yder X800XT "96", mens 6800 Ultra yder "85" - og dermed er X800XT 13% hurtigere (96/85 = 1,13).
Sven skrev Thursday den 06 May 2004 kl. 23:05: [ svar | nyeste ]
Checkmate, Rune har ret. Den måde du regner på er i PROCENTPOINT og Rune regner i PROCENT.
Men er forskellen ikke kun 11% - og ikke 13 % - jævntfør skemaet:
Det jeg synes var mest intersandt var at et GF6800 GT der er overclocket kan slå et GF6800 ultre Extreme som ikke er overclocker selv om GF6800 GT ikke engang kommer op på samme Core MHz men køre men 1.2GHz på ramne, det er næsten lige så hurtig som et GF6800 Ultra Extreme som er overclocket til 475MHz på core og 1,255GHz på ramne, for mig siger der er stadig noget at hente hvis der kommer nogle endnu hurtiger ram, kunne være intersandt at se et med 1,6GHz ram.
Locudo
Soren skrev Thursday den 06 May 2004 kl. 19:10: [ svar | nyeste ]
Yderst intersandt kommatering... :)
217.61.83.16 skrev Thursday den 06 May 2004 kl. 09:18: [ svar | nyeste ]
>>AllanD
HIGHTECH er faktisk på vej med en ICEQ udgave af X800PRO... Her linket:
eller tjek på www.nvnews.net forside, hvor MikeC har opsummeret samtlige reviews. Og hans resultat er meget anderledes end hardwaretidendes BIASED artikel!!!!
.. og NV-News må jo betragtes som utroligt un-biased ? - et site der primært beskæftiger sig med nVidia hardware ? - selvfølgelig;
Hvis du nærlæser det regneark er det jo - også - en subjektiv udvælgelse af nogle test-resultater; lige som HT er ..
nvnews er 1000 gange mindre biased end eksempelvis Rage3d. I nvnews´s forum må fanATIcs godt "trolle", hvorimod i Rage3D´s forum er al negativ omtale af ATi-produkter = ban. Klamt....
Og nej, jeg er ikke blevet banned fra Rage3D.. Jeg har sgu ikke spildt tid på at være en troll derovre.. Jeg VED nemlig godt at nVidia ejer alt og alle... Det der pisser mig af, er et site som HT er så tydeligt BIASED. Hvor mange ATi-posters har I fået for artiklen? *suk*
Anarchy tag dig sammen... Her på sitet er man ligeglad med mærket... om det hedder Nvidia eller Ati er lige meget... De ligger meget tæt i øjeblikket, heldigvis... Hvis Nvidia eller Ati er 2% bedre i lige det spil du godt kan li' så vælg det kort. Dette er ikke religion, det er Hardware->Ydelse vs. pris/støj/effekt... vh Staalormen
Ra skrev Thursday den 06 May 2004 kl. 10:07: [ svar | nyeste ]
Jeg er ganske uenig med dig i din vurdering af HT som biased og synes det er trist at du gerne vil troll'e herinde, da du ikke er særligt konstruktiv eller overbevisende at høre på. Kan du ikke lide lugten i bageriet...
Rune skrev Thursday den 06 May 2004 kl. 10:16: [ svar | nyeste ]
Det er en forfærdelig gang sludder; HardwareTidende er komplet ukommercielt, alle arbejder fuldstændigt gratis (derfor ingen banner-reklamer mm. her på sitet osv.). Læs mere her:
Jeg har tidligere svaret på dit indlæg, hvorfor du fortsat gentager dit indlæg er mig en gåde. Endvidere vandt ATi 35 gange ifølge NVNews, mens Nvidia vandt 30 gange - dvs. ATi vandt 17% flere sejre (hvilket vel favoriserer ATi i endnu højere grad end vi gør i ovenstående artikel). Som du kan se, er forskellen på ATi X800XT og 6800 Ultra ifølge ovenstående artikel kun 5% uden FSAA og ANI, mens den stiger til 13% med 4xFSAA og 8-16xANI; dette er udelukkende i 1600x1200, anvender du lavere opløsninger, så vil disse forskelle blive mindre. Med kun 5% forskel uden FSAA og ANI er der ikke stor forskel på X800XT og 6800 Ultra; dvs. favoriserer du af en eller anden grund 6800 Ultra, så burde ovenstående resultater ikke begrænse din glæde over 6800 Ultra nævneværdigt.
Mick skrev Thursday den 06 May 2004 kl. 14:57: [ svar | nyeste ]
Anarchy... hvordan du kommer til de konklusioner må guderne vide. Men du er far out - det er jo det rene sludder du lukker ud! HT købt?! Hahahahahaha!! Det er helt til grin!
Torben skrev Thursday den 06 May 2004 kl. 10:38: [ svar | nyeste ]
Uanset ydelsesforskellen, kan ATI favoriseres på effektforbruget. IMO er dette en ret væsentlig faktor, både mht. eventuel støjreduktion og varmeudvikling.
Rune skrev Thursday den 06 May 2004 kl. 13:54: [ svar | nyeste ]
Lidt nyt om Half-Life 2 og X800:
"ATi today launced the X800 graphics card and had machine exhibits ready for attendees to see the “Ruby” demo. The Ruby demo has been released onto CD for attendees to view and see the effects that the X800 can render in real time. The demo was very impressive but was not a touch on the demo by Gabe Newell from Valve. This stole the whole keynote to actually see some new footage from Half Life 2. Again we got the whole video which is approximately 3 minutes long and as soon as we find somewhere with firewire we’ll get it on here asap because it’s one to watch! Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer." (min fremhævning, red.)
Endvidere har PC Games, Tysklands største trykte tidsskrift omhandlende PC-spil, i nummeret fra maj 2005 interviewet Gabe Newell (se DVD'en) og endvidere prøvet at spille Half-Life 2. PC Games og Gabe Newell bekræfter, at Half-Life 2 reelt er færdigudviklet, og at de aktuelt blot gennemtester og finjusterer diverse baner. Så alt tyder nu på, at Half-Life 2 er på vej (Gabe undskyldte for 30. september 2003 datoen og garanterede, at Half-Life 2 ville udkomme sommer 2004).
Anarchy<-----
efter hvad jeg kan se på denne side
http://www.nvnews.net/vbulletin/showthread.php?t=28275
så står der ATI i 33 af felterne og Nvidia i 29 af felterne og 12 felter, hvor der er draw, så at du skriver at nVidia slagter aTIS lorte kort!, passer jo ikke helte. og at ati skulla ha købet denne side troer jeg ikke helt, hvis der er nogen der kunne finde på at køb sider, så ville det være nvidia, da det er dem der har gået og prøve at snyde meste med deres driver, jeg har være fan af nvidia, men ikke mere, ati er det bedste lige nu, men jeg glæder mig til at se hvad SIS (Troer jeg det var) og kan ikke husk hvad det andet firma hedder, der også vil til at lave 3d kort, kommer med.
glæder mig til at se nogle af dem som skriver herinde får fat i et kort så man kan høre om deres personlige oplevet af x800x så vi kan se hvordan det hønger sammen der også. test er en ting, egen erfaring er også vigtigt....
Til the duke dette er en artikel om nye grafikkort, og jeg kan ikke lige se hvor du fisker frem at vi brokker os over ati driver, som fungere lige så godt som nvidia.
Hvorfor skal personer som dig the duke eller Anarchy endelig kommentere de ting som sker på hwt. i kan jo slet ikke byde på noget konstruktivt. og ved at rakke siden ned ændre det stadigvæk ikke på andre mening om siden. dette er en sober og virkelig dygtigt drevet site. hvis i ikke kan klare at jeres hardware ikke kan følge med i det nyeste som kommer på market så køb dog noget nyt, drop jeres klykken herinde.
igen for jeg ved ikke hvilken gang jeg siger. god artikel og site til rune, co og alle andre som kan finde ud af skriver en konstruktiv tone.
Hej Jesper W Jeg syntes ikke det er fair at sætte The Duke i samme bås som Anarchy Det The Duke gør opmærksom på at der er et alternativ til catalyst drivere.
Det er jo tods alt billigere at finde en driver man syntes der ok end at gå ud og invistere i et nyt kort.
Med venlig hilsen Anders A
segl skrev Thursday den 06 May 2004 kl. 21:47: [ svar | nyeste ]
Det bliver et dyrt hardwareår - X800Xt og et Athlon64-system. Så må man jo se, hvad der er på kistebunden ;)
Mandak skrev Thursday den 06 May 2004 kl. 21:48: [ svar | nyeste ]
Ang. ydelse kan det vist ikke siges mere tydeligt end i AnandTech's final words:
"but it is safe to say that ATI comes out on top when it comes to DX9 and PS 2.0 performance, NVIDIA leads the way in OpenGL performance, and NV40 and R420 split the difference when it comes to DX8 (and older) style games"
Lige nu hælder jeg også lidt mere til Ati's kort, men jeg tror stadig man skal huske på, at Geforce 6800 Ultra har adskillige flere millioner transistrore på deres kort end Ati og pointen er, at deres driver ikke er færdig optimeret endnu. Hvis de ender med virkeligt at kunne udnytte 6800 Ultra's gemte kræfter, tror jeg godt på, at den ville kunne slå Radeon X800 XT. Men som sagt hælder jeg klart mere til Ati lige nu :)
3e6b3fc0.rev.stofanet.dk skrev Saturday den 08 May 2004 kl. 12:27: [ svar | nyeste ]
Til Gandalf, fredag den 07 maj 2004 kl. 01:00
Alle de flere transistore (40 mio.?) er jo stort set pga. ps3.0. Tvivler på at der er flere skjulte kræfter i GF 6800 end i RX9800.
Og selvfølgelig er hverken ATI eller nVidias drivere optimeret endnu - der er jo en løbende process og de vil nok aldrig blive 100% optimeret, men løbende forbedret. Det har vi jo set de sidste 10 år ved alle tidligere kort.
Mandak skrev Thursday den 06 May 2004 kl. 23:35: [ svar | nyeste ]
At ATI's driver er færdig udviklet er et postulat der ikke er bekræftet.
Man...
Ra skrev Friday den 07 May 2004 kl. 00:15: [ svar | nyeste ]
Jeg vil gerne høre om nogen har et bud på, hvorfor X800Pro klarer sig så relativt dårligt i PixelShader-operationer? Jeg har set flere bide mærke i forskellen mellem Pro og XT-PE...
Teoretisk burde den med 12 pipelines være ca. 3/4 så hurtig som X800XT-PE med 16 ved næsten samme clock. Er det den noget langsommere RAM der sparker særligt hårdt ved PS1,4 & PS2, men ikke ved PS1,1, eller kan det, som andre gætter, være ATI der ikke helt har fået optimeringen af en 12-pipelinestruktur på plads endnu, mens fordoblingen af 9800-seriens 8 pipelines går lettere?
Mick skrev Friday den 07 May 2004 kl. 11:09: [ svar | nyeste ]
Jeg læste et sted at det kan skyldes at driveren ikke er optimeret til de (i X800 PRO) 3 pixel quads (pixel shaders er opdelt i grupper af 4 stk. "pixel engines/pipelines" hvilket giver een "pixel quad").
I R3x0 er der 2 stk., i X800XT 3 stk. og i X800XT 4 stk. (såvidt jeg har forstået det jeg læste korrekt). Det er driveren som skal udnytte de forhåndværende quads bedst muligt ("scheduling") - og det er der altså er mulighed for at kunne hente lidt ekstra ydelse.
Jeg skal ikke garantere for at ovenstående er 100% rigtigt forstået... ;o) - men noget i den stil!
Har I nogle tips/tricks til hvordan man shopper et X800XT Platinum Edition ind til lavere pris evt. fra udlandet?
På forhånd tak!
Slet bare ovenstående fra mig tak!
Rune skrev Friday den 07 May 2004 kl. 20:26: [ svar | nyeste ]
Et bud ville være at handle hos tyske forhandlere. I Tyskland findes tilsvarende prisdatabaser, som vi i Danmark kender som "Edbpriser.dk" og "Gate2Prices.dk"; du finder her et tysk alternativ:
exe- skrev Friday den 07 May 2004 kl. 13:22: [ svar | nyeste ]
Rune seriøst tager det ikke langtid at ¨få alle de oplysninger`? - hvor langtid bruger du på at skrive artiklerne ?
Rune skrev Friday den 07 May 2004 kl. 20:05: [ svar | nyeste ]
Det tager et pænt stykke tid, derfor blev vi også en dag forsinket denne gang - jeg vil tro, at udarbejdelse af ovenstående artikel tog 6 - 7 timer, men nu er jeg dog også vandt til at skrive denne type artikler; i starten ville det have taget markant længere tid (dog er diverse udregninger samt dobbel-check af disse tidsskrævende - samt selektion af optimalt materiale via gennemlæsning af diverse originalartikler mm.).
R fe skrev Friday den 07 May 2004 kl. 21:30: [ svar | nyeste ]
Rune og Mandak...hvorvidt tingene stadig er ved det gamle får vi nok først at se om nogle måneder....
ja 9800xt og flere ældre kort har været op på 4000-5000 kr men de har altid kunne gå ned til 3000kr eller under....hvis det så viser sig at x800xt aldrig kan komme forbi 4000kr mærket...hvad så?
spændende spændende...vi får at se.
Ra skrev Saturday den 08 May 2004 kl. 10:52: [ svar | nyeste ]
Citat: "hvis det så viser sig at x800xt aldrig kan komme forbi 4000kr mærket...hvad så?"
Det eneste scenario jeg kan forestille mig for dette er, at Jorden/menneskeheden går totalt til grunde før næste generation af grafikkort kommer på markedet! De skal sgu nok falde i pris en dag!
0x50a41521.boanxx15.adsl-dhcp.tele.dk skrev Saturday den 08 May 2004 kl. 03:45: [ svar | nyeste ]
Jeg undrer mig over hvad 4xFSAA og 8xANI betyder. Ved godt dette burde stå i forum, men kan skriver det bare her denne ene gang...
asger skrev Saturday den 08 May 2004 kl. 04:33: [ svar | nyeste ]
Fire gange Full Screen Anti Aliasing og otte gange anisotropisk filter. FSAA er udglatning af takker på skrå linier og ANI gør teksturer skarpere: I racerspil uden ANI vil midterstriben på vejen være tværet ud - med ANI vil den stå skarpt. Jø større et tal foran ANI, des længere ud mod horisonten vil striberne være skarpe. Der er masser af eksempler på nettet. F.eks tomshardware.com
Rune skrev Saturday den 08 May 2004 kl. 15:19: [ svar | nyeste ]
Tom's Hardware har nu også bragt interview med Dave Orton fra ATi, her er et lille uddrag:
"THG: Nvidia's 6800 has impressed large parts of the industry as well as media. Were you surprised by the performance leap of the product?
DO: We were expecting Nvidia to push ahead. But I would say that there were surprises in some areas. The die size is bigger than we thought and the power consumption is higher than we expected. They also followed up architecturally to 16 pipes. We expected them to end up expanding internal processing instead. I am also surprised that they have not been able to reach a higher core frequency.
THG: Both, the Nvidia 6800 and ATI X800, mark huge performance advances. Do you see the pace of innovation in the graphic chip segment to accelerate again in the foreseeable time?
DO: Actually, when we announced the 9700 in 2002, it also was huge in terms of innovation and performance. We brought cinema quality rendering to the PC. But if we look right after the X800, the next 18 months probably will show more innovation than the past 18 months. That is a fair statement."
Tak Ra ~ Man skulle da være et dumt svin, hvis ikke man kunne finde på at smide sit 9800XT til salg og så skrabe differencen sammen, det X800XT er sku billigere end mit nuværende, så jeg er absolut focuseret på sagen, om det så bliver pre ordered eller jeg venter på andre eksistente salgs annoncer vil vise sig, unaset anser jeg prisen på 3-3500kr for X800XT som absolut bærbar.
Rune skrev Sunday den 09 May 2004 kl. 12:37: [ svar | nyeste ]
Kan man få familie til at tage X800XT med hjem fra USA, så er det vel en god ide, men bliver grafikkortet taget i tolden, så bliver det dyrt (stor bøde + 37,4% samlet told og moms). En anden detalje er kølesystemet, og Arctic Cooling er på vej med system, der skulle kunne anvendes til selv NV40 og R420; dette system forventes også først i juni:
"We will have new coolers with Cu-base from mid of June.
VGA Silencer 2 blev også fremvist til Cebit 2004, hvor repræsentanter fra Arctic Cooling udtalte, at denne løsning ville kunne anvendes til R420 og NV40 (jf. tidsskriftet PC GAMES Hardware april 05/04). Spørgsmålet er dog, hvad f.eks. Asus og MSI finder på (MSI vil også udkomme med ATi grafikkort og leverede tidligere mest støjsvage 5950U mm., så MSI går aktuelt meget op i støjsvag køling), men ønsker man X800XT hurtigst muligt (formodentlig med standardkøler), så er Eriks forslag nok bedste mulighed aktuelt (hvis man er lidt risikovillig - skulle der være problemer med grafikkortet, så vil det også være besværligt at få ombyttet grafikkortet).
Har prøvet HIS's køler på mit 9800XT med den erkendelse at jeg absolut ville vælge denne løsning, hvis ikke en H2O blok gør det hos mig.
Da FX Bloweren kom ind på markedet var den nok ikke gennemført, men ideen med at blæse luften ud af kabinettet er jo rigtig nok, specielt med blæsere i fronten der puster ind, der er den originale, ikke særlig originel, de puster jo mod hinanden, støjen fra den store er skam på akseptabelt niveau, kølingen er midt i mellem mit H2O og den originale.
Rune ~ Det er også eneste minus, skulle der ske noget så er man sikkert ilde stillet, men det kan jo være at der findes en optimal løsning på det også, måske kan man sende direkte til ATI, på samme måde som man gør med Harddiske, ja dem sender jeg ikke til ATI ;) Men til de respektive steder der tager sig af den slags, jeg gider ikke vente på forhandlere og deres leverandører, hvis 6-10 dage via Irland og Holland, gør jobbet, fks. Hos Maxtor.
Hvorfor arbejder ATI og nvidia ikke mere med at lade GPUen hjælpe CPUen?
Ra skrev Sunday den 09 May 2004 kl. 21:26: [ svar | nyeste ]
Hjælpe med hvad? Allerede i begyndelsen af 1990'erne før der var noget der hed 3D-funktioner var det store salgsnummer at kortene var Windows-accelererede, dvs. aflastede CPUen med at tegne linierne m.v. i Windows, så dén del er forlængst indarbejdet...
Hvis du har ment det omvendte: At lade CPU hjælpe GPU, er svaret at det kan CPU slet ikke følge med til - den er optimeret til helt andre opgaver, mens GPU er specialist i sit eget område.
Så tror jeg bare at grafik producenterne fik det samme problem som 3dfx kortene der manglede en egentlig GPU. Der skulle du have en ret stor processor for at det blev et godt alternativ (Uden at rigtig blive det) til Geforce 2.
Ra skrev Monday den 10 May 2004 kl. 02:11: [ svar | nyeste ]
- Så vil jeg gerne høre din definition af en GPU!!!
Rune skrev Monday den 10 May 2004 kl. 10:25: [ svar | nyeste ]
Det ser ud til, at der er ankommet en videofilm, der viser Half-Life 2 på X800XT:
"AT WINHEC, GABE THE MAN said that the highly anticipated Half Life 2 is going to come in summer. It demonstrated the game showing its Half Life 2 engine on the latest ATI card, the X800XT."
Firingsquad har lavet en interessant ydelses-test, hvor de med forskellige AMD-cpu'er (XP 2100+, Xp 2500+, XP 2800+, XP 3200+ samt Athlon64 3400+) sammenligner Radeon X800 Pro og Radeon 9800 XT:
Så vidt jeg kan se er der ikke den store forskel fra HIS! Selvom deres model kun er en "PRO" udgave. Men man må vel forvente at de også laver en XT udgave med samme køler...
Så er spørgsmålet om DE laver den køler når det kommer til stykke, nuvel den køler som HIS bruger på 9800Pro koster under 150kr, ja jeg ved godt det med garantien, bla bla bla, men det er en god køler, jeg ville/vil jagte billigste X800XT og bruge mit H2O hovede, eller set med andres øjne så købe føntørreren løs, kan man ikke finde den som HIS bruger på billedet, men den fra 9800Pro det sikkert også, den er bedre end den originale på 9800XT.
Det eneste der er mig en gåde er kølingen af RAM, med mindre de har alle kredse på samme side, jeg kan se at kobber køleren er smallere end min 9800XT noget kunne tyde på en anden placering af RAM, hvis de sidder på samme side, er en komplet Innovatek H2O Blok meget indbydende, som netop dækker hele kortet og KUN AGP Porten.
Både ja og nej, tilmed er dit link ikke lige X800, whatever, lad dem nu først få produktet på lager, de er dog ikke ene om at reklamere X800 Pro.....
http://www.prisindex.dk/Listprices.asp?ID=87631
Rune skrev Friday den 21 May 2004 kl. 12:29: [ svar | nyeste ]
Tech-Report har kritiseret ATi for optimeringer mht. billedfiltrering (en af vore læsere ved navn Zarathustra217 har også pointeret dette som kommentar til anden artikel) - her er et uddrag:
"ATI appears to have intentionally deceived members of the press, and by extension, the public, by claiming to use "full" trilinear filtering "all of the time" and recommending the use of colored mip map tools in order to verify this claim. Encouraging reviewers to make comparisons to NVIDIA products with NVIDIA's similar trilinear optimizations turned off compounded the offense. Any points ATI has scored on NVIDIA over the past couple of years as NVIDIA has been caught in driver "optimizations" and the like are, in my book, wiped out."
Ovenstående artikel her på sitet er dog baseret på resultater, hvor Nvidias optimeringer er aktive (se evt. forskel på ydelse med Nvidia grafikkort med og uden disse optimeringer hos XBitLabs).
Rune skrev Monday den 24 May 2004 kl. 11:30: [ svar | nyeste ]
The Tech Report har udført et meget detaljeret og omfattende interview med ATi (David Nalasco, Technology Marketing Manager), som omhandler diverse interessante egenskaber og mangler ved R420. Som flere måske ved, så understøtter X800-serien Shader Model 2.b, mens 9800-serien understøtter 2.0 (og Nvidia 6800 Ultra understøtter 3.0) - ifølge ATi gælder:
"Nalasco: The main improvements in 2.b versus 2.0 are increased instruction counts. As I said, we increased it from 160 instructions in the 9800 which supports 2.0 to 1,536 instructions in 2.b. The limits were increased for all different types of instructions. You can have up to 512 arithmetic instructions, 512 texture instructions, and also those 512 arithmetic instructions can be divided up into both scalar and vector instructions, so you can have 512 scalar and 512 vector instructions, whereas in 2.0 it was limited to a total of 96 instructions for the vector and scalar and 32 for the texture instructions." (osv. dette er kun et uddrag af det fulde svar)
Endvidere diskuteres også brugen af adaptiv trilineær filtrering, som Tech Report for få dage siden har kritiseret ATi meget for:
"TR: So you don't compromise image quality by not giving users the option of disabling adaptive trilinear?
Nalasco: That's correct. We don't think there's any reduction in quality between what we're doing in this product and what we've done in past products that do not use the adaptive technique, as far as image quality goes. If someone is able to find such an issue, we'd be happy to look at how to address it. But we've done extensive testing ourselves, and we don't think that's likely to happen."
Rune skrev Tuesday den 25 May 2004 kl. 17:16: [ svar | nyeste ]
ATi ser ud til at være klar med de første 0,11 mikron chips snart; hvorvidt dette får betydning for almindelig grafikkort de næste mange måneder er dog uvist; læs mere her:
minuspol.k-net.dtu.dk skrev Wednesday den 26 May 2004 kl. 01:16: [ svar | nyeste ]
Lol hvor grineren... Det forsvar er et angreb ser det ud til.... They should get a life :P
Rune skrev Friday den 28 May 2004 kl. 12:05: [ svar | nyeste ]
ATi-grafikkort baseret på 0,11 mikron (X300) ser ud til at være på vej samt PCI-Express-versionen af X800; dog har X300-baserede grafikkort næppe en ydelse, som vil interessere entusiaster:
"ATI Technologies will showcase its first 0.11-micron graphics chip, the Radeon X300 (formally named RV370), at Computex Taipei 2004 from June 1-5, according to market sources. The Radeon X300 chips aim at the entry-level card market with prices below US$100. In addition to the Radeon X300, ATI plans to unveil on June 3 its other PCI Express-supporting graphics chips, including the Radeon X800 and the Radeon X600 (formally named RV380), at the exhibition, said the sources."
Ra skrev Friday den 28 May 2004 kl. 13:17: [ svar | nyeste ]
Æv, vil det sige at både X300- og X600-serierne vil være bygget på 9500-9800serierne i stedet for på X800-VPUen, med de få nye teknologier der medfølger???
Rune skrev Friday den 28 May 2004 kl. 13:42: [ svar | nyeste ]
Det ser umiddelbart sådan ud, men mon ikke, at der senere udkommer billige grafikkort baseret på nedskaleret R420...
Rune skrev Sunday den 30 May 2004 kl. 00:33: [ svar | nyeste ]
Det ser ikke ud til, at X800XT Platinum Edition ankommer før tidligst i starten af juli:
"Ironically, the ATI X800XT will be clocked at 500/500 MHz just as we suggested it would at the beginning of this year. X800 XT PE, Platinum edition is, as we said before, a 525MHz card with 560MHz memory and will ship at the end of June or early July and the X800 PRO is already in the market and it's clocked at 475MHz core and 900MHz memory."
Rune skrev Sunday den 30 May 2004 kl. 12:28: [ svar | nyeste ]
Måske kan X800Pro alligevel modificeres til X800XT, dog kan denne fremgangsmåde kun anbefales til vore mest erfarne og risikovillige læsere (hvor alt naturligvis er helt på eget ansvar):
Rune skrev Friday den 04 June 2004 kl. 17:33: [ svar | nyeste ]
Endnu en drejning i den "spændende" sag, men nuvel, på denne måde sikrer pressen vel, at diverse producenter af grafikchips ikke opnår forspring på mindre hæderligt grundlag:
Der kommmer både et Radeon X800XT og et Radeon X800XT Platinum Edition, eller hvad? Hvad er så lige forskellen på disse? Er Platinum-udgaven lidt bedre/hurtigere?
Ra skrev Friday den 18 June 2004 kl. 14:28: [ svar | nyeste ]
Ja, Clockfrekvensen, Ja.
X800XT forventes med 500/500MHz mens PE kører 520/560MHz.
130.228.133.51.ip.tele2adsl.dk skrev Sunday den 27 June 2004 kl. 06:56: [ svar | nyeste ]
God og grundig test. Jeg savner dog en beskrivelse af billedkvaliteten af de to kort. Ofte glemmer man billedkvaliteten og fokuserer i stedet på den rå kraft. ATI plejer at have mere styr på billedkvaliteten end nVidia, men er dette stadig tilfældet?
Rune skrev Sunday den 27 June 2004 kl. 13:11: [ svar | nyeste ]
Jeg har desværre ikke set noget test-site fokusere på dette aspekt, så formodentlig er der ikke markant forskel - eller også har Digit-Life fat i den lange ende her:
"Before giving an estimate to the 2D quality, I will repeat that there is NO viable method to estimate this parameter objectively for the moment due to the following reasons:
1. The 2D quality largely depends on a particular card almost in all actual 3D accelerators;
2. The 2D quality depends not only on the videocard but on the monitor and the connecting cable as well;
3. The monitor/card liason has had a significant influence on this parameter lately, as there are monitors that are incompatible with certain videocards."
CupeX skrev Monday den 28 June 2004 kl. 14:39: [ svar | nyeste ]
hey, nogen der vil fortælle mig lige hurtigt, hvad der nu gør at ASUS måske er at foretrække fremfor f.eks. HIS og gexcube og alle de andre fabrikanter... man plejede at sige at ASUS var kvali... men de er vidst lige blevet overtaget af nogle andre... nogen der kan fortælle mig hvad man skal holde sig til!?
CupeX
Rune skrev Monday den 28 June 2004 kl. 16:27: [ svar | nyeste ]
Det korte af det lange vil indtil videre nok være Asus V9999 Deluxe mht. GeForce 6800 Ultra, og Sapphire Toxic eller Hightech Excalibur (HIS/Enmic) ICEQ2 mht. Radeon X800Pro/XT-PE.
CupeX skrev Monday den 28 June 2004 kl. 22:59: [ svar | nyeste ]
Rune .... hvorfor? der er jo lige blevet anmeldt et asus radeon... hvorfor så excalibur og sapphire? pga prisen?!...
Rune skrev Tuesday den 29 June 2004 kl. 00:05: [ svar | nyeste ]
Intet tyder på, at Asus blot kommer i nærheden af de ca. 18 dBA samt den fremragende køleeffekt, som ser ud til at kendetegne ICEQ-kølerne, derfor. Men er man villig til at risikere en køler, som måske larmer 30 - 35 dBA og som ser ud til at køle markant ringere, så burde Asus med standardkøler være fin løsning - jeg ville dog ikke selv acceptere støj over 30 dBA. Dvs. ingen anden luftbaseret køler ser ud til at kunne slå "Arctic Cooling VGA Silencer"-serien, hvorfor Sapphire Toxic og HIS/Enmic ICEQ2 burde være eliten, som intet GeForce 6800 Ultra aktuelt ser ud til at nærme sig - medmindre vi snart ser 6800 Ultra med tilsvarende køleløsning, hvilket burde være en mulighed...
CupeX skrev Tuesday den 29 June 2004 kl. 14:49: [ svar | nyeste ]
tak, du er en gud indenfor det her!!!! lönge leve intelligente mennesker...
sorry, sidder på et svensk tastatur!
btw. men asus havde et fedt lille blåt lys i deres kort.... nsnöft snöft! og nej, jeg gider ik selv pille ved mit gf kort for at få blåt lys i.... buhu! men altså sapphire og his er bedst...
ved du om de er meget billigere i svergie el usa? har forbindelser begge steder, men hvis det kun er et par hundrede man kan spare, så er detj o hip som hap!
tak for hjölpen indtil videre!
hvornår slår du til på de kort? hvilken pris skal de vöre på!
CupeX
CupeX skrev Tuesday den 29 June 2004 kl. 15:13: [ svar | nyeste ]
forresten, det er da kun asus som har lavet en XT model.... jeg vil ikke have pro versionen... så må man jo vente... ik!
Gf6800 med kølesystem tilsvarende iceQ..
Venter lige med at bestille mit nye grafikkort til de her er på gaden ;) er mildt sagt pænt tilfreds med det r9800pro iceQ kort jeg har til at sidde i spanden lige nu, overclocker SÅ godt!
Rune skrev Tuesday den 29 June 2004 kl. 16:30: [ svar | nyeste ]
Disse Galaxy GeForce 6800 grafikkort med køler svarende til ICEQ2 har tidligere været nævnt i kommentar til denne artikel:
Desværre er det kun et GeForce 6800 grafikkort, som benytter ca. halv hastighed af 6800 Ultra, og hverken 6800 Ultra eller 6800 GT er blevet set med dette kølesystem indtil videre.
Rune skrev Wednesday den 30 June 2004 kl. 19:36: [ svar | nyeste ]
DriverHeaven har testet et stort antal ATi grafikkort (inkl. mange PCIe-versioner) i mange forskellige spil og opløsninger - og med/uden FSAA og ANI. Selv gode gamle Radeon 9700 Pro er med, hvis enkelte ønsker at skalere direkte mod X800Pro og X800XT i spil som Far Cry, Unreal 2, Unreal Tournament 2004 osv. - læs mere her:
Med LCD-skærm kan du ofte med fordel aktivere 4xFSAA og 16xANI i 1280x1024, hvor selv aktuelle high-end grafikkort vil blive presset en del i særligt krævende spil; men har du en 1280x1024 LCD-skærm, der er testet til kun at kunne klare 30 ms. (dette gælder for mange LCD-skærme, hvor producenten oplyser 16ms. responstid), så er det klart, at du har langt mindre behov end personer, der ønsker 85FPS i 1600x1200@85Hz eller bedre.
Rune skrev Wednesday den 07 July 2004 kl. 17:09: [ svar | nyeste ]
Noget kunne tyde på, at vi allerede om få måneder kan opleve R430 (Radeon X900??) med 0,11 mikron:
Så Radeon X800XT PE har muligvis kun få måneder tilbage på toppen, selv om dette grafikkort endnu ikke har nået mange forhandlere. 0,11 mikron vil formodentlig tillade, at VPU-hastigheder på 600+ MHz vil kunne opnåes uden forøgelse af effektforbruget - men nu må vi se...
Ust skrev Wednesday den 07 July 2004 kl. 17:23: [ svar | nyeste ]
Tror du selv at der er noget hold i det rygte? Jeg tænker ATM. selv på at opgradere mit grafik kort til X800XT, men hvis der udkommer en bedre version om få måneder ville det vel være lidt fjollet, no?
Hvor meget ydelse ville vi kunne forvente os af den nye chip ca.?
Forresten, hvad blev der af den aftale mellem Nvidia og ATI om at sænke udviklingen på grafik chips?
Er meget i vildrede nu...
Rune skrev Wednesday den 07 July 2004 kl. 17:33: [ svar | nyeste ]
DigiTimes plejer ikke at lyve, så jo, jeg tror, at der er rimeligt hold i dette rygte. Nvidia forventes også at udkomme med NV48 i efteråret, så det er kun naturligt, at vi ser R430 i 3. kvartal 2004. Men inden R430 er lanceret og ankommet i danske butikker kan meget vel gå lige så lang tid, som fra X800XT blev lanceret til den reelle ankomst - og så skriver vi pludselig 2005... Både NV48 og R430 er mindre forbedringer til NV40 og R420, så nogen revolution forventes ikke, så det kan meget vel være, at ATi og Nvidia har forøget tidsrummet mellem lancering af nye VPU-revolutioner (som først forventes via R500 og NV50).
Ust skrev Wednesday den 07 July 2004 kl. 18:16: [ svar | nyeste ]
Hvad med dig selv, Rune? Er du stadig fast besluttet på at opgradere dit grafikkort eller har den seneste måneds tid gjort dig tvivl, det har den i hvertfald med mig.
Rune skrev Wednesday den 07 July 2004 kl. 20:09: [ svar | nyeste ]
Mit standpunkt er komplet uændret gennem de sidste mange måneder; dvs. jeg regner ikke med at opgradere, før Doom3 og Half-Life 2 udkommet og testet. Mit overclockede Radeon 9700 Pro medfører, at jeg kan afvikle stort set alle aktuelle spil på tilfredsstillende måde i enten 1280x1204 eller 1600x1200, så jeg har ikke travlt :-)
Rune skrev Friday den 09 July 2004 kl. 12:10: [ svar | nyeste ]
Det ser ud til, at X800-baserede grafikkort er så populære, at ønsker man et sådanne (især X800XT PE), så bør man væbne sig med tålmodighed:
"WE HEARD THAT there is such a high demand for X800 chips that ATI simply cannot send enough chips to all of its customers by hook or by crook or by the book... The situation may get better soon, but people just can't wait for the X800 marchitecture to arrive. Now don't you forget that ATI has over seventy per cent of the high end market and people that have used the Radeon 9800XT or the previous ATI chip will not easily shift to the Nvidia 6800 Ultra. ATI has dominated this market for nearly two years despite the slings and arrows of outrageous Nvidia discontent."
Rune skrev Saturday den 17 July 2004 kl. 12:41: [ svar | nyeste ]
Nye rygter indikerer, at ATi vil udgive X800-baseret grafikkort med 16 pipelines for at konkurrere mod GeForce 6800 GT:
"A report over China-based web-site GZeasy.com claims that the new graphics chip from ATI will be called RADEON X800 GT and will be a down-clocked RADEON X800 XT graphics processor with 16 rendering pipelines. The so-called RADEON X800 GT visual processing unit will function at 425MHz and will carry 256MB of GDDR3 memory clocked at 900MHz onboard. Initially the new RADEON X800 product will be offered for systems with AGP 8x port."
Rune skrev Sunday den 18 July 2004 kl. 00:46: [ svar | nyeste ]
R430 forventes som beskrevet i tidligere kommentarer med 0,11 mikron VPU i efteråret 2004. Der er dog et enkelt lille aber-dabei; her uddrag direkte fra ATi (dvs. Nils Horstbrink, Head of Technical Marketing, EMEA):
"110 nanometer giver bedre mening i forbindelse med masseprodukter [=low-end og mellemklassen, red.] end high-end, da vi i det første tilfælde ikke er afhængige af høje taktfrekvenser. Derudover kan vi gennem 130nm-produkter anvende fordele ved low-k-teknologi, disse fordele findes aktuelt ikke ved 110nm-processer"
Kilde: PC Games Hardware 08/04 s. 20
Så 0,11 mikron tilbyder desværre ikke low-k-teknologi, hvilket formodentlig vil øge effektforbruget betragteligt; så 0,11 mikron kan tænkes at medføre hurtigere taktfrekvenser, men vil næppe reducere effektforbrug ifht. 0,13 mikron low-k-teknologi. Så det er næppe utænkeligt, at et 600 MHz R430 ville kræve op mod f.eks. 100W og udvikle høj varme grundet forøget effekt per cm2 VPU-areal - men alt er naturligvis gisninger indtil videre.
JLA skrev Sunday den 18 July 2004 kl. 16:23: [ svar | nyeste ]
Hej Hardwaretidende!
Jeg overvejer at anskaffe et X800 XT og er ved at vurdere, om min PSU kan levere strøm nok på 12-volt linjen - jeg har en 420 watt PSU af god kvalitet, som kan levere 18 ampere på 12 volt-linien, så der burde ikke være noget problem. Mit system ligner meget det, som Tom´s Hardware brugte til at måle strømforbrug, jf. henvisningen øverts i Jeres artikel (Luftkølet P4 3.2 GHz uden RAID). Ved full-load "spiste" Tom´s PC 263 watt fra stikkontakten med en "PSU efficiency" på 69 % - d.v.s. med X800 XT krævede samtlige PC-komponenter 181 watt ved full-load (=69% af 263 watt, hvor de 31% vel gik tabt som varme i PSU´en). Så vidt jeg ved, ligger et full-load forbrug på 3,3 volt-linjen og 5 volt-linien i almindelighed på 65 watt. D.v.s. at "trækket" på 12-volt linjen i Tom´s PC kan skønnes til 181 watt minus 65 watt = 116 watt. 116 watt divideret med 12 volt = 9,7 ampere. Min PSU har som nævnt 18 ampere på 12 volt-linjen, og jeg har hørt, at man som tommelfingerregel ikke bør belaste PSU´en med mere end 70 % - 70 % af 18 ampere = 12,6 ampere, og skønnet på 9,7 ampere ligger således indenfor norm. Er dette skøn helt hen i vejret, eller er der noget, jeg har overset / misforstået?
(Hvis spørgsmålet henhører under forum, håber jeg, I vil flytte det derhen.)
Rune skrev Sunday den 18 July 2004 kl. 16:37: [ svar | nyeste ]
Jeg tror ikke, at det er nødvendigt at bekymre sig meget over specifikationer hinsides din strømforsynings specificerede maksimale effekt; dvs. ATi anbefaler blot, at man anvender 350 watt strømforsyning til X800XT PE, hvis du har mange enheder tilsluttet din PC. Dette indikerer, at ATi har testet et stort antal strømforsyninger og fundet, at der generelt ingen problemer er, såfremt ens strømforsning blot kan levere 350 watt ifølge producenten - X800Pro kræver kun 300 watt, og eftersom X800XT ikke bruger 50 watt mere end X800Pro, så vil alm. 300 watt strømforsyning formodentlig også kunne trække X800XT i stort antal tilfælde.
JLA skrev Sunday den 18 July 2004 kl. 17:31: [ svar | nyeste ]
Hej, Rune - tak for svaret - jeg vidste ikke, at X800XT PE-anbefalingen på 350 watt også gjaldt for PC´ere med mange enheder tilsluttet. Jeg er måske også generelt lidt skeptisk, når producenterne melder ud med deres specifikationer, hvilket desværre tit viser sig at være berettiget, jf. f.eks. Jeres artikel om decibel-målinger på high-end kortene. De 350 watt strømforsyninger jeg har set anvendt i tests, har ofte været Enermax med 26 ampere på 12-volt linjen, hvilket nok har fået mig til at tvivle på, om mine 18 nu også er nok.
Hei, jeg er norsk som dere sikkert ser på skriften :) men driver og bygger PC og denne siden er kjempehjelpsom og det skal dere ha takk for ;).
Bare lurer hvilket merke som er best av x800xt'ene? lurte på å kjøpe Sapphire Radeon x800xt men asus sin x800xt ser også bra ut.. hva kan dere hjelpe med?
Takk for all hjelp!
Rune skrev Monday den 19 July 2004 kl. 01:57: [ svar | nyeste ]
HIS Excalibur X800 XT IceQ II er aktuelt bedst, læs mere her:
en ting til.. er det noen jeg kan sende email til for å få hjelp og vurdering på Pc'en jeg har tenkt å kjøpe? Mangler litt erfaring med visse ting som hadde vært flott å få hjelp med.
Rune skrev Monday den 19 July 2004 kl. 02:02: [ svar | nyeste ]
Prøv at oprette et indlæg i vores forum, der findes mange, som kan hjælpe dig:
Rune skrev Wednesday den 21 July 2004 kl. 11:53: [ svar | nyeste ]
NVNews (som vel er det største fansite for Nvidia grafikkort) har gennemgået et meget stort antal testresultater fra mange forskellige sites og vurderet, hvorvidt X800XT eller 6800U var vinderen - resultaterne var:
Vi regner med at opsummere disse resultater, når Nvidia grafikkort også er blevet testet - men indtil videre er her et uddrag:
"The X800 Pro consumes a little less than the RADEON 9800 XT, and the X800 XT Platinum Edition, which is incomparably faster – only 3 Watts more than the 9800 XT and only in the Burn mode! The transition to the thinner 0.13-micron tech process, the reduced core voltage (X800’s 1.4v against 9800 XT’s 1.7v), the use of a less power-hungry memory and various improved power-saving technologies – these factors all contribute to the excellent result... Thus, if you’ve got a RADEON 9800 XT/Pro graphics card and want to replace it with a RADEON X800 XT/Pro, you will have no power-related problems whatever. Moreover, thanks to the lower power consumption and heat dissipation of the new cards in the Idle mode, the thermal environment will even improve in those cases when you have no “heavy” 3D applications running."
Dvs. 9800XT kom op på 60 watt under maksimal belastning, mens X800XT Platinum Edition nåede 63 watt.
RexOn skrev Saturday den 31 July 2004 kl. 14:13: [ svar | nyeste ]
I denne her doom3 test slår ati altså geforce GT atis X800XT-PE !!
http://www2.hardocp.com/article.html?art=NjQy
#What is going to be surprising to many of you is that ATI's flagship Radeon X800XT-PE card has been outperformed by NVIDIA's GeForce 6800GT. This is not a fluke and it is a result you will see repeated throughout our results.#
RexOn skrev Sunday den 01 August 2004 kl. 00:09: [ svar | nyeste ]
Lige noget jeg synes at alle ATI fans skal læse :):
[Fra Privat Computer]
"Alene ud fra testresultaterne må der næsten dømmes dødt løb mellem Geforce 6800 Ultra og Radeon X800 XT PE."
"Nidia har dog marginalerne på sin side af vægtskålen, der gør at opgøret falder til Geforce 6800 seriens fordel."
Her kan nævnes teknologier som CineFX 3.0 og SLI.
Desuden forventes GeForce Ultra først at indfri sin enorme potentiale med de 222 millioner transistorerm når krævende spil som Doom 3 kommer!
Ra skrev Sunday den 01 August 2004 kl. 01:11: [ svar | nyeste ]
Efter min mening er det temmeligt latterligt at bruge et PC-popblad som Privat Computer som kilde til at anfægte den konklusion, der ovenfor er samlet sammen fra et langt større testmaterial!
RexOn: Hvad er det egentlig du vil sige med dine indlæg??? Hvis du bedst kan lide Nvidia så køb det dog og lad os andre i fred...
RexOn skrev Sunday den 01 August 2004 kl. 00:10: [ svar | nyeste ]
Her kommer de der tests fra PC:
NVIDIA GEFORCE 6800 ULTRA FarCry: 35,4 fps | Ati Readon x800 XT PE 36,3 FPS
NVIDIA GEFORCE 6800 ULTRA Call of duty:139 FPS | Ati Readon x800 XT PE: 121,0FPS
NVIDIA GEFORCE 6800 ULTRA Halo: 47,1 fps | Ati Readon x800 XT PE 45,2 fps
NVIDIA GEFORCE 6800 ULTRA 3dmark03: 11594 point| Ati Readon x800 XT PE 11702 point
NVIDIA GEFORCE 6800 ULTRA 59,27 |Ati Readon x800 XT PE aqua mark: 55,56
Hej. Nogen der ved hvad der kommer efter 6800 og x800 serierne altså ikke bare nogle kort/Chips der er lavet om til PCI-E ?
Rune skrev Sunday den 01 August 2004 kl. 12:45: [ svar | nyeste ]
NV48 og R430 forventes i efteråret med 512MB ram; R430 forventes med 0,11 mikron - der er dog en enkelt detalje ved disse 0,11 mikron, som du kan læse mere om i min kommentar skrevet "18 juli 2004 kl. 00:46" længere oppe.
kommer NV48 også til den gamle AGP eller bliver det kun til PCI-E?
Rune skrev Sunday den 01 August 2004 kl. 18:15: [ svar | nyeste ]
Jeg er ikke stødt på mange oplysninger om NV48, men det vil undre mig, såfremt der ikke kommer en AGP-version, eftersom markedet for PCI Express x16 aktuelt er meget begrænset.
Gandalf skrev Sunday den 01 August 2004 kl. 19:05: [ svar | nyeste ]
Jeg har lige et spørgsmål til dig Rune. Jeg overvejer i øjeblikket stærkt at købe et HIS Radeon X800XT IceQ II, men der er lige én ting jeg tænker på. Er nævnte kort et 'platinum edition' eller hvad? fordi jeg har nemlig ikke set nogen anmeldelser eller kortet nævnt i andre sammenhænge med 'PE' i navnet :S
Rune skrev Sunday den 01 August 2004 kl. 19:17: [ svar | nyeste ]
Ja, det er Platinum Edition, selv om HIS ikke anvender denne betegnelse i navnet; læs mere her:
Rune skrev Thursday den 26 August 2004 kl. 15:39: [ svar | nyeste ]
Første info om R520 (ankomst formodentlig engang i 2005):
The "Fudo" chip [=R520, red.] will have Shader model 3.0, according to our sources. It's too early for Shader 4.0 as this nice shader model won't show up till 2006 or even later... One more thing, the R520 will be developed by the R300 team – I cannot remember whether that is the East or West Coast team. You know what? Those guys made graphic turn over for ATI in summer two years ago. We don't know quite what to expect but it's full of Eastern, or Western promise."
Gandalf skrev Thursday den 26 August 2004 kl. 18:11: [ svar | nyeste ]
Så er spørgsmålet jo: Betyder SM3.0 så virkelig noget eller får ATI's nye kort det kun for at de kan sige "se nu har vi det også, ingen grund til at vælge Nvidia". :hmm:
Men Rune, har du forresten nogen idé om hvorledes de nye grafikkort yder under forskellige CPU'er? Det er bare fordi at jeg i et stykke tid nu har planlagt at købe et X800XT, men hvor mere mere vil det give end et 6800 GT på min P4 3.0 ghz CPU? Kan det overhovedet betale sig medmindre jeg overclocker min processor til 3.4-3.6?
Ra skrev Thursday den 26 August 2004 kl. 19:49: [ svar | nyeste ]
Jeg synes den sidste tids debat beviser, at det er næsten ligegyldigt hvor meget den nyeste teknologi betyder - det betyder mest at have den!
Hvis ATI er smarte får de SM3/PS3 indarbejdet hurtigst muligt før Nvidia løber med al hypen og de deraf følgende store salg til teknologi-analfabeter!
> før Nvidia løber med al hypen og de deraf følgende store
> salg til teknologi-analfabeter!
Gider du uddybe den, måske endda nedlade dig til at inkludere et par facts?
I når du nu alligevel skal til at skrive kunne du jo passende inkludere hvorfor du anser Tim Sweeney for værende teknisk ukyndig - han burde ikke kræve introduktion, men fyren er Epics grundlægger og ledende kodeabe bag Unreal enginen.
With an anticipated release of a revision of DX9 that allows the use of SM 3.0, could you tell us what are the more interesting and useable advantages SM3.0 offers over the current SM 2.0 model? Referencing the two public demos of UE3, what kind of pixel and vertex shader 3.0 were used?
PS 3.0 utilizes a wide range of optimizations, from 64-bit frame-buffer blending to looping and dynamic conditionals for rendering multiple light interactions in a single pass without requiring a combinatorical explosion of precompiled shaders.
Our pixel shaders in the Unreal Engine 3 demos are typically 50-200 instructions in length, and are composed from a wide range of artist-controlled components and procedural algorithms.
Our vertex shaders are quite simple nowadays, and just perform skeletal blending and linear interpolant setup on behalf of the pixel shaders. All of the heavy lifting is now on the pixel shader side -- all lighting is per-pixel, all shadowing is per-pixel, and all material effects are per-pixel.
Once you have the hardware power to do everything per-pixel, it becomes undesirable to implement rendering or lighting effects at the vertex level; such effects are tessellation-dependent and difficult to integrate seamlessly with pixel effects.
...og fra lidt senere:
Essentially, what are the specific precision issues with 24-bit FP vis-à-vis 32-bit FP in UE3?
Unreal Engine 3 works best with 32-bit floating point, but supports 24-bit floating point. Currently there are a few cases where minor artifacts are visible with 24-bit floating point. As shaders grow more complex, these will likely be amplified.
Der går nok en rum tid før PS 3.0 er udbredt, men at det sker er der næppe grund til at sætte spørgsmåltegn ved.
/cl
Rune skrev Friday den 27 August 2004 kl. 00:17: [ svar | nyeste ]
Jeg købte GeForce3 for at være klar til Doom3, og jeg har nu ikke tænkt mig at begå tilsvarende fejl mht. GeForce 6800 Ultra og Unreal 3. Dvs. der er både fordele og ulemper ved aktuelle grafikkort, men Unreal 3 bør holdes fuldstændigt uden for denne diskussion; jeg opfatter udelukkende Unreal 3 som misvisende blikfang; men kigger man ned i det dybe Unreal3-SM3-hav, så vil mange sømænd nok ikke kunne undgå at blive fortryllede (hvilket jeg konkluderer ud fra jublen over Unreal 3). Det korte af det lange; køb ikke grafikkort efter spil, som udkommer om 2-3 år, men efter spil, som eksisterer, eller som med rimelige antagelser må forventes at udkomme indenfor ca. 6 måneder. Formodentlig vil både ATi og Nvidia udkomme med nye grafikkort næste år, så jeg tror ikke, at hverken NV40 eller R420 er specielt fremtidssikre løsninger (måske en smule mere, hvis man afventer grafikkort med 512MB ram).
Tilbage i en (i denne sammenhæng) svunden tid investerede jeg i et ti4600, og specielt det sidste halve års tid har det været klart at jeg i stedet burde have gjort som du og investeret i en 9700'er. DX9 funktionaliteten har været voldsomt savnet, specielt pixel shader 2.0, suk. Netop derfor står Max Payne stadig i sin plastfolie og venter på at et nyt kort flytter ind. En fejl jeg ikke har tænkt mig at begå igen ;-)
Nuvel, min pointe var såmænd alene at PS3 naturligvis er kommet for at blive - i grunden var min agenda vist tåbelig :-/ - om understøttelse af PS3 er relevant ved indkøb af et nyt kort i dag er en helt anden sag. Endelig hvad angår fremtidssikre (som om det eksisterede) kort; guderne må vide hvorvidt 3DC eller PS3 bliver den mest savnede feature om et år. Ikke for at invitere til en diskussion herom, en sådan har alle muligheder for at blive ophedet, men ringe chancer for at blive saglig og vedkommende :-)
/cl
Ra skrev Friday den 27 August 2004 kl. 12:31: [ svar | nyeste ]
> før Nvidia løber med al hypen og de deraf følgende store
> salg til teknologi-analfabeter!
Hejsa cAPS lOCK,
Jeg henviste såmænd til den debat om hype->markedsfordele som blev rejst i flg. artikel på The Inquirer, og som jeg ikke synes er helt ude i hampen, når man véd hvordan nogle mennesker køber grafikkort...:
Gandalf skrev Thursday den 26 August 2004 kl. 21:13: [ svar | nyeste ]
Jeg ser det da kun som en fordel, at Nvidia's fremtidige mellemklasse (6800 serien) kan køre SM3.0 i modsætning til ATI's X800. Jeg indrømmer da blank, at den eneste grund til at jeg "satser" og køber et X800XT kort nu er, at jeg er sikker på at jeg også vil købe et nyt kort i den næste generation. Hvis jeg skulle beholde kortet i næste generation også, ville jeg nok ikke gøre det :)
Gandalf skrev Thursday den 26 August 2004 kl. 22:13: [ svar | nyeste ]
Jeg har læst den artikel en enkelt gang før, men jeg ville gerne se om der var flere kilder, da jeg helst gerne vil se ting flere steder fra :)
Jeg blev nemlig også i tvivl da jeg så artiklen der for en to ugers tid siden, men kunne godt tænke mig at høre Rune's vurdering =)
Rune skrev Friday den 27 August 2004 kl. 00:06: [ svar | nyeste ]
Historisk set har Nvidia kunnet presse deres drivere mere end ATi, dvs. i cpu-begrænsende spil har det tidligere været normen, at Nvidia opnåede lidt højere billedrate end ATi. Ser du dog nu på resultater fra Wolfenstein i 800x600 (hvor alt er cpu-begrænset), er det dog tydeligt, at ATi nu ligger meget tæt på Nvidia (hvilket ATi ikke gjorde for 2-3 år siden), dvs. Nvidia er 3% hurtigere. Kommer du op i højere grafikkort-begrænsede opløsninger, så forsvinder en mindre fordel i cpu-begrænsede spil, og nu bliver fillrate, VPU-design og ramhastighed mm. på grafikkortet afgørende. Generelt er aktuelle og særligt krævende spil grafikkortbegrænsede, så jeg ville ikke opfatte det som specielt betydningsfuldt, om Nvidia eller ATi medfører minimalistisk fordel i cpubegrænsede situationer. Dvs. jeg ville udelukkende fokusere på ydelse i 1600x1200 med og uden FSAA og ANI, mht. at vælge nyt high-end grafikkort (sjovt nok virker Far Cry cpubegrænset hos Guru3D på X800XT PE, men dette skyldes efter alt at dømme, at de har valgt en cpu-orienteret test i Far Cry, en mere grafikkortafhængig test ville nok have givet noget andet resultat).
Rune skrev Friday den 27 August 2004 kl. 17:40: [ svar | nyeste ]
Lidt information om ATi's kommende mellemklasse grafikkort med X700-navngivning og 8 pipelines:
Rune skrev Saturday den 11 September 2004 kl. 12:21: [ svar | nyeste ]
Noget kunne tyde på, at X800XT (non-PE) er på vej - muligvis også til AGP8x-bundkort:
"Sapphire Technology, one of the largest makers of Powered by ATI graphics cards, is currently shipping RADEON X800 XT graphics card clocked at 500MHz/1000MHz for core/memory, slower compared to speeds of the RADEON X800 XT Platinum Edition’s 520MHz/1120MHz. The Sapphire’s X800 XT SKU is available for $546 - $610 in Tokyo, Japan, Akiba PC Hotline web-site reports."
Rune skrev Wednesday den 27 October 2004 kl. 10:53: [ svar | nyeste ]
Ifølge bl.a. XBitLabs går det ganske godt for ATi i øjeblikket:
"For the first time for a long time Markham, Ontario-based ATI Technologies managed to leave NVIDIA behind in terms of market share in desktop standalone market segment. Currently ATI commands 55% of the market, up 17% from the previous quarter. NVIDIA supplied 42% of graphics chips for desktops during the Q3 2004, down 16% from the previous quarter.
ATI Technologies also took the lead over NVIDIA in the market of standalone graphics components, which includes both mobile and desktop graphics processing units. The firm supplied 59% of all graphics chips, while Santa Clara, California-based NVIDIA commanded 37% of the market, down 13% from the Q2 2004.
The success of ATI Technologies can be attributed to more affordable RADEON 9800- and RADEON 9600-series graphics cards hitting the market. While NVIDIA’s current GeForce 6-series GPUs offer customers blistering performance and feature-set and is more than just competitive to ATI’s RADEON X-series, the company’s previous generation product family GeForce FX, which generates the majority of revenue for the GPU designer, cannot offer enough performance in a number of modern games, unlike ATI’s 9800- and 9600-series products."
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:
Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.