Information om PC hardware
find
sidste nyt søg arkiv statistik om os
Emner
Andet (50)
Bundkort (83)
Emulator (38)
Grafikkort (277)
Harddisk (19)
Køling (18)
Processorer (128)
RAM (25)
Software (86)

Links
Drivere
Emulator
Hardware
Spil
Download

Kommentarer
Lukning af HardwareTidende (stand-by på ubestemt tid) (341)
(2004-11-30 23:59:59)

Half-Life 2 - årets spil 2004 (100)
(2004-11-30 23:58:49)

Specifikationer på ATi Radeon R480 (Radeon X850) (39)
(2004-11-30 23:15:03)

Betydning af ramtimings, FSB og taktfrekvenser (64)
(2004-11-30 22:54:53)

The Elder Scrolls IV: Oblivion - tidlige billeder fra fortsættelsen til Morrowind (33)
(2004-11-30 22:51:58)

Hovedtelefoner med surround sound - introduktion og test (221)
(2004-11-30 21:03:22)

Test af 45 cpukølere til Athlon XP (socket A/462) (56)
(2004-11-30 20:33:15)

Bundkort til Athlon 64 - ATi Radeon Xpress 200 mod Nvidia nForce4 Ultra og VIA K8T800 Pro (21)
(2004-11-30 19:38:15)

Omfattende test af Athlon 64 cpu'er til socket 939 (120)
(2004-11-30 19:30:02)

Test af 5 bundkort til socket 939 (nForce3 Ultra mod K8T800 Pro) (90)
(2004-11-30 19:23:37)

DOOM3 på GeForce3 (15)
(2004-11-30 17:38:17)

Maj 2000 grafikkort-test (2)
(2004-11-30 15:23:46)

Guide til LCD-skærme (fladskærme) (290)
(2004-11-30 00:46:39)

Støjmålinger på 6 mellemklasse og high-end grafikkort (54)
(2004-11-30 00:01:19)

Test af stort antal grafikkort i 1600x1200 (juni 2004) (76)
(2004-11-29 18:35:19)

Ekstrem ydelse med grafikkort - første resultater med Nvidia SLI (95)
(2004-11-29 15:36:13)

Athlon 64 4000+ og Athlon 64 FX-55 mod Intels hurtigste cpu'er (56)
(2004-11-28 15:10:20)

Drivere til ATi grafikkort - Catalyst 4,8 mod 4,7 (44)
(2004-11-27 00:37:49)

Test af 12 forskellige bundkort med i925X eller i915 chipsæt - hvilke er bedst? (28)
(2004-11-25 22:22:53)

Test af ydelse i Half-life 2: High-end grafikkort og cpu'er (79)
(2004-11-25 22:21:44)


GeForce 6800 Ultra (NV40) mod Radeon 9800XT og GeForceFX 5950 Ultra
Grafikkort af Webmaster Wednesday den 14 April 2004 kl. 23:31 [ Grafikkort ]
Efter en længere periode, hvor Nvidia har været plaget af relativ dårlig ydelse i DirectX9-spil, har Nvidia lanceret næste generation af grafikkort, som er baseret på NV4x-serien. Spørgsmålet er dog, om Nvidia er i stand til at vinde stort over Radeon 9800XT, GeForceFX 5950 Ultra og snarligt Radeon X800-serien. I denne artikel fokuserer vi på, hvor stor forskel der er på GeForce 6800 Ultra, Radeon 9800XT og GeForceFX 5950 Ultra i 1600x1200 med og uden kantudglatning (4xFSAA) og anisotropisk filtrering (8xANI).

INTRODUKTION

Lad os starte med et promotion-billede af GeForce 6800 Ultra:


Nvidia GeForce 6800 Ultra med kommende køler, der tillader brug af første PCI-slot

Den aktuelle prototype benytter en køler, der blokerer for første PCI-slot, hvilket skulle ændre sig, når de første GeForce 6800 Ultra grafikkort forventes på markedet om ca. 1 måned. Vi fortsætter med de vigtigste specifikationer:


Kilde: http://www.hothardware.com/hh_files/S&V/nv40_debut.shtml


Primære forskelle med Shader Model 2.0 (GeForceFX 5950 Ultra) og Shader Model 3.0 (GeForce 6800 Ultra)

GeForce 6800 Ultra benytter endvidere 222 millioner transistorer (0,13 mikron fabrikationsproces) i VPU'en, hvilket er en forøgelse på 71% i forhold til GeForceFX 5950 Ultra (NV38). Endvidere understøtter GeForce 6800 Ultra pixel og vertex shadere v. 3.0, hvilket det formodes, at ATi R420 ikke vil gøre. Så snarligt vil vi formodentlig opleve ATi nedtone betydningen af Shader Model 3.0, mens Nvidia vil gøre det modsatte. Flere kommende spil vil understøtte Shader Model 3.0 (patch er bl.a. snart klar til Far Cry og STALKER er også med på vognen), hvorvidt pixel og vertex shader 3.0 reelt kommer til at gøre nogen stor forskel det næste års tid, er dog et åbent spørgsmål, som vi ej heller skal forsøge at besvare her.
Endvidere understøtter GeForce 6800 Ultra enkodning og dekodning af MPEG 2 og 4, hvilket burde kunne aflaste cpu'en en del. Ønsker man at vide mere om diverse detaljer ved GeForce 6800 Ultra (såsom kraftigt forbedret ydelse og billedkvalitet med FSAA og ANI), så anbefaler vi gennemlæsning af denne artikel:

http://www.tomshardware.com/graphic/20040414/index.html

GeForce 6800 Ultra benytter kun 84% af taktfrekvensen på GeForceFX 5950 Ultra, men dette er ikke nok til at forhindre GeForce 6800 Ultra i at bruge megen mere effekt end GeForceFX 5950 Ultra. Nvidia har af denne grund beskrevet, at GeForce 6800 Ultra kræver en strømforsyning på mindst 480 watt, hvor GeForce 6800 Ultra forbindes til to separate udgangskabler (og ikke til to stik på samme udgangskabel). Men lad os starte med at se, hvor slemt det egentlig står til med effektforbruget hos GeForce 6800 Ultra:

EFFEKTFORBRUG

The Tech Report fandt følgende, da de testede et helt system (vi er her kun interesseret i forskelle på udvalgte grafikkort):


Kilde: http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=1

Her ses, at GeForce 6800 Ultra maksimalt når op på at forbruge 8 watt mere end GeForceFX 5950 Ultra. Dette er en så ringe forskel, at GeForce 6800 Ultra med den rette cpu burde virke fint med 350 watt strømforsyning - eftersom netop 350 watt anbefales til GeForceFX 5950 Ultra. Tom's Hardware er dog ikke helt enig og fandt:


Kilde: http://www.tomshardware.com/graphic/20040414/index.html

Her brugte GeForce 6800 Ultra 24 watt mere end GeForceFX 5950 Ultra, hvilket stadig ikke leder tankerne hen på 480 watt strømforsyning. Her er det dog, at cpuvalg kan betyde meget - tidligere fandt ZDnet følgende cpuforskelle:


Kilde: http://reviews.zdnet.co.uk/hardware/processorsmemory/0,39024015,39145079-2,00.htm

Dvs. her var forskellen på Prescott 3,2 GHz og Athlon 64 3400+ på gigantiske 74 watt ved maksimalt effektforbrug (Asus P4C800 vs. Asus K8V Deluxe). Har man en Prescott fremfor Athlon 64, så tyder dette på, at man har brug for særligt kraftig strømforsyning. Besidder man en Athlon XP eller P4 Northwood op til ca. 2600/200 Mhz kan der udfra ovenstående resultater være god grund til at tro, at 350 watt strømforsyning er nok til at kunne trække GeForce 6800 Ultra - hurtigere Northwood (undtagen Extreme Edition) og Athlon 64 cpu'er burde formodentlig kunne klare sig fint med 400 watt strømforsyning. Men dette er naturligvis altsammen spekulationer, som endnu ikke er blevet testet.
Endvidere ser det ud til, at standard-kølesystemet på GeForce 6800 Ultra larmer en del:

"At the higher setting, the new cooler is loud, but not FX Flow loud. Whereas FX Flow’s motor contributed to a lot of the fan’s noise, this isn’t the case for the 6800 Ultra’s cooler. Instead the noise you hear is the whooshing sound of air moving at a very high velocity... In other words, it’s a loud noise, but not nearly as annoying as FX Flow was. The moderate setting is much more bearable. It’s still louder than RADEON 9800 XT and GeForce FX 5950 Ultra, but not loud enough to be distracting. The card’s fan never went above the moderate setting, even during extended testing sessions, and the 6800 Ultra board actually runs cooler than 5950 Ultra (a trait which really surprised us) so we don’t think the fan’s noise will become an issue unless you’re overclocking."
Kilde: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page6.asp

Såfremt GeForce 6800 Ultra kun bruger ca. 8 - 24 watt mere end GeForceFX 5950 Ultra, jf. ovenstående resultater, så burde der være gode chancer for, at f.eks. MSI atter vil kunne producere kølesystem, der larmer under 30 dBA... Men nok om alt dette, som vi får svar på, når diverse grafikkortproducenter lancerer deres GeForce 6800 Ultra grafikkort, lad os i stedet se nærmere på ydelse:

YDELSE

Eftersom GeForce 6800 Ultra aktuelt er at betegne som ultra-"high-end", så betyder dette, at GeForce 6800 Ultra først og fremmest henvender sig til personer, der anvender meget høje opløsninger såsom 1600x1200 (med eller uden FSAA og ANI) samt 2048x1536. Har man ikke en skærm, der kan klare sådanne opløsninger, vil det formodentlig være en bedre ide at købe Radeon 9800XT eller GeForceFX 5950 Ultra. Af denne grund fokuserer vi udelukkende på 1600x1200 opløsning i denne artikel med og uden 4xFSAA og 8xANI. Diverse grafikkort er alle testet på high-end systemer med nyeste drivere; ønsker man mere information om anvendte testsystemer, så kan diverse originalartikler findes via de henvisninger, der står angivet under hvert af nedenstående billeder - vi starter med gode gamle Quake3 Arena:

QUAKE3 ARENA (4xFSAA + 8xANI)


Kilde: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/default.asp

Her ser vi følgende rangorden:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. GeForceFX 5950 Ultra 256MB (475/950) = 55%
3. Radeon 9800XT 256MB (412/730) = 51%

Her giver GeForce 6800 Ultra smæk til øvrige konkurrenter og er dobbelt så hurtig som 9800XT. Vi har desværre ikke flere resultater fra Quake3 Arena, men fortsætter med Unreal Tournament 2004:

UNREAL TOURNAMENT 2004


Kilde: http://www.tomshardware.com/graphic/20040414/index.html

I Unreal Tournament 2004 uden FSAA og ANI ses følgende forskelle:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. GeForceFX 5950 Ultra 256MB (475/950) = 71%
3. Radeon 9800XT 256MB (412/730) = 67%

Med 4xFSAA og 8xANI fandt Hot Hardware:


Kilde: http://www.hothardware.com/hh_files/S&V/nv40_debut.shtml

Grundet 4xFSAA og 8xANI fokuserer vi her kun på de lilla linier:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. GeForceFX 5950 Ultra 256MB (475/950) = 73%
3. Radeon 9800XT 256MB (412/730) = 69%

Næste punkt på dagsordnen bliver Far Cry:

FAR CRY


Kilde: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/default.asp

Far Cry er at betegne som det aktuelt mest krævende spil, og GeForce 6800 Ultra vinder med relativ stor margin:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 71%
3. GeForceFX 5950 Ultra 256MB (475/950) = 52%

9800XT vinder her markant sejr over 5950U, men 6800U kan ingen vinde over - og slet ikke, når 4xFSAA og 8xANI aktiveres:



Kilde: http://www.anandtech.com/video/showdoc.html?i=2023

Disse billedrater er dog så små, at Far Cry må betragtes som uspilleligt - i hvert fald uden 6800U:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 63%
3. GeForceFX 5950 Ultra 256MB (475/950) = 55%

6800U dominerer med hård hånd, mens øvrige grafikkort gisper efter vejret, det bliver derfor spændende at se, hvor godt X800 XT vil klare sig mod 6800U om et par uger. Lad os se, hvordan det går i Serious Sam - The Second Encounter:

SERIOUS SAM - THE SECOND ENCOUNTER


Kilde: http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=1

6800U virker her cpu-begrænset, mens filmen knækker for de øvrige kandidater:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 65%
3. GeForceFX 5950 Ultra 256MB (475/950) = 65%

Og med 4xFSAA og 8xANI tager sidste års topmodeller sig ikke bedre ud (disse resultater leveres også fra Tech Report, da ingen andre har testet dette spil i 1600x1200):


Kilde: http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=1

Formodentlig takket være sin høje båndbredde, så vinder 5950U her over 9800XT:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. GeForceFX 5950 Ultra 256MB (475/950) = 55%
3. Radeon 9800XT 256MB (412/730) = 43%

Atter er det som at se Mike Tyson som værende i ringen med to 5-årige, der begge er plaget af muskelsvind - dvs. der er reelt ingen konkurrence mellem 6800U og øvrige konkurrenter. Lad os se, om det også er lykkedes for Nvidia at vende skuden i deres værste stormvejr:

TOMB RAIDER - ANGEL OF DARKNESS


Kilde: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/default.asp

Alt går her bedre for Nvidia end mange nok har turdet drømme om - og formodentlig vil tilsvarende også gælde i Half-Life 2:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 54%
3. GeForceFX 5950 Ultra 256MB (475/950) = 37%

Dette er bestemt helt fantastiske resultater for 6800U, der ingen tvivl lader om, at Nvidia denne gang går efter at dominere markedet, som Nvidia gjorde det i de (gode) gamle dage. Hot Hardware fandt tilsvarende tendenser med 4xFSAA og 8xANI:


Kilde: http://www.hothardware.com/hh_files/S&V/nv40_debut.shtml

Her fokuserer vi igen kun på lilla linier:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 51%
3. GeForceFX 5950 Ultra 256MB (475/950) = 40%

Intet kan atter blot komme i nærheden af 6800U. Hvad med Colin McRae Rally 04?

COLIN MCRAE RALLY 04


Kilde: http://www.tomshardware.com/graphic/20040414/index.html

I dette spil vinder 6800U atter meget stort:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 51%
3. GeForceFX 5950 Ultra 256MB (475/950) = 37%

Tendenserne minder her meget om Tomb Raider AOD; kun Tom's Hardware har testet dette spil, så derfor stammer resultater med 4xFSAA og 8xANI desværre også fra Tom's Hardware:


Kilde: http://www.tomshardware.com/graphic/20040414/index.html

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 56%
3. GeForceFX 5950 Ultra 256MB (475/950) = 43%

Samme tendenser som uden FSAA og ANI - mon Newerwinter Nights er anderledes?

NEWERWINTER NIGHTS (4xFSAA + 8xANI)


Kilde: http://www.anandtech.com/video/showdoc.html?i=2023

Dette spil har længe været meget krævende, og specielt 9800XT klarer sig som sædvanligt dårligt i dette spil:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. GeForceFX 5950 Ultra 256MB (475/950) = 72%
3. Radeon 9800XT 256MB (412/730) = 56%

Anandtech har desværre kun testet med 4xFSAA og 8xANI i 1600x1200, så vi må nøjes med disse resultater - og fortsætter med Comanche 4:

COMANCHE 4


Kilde: http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=1

I denne test virker 6800U cpu-begrænset:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. GeForceFX 5950 Ultra 256MB (475/950) = 93%
3. Radeon 9800XT 256MB (412/730) = 92%

Det bliver dog noget anderledes, når 4xFSAA og 8xANI aktiveres:


Kilde: http://www.hothardware.com/hh_files/S&V/nv40_debut.shtml

Som sædvanlig ser vi kun på lilla linier:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. GeForceFX 5950 Ultra 256MB (475/950) = 75%
3. Radeon 9800XT 256MB (412/730) = 63%

Comanche 4 er dog også tidligere kendt som særlig cpu-intensivt, det er Halo derimod ikke:

HALO


Kilde: http://www.tomshardware.com/graphic/20040414/index.html

Halo viser atter, at diverse ex-3dfx og Nvidia ingeniører denne gang ikke har sovet i DX9-timen:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 45%
3. GeForceFX 5950 Ultra 256MB (475/950) = 43%

Her ser vi det hidtil største forspring til 6800U, hvilket er imponerende, da 9800XT jo ikke ligefrem tidligere har været kendt som en snegl. Det bliver dog lidt bedre for 9800XT med 4xFSAA og 8xANI hos Bit-Tech:


Kilde: http://www.bit-tech.net/review/313/

Her ser vi:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 65%
3. GeForceFX 5950 Ultra 256MB (475/950) = 59%

At forspringet her formindskes en smule kan måske skyldes, at 6800U reelt ikke mere end 16% ekstra båndbredde ifht. 5950U. Nuvel, lad os se nærmere på et par racerbiler:

F1 CHALLENGE ´99-´02


Kilde: http://www.anandtech.com/video/showdoc.html?i=2023

Atter har vi kun resultater med 4xFSAA og 8xANI som viser disse procentuelle forskelle:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 60%
3. GeForceFX 5950 Ultra 256MB (475/950) = 55%

Vi ser en tendens, der vel har været triviel længe. For dem, som stadig læser uden at være sprunget direkte til konklusionen, så fortsætter vi med det kommende spil Breed:

BREED


Kilde: http://www.tomshardware.com/graphic/20040414/index.html

Breed kan i nogen grad beskrives som en efterligning af Halo, dog virker ydelsen med over 60 FPS ganske rimelig hos alle ovenstående grafikkort. Vi ser følgende forskelle:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 65%
3. GeForceFX 5950 Ultra 256MB (475/950) = 57%

Ingen andre end Tom's Hardware har testet dette spil, så resultater med 4xFSAA og 8xANI stammer også fra dette site:


Kilde: http://www.tomshardware.com/graphic/20040414/index.html

Med 4xFSAA og 8xANI bliver resultaterne:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 57%
3. GeForceFX 5950 Ultra 256MB (475/950) = 49%

Ingen test unden Splinter Cell:

SPLINTER CELL


Kilde: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/default.asp

Splinter Cell er normalt meget krævende, dvs. medmindre man benytter 6800U:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 53%
3. GeForceFX 5950 Ultra 256MB (475/950) = 41%

Splinter Cell virker ikke med FSAA, så vi må nøjes med disse resultater. Vi inkluderer også Nascar Thunder 2004:

NASCAR THUNDER 2004 (4xFSAA og 8xANI)


Kilde: http://www.tomshardware.com/graphic/20040414/index.html

Resultater er kun med 4xFSAA og 8xANI, og vi ser:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 70%
3. GeForceFX 5950 Ultra 256MB (475/950) = 51%

Næste testresultater stammer fra Lock On - Modern Air Combat:

LOCK ON - MODERN AIR COMBAT


Kilde: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/default.asp

Endnu en gigantisk sejr til 6800U:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 51%
3. GeForceFX 5950 Ultra 256MB (475/950) = 47%

Firingsquad har desværre ikke testet med 4xFSAA og 8xANI i dette spil, hvilket ej heller er specielt relevant, da ydelse efter alt at dømme vil blive for ringe selv med 6800U. X2 - The Threat bliver næst sidste test:

X2 - THE THREAT


Kilde: http://www.anandtech.com/video/showdoc.html?i=2023

Her er 6800U ikke ligefremt dobbelt så hurtig end konkurrenterne, men mindre kan vel også være godt nok:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. GeForceFX 5950 Ultra 256MB (475/950) = 65%
3. Radeon 9800XT 256MB (412/730) = 58%

Lad os skrue bissen på og aktivere 4xFSAA og 8xANI:


Kilde: http://www.tomshardware.com/graphic/20040414/index.html

Med 4xFSAA og 8xANI ser vi som sædvanlig 6800U i rampelyset:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. GeForceFX 5950 Ultra 256MB (475/950) = 59%
3. Radeon 9800XT 256MB (412/730) = 55%

Sidste test i denne omgang bliver fra flysimulatoren IL-2 Sturmovik:

IL-2 STURMOVIK (4xFSAA og 8xANI)


Kilde: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/default.asp

Det er næsten så trivielt som noget kan være - dvs. 6800U napper atter guldet:

1. GeForce 6800 Ultra 256MB (400/1100) = 100%
2. Radeon 9800XT 256MB (412/730) = 61%
3. GeForceFX 5950 Ultra 256MB (475/950) = 51%

Denne test har Firingsquad desværre ikke foretaget uden FSAA, hvorfor vi ikke kan bringe disse resultater.

KONKLUSION OG AFSLUTTENDE BEMÆRKNINGER

Traditionen tro kan vi her beregne de gennemsnitlige resultater (som er ret nemt for 6800U, men lidt sværere for 9800XT og 5950U, red. :-) - vi starter med at se på resultater uden FSAA og ANI:

GENNEMSNITLIGE RESULTATER UDEN FSAA OG ANI (1600x1200)

1. GeForce 6800 Ultra 256MB (400/1100) = 100% (ingen spredning)
2. Radeon 9800XT 256MB (412/730) = 61% (spredning 45 - 92 %)
3. GeForceFX 5950 Ultra 256MB (475/950) = 55% (spredning 37 - 93 %)

Her er alt sort på hvidt baseret på 11 forskellige delresultater; GeForce 6800 Ultra dominerer totalt og taber ikke en eneste test, mens Radeon 9800XT vinder over GeForceFX 5950 Ultra. I gennemsnit er GeForce 6800 Ultra således 64% hurtigere end Radeon 9800XT og 82% hurtigere end GeForceFX 5950 Ultra. Lad os se, hvorledes det går med 4xFSAA og 8xANI:

GENNEMSNITLIGE RESULTATER MED 4xFSAA OG 8xANI (1600x1200)

1. GeForce 6800 Ultra 256MB (400/1100) = 100% (ingen spredning)
2. Radeon 9800XT 256MB (412/730) = 59% (spredning 43 - 70 %)
3. GeForceFX 5950 Ultra 256MB (475/950) = 57% (spedning 40 - 73 %)

Her er forskellen på Radeon 9800XT og GeForceFX 5950 Ultra meget lille, mens GeForce 6800 Ultra atter er den store vinder (baseret på 14 delresultater). GeForce 6800 Ultra er her 69% hurtigere end Radeon 9800XT og 75% hurtigere end GeForceFX 5950 Ultra.

Eftersom GeForceFX 5950 Ultra og Radeon 9800XT er frontløberne mht. forrige grafikkort-generation, så ser vi aktuelt, at springet til GeForce 6800 Ultra er meget stort. Det er naturligvis kun glædeligt, da dette spring formodentlig vil presse priser på ældre grafikkort samt gøre konkurrencen mellem Nvidia og ATi endnu mere intens. Allerede om få uger forventes ATi at præsentere R420 (dog kun med 12 pipelines efterfulgt af R420 med 16 pipelines sidst i maj), så ovenstående resultater er næppe specielt interessante - rigtigt interessante resultater kommer sandsynligvis først, når ATi Radeon X800XT møder Nvidia GeForce 6800 Ultra. Men indtil videre ser det bestemt ud til, at Nvidia via GeForce 6800 Ultra lever op til deres logo:



De første GeForce 6800 Ultra grafikkort forventes i Danmark i slutningen af maj eller starten af juni - prisen vil formodentlig være tæt på kr. 5.000,00.



Pelle Martin skrev Wednesday den 14 April 2004 kl. 23:38: [ svar | nyeste ]
Det ser da meget godt ud :)


babZ skrev Thursday den 15 April 2004 kl. 10:52: [ svar | nyeste ]
ye true :D


Neurobrain skrev Wednesday den 14 April 2004 kl. 23:40: [ svar | nyeste ]
Igen en lækker test Rune...

Der er et par "døde" links i din test



Neurobrain skrev Wednesday den 14 April 2004 kl. 23:41: [ svar | nyeste ]
Glem det - Skulle bare reloade siden et par gange :)


Niels skrev Wednesday den 14 April 2004 kl. 23:41: [ svar | nyeste ]
Jaja, lad os nu se. Spekulationer og optimering i nVidia hardwaren/driveren lurer igen (performance på bekostning af billedkvalitet).... hmm er her ekko...

Lad os nu se.



cAPS lOCK skrev Thursday den 15 April 2004 kl. 00:09: [ svar | nyeste ]
> hmm er her ekko...

Næh, næppe, du er vist alene...

http://www.tomshardware.com/graphic/20040414/feforce_6800-43.html

/cAPS lOCK

...sorry ;)



port102.ds1-vg.adsl.cybercity.dk skrev Wednesday den 14 April 2004 kl. 23:42: [ svar | nyeste ]
IHH! :D Skal have mig sådan 1 det er helt sikkert :D


R fe skrev Thursday den 15 April 2004 kl. 00:17: [ svar | nyeste ]
det bliver nok en 4-5 tusind kr...held og lykke


Coligor skrev Wednesday den 14 April 2004 kl. 23:43: [ svar | nyeste ]
Dejligt at se NVidia slå lidt fra sig igen :o) Tak for hyggelig læsning.


host-231-038.greennet.gl skrev Wednesday den 14 April 2004 kl. 23:47: [ svar | nyeste ]
hmm, la os nu vente og se, hvordan det nye radeon kort bliver, det troer jeg kommer til at rykke :)


212.242.142.190 skrev Thursday den 15 April 2004 kl. 00:15: [ svar | nyeste ]
Hvordan mon lydniveauet er?


Søren EG skrev Thursday den 15 April 2004 kl. 00:49: [ svar | nyeste ]
"Endvidere understøtter GeForce 6800 Ultra enkodning og dekodning af MPEG 2 og 4..."

Rune, kan du forklare nærmere, hvad det går ud på?

Fremragende overbliks-artikel i øvrigt.

Jeg har ikke desværre kunnet finde site´s, der har testet i Unreal II samt HL 2 alfa/beta-versionen. Det er meget de samme spil, der går igen - og Quake 3 og Serious Sam SE (under 1600x1200) er der åbenbart ingen, der er blevet trætte af.



Rune skrev Thursday den 15 April 2004 kl. 01:08: [ svar | nyeste ]
Tak, når du dekoder/afspiller en DVD-film på din PC i dag, så laver din cpu meget af arbejdet, med NV40 vil grafikkortet overtage meget af cpu'ens arbejde. Læs mere her:

http://www.tomshardware.com/graphic/20040414/feforce_6800-16.html

XBitLabs har netop testet NV40 i Half-Life 2 alfa, Unreal2 må vi nok afvente lidt endnu:

http://www.xbitlabs.com/articles/video/display/nv40_29.html

Denne henvisning bringer dig direkte til Half-Life 2 (alfa) resultater - næste side (30) er resultater fra STALKER (alfa). Mon ikke, at Gabe Newell fra Valve Software nu sidder og krummer tæer over den kritik, som han gav Nvidia sidste år - dvs. GeForce 6800 Ultra er nu realitet og ekstremt meget hurtigere end ATi 9800XT (i Half-Life 2 alfa 1600x1200), mens vi aktuelt vel kun kan gisne om, hvornår Half-Life 2 ankommer.


Kian Jakobsen skrev Thursday den 15 April 2004 kl. 07:48: [ svar | nyeste ]
Jeg må nok sige at jeg er ret overrasket over GeForce 6800 ydelsen, men jeg kan ikke undgå at tænke på, om ydelsen er fremskaffet på bekostning af billedekvaliteten. Og hvordan vil ATI's næste kort se ud og yde i forhold?


Thomas L skrev Thursday den 15 April 2004 kl. 07:57: [ svar | nyeste ]
Wow, Geforce 6800 Ultra er lyn hurtig!!! Rune ved du hvornår den kommer til Danmark??? Ellers tror jeg nu at den får kamp til stregen når R420 kommer.


Rune skrev Thursday den 15 April 2004 kl. 11:45: [ svar | nyeste ]
Formodentlig i slutningen af maj eller starten af juni, dvs. ifølge Nvidia skulle de første 6800U-grafikkort forlade fabrikkerne om ca. 4 uger.


Hippo skrev Thursday den 15 April 2004 kl. 09:16: [ svar | nyeste ]
ikke for at lyde som en radeon fanboy men tjek lige billederne her:

http://www.xbitlabs.com/articles/video/display/nv40_31.html

Bemærk den tydelige forskel på vandet bl.a!



port343.ds1-hhl.adsl.cybercity.dk skrev Thursday den 15 April 2004 kl. 09:37: [ svar | nyeste ]
mon ikke det kan skyldes at driverne ikke er helt klar endnu eller måske at spillet er optimeret til ATI, for i næsten alle andre spil er nv40's billedekvalitet klart på højde med ati's, men vent ogse til farcry med ps3 patch, så skulle der jo nok ske noget sjovt


Mick skrev Thursday den 15 April 2004 kl. 10:50: [ svar | nyeste ]
"sker der nok noget sjovt" = gætværk.

Hvis ATI kan vise vandet korrekt så må NVIDIA naturligvis kunne gøre det samme UDEN at spillet skal ændres af den grund. Jeg går stærkt ud fra at Far Cry's udviklere har kodet vandet specifikt til ATI's shadere.

Det ligner en driver bug.

Og så forsvinder den når NVIDIA har fikset deres driver (som må formodes at være forholdsvis ny idet vi taler om en ny arkitektur). Det er forøvrigt imponerende hvad de kan trække ud af den nye chip her ved lanceringen, det får mig tvivle på om de kan hente ret meget mere ud af driveren - mht. til performance altså.

Samtidigt står springet i mem båndbredde ikke mål med den voldsomme forbedring af core (lad os se nogle GPU'er med 512 bit bus og 32 bit X-bar memory controllers - *G*).

Glæder mig ganske meget til den kommende "duel" imellem X800 XT (den med 16 pipelines) og G6800. Det bliver en interessant match nu!



Rune skrev Thursday den 15 April 2004 kl. 11:48: [ svar | nyeste ]
Tom's Hardware fandt også enkelte problemer med Far Cry, men eftersom der ingen problemer var med andre 3D-spil, så er her sandsynligvis tale om driver-fejl, som næppe har stor betydning og formodentlig snarligt vil blive rettet; læs mere her:

http://www.tomshardware.com/graphic/20040414/feforce_6800-46.html


Cykelskur skrev Thursday den 15 April 2004 kl. 09:20: [ svar | nyeste ]
det er da et uhyggeligt hop ydelsen har taget...!?

Der kommer virkelig til at ske noget for grafikkort de næste par måneder, selv mit "gamle" 9700pro ligner et geforce3/4 i forhold til 6800ultra...!

Men som Rune siger, det bliver først RIGTIG spændende når vi får ATI's udspil at se, forhåbentlig om ikke alt for længe.

Som inkarneret "ATI-mand" må jeg nok bøje mig og klappe af Nvidia, for det her comeback, det er sgu utroligt...

Flot og interessant artikel Rune ;)



Cykelskur skrev Thursday den 15 April 2004 kl. 09:22: [ svar | nyeste ]
Ja Hippo det ser sgu ikke for godt ud! :-s


Rava6e skrev Thursday den 15 April 2004 kl. 09:27: [ svar | nyeste ]
tjoo... kan ske det performer som det er vist ovenfor, men jeg tvilvler lidt. Og så må vi se hvad ATI laver :) Glæder mig


Martin Hansen skrev Thursday den 15 April 2004 kl. 09:53: [ svar | nyeste ]
Hvor mange ram har dette grafikkort????... Venter dog til R420 kommer ud...


Rune skrev Thursday den 15 April 2004 kl. 11:51: [ svar | nyeste ]
GeForce 6800 Ultra besidder 256MB ram (G-DDR3, 550 MHz). Senere i år vil vi måske opleve første grafikkort med 512MB ram.


Thomas H skrev Thursday den 15 April 2004 kl. 10:13: [ svar | nyeste ]
Rune? det billede som skulle illustrere et 6800 ultra er det ikke bare et 6800 non ultra? jeg tænker på køleprofilen? var det ikke kun non ultra versionen som havde den flade køler og ultra versionen som havde den høje ?

http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page5.asp



Mick skrev Thursday den 15 April 2004 kl. 10:51: [ svar | nyeste ]
Kik dog på billedet - der sidder en mærkat på cooleren hvor der tydeligt står "ULTRA" ... ;o)


CheckMate skrev Thursday den 15 April 2004 kl. 10:50: [ svar | nyeste ]
Lækker artikel Rune - virkelig flot gået !!

Jeg kan til dels godt følge at der bliver fokuseret på rigtige high-end grafikkort i denne test. Det ville ikke give mening at sætte ATI 9600XT, eller GF 5700 Ultra op mod dette kort. Folk kan sikkert selv huske artikeler med sammenligningen mellem disse kort og deres respektive storebrødre.

Men var det ikke rimeligt at have taget et GeForceFX 5900XT kort med i dine antagelser? Du har trods alt selv beskrevet dette kort som: "Nvidia har med GeForceFX 5900XT placeret et grafikkort med high-end ydelse i den prismæssige mellemklasse" (se Konklutionen: http://www.hardwaretidende.dk/hard/artikel/03/12/17/1487127)

Så hvis man ser bort fra den noget mindre pris mener du selv at dette kort høre til i high-end-klassen !!

Nuvel, det har ikke ødelagt min fornøjelse over at læse (endnu) en rigtig god artikel samlet sammen af dig.

Keep up the good work :)



Rune skrev Thursday den 15 April 2004 kl. 11:22: [ svar | nyeste ]
Tak, efter at GeForce 6800 Ultra er udkommet, er der efter min opfattelse kun et eneste grafikkort i high-end klassen, nemlig GeForce 6800 Ultra. 9800XT og 5950 Ultra rykker aktuelt ned som toppen af den nye mellemklasse, og 5900XT kan således vel beskrives som bunden af den nye mellemklasse - GeForce 5700 Ultra og 9600XT rykker desværre ned i low-end-afdelingen; men sådan er udviklingen, intet varer evigt...


Crunch skrev Thursday den 15 April 2004 kl. 10:52: [ svar | nyeste ]
Laeg lige maerke til resultaterne fra UT2K4 uden FSAA og AF fra HotHardware. Ingen drop i performance??? (mystisk, mystisk). Desuden ikke meget forskel der fra Radeon 9800XT.

Meget imponerende udspil fra nVIDIA(ser ud til at 16 pipes gor en forskel :) ), lad os nu se, hvad ATI kommer op med.



Rune skrev Thursday den 15 April 2004 kl. 11:07: [ svar | nyeste ]
Meget tyder på, at UT2004-testen uden FSAA hos Hot Hardware er cpu-begrænset, derfor blev der kun fokuseret på resultater med 4xFSAA + 8xANI fra dette site (Comanche4 havde samme problem uden FSAA og ANI, men vi tog alligevel denne test med - Homeworld 2 resultater fra Anandtech blev dog droppet, fordi diverse grafikkort ikke er flaskehalse i denne test, hvorfor Homeworld 2 var ude af stand til at fange potentielle ydelsesforskelle hos diverse grafikkort selv i 1600x1200). UT2004-resultaterne fra Toms Hardware er formodentlig langt mere repræsentative mht. ydelsespotentiale hos respektive grafikkort. Dvs. ønsker man at kende de reelle forskelle på diverse grafikkort, så er det naturligvis nødvendigt, at cpu'en aldrig er flaskehals, hvilket du jo også selv er inde på i din kommentar.


Thomas H skrev Thursday den 15 April 2004 kl. 11:00: [ svar | nyeste ]
#Mick Vidst du tjekkede det link jeg skrev ville du kunne se dette billede: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/14.jpg her bliver der vist et non-ultra dog også med et ultra mærke på køleren?


Rune skrev Thursday den 15 April 2004 kl. 11:14: [ svar | nyeste ]
Det er tilsvarende billede, som ses i ovenstående artikel. Det er med fuldt overlæg, at ordet "promotion-billede" anvendes i artiklen, uddrag:

"Lad os starte med et promotion-billede af GeForce 6800 Ultra:

[Billede af GeForce 6800 Ultra med lav køler]

[Billedtekst] Nvidia GeForce 6800 Ultra med kommende køler, der tillader brug af første PCI-slot

Den aktuelle prototype benytter en køler, der blokerer for første PCI-slot, hvilket skulle ændre sig, når de første GeForce 6800 Ultra grafikkort forventes på markedet om ca. 1 måned." (mine fremhævninger, red.)

Dvs. det forventes, at GeForce 6800 Ultra snarligt vil ankomme med køler, der matcher det billede, som du refererer til, og som er vist i ovenstående artikel - Asus har allerede udgivet billeder af GeForce 6800 Ultra design med tilsvarende lav "single-slot" køler.


jAMBAZZ skrev Thursday den 15 April 2004 kl. 11:17: [ svar | nyeste ]
AGP eller PCI Express ?

Nu har jeg ikke fulgt helt med i chipset ræset de seneste mdr, men er der bundkort ude med PCI Express? De tests Rune linker til, de har vel alle udført deres benchmarks med et AGPx8 system, men hvordan skal man forvente ydelsen vil ændre sig på et PCI Express system?

-håber på nogle gode svar! :)



jAMBAZZ skrev Thursday den 15 April 2004 kl. 11:22: [ svar | nyeste ]
Reply to self: Jeg fandt ud af at VIA spiller ud med et PT890 chipset som skal understøtte PCI Express x16, så spørgsmålet er om det allerede er ude, og om det er testet med GF 6800 :o


Rune skrev Thursday den 15 April 2004 kl. 11:28: [ svar | nyeste ]
Det er det desværre ikke, ellers havde vi bragt resultaterne - forvent sandsynligvis også, at PCI Express x16 medfører lige så fantastisk ydelsesforskel i 3D-spil, som AGP8x gjorde ifht. AGP4x. PCI Express skulle dog kunne levere op mod 75 watt, mens AGP8x er begrænset til ca. 30 watt, så det er vel muligt, at GeForce 6800 Ultra til PCI Express x16 kommer med kun et strømstik.


jAMBAZZ skrev Thursday den 15 April 2004 kl. 15:30: [ svar | nyeste ]
Fornemmer jeg en vis ironi her? Imo var der ingen markant forskel fra AGPx4 til AGPx8.. :o


jAMBAZZ skrev Thursday den 15 April 2004 kl. 15:38: [ svar | nyeste ]
A-Ha! - Jeg fangede din ironi længere nede i tråden (hvor nogle burde have svaret til mit indlæg oprindeligt?) - men kan ikke lade være med at spekulere på om THG har ret i sin påstand om PCI Express (4GB) ifht. sammenligningen med AGP4x(1GB)vs. AGPx8(2GB) som reelt ingen forskel viste.. Jeg kan godt følge THG, da det var der jeg i sin tid læste at AGP ikke ville være smart før det nåede mindst x20, og det er vi jo stadig langt fra ved 4GB. Men glæder mig til at se resultater fra PCI Express!

forvirrende :D



(Mis)bruger skrev Thursday den 15 April 2004 kl. 11:52: [ svar | nyeste ]
Jep der er ingen tvivl om at GF6800 Ultra er et pokkers godt kort, spørgsmålet er så om Nvidia har lavet urene optimeringer i deres drivere. Desuden er der også lige Far Cry problemet, for Shader kvaliteten er en del ringere end ATI's 9800XT. Dette skyldes dog forhåbentligt at Crytek ikke har fjernet NV3x optimeringer i Far cry, eller at driverene endnu ikke er modne. Dog er det bestemt et problem der skal fikses!

Men det ser ud til at sålænge man har en kvalitets PSU, så har man ikke noget at frygte...Dog er det nok ikke en god idé at samle Prescott og GF6800Ultra sammen i én maskine, alene de to dele skal nok sørge for at smelte kabinettet :-)



Rune skrev Thursday den 15 April 2004 kl. 12:02: [ svar | nyeste ]
Lidt "NV40-propaganda-meteriale" (godt dansk ord) er også ankommet; f.eks. Unreal 3.0 Engine Movie (ca. 13MB):

http://files.filefront.com/2586425

http://www.jamesbambury.pwp.blueyonder.co.uk/unreal3_0002.wmv

Og her kan findes meget mere materiale:

http://nvidia.com/page/geforce_6800.html

Fuld pressemeddelelse fra Nvidia:

http://biz.yahoo.com/prnews/040414/sfw069_1.html

Uddrag: ""As DOOM 3 development winds to a close, my work has turned to development of the next generation rendering technology. The NV40 is my platform of choice due to its support of very long fragment programs, generalized floating point blending and filtering, and the extremely high performance," said John Carmack, president and technical director of id Software".

Men lad os nu vente med at vurdere 6800U til X800XT er ankommet - såfremt X800XT har blot næsten samme ydelse, men forbruger markant mindre effekt samt kan anvende særligt støjsvage kølesystemer, så ville dette grafikkort grundet kvalitet formodentlig kunne vinde det samlede slag - ydelse i 3D-spil er desværre langt fra eneste parameter, som i dag er relevant mht. samlet vurdering.


Crunch skrev Thursday den 15 April 2004 kl. 12:49: [ svar | nyeste ]
Tak for svaret Rune. Jeg saa samme tendens nu, efter at have laest artiklen paa XBit Labs. Og en ekstra tak, for denne information, som beroligede mig lidt mht. opgradering. \o/ "Det er det desværre ikke, ellers havde vi bragt resultaterne - forvent sandsynligvis også, at PCI Express x16 medfører lige så fantastisk ydelsesforskel i 3D-spil, som AGP8x gjorde ifht. AGP4x."


red_martians skrev Thursday den 15 April 2004 kl. 12:56: [ svar | nyeste ]
Mon ik' ATi lige nu sidder og leger med et Geforce6800. Og om muligt, skruer de så kraftigt op for clockfrekvensen som muligt, for at blive sidende på kongetronen. Kan det rende 800Mhz, så får det ret sikkert lov til det. Det jeg måske kan frygte, er at vi får et nyt FX5800 fra ATi i stedet. Og at de i bare frustration smidder en larmene køler på, og skruer så kraftigt op det kan lade sig gøre, for ikke at miste kunder!!



Rune skrev Thursday den 15 April 2004 kl. 13:48: [ svar | nyeste ]
For at komme med et lidt tørt svar på ellers undeholdende indlæg :-), så er jeg nu ikke sikker på, at ATi nødvendivis har så meget at frygte mht. ydelse i aktuelle spil. At gå fra 4x2 til 16x1 (pipelines x tekstureringsenheder) gav Nvidia en fordobling af texel-raten, og ydelsen blev også næsten fordoblet fra 5950U. Hvis vi umiddelbart forestiller os, at texel-raten hænger godt sammen med ydelse i aktuelt avancerede spil, så skal ATi blot præstere tilsvarende 16x1 pipeline med 400 MHz for at nå G6800U, og X800XT vil formodentlig benytte ca. 500 MHz. Dvs. indtil videre ved vi:

6800U = 6,4 gigatexels (400 MHz x 16 teksturer/Hz)
5950U = 3,8 gigatexels (475 MHz x 8 teksturer/Hz)

I dette tilfælde skulle 6800U være ca. 70% hurtigere end 5950U, men reelt fandt vi, at 6800U var 82% hurtigere (uden FSAA og ANI i 1600x1200), men 6800U har også hurtigere ram samt ny VPU, der burde indeholder en del optimeringer. Med ATi har vi teoretisk set (og baseret på 500 MHz X800XT):

X800XT = 8,0 gigatexels (500 MHz x 16 teksturer/Hz)
9800XT = 3,3 gigatexels (412 MHz x 8 teksturer/Hz)

Så her kunne X800XT stå til at blive mindst 142% hurtigere end 9800XT (idet vi atter ikke tager højde for VPU-optimeringer og hurtigere ram). Fordelen ved X800XT kan vise sig at være, at R420 grundet mangel på Shader Model 3.0 og dermed langt lavere transistorantal end NV40, kan nå højere taktfrekvenser uden at effektforbruget overstiger NV40 (med 222 millioner transistorer ville NV40 benytte 23 - 39% flere transistorer end R420 med 160 - 180 millioner, forskellen på 400 og 500 MHz er 25%). Så det kan næppe udelukkes, at R420 kan opnå markant bedre ydelse i aktuelle DX9-spil ved 500 MHz - det springende punkt kunne så være betydningen af Shader Model 3.0.


Johnjohn skrev Thursday den 15 April 2004 kl. 13:04: [ svar | nyeste ]
Det ser kanon ud virkelig noget der rykker Hvis 9800XT og 5950 Ultra rykker som toppen af den nye mellemklasse hvornår kan vi så forvente at det sker med priserne? Ellers en fed artikel den har været ventet med længsel :o)


saitek skrev Thursday den 15 April 2004 kl. 13:23: [ svar | nyeste ]
Har faktisk gennemgået og læst samtlige test af Gforce6800 Ultra jeg kunne finde, og jeg er imponeret over det fremragende sammendrag Rune har lavet. Virkeligt stærkt! Fokus på 1600*1200 er også det rigtige af forskellige grunde.

Og omtalen af strømforbruget giver også et mere realistisk billede end det der måske kunne udledes af kravet om en 480 watt PSU.

Stærk nok, Rune.

Nu skal jeg lige tale med banken om et lån i huset. (nu igen!)



Søren skrev Thursday den 15 April 2004 kl. 13:49: [ svar | nyeste ]
Selv hvis kortet lanceres til en høj pris (4-5000kr) vil pris/ydelses niveauet stadigvæk være forbløffende højt for et highend kort eftersom det fuldstændigt detroniserer dagens highend kort.

Desværre må Rune nok få uret i din udtalelse i FarCry anmeldelsen der gik på at der ville gå år før det kunne køres tilfredsstillende i max settings og i max opløsning, og det kan vi jo bare være glad for at han tog fejl ;)



Rune skrev Thursday den 15 April 2004 kl. 13:54: [ svar | nyeste ]
Den kommentar var nu blot møntet på en meget speciel situation i Far Cry, hvor Radeon 9700 Pro ramte 8 FPS i 1600x1200 - og her ville selv 6800U efter alt at dømme fortsat være milevidt fra at kunne levere de magiske 85 FPS i 85Hz (6800U ville næppe ramme mere end ca. 16 FPS, under 20% af den nødvendige ydelse ved 85 FPS) - så jeg står stadig fuldt ud ved den gamle beskrivelse - dvs. der går formodentlig stadig mange år, før Far Cry aldrig kommer under 85 FPS i "worst-case-scenario" :-)


red_martians skrev Thursday den 15 April 2004 kl. 13:53: [ svar | nyeste ]
inde på overclocking, var der én, der havde spurgt soltek, om deres nye Qbic(barebone) 3801 kunne køre med Geforce6-serien. Han fik positivt svar tilbage. og den har kun 250w strømforsyning. Desuden har jeg også hørt, at den flade profil generelt vil høre til GEforce6800(non-ultra), hvor den høje vil høre til ultra. Jeg hørte også noget om, at de havde droppet den flade profil i sidste øjeblik, til fordel for den høje, og mindre støj. Desuden havde nVidia på de udsendte samples lavet en lille ændring. Der sidder en ledning og en fir modstand på bagsiden, hvilket skulle sænke blæserens hastighed... (mon dette er snyd)... og at den detalje heller ikke er blevet rettet i den endelige version. For så vil lydnivauet måske være noget højere!


Carsten skrev Thursday den 15 April 2004 kl. 14:11: [ svar | nyeste ]
Hej Rune du skriver: PCI Express x16 medfører lige så fantastisk ydelsesforskel i 3D-spil, som AGP8x gjorde ifht. AGP4x. Men hvad hop var det , det var nemlig før jeg begyndte at følge med, mener du så at Gforce6800 er begrændset af AGP porten ?



Crunch skrev Thursday den 15 April 2004 kl. 14:25: [ svar | nyeste ]
Carsten jeg tror han mener, at der ikke er nogen virkelig forskel. Hvilket igen betyder, at det saa ikke er bydende nodvendigt for os at opgradere endnu pyha. :)


Rune skrev Thursday den 15 April 2004 kl. 14:47: [ svar | nyeste ]
Præcis; interesserede kan læse mere her om AGp4x og 8x:

http://www.hardwaretidende.dk/hard/artikel/02/09/26/6297087
http://www.hardwaretidende.dk/hard/artikel/02/07/29/3767870

Og Tom's Hardware har vurderet PCI Express på tilsvarende måde:

"Conclusion? The tests show that there's no real difference in today's applications between AGP 4x and 8x. So if we can't see any difference between 1GB/s and 2GB/s bandwidth, then you really won't find any improvements if you scale it to 4GB/s with PCI Express. Maybe different latency times of the buses can make a difference but it looks like PCI Express won't accelerate anything for graphics... So why do we need PCI Express for graphics? Well, for one thing, it's new, and, as the PR departments of all of our favorite companies never tire of telling us: newer equals better. Prepare to hear this a lot in the future - it will probably be the main advertising strategy for this new technology."

Kilde: http://www.tomshardware.com/graphic/20040310/index.html


nataddr.aarhus.dk skrev Thursday den 15 April 2004 kl. 14:44: [ svar | nyeste ]
Tak for kaffe, det er da en forskel der vil noget.........

Rune, var der en mulighed for at du engang ved lejlighed belyste emnet strømforsyning, der er tilsyneladende forskel på "strømtabet" i disse.

Tak for artiklen, jeg glæder mig nu også til at se ATI´s lille nye, det ville være glædeligt, hvis der stadig er 2 gode konstruktører på markedet.



Rune skrev Thursday den 15 April 2004 kl. 15:41: [ svar | nyeste ]
Naturligvis, hvis vi falder over sådanne interessante resultater :-)


0x50c5385e.hrnxx3.adsl-dhcp.tele.dk skrev Thursday den 15 April 2004 kl. 15:10: [ svar | nyeste ]
Glæder mig til at vi ser nogle Doom3 og Hl2 benchmarks :) (Og også lidt Stalker og painkiller :p)


Gandalf skrev Thursday den 15 April 2004 kl. 16:11: [ svar | nyeste ]
Hey Rune! Jeg læste din artikel i nat, men var for træt til at komme med indlæg. Mit spørgsmål er nu om du kender en præcis dato for, hvornår Ati vil afsløre deres næste kort, nemlig X800 PRO/XT?


Rune skrev Thursday den 15 April 2004 kl. 17:36: [ svar | nyeste ]
[Gentagelse af tidligere kommentar fra http://www.hardwaretidende.dk/hard/artikel/04/02/13/8650507#kommentar , hvor al info om R42x, som vi kender til og opfatter som relevant, kan findes]

"Ifølge Anandtech ser det ud til, at følgende vil gælde mht. introduktionstidspunkter for kommende ATi high-end grafikkort:

Radeon X800 Pro (AGP8x R420) - 26. april 2004

Radeon X800 XT (AGP8x R420) - 31. maj 2004

Radeon X800 ? (PCX R423) - 14. juni 2004

Alle ovenstående grafikkort forventes med 256MB GDDR3, og senere på året forventes første grafikkort med 512MB ram. Læs mere her:

http://www.anandtech.com/video/showdoc.html?i=2018"



Sven skrev Thursday den 15 April 2004 kl. 16:41: [ svar | nyeste ]
SVJV anbefaler Nvidia en 480W strømforsyning, ikke pga de mange watt, men pga der skal 2 seperate strømledninger til grafikkortet, og da de fleste "mindre" strømforsyninger kun har 3 seperate strømledninger, er det måske her problemet er? I.flg. Rune's grafer er det jo ikke effektforbruget som sådan der råber efter en 480watt'er, men Rune beskriver strømtilførslen skal ske med 2 seperate strømledninger fra PSU'en (og disse 2 ledninger må så ikke tilsluttes noget andet overhovedet !?!?!), og er der kun een tilbage med 2 eller 3 stik på, så skal man jo ikke have ret mange DVD-drev, CD-brændere, harddiske osv osv i sin PC før der er udsolgt.

Er ovenstående forstået korrekt, Rune?



Rune skrev Thursday den 15 April 2004 kl. 17:33: [ svar | nyeste ]
Det skal jeg bestemt ikke afvise - jeg vil gætte på tilsvarende, dog medfører præcis 480 watt ikke altid flere kabler; og mon ikke, at Nvidia sætter niveauet efter nye og kommende Prescott-cpu'er også (det er ofte nemmest at skære alt over en kam, men ikke særligt akademisk). Nuvel, når 6800U kommer i handlen, så for vi nok løst gåde om, hvilke strømforsyninger, der kan klare mosten...


Leet Dewd skrev Saturday den 17 April 2004 kl. 17:37: [ svar | nyeste ]
Det med antal ledninger er en del af det ja. Geforce 6800 Ultra bruger op til 110 watt hvilket med lidt hurtig hovedregning giver (mumle mumle... 12 volt... hmm... mumle... 2 i mente...) lidt under 10 ampere. Hvad sker der mon så når hjemme-amatøren griber en håndfuld y-stik, og kobler det ene molexstik til Geforcen og det andet til hans 15K SCSI diske? Tja f.eks. klarer min gamle 310 watt PSU strømtræk på op til 11 ampere ved 12 volt. 11 ampere som skal fordeles mellem grafikkort, harddiske, bundkort, cpu, ram, etc. etc. Så hvis ledningerne overhovedet klarer de mange ampere, så tvivler jeg på at PSU'en gør.

En strømforsyning der dør ved overbelastning er det værste man overhovedet kan have i sin pc!!! Når kredsene får så mange ampere så smelter de OG KORTSLUTTER! Kortslutter en strømforsyning på en heldig dag, så nøjes den med at sende 230 volt direkte ned i motherboard og harddiske. Har man en møg-dag så sender den det også lige ud i selve stål-kabinettet.

Dette var selvfølgelig worst case scenario. Normalt brænder man et par sikringer af og ikke mere. Men uanset hvor gode sikringer er, så er det altså ikke livrem og seler. Uheld sker altså bare nogle gange :o(

Jo man kan sikkert godt klare sig med mindre end 480 watt, når man ikke kører med P4 EE + 12 SCSI diske etc. Men 250 watt, som der er en der nævner et sted, er DUMT!!!



Søren skrev Thursday den 15 April 2004 kl. 18:08: [ svar | nyeste ]
I denne anmeldelse af et highend system (1gb ram, 9800XT, 2xharddiske, 2xoptiske drev, externt lydkort, 2xblæsere, P4 3.2Ghz), og hvor meget strømforbrug der var under forskellige tilstande. Det maksimalt målte forbrug var på sølle 236W http://www.silentpcreview.com/article135-page4.html

Her er en god introduktion til PSU, med henblik på hvor mange watt de kan levere under hvilke betingelser samt varmeudviklingen: http://www.silentpcreview.com/article28-page2.html



Rune skrev Thursday den 15 April 2004 kl. 18:27: [ svar | nyeste ]
Ifølge Nvidia vil følgende spil komme til at understøtte Shader Model 3.0:

Lord of the Rings, Battle For Middle-earth
STALKER: Shadows of Chernobyl
Vampire: Bloodlines
Splinter Cell X
Tiger Woods 2005
Madden 2005
Driver 3
Grafan
Painkiller
FarCry

Kilde: http://www.nvnews.net/#1082037763

PC Perspective skulle også have et par billeder fra Far Cry med og uden Pixel Shader 3.0, men det virker som om, at de sammenligner "Far Cry PS 2.0 low-detail" med "Far Cry PS3 very-high-detail" - dvs. diverse teksturer virker som sat til "low" på "Pixel Shader 2.0"-billedet, men sat til "very high" på "Pixel Shader 3.0"-billedet, så forskellen på PS 2.0 og 3.0 billederne kan virke ekstra stor (hvilket dog ville approksimere ren svindel) - dvs. der kan være en grund til at tro, at der flere detaljeforskelle end blot PS2 og PS3 på disse billeder (indtil andet er bevist):

http://www.pcper.com/news.php#NewsID145


JuSTice LeAGue// Superman skrev Thursday den 15 April 2004 kl. 18:39: [ svar | nyeste ]
Hej Rune.. kanon god artikel som altid..

Ved godt det her måske ligger lidt uden for artiklens område, men synes dog alligevel det er ret rellevant med hensyn til overstående effektforbrug. Når i nu snakke så meget om PSU.. kan den så begrænse ens eventuelle OC resultater. Har selv en P4 2.8 der umuligt kan presses over 3.3 Ghz og det er på trods af corsair pc 4000 ram og abit ic7-max3 bundkort?? har i øvrigt 9800 pro der også er OC'et til 450 på coren. trækker også to HD's og to CD/DVD drev. Har en 350 watt strønforsyning.

På forhånd tak!!

JuSTice LeAGue// Superman



Rune skrev Thursday den 15 April 2004 kl. 19:00: [ svar | nyeste ]
Selv tak; jo mere du overclocker, desto mere effekt bruger du; så teoretisk set kan din strømforsyning blive flaskehals, dog tror jeg ikke, at det er tilfældet med dit aktuelle system (350W burde være rigelig til dine enheder, havde du en Prescott, så var sagen muligvis anderledes). Hvis du tror, at din aktuelle PSU forhindrer overclockning hinsides 3,3 GHz, kan du evt. blot prøve at underclocke grafikkortet samt deaktivere én af dine harddiske samt dine CD/DVD-drev, hvorved presset på din PSU minimeres. Flere spørgsmål, som ikke er direkte rettet mod GeForce 6800 Ultra bedes derudover venligst skrevet i vores forum.


JuSTice LeAGue// Superman skrev Thursday den 15 April 2004 kl. 18:47: [ svar | nyeste ]
PS.. glemte lige at nævne at jeg pt kører med luftkølernes ukronede konge. thermalright sp-94 profilen med en enermax blæser på.


Peter N skrev Thursday den 15 April 2004 kl. 18:54: [ svar | nyeste ]
Vedr strømforbrug og PSU:

Betragningerne omkring hvor meget spænding en PSU kan yde på en given "rail" - altså feks 12V er ikke uden betydning.

Visse PSU`er adskiller sig positivt ved at deres max effekt kan afgives på en "rail", hvor andres max effekt er del-max´en på de forskellige rails lagt sammen. (Antec er et typisk eks. på det første;)

Man skal samtidig tage strømforsyningens effektivitet i betragtning. Kræves feks 200 watt i ydelse og har PSU´en en effektivitet på 70 pct skal strømforsyningen trække 285 Watt...vil du have lidt headroom skal du lægge lidt til dette tal osv.

Beregning af effektforbrug: http://www.jscustompcs.com/power_supply/ (tag det med et gran salt eller to..)

De 480 watt Onkel Tom anbefaler lyder ikke helt off the wall..så er man med på beatet og kan man sikkerhed give ens næste GFX+CPU nok friskpresset juice..



0x50c5385e.hrnxx3.adsl-dhcp.tele.dk skrev Thursday den 15 April 2004 kl. 19:12: [ svar | nyeste ]
Riiimelig interessant

0ºC ~25ºC for full rating of load, decrease to zero Watts O/P at 70ºC

Examine what that says. Full power (let's say 400W) is available when the unit is at 0ºC ~25ºC. Hmmm. Think about this.

Have you ever felt air blown out of a PSU in a PC running absolutely full tilt (which it would have to do to get anywhere near 400W output) that felt cool to the fingers? 25ºC airflow would feel exactly that: Cool, given that normal body temperature is 37 °C.

So this PSU cannot deliver full rated power when its temperature goes over 25ºC. OK, what happens to the max power output capacity above that temp? It decreases gradually so that by the time the PSU temp reaches 70ºC, the PSU cannot deliver any power at all. So if you assume that this power drop as temp rises is linear, then max power capacity will drop by ~9W for every degree over 25ºC.

Now having examined as many PSUs as I have over the last 2~3 years, I have to say there's not a single PSU in ANY PC I have ever used or examined that would not measure at least 30~35ºC almost anywhere inside the PSU under almost any kind of load. And if/when it is pushed, 45ºC is nothing at all, especially for or near hot running components like voltage regulators.

So let's say 40ºC is a fairly typical temp inside a PSU. This 400W rated unit would actually be able to deliver a max of just 220W at that temp. Hmmm. Interesting, isn't it? At 50ºC, the available power would drop to just 130W. No wonder some PSUs have 3 fans each capable of 50 cfm!!

Here's a simple fact: Really high quality PSUs are actually rated for full power output at as high as 40ºC. The trick is get a hold of the spec sheets that tell such information so you can compare apples to apples. Or ask.



sol skrev Thursday den 15 April 2004 kl. 19:16: [ svar | nyeste ]
udemærket, håber ati kan levere varen så prisen bliver presset lidt...... men det her er pt de vildeste kort perfekt billed og den vildeste ydelse.... den nye hl2 konge ;)


chr. skrev Thursday den 15 April 2004 kl. 22:20: [ svar | nyeste ]
genialt summeret artikel, jeg har også selv læst en del andre tests, men der er ingen der tester i 2048 X 1536. Ville forskellen ikke blive større?


R fe skrev Thursday den 15 April 2004 kl. 23:11: [ svar | nyeste ]
om den komparative forskel bliver større ved vi ikke. men der vil være pointe i at teste i 2000x1500!

grunden er at graffikkort som 6800 ultra nu er så hurtige at cpu ofte vil blive flaskehals ved lavere opløsninger som ikke presser graffikkortene nok



Rune skrev Thursday den 15 April 2004 kl. 23:17: [ svar | nyeste ]
Tak, forskellen burde kun blive større i 2048x1536 i tilfælde, hvor grafikkortene ikke er flaskehals i 1600x1200; dvs. i særligt grafikkortbegrænsede spil som f.eks. Far Cry, Tomb Raider AOD og Halo burde forholdet mellem diverse grafikkort procentuelt være tilsvarende i både 1280x1024 og 2048x1536 (med en high-end cpu). Vi har med vilje sorteret spil fra, som klart virkede cpu-begrænsede, eftersom sådanne spil ikke er i stand til at registrere maksimale forskelle på forskellige grafikkort (i f.eks 640x480 er der generelt ingen forskel på 5700U og 9800XT i diverse spil, fordi spil i denne lave opløsning er cpu-begrænsede; ønsker man at finde reelle ydelsesmæssige forskelle på grafikkort, så må en applikation aldrig være cpu-begrænset, hvorfor der bør anvendes tilstrækkeligt høje opløsninger og en kraftig cpu). Det er dog ret nemt at se, om et spil er cpu-begrænset eller grafikkortbegrænset; dvs. falder ydelsen, når opløsning forøges, så virker et spil grafikkort-begrænset, men er ydelsen konstant ved skift til højere opløsninger, så virker spillet cpu-begrænset. Derfor er det principielt vigtigt, at 6800U falder i ydelse fra 1280x1024 til 1600x1200, ellers kan vi ikke være sikre på, at 6800U er flaskehals (hvilket er vigtigt, da det er grafikkortets maksimale ydelsesniveau, som vi ønsker at kende).
Vi har en enkelt artikel, som beskæftiger sig med 3D-ydelse i 2048x1536 - ønsker man at vide, hvor 6800U befinder sig, så burde man blot kunne lægge ca. 80% ekstra ydelse oven i 5950U:

http://www.hardwaretidende.dk/hard/artikel/03/10/29/6792254


Kaj Ikast skrev Thursday den 15 April 2004 kl. 23:25: [ svar | nyeste ]
Hej Rune. ET meget CENTRALT spm her, er hvordan GF 6800 vil skalere med CPU ydelsen. Vil der være stor forskel mellem feks. en P4 2,4 GHz og en 3.2 GHz Prescott. Har du nogen ideer? Det vil kunne afgøre om man kan nøjes med en opgradering af sit videokort.


Rune skrev Thursday den 15 April 2004 kl. 23:35: [ svar | nyeste ]
Anvender du 1600x1200 med 4xFSAA og 8xANI, så vil du næppe opleve markant forskel på P4 2,4 GHz og 3,2 GHz, fordi grafikkortet generelt er flaskehals (inkl. 6800U). Spørgsmålet om, hvorvidt det bedst kan betale sig at opgradere cpu eller grafikkort er dog kompliceret (afhænger meget af din foretrukne skærmopløsning og billedkvalitet); jeg vil anbefale, at du læser denne guide, så kan du forhåbentlig inspiration til, hvorledes du selv kan besvare spørgsmålet:

http://www.hardwaretidende.dk/hard/artikel/03/08/03/7740479


Kaj Ikast skrev Thursday den 15 April 2004 kl. 23:38: [ svar | nyeste ]
Det er naturligvis i opløsningerne 1024x768 og 1280x1024 som er relevant for de fleste. Man plejer vel at sige at cpu'en er flaskehals ved de lavere opløsninger men at videokortet er det ved høje opløsninger og med AA og ANI slået til. Så konklusionen må vel være at ved 1024x768 vil det kunne hjælpe gevaldigt med en kraftig cpu?


Rune skrev Thursday den 15 April 2004 kl. 23:57: [ svar | nyeste ]
Ja, generelt, medmindre du holder meget af særligt krævende spil som Deus Ex - IW, Far Cry, Tomb Raider AOD mm. i 1024x768 med 4-8xFSAA og 8-16xANI. Det bedste er ofte at teste det 3D-spil, som du ønsker mere ydelse i via f.eks. FRAPS ( http://www.fraps.com ), så kan du nemt finde ud af, hvorvidt ny cpu eller grafikkort giver mest mening. Anvender du 1024x768 uden FSAA eller ANI, så har du dog næppe brug for 6800U, men burde formodentlig kunne klare dig glimrende resten af året med kraftig cpu og grafikkort i 9800Pro-klassen.


Ra skrev Friday den 16 April 2004 kl. 03:09: [ svar | nyeste ]
Jeg sidder og tænker lidt på drivere. Nu har jeg læst et par steder, at med denne ydelse kan Nvidia godt pille diverse optimeringer ud af deres drivere og i stedet lade kortet gøre arbejdet på "den hårde måde" med bedre billedkvalitet til følge. Dette også for at rette op på Nvidias lidt blakkede rygte pga. diverse benchmark-specifikke optimeringer.

Er det rigtigt? Og hvis ja, vil det så ikke betyde, at folk med FX5XXX-kort i fremtiden kan risikere lavere ydelse fra deres kort, hvis de bruger nye drivere fra 60-serien, der skrives til Geforce6XXX???

Det er vel urealistisk at Nvidia vil afsætte programmører til at arbejde på både 50er- og 60er-serierne i ret lang tid?



Rune skrev Friday den 16 April 2004 kl. 14:39: [ svar | nyeste ]
Så er de første billeder af GeForce 6800 Ultra fra Asus og Leadtek dukket op:

Asus GeForce 6800 Ultra (V9999Ultra Deluxe)

Kilde: http://www.gzeasy.com/itnewsdetail.asp?nID=14997

Leadtek GeForce 6800 Ultra (Winfast A400 Ultra TDH)

http://www.gzeasy.com/itnewsdetail.asp?nID=14992

Asus ser ikke ud til at have gjort meget for at reducere støj, mens Leadtek i det mindste afviger fra standardkøleren. Leadtek er desværre ikke kendt for særligt støjsvage køleløsninger, men lad os håbe, at det ændrer sig med deres 6800U. Flere forskellige GeForce 6800 Ultra grafikkort kan ses her:

http://www.vr-zone.com/?i=681&s=2


huse skrev Friday den 16 April 2004 kl. 14:39: [ svar | nyeste ]
Ja lige nu ser fx6800ultra ud til at være et godt kort, men når ati r420 bliver testet får vi at se om hvad for en der er bedst, jeg tror ati kommer foran igen med ledthed, men man ved aldrig vi for at se det bliver spændende.

mvh huse



Lars skrev Friday den 16 April 2004 kl. 16:27: [ svar | nyeste ]
Jeg synes især at Leadteks Geforce 6800 ser interessant ud med to indbyggede netkort og tvtuner

http://www.digit-life.com/news.html?103981

[kommentar flyttet fra anden artikel, webmaster]



Sven skrev Friday den 16 April 2004 kl. 17:32: [ svar | nyeste ]
Som vist på ovenstående billede af Leadtak kortet, så har dette kort 2 udgange til flad-skærme. Der medfølger forhåbentligt 2 adaptere, så os med RIGTIGE monitorer stadig kan bruge 2 monitorer? Ellers er det da et tilbageskridt af dimentioner!

Så vidt jeg kan se på ASUS-kortet er der en "fladskærmudgang" og en alm. monitorudgang?



Thuun skrev Friday den 16 April 2004 kl. 19:28: [ svar | nyeste ]
jeg tror desvære ikke på det, nvidia havde også utrolig pæne resultater sidste gang de skulle vise et nyt kort frem, og hvad endte det med?

At Ati tog tronen fra dem!



red_martians skrev Friday den 16 April 2004 kl. 19:32: [ svar | nyeste ]
Jeg er nu mest skuffet over Gainward's og Chaintech's løsninger. De plejer at være kendt for flot hardware, der ikke basere sig på standardløsninger. Asus's synes jeg tilgengæld er rigtigt flot, selvom det er standarddesign, har de da formået at skille sig ud fra mængden.


R fe skrev Friday den 16 April 2004 kl. 21:36: [ svar | nyeste ]
design med hensyn til udseende kan da vel være ligegyldgt..størstdelen af os hælder jo alligevel bare tingen in i en lukket box og glemmer alt om hvordan den ser ud efter et stykke tid

det er jo kune vigtigt hvor mange slots den fylder, hvor godt det køler og hvor meget larm den laver



PeterA skrev Friday den 16 April 2004 kl. 22:38: [ svar | nyeste ]
Dejligt at se Nvidia er tilbage på tronen, og dermed "stresser" ATI til at lave noget der er endnu bedre = bedre grafikkort til alle. Jeg har selv 9700Pro, som indtil nu var et rigtigt godt kort, men nu er der en anden dagsorden... Fedt, så skifter jeg kortet ud engang til efteråret når ATI er kommet på banen, og så må jeg se hvad der er bedst/billigst til den tid... Kan næsten ikke vente! PS Rune kommer der ikke snart en Pc guide 2004 med "high end" og "økonomi" Pc ?


Ra skrev Friday den 16 April 2004 kl. 22:57: [ svar | nyeste ]
Jeg véd ikke om Rune har tid til at lave én, men på www.anandtech.com laver de hver måned en købs-guide, hvor temaet skifter mellem low-end, mid-end, high-end og OC-valg. Du kan derfor altid finde en rimeligt frisk guide...


Torben skrev Saturday den 17 April 2004 kl. 09:16: [ svar | nyeste ]
Hehe... Prøv at se de to Taiwanere på billedet ca. midt i på http://www.vr-zone.com/?i=681&s=1

Mens gutten der holder præsentationen har formået at gøre tingene "korrekt", så holder de to andre kortene på hovedet - mon det er direktøren og underdirektøren :)



Kalle Anker skrev Saturday den 17 April 2004 kl. 11:46: [ svar | nyeste ]
> Torben...måske fordi mange steder i asien bliver ting læst fra højre mod venstre - og måske også ting præsenteres sådanne ? Så i virkeligheden er det gutten der holder GF-kortet forkert, da præsentationen foregår i Asien.

Det er blot et gæt!



Anders skrev Sunday den 18 April 2004 kl. 01:17: [ svar | nyeste ]
læste lige et sted "The new high-end product, the GeForce 6800 Ultra, will retail for $499, while a slightly less powerful version, the GeForce 6800, will sell for $299."

Så de kommer nok ik til at koste 5000 jern.



Ra skrev Sunday den 18 April 2004 kl. 03:54: [ svar | nyeste ]
Jeg tror at udsalgsprisen for Ultra-versionen vil komme over 5.000kr. mange steder - især i starten når der kun er få eksemplarer til salg. Når så 6800ikke-Ultra kommer vil priserne sikkert også svæve omkring de 3,5k i begyndelsen.


GWiZ skrev Sunday den 18 April 2004 kl. 14:02: [ svar | nyeste ]
http://www.beyond3d.com/previews/nvidia/nv40/

Så har Beyond3D også kommet med et (ret teknisk) review af NV40.

De har masser af detaljer, og scooper bla. med at Geforce 6800 non-ultra ikke er 16x1 pipeline, men derimod 12x1: "the non-Ultra GeForce 6800 will indeed feature 12 pipelines enabled, which is one quad block turned off"

kilde: http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=7



Ra skrev Monday den 19 April 2004 kl. 10:46: [ svar | nyeste ]
- Det er da ikke et scoop at 6800 kommer med 12 pipelines. Det har været kendt nogen tid.


GWiZ skrev Monday den 19 April 2004 kl. 11:33: [ svar | nyeste ]
Hmm, det vidste jeg bare ikke... saa det er et scoop i min verden. :-)


Martin Hansen skrev Sunday den 18 April 2004 kl. 15:33: [ svar | nyeste ]
Det bliver for fedt når R420 kommer, men tager dog ikke de første test resultater mellem NV40 og R420 særlig seriøst. Venter et par måneder og ser hvordan stillingen er. Men det ser lovende ud.


senzer skrev Sunday den 18 April 2004 kl. 18:05: [ svar | nyeste ]
er Radeon og Nvidia lavet samme sted? sidder sammen med en der siger de bliver lavet samme sted! så de tager ting fra hinanden så de bliver bedre! er det rigtig?


GWiZ skrev Sunday den 18 April 2004 kl. 19:08: [ svar | nyeste ]
Både R360 og NV35 er fabrikeret hos TSMC, og den nye NV40 chip bliver fabrikeret hos IBM. jf.: http://www.hardinfo.dk/show.asp?page=4365

Men chippene bliver ikke designet samme sted, og faktisk er design opbygningen på dem ret forskellige.

Men jeg skal da ikke sige noget om at de (både ATI og nVidia) reverse engineer'er hinandens design, hvis "modstanderen" har lavet noget kanon godt.

F.eks. er nvidia gået over til en lignende opbygning af NV40 som ATI have ved R3xx, altså parallelle beregninger istedet for lange "uudnyttede" pipelines.

Meget lignende den samme "diskussion" var/er der med Athlon vs. Pentium4, hvor P4 har meget lange pipelines, som skal udnyttes ordentligt for at få noget ud af det, og Athlon har kortere pipelines.

(Btw. Rune, eller jer andre kloge hoveder, hvis jeg sidder og vrøvler her, så ret mig endelig :-))

Bundlinien er at de tager ikke DIREKTE fra hinanden, men kan selvfølgelig godt blive inspirerede af en god idé.



Gandalf skrev Sunday den 18 April 2004 kl. 23:24: [ svar | nyeste ]
Til jer der ikke har set den endnu, kan jeg godt anbefale den der video, der vist nok foregår i Santa Clara til Geforce 6800 introdutionen. Vi får både de tekniske detaljer forklarert og flere spiludviklere også kommer og snakker lidt om deres fremtidige spil.

Men jeg kan sgu ikke finde den længere! Jeg er sikker på at den var et eller andet sted på Nvidia's side, da jeg så den i går, lørdag, men nu er den væk!! Er der nogle andre der kan finde den??



red_martians skrev Monday den 19 April 2004 kl. 15:04: [ svar | nyeste ]
Ok...jeg har også ledt efter den... men har aldrig fundet den... Jeg vil meget gerne se den!! Så hvis nogle finder den, vær venlig at poste et link!


Doctor Dee skrev Monday den 19 April 2004 kl. 15:41: [ svar | nyeste ]
Hej Rune

Spændende artikel hos "The Tech Report", der tyder på at geforce 6800 kort kører særligt godt på nforce3 250 bundkort. Nogle benchmarks viser meget store forbedring, op til 30%.

Skulle skyldes nVidia hardware-optimeringer. Nvídia producerer jo både chips til bundkortene og grafikkortene.

http://techreport.com/onearticle.x/6592



Rune skrev Monday den 19 April 2004 kl. 19:31: [ svar | nyeste ]
Ja, det er meget interessant; for nogle måneder siden læste jeg et sted (kan dog ikke huske den præcise kilde), at Nvidias seneste grafikkort (ifølge Nvidia) ville opføre sig som om, at de anvendte AGP16x i nForce-baserede bundkort i stedet for AGP8x, og det må være denne forskel, som der hentydes til. Så der kan sandsynlingvis være fordele i, at anvende samme producent til både chipsæt og grafikkort. Jeg tror dog, at vi i første omgang afventer verificering af resultaterne fra Tech Report, så vi kan få et bredere billede af situationen (især ved test af 6800 Ultra i nForce3 også).


Gandalf skrev Monday den 19 April 2004 kl. 20:39: [ svar | nyeste ]
Jeg fandt det!! inde under: http://www.nvidia.com/page/geforce_6800.html er der noget som hedder "Relevant Links", og der står Geforce 6800 Launch Event Replay! Ellers er der et direkte link lige her:

Geforce 6800 Launch Event Replay

Videoen kan som sagt anbefales, selvom den så vidt jeg husker varer lidt over 1 time :) [redigeret, webmaster]


R fe skrev Tuesday den 20 April 2004 kl. 10:20: [ svar | nyeste ]
den der skod video er total propaganda, helt spild af 200mb download

så viser de pixelshader 3 billeder imod pixelshader 1
og får til at lyde som ps 3 imod ps 2

hehe

de glemte bare at nævne at ps 3 er værdiløst uden directx 9.0c

stakkels forbrugere der forventer at de kan bruge ps3 med deres nye 5000 kroners kort

et eller andet fortæller mig at microsoft kan malke penge af nvidia ved at vente med udgivelsen af drictx9.0c til efter næste generations ati kort



Rune skrev Tuesday den 20 April 2004 kl. 11:00: [ svar | nyeste ]
Jeg fandt nu præsentationen meget underholdende, selv om det naturligvis er ren propaganda. Hvad der ofte er interessant, er hvad der ikke blev nævnt. Dvs. Nvidia nævnte hverken grafikkortets krav om to strømstik, 480 watt strømforsyning samt støjniveau. Og i modsætning til NV30-introduktionen, så blev grafikkortet ikke fremvist med kølesystem (måske fordi NV40 umiddelbart kan minde meget om NV30, hvilket næppe er et budskab, som Nvidia ønsker at videregive). 3DFX gik også i gamle dage op i at kunne rendere i 60 FPS, men hverken Nalu, piratskibet mm. så ud til at ramme disse 60 FPS (dvs. disse renderingssekvenser hakkede en smule ifht. personerne i præsentationsvideo'en, hvilket jeg fortolker, som lav billedrate i visse præsentationsfilm). Men nuvel, Doom3 og en Pixar-film-efterligning var også en del af GeForce3-præsentationen i 2001, så Unreal3-enginen er nok lige så relevant for NV40, som Doom3 vil blive det for NV20. Dvs. når de første Unreal3-engine spil ankommer i danske butikker, så er det vel næppe helt umuligt, at NV50-60 og R500-600 eksisterer... Men det bliver dog interessant at se, hvor meget pixel og vertex shadere 3.0 kommer til at betyde (som man allerede kunne se i propaganda-filmen, så vil dette område nok blive særligt centralt mht. markedsføring af NV40).


R fe skrev Tuesday den 20 April 2004 kl. 12:38: [ svar | nyeste ]
hehe ja to strømstik

af en eller anden grund så tror jeg faktisk at de dengang ville have præsenteret det med stolthed hvis nv30(fx5800) krævede det
heheeheh og så ville de sige et eller andet i retning af

gforce fx!!! SÅ GOD at den kræver to stik!!!!!*big smile*
jaja....de har lært af sidste generations brølere



red_martians skrev Tuesday den 20 April 2004 kl. 19:51: [ svar | nyeste ]
Uanset hvad, så synes jeg at nalu, er meget imponrende. Dawn er ikke i nærheden af Nalu's photorealisme. Hun har nærmet sig noget jeg har set i filmen: final fantasy. Måske flottere. Men hvad, kan der kun være en af de personer i billedet af gangen, vil den photorealisme vi ser aldrig kunne trækkes af NV40 alligevel. Over 2xNalu, så tror jeg kortet bryder sammen!! Og så er idéen jo lidt gået fra det. Men imponrende, det er hun sgu!!


Ra skrev Wednesday den 21 April 2004 kl. 14:11: [ svar | nyeste ]
- Men Dusk (Dawns "onde" tvilling) er stadig klart mere sexet!!!


R fe skrev Wednesday den 21 April 2004 kl. 18:09: [ svar | nyeste ]
arrrhhh der tog jeg vist lidt fejl. videon er i to versioner(mærkeligt nok) en i rm format på ca 270mb(den jeg snakkede om) og en i asf på ca 150mb. uanset hvad så synes jeg stadig det er en skodkvalitetsvideo man ikke får noget ud af at se, så hellere vente til man selv kan afspille demoerne

hvis i vil se nalu lidt mere detaljeret så er den her måske lidt bedre

ftp://download.nvidia.com/downloads/nZone/videos/nvidia/nalu_256k.wmv



Rune skrev Tuesday den 20 April 2004 kl. 16:24: [ svar | nyeste ]
Anandtech har publiceret ny artikel, der omhandler, hvad der gik galt med NV3x, læs den her:

http://www.anandtech.com/video/showdoc.html?i=2031


Rune skrev Wednesday den 21 April 2004 kl. 10:28: [ svar | nyeste ]
Firingsquad tilbyder nu lydprøver fra 6800U og 9800XT med standardkøler og har set nærmere på overclockning af 6800U:

http://www.firingsquad.com/hardware/geforce_6800_ultra_2/default.asp


Gottlic skrev Wednesday den 21 April 2004 kl. 14:12: [ svar | nyeste ]
hmm tænkte på om nogen ved om det er rigtig at radeon har pertent (eller hvordan det nu staves) på hvordan grafiken er ved ansigter eller sådan noget!? i 3DMark2001SE er der nogen test som Nvidia´s kort ikke kan ta! er det som radeon har pertent på??


Kalle Anker skrev Thursday den 22 April 2004 kl. 23:22: [ svar | nyeste ]
Gottlic..

Er det Trueform du taler om ? - Såfremt det er, så jow - Det var kun Radeon der brugte det (om de havde patent ved jeg ikke?).

Ang. 3Dmark2001se var det ikke trueform der gjore at nogle Nvidia kort ikke kunne kører alle testene - Men at nogle af Nvidia´s kort ikke understøttede DX8 (,1)

Ret mig gerne hvis jeg tager fejl - Hvilket i jo sikkert også gør :-P



red_martians skrev Saturday den 24 April 2004 kl. 10:43: [ svar | nyeste ]
nix...det er ik kun radeon der bruger det, Matrox gør også på deres P og parhelia-serie


GWiZ skrev Thursday den 22 April 2004 kl. 15:56: [ svar | nyeste ]
Hmm, det kan jeg da ikke forestille mig.

Hvilken test i 3DMark er det som en GeForce ikke kan tage? Hvis det er et Geforce 4 eller ældre har det jo også kun vertex shader og pixel shader 1.1, derfor kan den ikke tage test med ps 1.4, som det kun er Radeon der har.

Den diskussion er dog heldigvis gået af mode, da det hele er udskiftet med 2.0, og nu med NV40 3.0.



Rune skrev Friday den 23 April 2004 kl. 19:54: [ svar | nyeste ]
Driverheaven har testet billedkvalitet med GeForce 6800 Ultra og var ikke helt tilfredse, læs hele undersøgelsen her:

http://www.driverheaven.net/articles/driverIQ/


stasiu skrev Saturday den 24 April 2004 kl. 17:28: [ svar | nyeste ]
GeForce 6800 Ultra - det grafikkort gad jeg godt have!! =P - det er simpelthen skabt til mig! - selvom jeg ikke spiller meget nu, men det ville jeg sikkert hvis jeg havde det kort! bare 5k er lidt meget sys jeg.. :/ hvis der er nogen som har for mange penge i lommen så lav en lille gave til mig =D


0x50a26885.svgnxx1.adsl.tele.dk skrev Sunday den 25 April 2004 kl. 12:19: [ svar | nyeste ]
Det er fint og flot men hvad med prisen


Thomas L skrev Sunday den 25 April 2004 kl. 20:50: [ svar | nyeste ]
Inde på TWEAK.dk hvor man bl.a. kan se hvad nogen score i 3Dmark 2003, og der er den højeste score "13559". Der står at han har et Geforce 6800Ultra!!! Kilde: http://www.tweak.dk/3dmark/sealle.php


R fe skrev Sunday den 25 April 2004 kl. 21:11: [ svar | nyeste ]
??? 6800ultra er jo ikke engang til salg endnu...


Rune skrev Tuesday den 27 April 2004 kl. 20:33: [ svar | nyeste ]
Det ser ud til, at følgende varianter af NV40 vil ankomme:

GeForce 6800 Ultra: VPU (16 pipelines) 400 MHz; ram 1,1 GHz (DDR3); US$499
GeForce 6800 PRO: VPU (12 pipelines) 350 MHz; ram 1 GHz (DDR3); US$399
GeForce 6800: VPU (12 pipelines) 350 MHz; ram 700 MHz (DDR); US$299?

Så må tiden vise, hvor stor forskel der vil blive på ydelse og effektforbrug mht. disse grafikkort. Læs mere her:

http://www.theinquirer.net/?article=15555

http://news.hwupgrade.it/12304.html


Rune skrev Tuesday den 27 April 2004 kl. 23:34: [ svar | nyeste ]
Flere omfattende artikler vedr. diverse detaljer og egenskaber ved GeForce 6800 Ultra er ankommet i dag, og kan findes her:

http://www.3dcenter.org/artikel/nv40_technik/index_e.php

http://www.ixbt-labs.com/articles2/gffx/nv40-part1-a.html


Rune skrev Saturday den 01 May 2004 kl. 16:58: [ svar | nyeste ]
Ifølge The Inquirer vil Nvidia snarligt forøge hastigheden på GeForce 6800 Ultra VPU'en til over 450 MHz:

"NVIDIA WILL CHANGE its Geforce 6800 Ultra clock speeds. It will clock their cards faster to beat ATI, we learned yesterday, and I believe that was the message it told its partners at its recent Sardinia shindig. Geforce 6800 Ultra will end up faster then 450MHz."

Kilde: http://www.theinquirer.net/?article=15641

Endvidere ser det ud til, at GeForce 6800 Pro vil komme til at hedde GeForce 6800 GT og vil anvende 350 MHz VPU, 16 pipelines, 1000 MHz ram og kun ét strømstik:

"... the Geforce 6800 GT will have 16 pipelines and will work at 350MHz GPU core speed and use 1000MHz memory. It will be equipped with 256MB of GDDR 3. The slower Geforce 6800 non Ultra will work, as we suggested earlier, at 325MHz for the graphics chip, and 700MHz for the memory. It will use cheaper DDR 1 memory and will have 12 pipelines that will come at quite a good price. Both of them have only one power connector."

Kilde: http://www.theinquirer.net/?article=15644


Kilde: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/april/geforce_6800_modellen/



OmmiZZ skrev Sunday den 02 May 2004 kl. 11:22: [ svar | nyeste ]
Hi..!

Spørgsmål til experterne..:)

Jeg kan se at det traditionelle stik til monitoren er væk på Ultramodellen....nogen der har et bud på hvorfor..og hvad så...kan man så ikke køre med det på en normal monitor..?!?

Reg Thomas



red_martians skrev Sunday den 02 May 2004 kl. 15:37: [ svar | nyeste ]
DVI-stikket, giver mulighed for at bruge 2 fladskærme direkte. Der følger ret sikkert en dongle eller to med til kortet. Som sørger for et VGA-signal istedet for et DVI:-)


Michael R skrev Sunday den 02 May 2004 kl. 12:37: [ svar | nyeste ]
Det kort er jo guld værd!

De sagde nu godt nok på Hardware-test.dk, at prisen på kortet ville ligge på 3200 kr. for Ultra-versionen. [url]http://www.hardware-test.dk/news.asp?id=9179[/url]



Ra skrev Sunday den 02 May 2004 kl. 16:06: [ svar | nyeste ]
Jeg tror bare at de har "vekslet" den vejledende amerikanske pris ved gældende dollarkurs, hvilket er idioti! I praksis vil Ultra nok starte omkring 4.500kr. og ikke-Ultra omkring 3.000. desuden ser det ud til at der kommer en mellem-version ved navn 6800GT, hvilket allerede nu lægger op til at vi skal have lige så stor navne-forvirring som vi plejer mellem kortene! I sin tid lavede Nvidia også Geforce2 som MX, MX100, MX200, MX400, Pro, GTS, og vistnok et par stykker mere, som jeg ikke i dag kan rangliste efter ydelse...


Kristian skrev Sunday den 02 May 2004 kl. 18:18: [ svar | nyeste ]
Du glemte ultra :)

Det var værst med Geforce 4: TI4200 64MB RAM TI4200 128MB 450MHz RAM TI4200 128MB 500MHz RAM TI4400 TI4600 Ti4800se (=TI4400+AGP8x) TI4800 (=TI4600+AGP8x)

Så var der også MX varianterne, som nærmest var GF2 kort, da de ikke var dx8 kompatible:

MX420 MX440 MX460

Der var i hvert fald også flere hastigheder på MX440 og måske har der også være variation i antallet af MB RAM; men jeg vist illustreret, at det var ret slemt nu :D



Rune skrev Monday den 03 May 2004 kl. 10:32: [ svar | nyeste ]
Det ser ud til, at Nvidia vil introducere "GeForce 6800 Ultra Extreme" med 450 MHz VPU og uændret ramhastighed (1100 Mhz) - hvis vi skal tro på The Inquirer:

"As we also indicated, the press samples of the 'GeForce 6800 Ultra Extreme' that have just been shipped feature a 450MHz core but with the same 550MHz memory clock (1100MHz G-DDR3). But if you want any 6800 Ultra you better raid your piggy bank fast, because we've heard that only 2000 of the 10,000 NV40 GPUs produced are expected to qualify at the '6800 Ultra' clock rate of 400MHz. If that's not, "Limited Edition" enough and you want some of the 6800 Ultra Extreme action that select reviewers are receiving just now, you should be forming a line outside retailers that specialise in only Gainward, and maybe XFX products. This is because it's been suggested that only 200 or so pieces might make the grade as a '6800 Ultra Extreme' with its 450MHz clock."

Læs mere her:

http://www.theinquirer.net/?article=15661



Mick skrev Monday den 03 May 2004 kl. 11:43: [ svar | nyeste ]
Ser igen ud til at NVIDIA har problemer med at kunne levere varen uden massivt strømforbrug. Hvorfor begge firmaer ikke som standard leverer en løsning som med "VGA Silencer" (nydelig løsning til få penge) fatter jeg ikke!


Mick skrev Monday den 03 May 2004 kl. 11:54: [ svar | nyeste ]
http://www.anandtech.com/video/showdoc.html?i=2023&p=17

er jo lidt interessant set i lyset af denne udtalelse:

http://www.theinquirer.net/?article=15662

"Indeed we understand that at a resolution of 1280x1024 with 4xAA (Anti-Aliasing) and 8xAF (Anisotropic Filtering), with all the eye-candy on max, X800XT Platinum can easily sustain an average of more than 47FPS on a system based around an AMD Athlon 64 FX 51."

Forskellen er ikke så stor. Men det gør det bare endnu mere interessant at se kommende de kommende reviews... ;o)



Heine Grønbæk skrev Monday den 03 May 2004 kl. 14:22: [ svar | nyeste ]
Jeg regner med at købe 6800. Spørgsmålet er om det er nødvendigt for mig at skifte mit bundkort(Intel 7205 chipsæt) ud og RAM (PC2100) for at udnytte kortet.

Jeg har 3,0Ghz processor, så den skulle vel være ok.



Ra skrev Monday den 03 May 2004 kl. 23:01: [ svar | nyeste ]
Det bør være glimrende! Masser af power...


Satyr skrev Monday den 03 May 2004 kl. 19:45: [ svar | nyeste ]
Så vidt jeg kan se så burde der komme følgende

GeForce 6800 Ultra Extreme: 450 MHz core clock, 1100 MHz GDDR3, 16 pixel pipelines, US$599? GeForce 6800 Ultra: 400 MHz core clock, 1100 MHz GDDR3, 16 pixel pipelines, US$499 GeForce 6800 GT: 350 MHz core clock, 1000 MHz GDDR3, 16 pixel pipelines, US$399 GeForce 6800: 350 MHz core clock, 700 MHz GDDR, 12 pixel pipelines, US$299

En anden god nyhed som har lidt relation til 2. overstående kommentar.

NVIDIA has a new driver for the GeForce 6800 series -- version 61.11. Compared to the 60.72 driver, this new driver features:

Around 5% boost in Aquamark Around 5% boost in X2 performance Around 5% boost in Tomb Raider: Angel of Darkness performance Around 10% boost to Call of Duty performance Over 20% improvement in Far Cry performance (fixed a z cull bug

Med et 20% boost og Extreme udgaven så kan det være at Nvidia går hen og vinder her. (i Far Cry altså ^^)



saitek skrev Tuesday den 04 May 2004 kl. 00:05: [ svar | nyeste ]
Det skulle være i dag ATI kommer med deres nye kort. Har læst at de skulle være meget hurtige feks i far cry.

Desuden vil deres kort kræve langt mindre strøm, specielt det forhold kan da let blive en stor fordel hvis ellers ATI kan hamle op med hastigheden i forhold til 6800xt, da det er de færreste der lige har lyst til også at købe ny strømforsyning og sætte det op. Nogle kunne da godt se det som lettere kompliseret.

Ret spændt på resultaterne omkring ATI. Ikke lige religiøs omkring noget, hælder hverken til ATI eller Nvidia.



Thomas L skrev Tuesday den 04 May 2004 kl. 07:52: [ svar | nyeste ]
Ja.... Det bliver spændende, at se hvem der vinder. Men jeg tror altså også, at det bliver ATi. Hvis nu deres Radeon X800pro, kommer til bare, at vinde med en lille smule, og så kommer X800 XT, som slår Geforce 6800 Ultra.

I dag skulle de første test komme med X800pro...

Og så vidt jeg ved, kommer de første test med X800 XT om ca. 1-3 dage ( faktisk tror jeg det er i morgen ). Men man må jo vente og se tiden an...

De fleste rygter tyder på, at X800Pro/XT max. vil bruge kun 80Watt! og et strømstik.



staalormen skrev Tuesday den 04 May 2004 kl. 10:20: [ svar | nyeste ]
Ja så er en tomshardware test leaked... den kommer jo nok i morgen... men her er lidt til dem der ikke kan vente :) http://www.hx3.de/ext/farcry/ATIBilder/image009.gif http://www.hx3.de/ext/farcry/ATIBilder/image012.gif http://www.hx3.de/ext/farcry/ATIBilder/image018.gif

hmmm det ser ud som om at Ati x800pro skuffer..... Godt gået nvidia 6800 Ultra yder flot!!... lad os se når andre også tester det kunne også være et driverproblem i call off duty....

samlet oversigt og testene :) http://www.computerbase.de/forum/showthread.php?p=646488#post646488



AndersAnd skrev Tuesday den 04 May 2004 kl. 14:17: [ svar | nyeste ]
Jeg syntes det ser helt godt ud for ATI www.hx3.de/ext/farcry/ATIBilder/image012.gif Og desuden et lavere effekt forbrug end 6800 hvilket jeg klart vil fortrække da min pc har 5 scsi diske. Hilsen Anders



saitek skrev Tuesday den 04 May 2004 kl. 14:47: [ svar | nyeste ]

ja et kort der trækker meget strøm, genererer også meget varme. Her er et billede fra testen af 6800xt

http://home20.inet.tele.dk/wicb/comblaser.jpg



AndersAnd skrev Tuesday den 04 May 2004 kl. 15:07: [ svar | nyeste ]
Så kan jeg bedere forstå at nvidia kort larmer :o)


staalormen skrev Wednesday den 05 May 2004 kl. 08:45: [ svar | nyeste ]
*G* :D


Martin Hansen skrev Tuesday den 04 May 2004 kl. 14:56: [ svar | nyeste ]
Er heller ikke helt enig med stålormen. Her er noget fra Toms Hardware : http://www.popclone.com/leakedx800bench/ Der ser det ud til at X800XT er en tand bedre end Geforce 6800 ULTRA. Men ta´ ikke test resultaterne for noget nu, tror man skal vente til R420 officelt bliver annonceret.


staalormen skrev Wednesday den 05 May 2004 kl. 08:42: [ svar | nyeste ]
Rigtigt nok... det ser ud som om at det er OpenGL der stadig ikke kører super på Ati, men tilgengæld vinder de i DX9 og Direct3d spil. Men det ser godt ud :) utroligt de ligger så lige efter sådan et kvantespring.... Det tegner til at blive et godt år for GFX køb :) --------------------------- Den jeg linkede til var også fra tomshardware... her er den rigtige test fra onkel tom: http://www20.tomshardware.com/graphic/20040504/index.html og fra Anden: http://www.anandtech.com/video/showdoc.html?i=2044

men Rune arbejder måske på en lækker artikel?? :)... så vil jeg ikke ødelægge det... så bare slet mit indlæg under stregen Rune ;)



staalormen skrev Wednesday den 05 May 2004 kl. 08:43: [ svar | nyeste ]
det bliver så efter stregen :)


Rune skrev Tuesday den 11 May 2004 kl. 09:06: [ svar | nyeste ]
Det ser ud til, at Nvidia er ved at ændre officielle specifikationer mht. GeForce 6800 Ultra, så dette grafikkort nu officielt vil virke med 350W strømforsyninger:

"A good quality 350 Watt power supply with a sufficient 12V rail pull can support the 6800 Ultra standard clocks of 400/550. A lot of reviewers have already shown that they are running on 350 Watt power supplies with no problems. Overclockers will still want the big power supply and will want to connect both molex connectors. We are putting production tests in our manufacturing line to ensure this [new 350W requirement] is the case and will be lowering the spec."

Læs mere her:

http://www.gamespot.com/news/2004/05/10/news_6096837.html


62.79.147.86.adsl.kh.tiscali.dk skrev Tuesday den 11 May 2004 kl. 22:47: [ svar | nyeste ]
Er der nogen som ved hvornår ATI og Nvidia's kort kommer i butikkerne her i dk ?



Rune skrev Monday den 24 May 2004 kl. 11:13: [ svar | nyeste ]
Så er de første Asus GeForce 6800 Ultra dukket op i Japan:

http://www.watch.impress.co.jp/akiba/hotline/20040522/etc_6800.html

Her gælder i øvrigt:

"The card, as Nvidia's own Jen Hsun said, needs only one power plug if you don't want to overclock and 350W should be enough he told to its investors. 480W requirements are only meant for overclockers he said."

Læs mere her:

http://www.theinquirer.net/?article=16101


Rune skrev Tuesday den 25 May 2004 kl. 17:11: [ svar | nyeste ]
Lidt nyt om NV45, som ser ud til at ankomme snarligt:

"The NV45 is essentially the same technology as the NV40 except for the PCI Express instructions it can handle. As I mentioned before, it may be the case that NV45 is a native PCI Express chip."

Læs mere her:

http://www.theinquirer.net/?article=16139


cAPS lOCK skrev Wednesday den 26 May 2004 kl. 18:50: [ svar | nyeste ]
Leadtek WinFast A400 TDH, GeForce 6800, 128 MB DDR til DKK 2.695,00 inkl. moms:

http://www.zitech.dk/Product/Details.aspx?ID=155129

Leveringsstatus:

Varen er ikke er på lager i øjeblikket, men vil være på lager igen snarest. Leveringstid mellem 2-6 hverdage.

Interessant... ;)

/cl



Rune skrev Monday den 31 May 2004 kl. 14:30: [ svar | nyeste ]
Noget kan tyde på, at Nvidia har svært ved at levere GeForce 6800 Ultra, fordi IBM har problemer med at producere tilstrækkeligt mange VPU'er:

"Quantities of the GeForce 6800 Ultra chips NVIDIA succeeds in bringing to the market are not clear. The graphics cards are reportedly available in limited quantities in Tokyo, Japan as well as from leading USA-based PC makers. ATI RADEON X800 PRO are available all around the world."

Læs mere her:

http://www.xbitlabs.com/news/video/display/20040530115849.html


Rune skrev Saturday den 05 June 2004 kl. 13:12: [ svar | nyeste ]
Det ser nu ud til at være blevet bekræftet, at Nvidia 6800-serien ikke vil understøtte HD-TV, men nuvel, det vil næppe bekymre mange af vore læsere:

"If you’re counting on HDTV working on your spanky new 6800, you’re out of luck: it has been confirmed this morning by Derek Perez of NVIDIA that the both the core and the existing reference board have no capacity to support an HDTV signal – though it is planned for the future NV43 & NV41 cores. If you are hoping a third party vendor is going to slap a discrete chip on there, you are likely to be disappointed because as far as we know no vendors are straying from the reference design."

Kilde: http://www.bit-tech.net/



Rune skrev Sunday den 06 June 2004 kl. 14:06: [ svar | nyeste ]
HD-TV kan måske alligevel virke fint på GeForce 6800 - læs mere her:

http://techreport.com/onearticle.x/6828


Rune skrev Monday den 14 June 2004 kl. 14:22: [ svar | nyeste ]
Aopen har fremvist GeForce 6800 Ultra til PCI Express x16, som anvender ny type af strømstik (og kun et, eftersom PCI Express x16 porten leverer op til ca. 75 watt, mens AGP-porten er begrænset til ca. 30 watt). Læs mere her og se diverse billeder:

http://www.xbitlabs.com/news/video/display/20040612070616.html


Rune skrev Tuesday den 15 June 2004 kl. 13:58: [ svar | nyeste ]
Firingsquad har testet GeForce 6800 (non-GT, non-Ultra osv.), som kun har 12 pipelines, dvs. dette grafikkort er ikke specielt interessant ifht. de mere potente modeller (ydelsen er kun ca. 50% af Ultra-modellen, når grafikkortet er flaskehals), hvorfor vi næppe bringer oversigt her på sitet, men nøjes med at henvise til Firingsquads anmeldelse:

http://www.firingsquad.com/hardware/geforce_6800_performance_and_overclocking/


Rune skrev Monday den 28 June 2004 kl. 12:58: [ svar | nyeste ]
Anandtech har netop testet en tidlig NV45-version, som er identisk med GeForce 6800 Ultra med 435 MHz VPU og PCI Express - interesserede kan læse mere her:

http://www.anandtech.com/video/showdoc.html?i=2096


Rune skrev Monday den 28 June 2004 kl. 13:03: [ svar | nyeste ]
Med det rette bundkort (kræver 2 x "PCI Express x16"-porte) ser GeForce 6800 Ultra også snart ud til at kunne arbejde sammen på tilsvarende måde, som gode gamle Voodoo2 SLI - læs mere her:

http://www.hardwareanalysis.com/content/article/1728/


Rune skrev Monday den 28 June 2004 kl. 16:55: [ svar | nyeste ]
Tom's Hardware har også set nærmere på GeForce 6800 (GT/Ultra) i SLI:

http://graphics.tomshardware.com/graphic/20040628/index.html


Kristian skrev Monday den 28 June 2004 kl. 17:37: [ svar | nyeste ]
Men så langt rækker selv en godt kvalitets 350W PSU næppe...

Hvorfor ikke 3 eller 4 grafikkort nu, hvor vi er i gang?

Vil man stadig gøre det ved at lade grafikkortene beregne hver deres halvdel af skærmen?

Hvordan var ydelsen med Voodoo2 SLI ift. til normal Voodoo2 (jeg er kun 18år)?



Kristian skrev Monday den 28 June 2004 kl. 17:48: [ svar | nyeste ]
Hvor meget bruger et nyt grafikkort i 2D?

Man må i hvert fald håbe, at NVIDIA laver noget lignende AMDs cool 'n' quiet - ellers bliver vi da helt stegt i tilfælde af en god sommer :)



Neurobrain skrev Monday den 28 June 2004 kl. 19:20: [ svar | nyeste ]
Det er virkelig et smart Move Nvidia har gjort med deres SLI løsning. Det virker dog mærkeligt, at de ikke udkommer med Nforce4 samtidig med deres nye grafikkort. Hvis jeg kunne købe et 6800 kort nu og senere kunne købe et ekstra ville jeg klart købe et 6800 kort istedet for et X800

Som jeg har forstået det (læst) bliver SLI først muligt i slutningen af året og så lang tid har jeg ikke tænkt mig at vente

PS: Har idag modtaget mine SE-DIR1000C!



Rune skrev Tuesday den 29 June 2004 kl. 00:46: [ svar | nyeste ]
Ja, det kan virke forunderligt, at Nvidia ikke venter med SLI til nForce4 er klar. I virkeligheden er denne SLI jo en "paper-launch" af den værste slags - dvs. Nvidia lancerer en løsning, som først vil blive relevant for mange om flere måneder, hvis nogensinde. Dvs. jeg tror ikke, at vi skriver en selvstændig artikel om dette nye SLI-fænomen, før vi har reelle testresultater på bordet - "hype" er der jo nok af i forvejen, og vi ved intet om ydelse og potentielle driverproblemer målt af uafhængige testsites osv. (Nvidias per definition inhabile postulater om ydelse er næppe tilstrækkelig grund til jubel, men det må tiden vise). Skulle alt lykkes efter planen for Nvidia, så virker det bestemt overordentlig interessant, men lad os først mærke og se spor efter naglerne i Jesu krop på...


Kristian skrev Tuesday den 29 June 2004 kl. 09:10: [ svar | nyeste ]
Citet fra Runes link: "Exact performance figures are not yet available, but Nvidia's SLI concept has already been shown behind closed doors by one of the companies working with Nvidia on the SLI implementation. On early driver revisions which only offered non-optimized dynamic load-balancing algorithms their SLI configuration performed 77% faster than a single graphics card. However Nvidia has told us that prospective performance numbers should show a performance increase closer to 90% over that of a single graphics card. There are a few things that need to be taken into account however when you're considering buying an SLI configuration. First off you'll need a workstation motherboard featuring two PCI-E-x16 slots which will also use the more expensive Intel Xeon processors. Secondly you'll need two identical, same brand and type, PCI-E GeForce 6800 graphics cards"


Rune skrev Tuesday den 29 June 2004 kl. 11:47: [ svar | nyeste ]
Anandtech er også inde på et par kritiske aspekter:

"At this point, they still have an unbalanced bandwidth situation due to the x8 bandwidth limit on secondary x16 PCIe slots, but that's nothing like the difference between PCI and AGP (especially as full PCI bus bandwidth can't always be guaranteed to one device)... The success or failure of this product will likely not rest on its technical merits, but rather on the availability of suitable motherboards, and the cost of the upgrade. We can see some hardcore gamers out there spending $500 on a card. We could see some even going so far as to upgrade their entire PC if it meant better performance. But it is hard for us to see very many people justifying spending $1000 on two NV45 based cards even for 2x the performance of one very fast GPU; perhaps if NVIDIA cripples some of its GPUs to work only as slaves and sells them for a (very) reduced price as an upgrade option. Even then, this isn't going to have as easy a time in the marketplace as the original 3dfx SLI solutions."
Kilde: http://www.anandtech.com/video/showdoc.html?i=2097&p=4

Allerede nu kræver 6800 Ultra megen effekt, og 2 af slagsen vil kun gøre dette værre. Endvidere virkede Voodoo2 SLI med stort set alle bundkort (krævede blot 2 x PCI), mens Nvidias nye løsning sætter store krav til bundkort og strømforsyning - larmen fra grafikkortene vil også stige med 3 dB, og har man i forvejen ikke et specielt støjsvagt NV45-grafikkort, så kan det blive markant værre. Ydelse på op til 2x kan dog være fantastisk gevinst, men situationen er langt fra den samme som med Voodoo2 SLI - og netop sammenligningen med Voodoo2 SLI, som var en af de mest fantastiske og kreative 3D-løsninger nogensinde, er næppe meget relevant (men stiller Nvidias kommende løsning i bedre lys, da overførsel af lidt "mojo" fra Voodoo2 SLI får mange til at drømme om svundne og fantastiske tider). Både X800XT og 6800Ultra ser ud til at have kræfter nok til at kunne trække de fleste spil i 1600x1200 og ofte med FSAA og ANI uden store problemer, så der er næppe helt det samme behov for SLI aktuelt, som da 3dfx udgav Voodoo2 SLI i 1998, men nuvel, det må tiden naturligvis vise, når Doom3, Half-Life 2 og STALKER mm. udkommer. I 1998 kostede SLI også kr. 5.600,00, mens 2 x NV45 i efteråret 2004 nok vil nærme sig kr. 10.000,00, hvilket er en anden lille detalje. Derudover er det naturligvis herligt at se Nvidia/ex-3dfx returnere med SLI, ovenstående er blot for at nævne, som Kristian også var inde på, at situationen for 2 x NV45 ikke er helt kan sammenlignes med da 2 x Voodoo2 ankom - men det kan selvfølgelig være, at HardOCP ender med at få ret, hvem ved:

"NVIDIA’s new SLI technology is something that really excites us here at HardOCP and I bet there are more than a few others out there that have the same feelings. If nothing else, look at this early SLI warning as a nice mention from NVIDIA to start saving your pennies. Of course, NVIDIA’s desire here is to show you how your purchase of a 6800Ultra now could pay off big time six months or so down the road. And I have to say, if I were about to pull the trigger on a new ATI video card purchase that I knew would be for a long-time install, this NVIDIA SLI technology would certainly make me stop and rethink my position."
Kilde: http://www.hardocp.com/article.html?art=NjMzLDM=


Thomas L skrev Sunday den 04 July 2004 kl. 16:15: [ svar | nyeste ]
Hardinfo har kigget nærmere på ASUS Geforce 6800 Ultra:

http://www.hardinfo.dk/show.asp?desc=2497



Rune skrev Wednesday den 07 July 2004 kl. 14:39: [ svar | nyeste ]
Det har tidligere været nævnt, at Nvidia havde problemer med at producere tilstrækkeligt mange NV40-VPU'er, dog tyder ny information på, at vi snarligt kan forvente stort antal 6800-baserede grafikkort:

"“The ramp up of the GeForce 6800 is complete and we now have product flooding into the partners in large numbers with no supply issues whatsoever. We are confident that you will not find an NVIDIA board partner who would say otherwise,” said Roy Taylor, VP Sales, EMEA."

Læs mere her:

http://www.xbitlabs.com/news/video/display/20040706163435.html


Rune skrev Tuesday den 27 July 2004 kl. 11:14: [ svar | nyeste ]
Så er DirectX9.0c udkommet, hvilket nok er mest relevant for ejere af NV40-grafikkort, download her:

http://www.microsoft.com/downloads/details.aspx?FamilyID=9226a611-62fe-4f61-aba1-914185249413&DisplayLang=en


Kristian skrev Tuesday den 27 July 2004 kl. 12:58: [ svar | nyeste ]
Man behøver jo ikke købe to 2x NV45. Det mest fornuftige ville være at finde det et "feature-rigt" kort som har en høj ydelse/penge :)

Det vil muligvis være billigere og yde bedre end et NV45.



Kristian skrev Tuesday den 27 July 2004 kl. 14:21: [ svar | nyeste ]
Hvor kan man se hvor stor ens PSU er? Og hvor stor en Psu kræves der til NV40 GT kombineret med Athlon XP 3200+ ?


Kristian skrev Tuesday den 27 July 2004 kl. 14:27: [ svar | nyeste ]
Det står på den, og jeg tror ikke, at dimensionerne betyder noget.


Rune skrev Thursday den 19 August 2004 kl. 17:40: [ svar | nyeste ]
Tweak.dk har netop sammelignet DirectX9.0b med 9.0c, læs det hele her:

http://www.tweak.dk/tests2.php?id=417


Rune skrev Tuesday den 14 September 2004 kl. 10:05: [ svar | nyeste ]
Ifølge HardTecs4u har enkelte producenter af Nvidia GeForce 6800 Ultra grafikkort indrømmet, at der i visse grafikkort-bios'er til disse grafikkort er anvendt så aggressive ramtimings, at dette kan medføre ustabilitet. Dette gælder især for grafikkort med bios 5.40.02.10.14 og muligvis også ældre bios'er. Nyere bios'er såsom 5.40.02.15.06 burde ikke være ramt. Har man købt et GeForce 6800 baseret grafikkort og oplever ustabilitet, så kan løsningen være at opgradere sin bios på grafikkortet:

"Ein Hersteller jedoch wusste von diesem Problem und teilte uns mit, dass man nach Meldung seitens NVIDIA mit einer neuen Firmware versorgt worden sei. Auch dort habe man einen gewissen Leistungsrückgang festgestellt. Die genauen Änderungen in der Firmware sind nicht bekannt. Evtl. ist in den frühen Firmwareversionen der Ultra Karten der Speicher zu aggressiv angesteuert, jedoch noch in Bereichen, in welchen es nicht zu Abstürzen kommt. Möglicherweise führten Timings schlicht dazu, dass ein Adressierungsvorgang des Speichers wiederholt werden musste, was zu diesen Aussetzern führte. Im Ergebnis muss man hier aber auch schlussfolgern, dass Benchmarkvergleiche von 6800 Ultra Grafikkarten mit der frühen Firmwareversion damit heute nicht mehr unbedingt repräsentativ sind."

Kilde: http://www.hardtecs4u.com/?id=1094892066,18626,ht4u.php

Som HardTecs4u her er inde på, så vil ny bios medfører reduceret ydelse, hvorfor test-resultater med ældre bios ikke nødvendigvis er repræsentative for testresultater med nyeste bios. Læs evt. også mere her:

http://www.techpowerup.com/index.php?589

Normalt er det ikke tilladt selv at skifte bios på sit grafikkort, dvs. oplever man problemer, så er det formodentlig bedst at kontakte sin forhandler, fremfor at risikere at miste al garanti på grafikkortet.


Info
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:

Om os

Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.



Startside
Lad HardwareTidende blive din startside: Klik her

Eller hvis du kun vil tilføje os til dine foretrukne: Klik her

Copyleft © 2000-2004 HardwareTidende