Information om PC hardware
find
sidste nyt søg arkiv forum statistik om os
Emner
Andet (49)
Bundkort (83)
Emulator (38)
Grafikkort (275)
Harddisk (19)
Køling (18)
Processorer (128)
RAM (25)
Software (84)

Links
Drivere
Emulator
Hardware
Spil
Download

Kommentarer
Lukning af HardwareTidende (stand-by på ubestemt tid) (341)
(2004-11-30 23:59:59)

Half-Life 2 - årets spil 2004 (100)
(2004-11-30 23:58:49)

Specifikationer på ATi Radeon R480 (Radeon X850) (39)
(2004-11-30 23:15:03)

Betydning af ramtimings, FSB og taktfrekvenser (64)
(2004-11-30 22:54:53)

The Elder Scrolls IV: Oblivion - tidlige billeder fra fortsættelsen til Morrowind (33)
(2004-11-30 22:51:58)

Hovedtelefoner med surround sound - introduktion og test (221)
(2004-11-30 21:03:22)

Test af 45 cpukølere til Athlon XP (socket A/462) (56)
(2004-11-30 20:33:15)

Bundkort til Athlon 64 - ATi Radeon Xpress 200 mod Nvidia nForce4 Ultra og VIA K8T800 Pro (21)
(2004-11-30 19:38:15)

Omfattende test af Athlon 64 cpu'er til socket 939 (120)
(2004-11-30 19:30:02)

Test af 5 bundkort til socket 939 (nForce3 Ultra mod K8T800 Pro) (90)
(2004-11-30 19:23:37)

DOOM3 på GeForce3 (15)
(2004-11-30 17:38:17)

Maj 2000 grafikkort-test (2)
(2004-11-30 15:23:46)

Guide til LCD-skærme (fladskærme) (290)
(2004-11-30 00:46:39)

Støjmålinger på 6 mellemklasse og high-end grafikkort (54)
(2004-11-30 00:01:19)

Test af stort antal grafikkort i 1600x1200 (juni 2004) (76)
(2004-11-29 18:35:19)

Ekstrem ydelse med grafikkort - første resultater med Nvidia SLI (95)
(2004-11-29 15:36:13)

Athlon 64 4000+ og Athlon 64 FX-55 mod Intels hurtigste cpu'er (56)
(2004-11-28 15:10:20)

Drivere til ATi grafikkort - Catalyst 4,8 mod 4,7 (44)
(2004-11-27 00:37:49)

Test af 12 forskellige bundkort med i925X eller i915 chipsæt - hvilke er bedst? (28)
(2004-11-25 22:22:53)

Test af ydelse i Half-life 2: High-end grafikkort og cpu'er (79)
(2004-11-25 22:21:44)


Nvidia NV40 (GeForceFX 6xxx Ultra) - uofficielle specifikationer
Grafikkort af Webmaster mandag den 09 februar 2004 kl. 20:48 [ Grafikkort ]
Det er alment kendt, at ATi Radeon 9700-9800 serierne har været en ganske stor torn i øjet på Nvidia. Det sidste års tid har Nvidia, den gamle mester, måtte finde sig i diverse ydmygende testresultater; dog tyder nye rygter på, at Nvidia dropper fløjlshandskerne med NV40, som skulle være 4 gange hurtigere end NV38 (GeForceFX 5950 Ultra) i Doom3 og 7 gange hurtigere i Half-Life 2. Der har endvidere været mange rygter (dvs. uofficielle specifikationer) ude mht. NV40, som vi forsøger at samle i denne artikel.



Bemærk, at NV40 kun er ca. 1 måned fra at ankomme, hvilket betyder, at der er relativ stor sandsynlighed for, at diverse NV40-specifikationer er endeligt fastlagte af Nvidia, hvorfor nye rygter kan være ganske tæt på endelige specifikationer. Dette er også en væsentlig grund til, at vi her bruger tid på at forfatte nærværende artikel. Vi har tidligere bekæftet os med NV40, og denne artikel er baseret på meget information, som allerede kan findes i kommentarer til bl.a. denne artikel:

http://www.hardwaretidende.dk/hard/artikel/03/05/09/2823130

Nuvel, her er en specifikations-liste baseret på, hvad vi aktuelt opfatter som mest pålidelig information:

MULIGE SPECIFIKATIONER

VPU: Fabrikationsproces: 0.13 mikron (samme som NV38/GeForceFX 5950 Ultra)
VPU: 175 millioner transistorer (NV38 = 130 millioner)
VPU: Taktfrekvens 450 til 550 MHz (måske op til 600 MHz; NV38 = 475 MHz)
VPU: 8 rendering pipelines med 2 tekstur-enheder hver (8,8 gigatexels; NV38 = 3,8 gigatexels; forbedring på 132% i ydelse)
VPU: Pixel og vertex shadere version 3.0 (NV38 = v. 2.0)
VPU: Forbedret FSAA og ANI (inkl. 16x ANI)
RAM: 256MB 256bit ca. 600MHz GDDR2/3 (svarer til 2400 MHz 128bit SDram og en båndbredde på 38,2 GB/s; NV38 har 30,4 GB/s, så NV40 kan her blive ca. 26% hurtigere)
API: DirectX9,0c og OpenGL 2.0 "fragment shading" egenskaber
PCB: AGP 8x og senere PCI-Express
KØLESYSTEM: Støjsvag (ny kampagne "Silent Running" fra Nvidia?)
ANKOMST: April - juni 2004 hos danske forhandlere (officiel udgivelsesdato formodentlig 18. marts (Cebit-messen))
PRIS: Formodentlig ca. kr. 5.000,00 ved introduktion, sommer/efterår nok ca. 3.500,00 - 4.300,00)

Kilder til ovenstående:
http://www.theinquirer.net/?article=14058
http://www.theinquirer.net/?article=13985
http://www.theinquirer.net/?article=9040
http://www.xbitlabs.com/news/video/display/20040127195950.html
http://www.xbitlabs.com/news/video/display/20030918134855.html
http://www.xbitlabs.com/news/video/display/20030911145704.html
http://www.3dcenter.de/artikel/2004/01-27_a.php

Nvidia har tidligere testet 800MHz GDDR3 fra Samsung (båndbredde 51,2 GB/s), men ifølge The Inquirer har Nvidia valgt 600MHz til NV40. Diverse specifikationer er dog knap så vigtige, hvilket illustreres af, at ATi R360 (Radeon 9800XT) trods markant ringere specifikationer ikke nødvendigvis klarer sig dårligere end NV38 (GeForceFX 5950 Ultra). Det særligt vigtige ved NV40 er derimod, at dette er startskuddet på ny VPU-generation fra Nvidia på samme måde som GeForce1 (NV10 = første DX7 med T&L), GeForce3 (NV20 = første DX8 med programmerbar T&L) og GeForceFX 5800 Ultra (NV30 = første DX9 med særligt avancerede shadere osv.). NV40 markerer således en ny æra for Nvidia - og hinsides specifikationer, så er følgende udsagn vel et, som formodentlig siger det meste (såfremt udsagnet er sandt):

"Nvidia's fearless marketeers are also claiming that the chip have three times the performance and eight times faster shaders than NV38 - Geforce FX 5950 Ultra... It's even more interesting that Nvidia claims that its card [=NV40, red.] will end up four times faster in Doom 3 and seven times faster in Half Life 2. Well, even if those numbers are ridiculously high, you might expect that NV40 will have much more efficient shaders than NV38 had."
Kilde: http://www.theinquirer.net/?article=14058

Nuvel, 4 gange hurtigere i Doom3 og 7 gange hurtigere i Half-Life 2 kan sagtens passe. Faktisk var Radeon 9700 Pro hele 5 gange hurtigere end GeForce4 Ti 4600, da Radeon 9700 Pro udkom:


Citat: "Dette er vel ikke ligefrem resultater, som bringer jubel hos Nvidia. Faktisk kan vi med basis i disse resultater vise, at Radeon 9700 Pro er op til ca. 5 gange hurtigere end Geforce4 Ti 4600. Eller helt korrekt, at Radeon 9700 Pro er 369% hurtigere end GeForce4 Ti 4600"
Kilde: http://www.hardwaretidende.dk/hard/artikel/02/08/19/7051375

Ovenstående ser jo unægteligt imponerende ud. Det vigtige er blot at bemærke, at denne forskel på GeForce4 Ti 4600 og Radeon 9700 Pro ikke var generel, men derimod specifik til Jedi Outcast i 1600x1200 med 4xFSAA og 8xANI - hvor filmen helt knækkede for Ti 4600. På tilsvarende måde skal vi formodentlig opfatte Nvidias udsagn om Doom3 og Half-Life 2; dvs. personer, som anvender 1024x768 uden FSAA og ANI, får ikke nødvendigvis fantastisk meget ud af NV40, mens personer, der anvender 1600x1200 eller 2048x1536 med 4xFSAA og 8-16xANI muligvis befinder sig i ganske anden båd. Husk også på, at GeForceFX 5800 Ultra ifølge Nvidia var op til 3 gange hurtigere end GeForce4 Ti 4600, jf. disse resultater:


Kilde: http://www.hardwaretidende.dk/hard/artikel/02/11/18/8027270

Men generelt var GeForce4 Ti 4600/4800 ikke meget langsommere end GeForceFX 5800 Ultra i mange spil (her i særligt krævende spil som Aquanox):


http://www.tomshardware.com/graphic/20030127/index.html

Så det er næppe sandsynligt, at NV40 generelt vil være f.eks. 7 gange hurtigere i Half-Life 2 ifht. GeForceFX 5950 Ultra; dette vil sandsynligvis kun gælde under særligt specifikke forhold.

Som NV30 beviste, så er ydelse stort set intet værd, såfremt kølesystemet forhindrer ens naboer i at sove om natten. Ifølge The Inquirer er Nvidia helt klar over dette:

"This time Nvidia wants to make cards more silent than NV30 and we're not being too ingenious when we guess this is what phrase Silent Running is all about. Even Nvidia now knows that people like quiet graphic cards."
Kilde: http://www.theinquirer.net/?article=14058

Så lad os håbe, at Nvidia denne gang kan leve op til diverse forventninger og give ATi R420 måske mere end kamp til stregen... Vi vender tilbage til NV40, når mere interessant information er tilgængelig.



Hmm skrev mandag den 09 februar 2004 kl. 20:58: [ svar | nyeste ]
Hvorfor er det samme billede af testen R9700PRO overfor Ti4600 sat ind 2 gange?


Rune skrev mandag den 09 februar 2004 kl. 20:59: [ svar | nyeste ]
Prøv at opdatere din browser; fejlen blev rettet ca. 30 sekunder efter publicering af artiklen.


Hmm skrev mandag den 09 februar 2004 kl. 20:58: [ svar | nyeste ]
Se nu det var bedre :o)


kQleskabsindianer skrev mandag den 09 februar 2004 kl. 21:01: [ svar | nyeste ]
gogo nvidia..

Shader performance til folket!!



R fe skrev mandag den 09 februar 2004 kl. 21:07: [ svar | nyeste ]
4 gange hurtigere i doom3 og 7 i halflife 2 tjaaaaeee. jeg vil gerne! vil rigtig gerne tro på det...men det lugter stadig lidt for meget af den første geforce fx


CeriaL skrev mandag den 09 februar 2004 kl. 21:09: [ svar | nyeste ]
5000kr er sq da sygt....Men skal sq af med mit Geforce 3, så det her bliver nok min næste opgradering!


Rune skrev mandag den 09 februar 2004 kl. 21:11: [ svar | nyeste ]
Tja, jeg gav kr. 4.650,00 for mit Asus Geforce3 Deluxe i foråret 2001 - og NV40 er jo langt hurtigere :-)


Utrak skrev tirsdag den 10 februar 2004 kl. 01:47: [ svar | nyeste ]
Ahh ja, jeg købte også geforce 3 på nogenlunde samme tid, det var dog et noget billigere Leadtek Geforce3 - kun 4000kr!! Det var et røverkøb. :)


R fe skrev mandag den 09 februar 2004 kl. 21:19: [ svar | nyeste ]
helt enig CeriaL :) jeg vil aldrig give 5000kr for et graffikkort. jeg vil ikke engang give 3000kr for den sags skyld og 2000 er lige i overkanten, men det er bare mig. :) de er altså gået for kangt over stregen. giver man dem lillefingeren tager de hele armen. *suk* om et par år stiger highend kort priserne dikkert til en 6-7 tusinde *dobbelt suk*


Kristian Leth Espensen skrev mandag den 09 februar 2004 kl. 21:29: [ svar | nyeste ]
Efter 'skandalen' med GeforceFX 5800 hvor mange (inklusive undertegnede) havde skyhøje forventninger om ekstrem hurtig ydelse og revolutionerende støjsvagt kølesystem, slår jeg denne gang koldt vand i blodet, og venter til vi ser benchmarks af færdige produkter. Jeg håber selvfølgelig på det bedste, det er på tide med en lille revolution indenfor grafikkortsmarkedet (i stedet for de små evolutionære skridt de sidste par år). Jeg har dog svært ved at forestille mig en støjsvag køleløsning når antallet af transistorer stiger og frekvensen sættes op, og det endda ved samme fabrikationsteknologi (0,13 micron)... Det med 7 gange hurtigere i HL2 skal også ses i lyset af FX5950 Ultra dårlige ydelse i HL2 (hvor er Radeon 9800XT er ca. dobbelt så hurtigt). Og hvis der er tale om 2048x1536-opløsning med FSAA og AA er det jo de færreste der kan være med(og hvis det er 4 fps på 5950 Ultra og 28 fps på NV40 så er det stadig ikke hurtigt nok). Vi må håbe det bedste og frygte det værste...


Rune skrev mandag den 09 februar 2004 kl. 21:41: [ svar | nyeste ]
"Af alle Glæder er Forventningens Glæde den største", citat fra Kierkegaard :-)


Kian Jakobsen skrev tirsdag den 10 februar 2004 kl. 09:37: [ svar | nyeste ]
"af alle sorger er skuffelsen den værste", Citat: Kian Jakobsen :-)


Nicorn skrev mandag den 09 februar 2004 kl. 21:31: [ svar | nyeste ]
Se flere rygter om nv40 her http://www.theinquirer.net/?article=14058


Rune skrev mandag den 09 februar 2004 kl. 21:33: [ svar | nyeste ]
Bemærk at vi allerede henviser til denne Inquirer-artikel 3 gange i ovenstående artikel her på sitet (se kildehenvisninger skrevet med småt).


0x503e8c69.hrnxx3.adsl-dhcp.tele.dk skrev mandag den 09 februar 2004 kl. 21:40: [ svar | nyeste ]
http://www.theinquirer.net/?article=13870

Følgende skræmmer mig lidt:

...Nvidia, on the other hand is a using bridge chip to make its AGP chips work with PCI Express and you can imagine that this is inherently slower than a native PCI express chip, since it has to continually translate AGP commands to PCI Express.

Unsurprisingly then, Nvidia' PCI Express is clock-to-clock slower than ATi's. Yet ATi's offering is 50MHz slower than the current Radeon 9600XT and this is borne out in the results. A clock-to-clock comparison would end up really tight, we guess.

Both companies are evidently ensconced aboard the PCI Express, but let's hope that not all Nvidia's PCI Express solutions will end up with this bridge.



Rune skrev mandag den 09 februar 2004 kl. 21:46: [ svar | nyeste ]
De første NV40-grafikkort forventes dog i AGP8x-format - det helt store spørgsmål er vel, hvorvidt der reelt vil være forskel på AGP8x og PCI-Express; forskellen på AGP2x og AGP8x er nærmest ikke-eksisterende, så jeg afventer spændt de første repræsentative resultater mht. PCI-Express.


Asger skrev tirsdag den 10 februar 2004 kl. 11:48: [ svar | nyeste ]
Selvom forskellen i % mellem AGP 2 og 8 er stor, er selv en hastighed på 2,1 GB/S jo meget lille ift. moderne grafikkorts interne hastighed. PCI Xpress kan indtil videre klare 16 GB/S hvilket jo er i en helt anden boldgade. Når vi samtidig får HT 2.0 bundkort begynder det osse bedre at kunne levere - op til 22.4 GB/S. Men jeg studser lidt over nVIdias tilgang til PCI Xpress: "...Nvidia, on the other hand is a using bridge chip to make its [nvidias] AGP chips work with PCI Express [standarden]..." Det lyder for mig som om at NV40 er en AGPX8 chip som bridges til PCI Xpress. Det er da usmart ift AGPs begrænsinger. Er NV40 derimod en PCI Xpress chip der bridges til AGP, dropper man jo bare den bridge når PCI xpress er klar, og vupti - det fulde potentiale udnyttes. Forhåbentlig er det blot The Inquirer der har vendt lidt op og ned på begreberne.


50c59a62.flatrate.dk skrev mandag den 09 februar 2004 kl. 21:56: [ svar | nyeste ]
Det er vel også ati der ikke har lavet så meget det sidste år. Efter radeon9700pro, Har Nvidia gjort afstanden mindre, til ati.


IP skrev mandag den 09 februar 2004 kl. 22:01: [ svar | nyeste ]
Argh! 5000 kr. !!! Havde regnet med at chipsættet ville kunne fås i den dyreste udgave omkring de 4000, og at de så bare ville sende nogle "mindre vellykkede" chips, med lidt lavere frekvenser ud til "middel-klasse" prisen omkring de 2k ... *Stort skuffelses suk*. Jeg får aldrig råd til det nyeste :)


Niels skrev mandag den 09 februar 2004 kl. 22:55: [ svar | nyeste ]
RE: "4 gange hurtigere i Doom3 og 7 gange hurtigere i Half-Life 2".

Ja ja. Den tror jeg nu ikke helt på. måske 4-7 gange hurtigere end GF-F5700Ultra, men jeg tror ikke det er så mange gange hurtigere end FX5950Ultra. Hvor tit hører man ikke at det er 1000x gange hurtigere end forgængeren og så sidder man derefter med 20FPS mere end det gamle GFX og det med en pris på 5000kr. Komplet latterligt. Den hype tror jeg ikke på.



0x503e8c69.hrnxx3.adsl-dhcp.tele.dk skrev mandag den 09 februar 2004 kl. 22:57: [ svar | nyeste ]
læs nu hvad han skriver fjols..

"..mens personer, der anvender 1600x1200 eller 2048x1536 med 4xFSAA og 8-16xANI muligvis befinder sig i ganske anden båd."



Tobias skrev mandag den 09 februar 2004 kl. 23:15: [ svar | nyeste ]
Synes det øverste billede er lidt sjofelt.. sikkert bare mig. Men ellers en nice artikel, der sætter tingene lidt i perspektiv.


spilnørden skrev mandag den 09 februar 2004 kl. 23:16: [ svar | nyeste ]
Det lyder fandme for godt til at være sandt... hvor mange frames tror i at splinter cell kan komme op på med 1600x1200 med 4xFSAA og 16xANI aktiveret


Alejandro skrev mandag den 09 februar 2004 kl. 23:30: [ svar | nyeste ]
Det er the Eye fra LOTR 2.


Rune skrev mandag den 09 februar 2004 kl. 23:37: [ svar | nyeste ]
Samt et officielt Nvidia-logo, ej at forglemme (eftersom både Hr. Sauron og Nvidia kendetegnes via et øje, så kunne vi lige så godt opnå en letkøbt synergi-effekt og fantastisk blikfang; Nvidia er endvidere også kendt som den store og barske "Graphzilla", der ikke er kendt for at vise konkurrenter nåde):



:-)


PeterA skrev tirsdag den 10 februar 2004 kl. 00:37: [ svar | nyeste ]
Undskyld, men det er altså et meget kikset logo: en Vagina i helvede, eller: "gul og i kanten rød - ud af den, materien flød", Poetisk ik ?


lidt overtræt skrev tirsdag den 10 februar 2004 kl. 12:16: [ svar | nyeste ]
PeterA: Glæder mig lidt at jeg ikke var alene om den betragtning af logoet... ;)


GWiZ skrev tirsdag den 10 februar 2004 kl. 00:42: [ svar | nyeste ]
"You know of what I speak 1337-user... a great eye.. wreathed in particle effects. It's gaze pierces polygons, texels, displacement mapping and fragment shading..." hahaha :-D



MAV skrev tirsdag den 10 februar 2004 kl. 10:24: [ svar | nyeste ]
Hmmm... de overdriver vist lidt (meget)!


Mick skrev tirsdag den 10 februar 2004 kl. 10:45: [ svar | nyeste ]
36% højere båndbredde? Hmmmm.... jeg tror ikke der kan hives meget mere effektiv båndbredde vha. nyere algoritmer for Z-compression.

Så 4xAA i 2048x1536 er stadig lidt ude i fremtiden - LOL!

Det som er mere interessant (ikke mindst hvis arkitekturen er ny) er hvor godt velafbalanceret den er. Mit gamle Geforce3 var - og mit nuv. 9700 PRO er - godt skruet sammen på det punkt.

Jeg har flere gange følt mig fristet til at udskifte mit nu snart 1½ år gamle R300 kort. Men det kører så stabilt, lydløst og tilpas hurtigt til der skal mindst 50% bedre -gennemsnitlig- ydelse til i 1600x1200 m. 4xAA inden jeg finder det værd at skifte.

Men den tid kommer jo nok (snart)... ;o) - håbe håbe !!!



rasmuslp skrev tirsdag den 10 februar 2004 kl. 10:54: [ svar | nyeste ]
Bare de så ikke også flopper denne gang. De må altså se at lære at lave nogle ordentlige gfxkort...


Thuun skrev tirsdag den 10 februar 2004 kl. 12:25: [ svar | nyeste ]
kan ikke passe.. tror simpelthen ikke på at de kan lave et kort der er så meget hurtigere, men de kan jo os sagtens sige at deres kort bliver 7* hurtigere i HL 2, for deres gamle kort ydede jo ikke just optimalt i de test man har set hidtil i HL 2. men alligevel Ati ved man sgu hvad er.. at købe et Nvidia kort er måske lige at satse lidt. deres kort var jo fine, men så kom Hl 2 benchen, så gik det lidt nedad.. også sådan kan de garanteret forsætte... hvaså når doom3, unreal 2004 og tribes. tager vi så lige et skridt ned ad trappen igen Nvidia ??


Nick skrev tirsdag den 10 februar 2004 kl. 16:42: [ svar | nyeste ]
Når de kort udkommer,så er de nye konsoller sikkert meget tæt på,og kan sikkert fås komplet til under den pris 1 stk high end grafikkort koster...

Man skal vist gå meget op i grafikken for at ville punge ud med så mange penge for en så lille del af et komplet pc system.

Pc spil udviklerne skulle hellere tage at optimere deres kode,så folk kunne få meget bedre og flottere spil på lidt ældre grafikkort ;)



123 skrev tirsdag den 10 februar 2004 kl. 17:05: [ svar | nyeste ]
Burde der ikke stå GPU og ikke VPU?? VPU er et Ati fænomen, imens GPU er et påhit fra Nvidia.


Rune skrev tirsdag den 10 februar 2004 kl. 17:58: [ svar | nyeste ]
GPU er den oprindelige betegnelse for "Graphics Processing Unit", som Nvidia i 1999 med GeForce mere eller mindre omdøbte til "Geometry Processing Unit". VPU (Visual Processing Unit) opstod senere for at lægge mere vægt på avancerede renderingsegenskaber hos moderne grafikkort, og VPU bruges nu synonymt med "Geomety Processing Unit") - her er f.eks. citat fra Toms Hardware:

"The QuadroFX is based on the same design as the GeForceFX (NV30). We already covered this AGP-8X-capable chip in detail in a previous article, NVIDIA GeForceFX: Brute Force Attack Against the King. The 3D processor, also called a visual processing unit (VPU), has 125 million transistors, making it twice as big as a Pentium 4 CPU."
Kilde: http://www.tomshardware.com/graphic/20030305/

Såvidt jeg husker, var hverken ATi eller Nvidia skyld i den nye VPU-forkortelse, men derimod 3DLabs - her citat fra forår 2002 (dvs. før Radeon 9700 Pro udkom):

"For 3DLabs, the term GPU has too negative of a connotation to use for their next-generation part. Current GPUs aren't flexible enough and thus when 3DLabs wanted to put a name to the face of their technology they came up with the term - Visual Processing Unit (VPU). The abbreviation is similar enough to CPU to properly convey its message while it's also different enough from GPU to signify a radically different approach to solving the problem." (min fremhævning, red.)
Kilde: http://www.anandtech.com/video/showdoc.html?i=1614&p=2

Her tilsvarende udsagn fra Toms Hardware:

"3Dlabs' attention is focused on the full programmability of pixel and vertex shaders - thus the name Visual Processing Unit (VPU). Even textures do not necessarily have to be loaded, and instead, they can be programmed. 3Dlabs keeps the memory management completely virtual."
Kilde: http://www17.tomshardware.com/graphic/20020624/wildcat_vp-01.html

Så betegnelsen "VPU" ser ud til at være opfundet af 3DLabs og dækker over grafikkort, der anvender særligt avancerede pixel og vertex shadere - hvilket gælder for diverse grafikkort især siden Radeon 9700 Pro (dvs. DX9-kompatible grafikkort); personligt oplever jeg også VPU-betegnelsen som bedre end den tidligere forvirring over "Graphics Processing Unit"/"Geometry Processing Unit", hvorfor jeg normalt anvender VPU-betegnelsen mht. diverse avancerede grafikkort.



Rune skrev tirsdag den 10 februar 2004 kl. 17:44: [ svar | nyeste ]
Ifølge The Inquirer er det muligt, at PCI Express (X16) først introduceres med NV45 i 2. kvartal 2004:

http://www.theinquirer.net/?article=14063


seattle skrev tirsdag den 10 februar 2004 kl. 18:34: [ svar | nyeste ]
Lige en indlæg angående PCI Express. Er standarden helt fastlagt(og testet) ?!, Hvis ikke så er det nok derfor Nvidia ikke har bussen med på chippen. Og at de skal bruge en bro til PCIe betyder jo ikke nødvendigvis at der benyttes AGP som interface til denne, det kan nemt være en hurtigerer (mere rå) bus. Og så er der nok også en tidsfaktor inde i billedet, AGP virker og alle har den og vi ved jo alle a kernen af chippen med tiden vil sidde i billigerer grafikkort hvor AGP nok vil holde nogle år. Og i mellem tiden har Nvidia så ro til at lave en PCIe chip, og når den virker er der ikke ret langt til a putte begge dele på en chip,(men så kan den nok ikke klare AGP direkte, hvilket nok er helt Ok på et highend kort om et år eller to)

Jens



jesper w skrev tirsdag den 10 februar 2004 kl. 22:02: [ svar | nyeste ]
helt hvad præcist er det som skulle blive så godt med pci expresss(x16). ud over mere båndbrede ??


Rune skrev tirsdag den 10 februar 2004 kl. 22:12: [ svar | nyeste ]
Du kan læse mere om PCI Express via nedenstående henvisninger - indtil jeg ser testresultater, så vil jeg dog opfatte PCI Express som lige så vigtigt, som AGP8X var ifht. AGP4x (dog er PCI Express ikke kompatibel med AGP-bussen, hvorfor PCI Express kan være lidt af et irritationsmoment mht. kompatibilitet mellem bundkort/grafikkort - til brugere af integrerede grafikkort burde PCI Express dog kunne blive lidt af en revolution):

http://www.pcstats.com/articleview.cfm?articleID=1087

http://www.anandtech.com/systems/showdoc.html?i=1830

http://www.intel.com/technology/pciexpress/devnet/comms.htm

http://www.nvidia.com/object/pci_express.html

http://www.pcisig.com/home


Asger skrev tirsdag den 10 februar 2004 kl. 22:25: [ svar | nyeste ]
Hvor skulle integrerede kort have mere glæde af PCI Expres end dedikerede kort?


Rune skrev tirsdag den 10 februar 2004 kl. 22:51: [ svar | nyeste ]
Det er naturligvis kun et gæt, men såfremt integrerede grafikkort anvender den fulde båndbredde via delt ram og PCI Express, så burde disse systemer kunne fungere hurtigere via PCI Express (4 - 8 GB/s) end via AGP (nForce2 IGP fungerer iøvrigt kun med AGP4x, som tilbyder ca. 1GB/s). - Især hvis det integrerede grafikkort grundet delt systemram ofte må indhente nye teksturer. High-end grafikkort med stort internt ramlager vil næppe få meget ud af PCI Express (fordi 4 (max. per retning) - 8 (spidsbelastning for to retninger) GB/s mht. PCI Express X16 er alt for ringe båndbredde, såfremt et kommende high-end grafikkort med 30+ GB/s intern båndbredde løber tør for ram og nye teksturer skal hentes ind), men jeg tager naturligvis gerne fejl. Her er i øvrigt en illustration af PCI Express X16 (4GB/s i to retninger - dvs. op til 8GB/s):


Kilde: http://www.theinquirer.net/default.aspx?article=8000


Rune skrev torsdag den 12 februar 2004 kl. 11:13: [ svar | nyeste ]
Enkelte kommende bundkort vil dog tilbyde både AGP8x og PCI Express, men der er næppe tvivl om, at personer, der køber AGP8x NV40 om kort tid, og beholder dette grafikkort i 1-2 år, kan få svært ved at sælge det igen i 2005-2006, hvor der næppe er flere bundkort, som understøtter AGP8x:

http://www.xbitlabs.com/news/chipsets/display/20040201182440.html


Another_Bluff skrev onsdag den 11 februar 2004 kl. 12:52: [ svar | nyeste ]
Tjaa... jeg skal se det før jeg hopper på endnu et nVidia bluff.

Har vi ikke alle hørt praleriet fra nVidias cheat- & PR-afdeling før?!



123 skrev onsdag den 11 februar 2004 kl. 14:12: [ svar | nyeste ]
VPU er ikke at finde et eneste sted på Nvidia's hjemmeside, hvorimod GPU kan findes over det hele. Det må vel være Nvidia, og ikke 3Dlabs og TomsHardware der bestemmer hvad Nvidia kalder deres gfx processorer.


Rune skrev onsdag den 11 februar 2004 kl. 14:23: [ svar | nyeste ]
Naturligvis, her på sitet vil du dog opleve betegnelsen "VPU" for diverse avancerede grafikchips for at undgå alt for mange forskellige begreber, der reelt dækker over tilsvarende komponenter; såfremt enkelte læsere skulle være helt forvirrede mht., hvad denne "VPU"-betegnelse dækker over, er de selvfølgelig meget velkomne til at spørge (dvs. aktuelt, hvor der fokuseres i høj grad på diverse programmérbare pixel og vertex shadere, virker "Visual Processing Unit" som mest dækkende begreb).


Holger Danske skrev onsdag den 11 februar 2004 kl. 18:44: [ svar | nyeste ]
Hvornår kommer ATI's nye chip så? Og, hvad "info" har vi om den?


Rune skrev onsdag den 11 februar 2004 kl. 22:58: [ svar | nyeste ]
Læs mere her:

http://www.hardwaretidende.dk/hard/artikel/03/05/29/5634436


Mandak skrev onsdag den 11 februar 2004 kl. 19:07: [ svar | nyeste ]
U-ha u-ha, Det her er spænende. Vi nærmer os 3. "verdens krig", AMD mod Intel, nVidia mod ATI, ADSL priskrig, TDC mod 3 (mobil krig, IP teknologien mod telefonen) Det ligner krig på alle fronter, Det eneste vi mangler er et folketings valg :-)

Man...



Mandakm skrev onsdag den 11 februar 2004 kl. 19:13: [ svar | nyeste ]
Eller en pris krig på ØL :o)

Man...



0x50c4efdb.odnxx3.adsl-dhcp.tele.dk skrev fredag den 13 februar 2004 kl. 00:30: [ svar | nyeste ]
du glemte lige ms og logitech :)


0x3ef3323f.abnxx1.adsl.tele.dk skrev onsdag den 11 februar 2004 kl. 19:54: [ svar | nyeste ]
Jeg håber da, at nvidia får fremgang igen.. det trænge de efterhånden til - hvis ikke for andet, så i det mindste for pris- og kvalitetskrigens skyld. En sucess vil jo tvinge ATi til at overgå nvidia endnu engang, og forhåbentligt også slå dem på prisen.


Thomas skrev onsdag den 11 februar 2004 kl. 20:31: [ svar | nyeste ]
Jeg vil mene at det eneste vi som bruger må håbe på er at produkterne bliver lige gode, dette vil tvinge begge producenter (ATI og Nvidia) til at presse priserne ned til et acceptabelt niveau, for at gøre deres produkt mere spændene frem for konkurenten

En anden ting vi også må håbe på er at begge producenter leverer et fremragende produkt som begge yder godt, dette vil sætte lidt mere gang i udviklingen, da de jo praktisk talt har snydt os for "nye" kort her i det sidste år, de fleste nye kort er bare kort som har fået mere mhz på core og ram, og hvor volten er hævet, og ram timmings på rammene er blevet mere sløset, for at kunne gøre en højere clock mulig, så mine forventninger er at de ikke overgår hinanden igen som da ATI løb fra Nvidia



Peter skrev onsdag den 11 februar 2004 kl. 21:02: [ svar | nyeste ]
Jeg tænkte lidt på om NV40 har samme Direct x 9.0 "mangler" som NV38 havde ? eller er det nye med Directx 9.0 standarden ?


Rune skrev torsdag den 12 februar 2004 kl. 11:01: [ svar | nyeste ]
Formodentlig ikke, såfremt Nvidia har lært lidt af NV30-problemerne. Men det vides naturligvis ikke, før rigtige NV40-grafikkort er dukket op og er blevet testet, hvilket nok næppe sker før ca. den 18/3. Jeg ser meget frem til de første resultater med NV40 i Tomb Raider AOD, som burde sige en del; det ville jo være særdeles uheldigt for Nvidia, hvis 9800XT stadig vinder...


Kim skrev torsdag den 12 februar 2004 kl. 09:44: [ svar | nyeste ]
Det kommer til at koste en million...*GG*


El Fredo skrev torsdag den 12 februar 2004 kl. 14:12: [ svar | nyeste ]
Jeg synes da altid, at de spritnye kort fra en ny generation koster omkring de 5k fra starten. Det er der vel heller ikke noget galt i. Jeg selv hører ikke til typen, der betaler så mange penge, men de nye kort tvinger jo også de "ældre" kort ned i pris. Jeg selv har for 1½ måned siden "investeret" i et GeForceFX 5900XT kort, efter at have læst en artikel her på HWT. Kortet kostede kun 1650kr, og ydelsesmæssigt er det (i en anden artikel her på HWT) testet til 83% i snit, hvor GeForceFX 5950 Ultra lå på 97%. Det er ikke så stor en forskel i ydelse, men en STOR forskel i pris. Jeg kan da også huske, at Ti-4600 kortet kostede over 3k til at starte med. Sikkert også mere...


Peter H.Hansen skrev torsdag den 12 februar 2004 kl. 14:44: [ svar | nyeste ]
Den store "hype" der er rundt omkring pci-ekspresbussen skal tages med et gran salt, for det er som Rune skriver ovenover at den største ydelsesfremgang der vil være er for de integrerede produkter i/på bundkortene. Det næste som kan ses som en forbedring er den latency der findes i den nuværende pci-arkitektur, der vil den nye pci-ekspress være forbedret så der er mindre "forsinkelse" nu når hastighederne er steget så meget på de forskellige områder. Dette sammen med den øgede båndbredde vil gøre at der kan flyttes mere data fra de forskellige komponenter på bundkortene og give (forhåbentligt) en mærkbar bedre ydelse. Sagt med andre ord, at man f.eks. kan have adgang til flere harddiske(flytte filer f.eks.) på en gang samtidig med man sidder og spiller, videokomprimerer eller hvad man nu laver. Det som vores nuværende pci-bus med sine 133mb/s maksimalt kan flytte skal jo fordeles ud på mange enheder som lydkort, harddiske, netkort osv. Med pci-ekspres er ideen at der ikke skal opstå ventetid enhederne på bundkortet imellem som de gør idag.

Hvis man vil se lidt mere på hvordan tekniken fungerer bagved de nye kommende teknologier, så kast et blik over på www.aceshardware.com , men skal lige advare om at nået af det godt kan være skrevet rimeligt tekniskt.

Nvidia frigiver snart deres forceware2.0 drivere, eller også kommer de til at hedde detonator 55.xx series, der er en artikel om det ovre på www.tweakup.dk hvor der er mere ydelse at hente.



exE- skrev fredag den 13 februar 2004 kl. 15:52: [ svar | nyeste ]
jaeh - det lyder sq som noget nice shit - tror nu ikk på det bliver så meget hurtigere (4 gange) end 5950 ultra - lyder som lidt overdrevet men tror sq det bliver nice !! - så bliver det igen Nvdia - men ATI lader sig sikkert ikke vente så langtid med at spytte en ny ud :P


Rune skrev lørdag den 14 februar 2004 kl. 13:49: [ svar | nyeste ]
Det ser nu ud til, at både Nvidia og ATi har mulighed for at opnå over 50 GB/s rambåndbredde - om Nvidia og ATi så vælger at udnytte dette, er muligvis en ganske anden diskussion:

"Samsung Electronics announced mass production of the industry’s highest speed monolithic memory device, a Graphics Double Data Rate 3 (GDDR3) capable of achieving clock speeds of up to 800MHz... The GDDR3 256Mb graphics memory devices manufactured by Samsung are clocked at 500MHz, 600MHz, 700MHz and 800MHz speeds effectively providing 1000Mb/s, 1200Mb/s, 1400Mb/s and 1600Mb/s per pin bandwidth. Such memory will enable high speed 256MB and 512MB graphics cards as well as power efficient 128MB notebook solutions... In mid-September we reported that Samsung supplied a batch of its high-speed 1.60GHz memory chips to NVIDIA Corporation for NV40 testing purposes. Peak theoretical bandwidth of 1600MHz memory on 256-bit bus is mind-blowing 51.2GB/s, therefore, in case NVIDIA’s next-generation high-end GPUs work with such memory, there will be a major performance improvement over current generation of high-performance graphics cards."

Læs mere her:

http://www.xbitlabs.com/news/memory/display/20040213210313.html

Men siden Samsung har igangsat masseproduktion af 800MHz GDDR3 (51,2 GB/s båndbredde), så kan man jo undre sig over, hvem der aftager disse ramblokke - Samsung igangsætter næppe omkostningsfuld masseproduktion blot for egen underholdnings skyld...



Rune skrev søndag den 15 februar 2004 kl. 21:21: [ svar | nyeste ]
Nvidia vil muligvis tilbyde NV40 og Doom3 som samlet pakkeløsning, jf. ny information hos The Inquirer; uddrag:

"WE NOW HAVE very strong reasons to believe that Nvidia is going to make the pact with the devil and going to ship a Doom 3 voucher with its latest cards... If Nvidia should announce Doom 3 voucher then it will be in a serious case of Voucher Wars with ATIlla. Well it seems that NV40 + Doom 3 will be up against R420 + Half Life 2 voucher. Nasty fight."

Læs mere her:

http://www.theinquirer.net/?article=14152



kQleskabsindianer skrev søndag den 15 februar 2004 kl. 21:23: [ svar | nyeste ]
MEN OK NVIDIA!! :) :) :)

Så blev der lige bestemt næste gfx thx, ,,!, on hl2



Rune skrev mandag den 16 februar 2004 kl. 15:01: [ svar | nyeste ]
Samsung har allerede gang i en reklamekampagne - her taget fra forsiden på Anandtech:



kQleskabsindianer skrev fredag den 20 februar 2004 kl. 13:08: [ svar | nyeste ]
Flere nye grafikkort fra nvidia :D

"Nvidia has unveiled the industry’s first top-to-bottom family of PCI Express graphics processing units (GPUs), all designed to take full advantage of the additional bandwidth and features that this new I/O interconnection standard delivers. By using an innovative PCI Express (PCX) high-speed interconnect (HSI), a complex piece of networking technology that performs seamless, bi-directional interconnect protocol conversion at incredible speed lines, Nvidia can transform its current GeForce FX series into a full-family of PCI Express GPUs.

The new family includes:

Nvidia GeForce PCX 5950 – based on the DX9 GeForce architecture, this new GPU will be the jewel in the crown of the PCX line. NVIDIA GeForce PCX 5750 – designed for high-performance gaming this will be the 5950s second-in-command. NVIDIA GeForce PCX 5300 – will serve as the budget DX9 board

NVIDIA GeForce PCX 4300 – provides entry-level pricing coupled with strong performance and DVD playback"""



Ra skrev lørdag den 21 februar 2004 kl. 12:11: [ svar | nyeste ]
Citat: "NVIDIA GeForce PCX 4300 – provides entry-level pricing coupled with strong performance and DVD playback"""

Forhåbentlig betyder det at de har peppet den noget op siden MX4000, der yder som et Geforce2MX-400!



Rune skrev torsdag den 26 februar 2004 kl. 16:37: [ svar | nyeste ]
Ifølge ny (og teoretisk set ganske pålidelig) information, så vil NV40 have lidt over 200 millioner transistorer og gigantiske 16 pipelines - dobbelt så mange som R420:

"US sources close to Nvidia have confirmed that their next generation GPU will feature a full sixteen pipelines – not as previously speculated an 8x2 arrangement - and this is reflected in the increased transistor count of circa 205-210 million, up from a previously speculated 175 million"

Kilde: http://www.theinquirer.net/?article=14373

Såfremt dette passer, og NV40 reelt bliver meget hurtigere end R420, så må vi sandelig håbe, at Nvidia husker at anvende meget støjsvag køling...



kQleskabsindianer skrev torsdag den 26 februar 2004 kl. 16:43: [ svar | nyeste ]
omg..

Så blev nvidia træt af at få slag af ati i benchmarks??? Hvis the inquirer har ret,,,, er der vidst ingen tvivl om at nvidia genindtager 1pladsen ?



Rune skrev onsdag den 03 marts 2004 kl. 12:21: [ svar | nyeste ]
Lidt ny info om NV4x:

"The Morgan Stanley Semiconductor and Systems Conference was held earlier today, and among the speakers was NVDIA’s CEO, Jen-Hsun Huang there to discuss NVIDIA’s business and its prospects. Very early on in the conference Jen-Hsun was asked if he’d like to talk about the NV4x generation of parts to which, in a possible reference to the performance of the NV3x generation, his quick response was "Nothing would give me more pleasure to talk about NV4x", and so he did. Jen-Hsun noted that that NV4x series was a new architectural generation that has been designed to offer specific goals: give more programmability, more performance, take advantage of the PCI-Express platform, have higher yields and to be very scalable. When looking at the performance element of NV4x, Jen-Hsun expects the performance increment from the previous generation to be dramatically higher than any previous architectural transition they have previously been through. Indeed, presumably speaking about NV40 specifically, NVIDIA’s CEO states that "if we’re not a lot more than 2 times faster I’m going to be very disappointed". Upon discussing where such performance increases could come from he made note that due to the programmable nature of the graphics pipeline and that now applications are making use of this, more and more elements can be brought over from the CPU world to enhance the instruction execution performance, and its expected that NV4x will adopt a lot of these techniques." (min fremhævning, red.)

Læs det hele her:

http://beyond3d.com/#news10574



GWiZ skrev torsdag den 04 marts 2004 kl. 07:09: [ svar | nyeste ]
Interessant. Nu tror jeg dog vi absolut skal tage det med et gran salt, da det ligeså godt kan være hype-maskinen der er ved at komme op i omdrejninger... (mindes stadig CineFX-hype)

Men umiddelbart ser det da ud til (udfra div. rygter) at nVidia kommer ud med noget rigtig godt denne gang. Time will tell.



Rune skrev torsdag den 04 marts 2004 kl. 11:22: [ svar | nyeste ]
Ifølge ny info fra XBitLabs, så bliver NV40 og R420 forsinkede, dvs. bliver ikke annonceret til Cebit:

"Sources close to ATI Technologies and NVIDIA Corporation indicate inability of both companies to ship new graphics chips in volumes to partners right after the show in Hannover, Germany, later this month. Since the two companies aim to deliver the technology to the market shortly after announcement so not to affect sales of current generation high-end products with so-called paper launches, both are unlikely to start hyping their new graphics processors at CeBIT... ATI’s new graphics technology may apparently see the light of the day in the very late-March to the very late-April timeframe. NVIDIA is a bit behind with its novelty and is likely to roll it out in mid-April – late-May timeframe, unofficial sources indicated."

Kilde: http://www.xbitlabs.com/news/video/display/20040303053212.html



Q skrev torsdag den 04 marts 2004 kl. 13:05: [ svar | nyeste ]
Rune nu ved jeg godt at du ikke kan spå.....prøv alligevel:) men hvor meget vil du tro, at et NV40 til PCI-ekspress giver i ekstra ydelse i forhold til AGP? for hvis det ikke kan det betale sig så gider jeg ikke vente på VIA K8T890...


GWiZ skrev torsdag den 04 marts 2004 kl. 14:48: [ svar | nyeste ]
Foreløbigt har 8xAGP ikke givet noget som helst i forhold til 1xAGP (på highend kort), så at man øger hastigheden på bussen(~skifter til pci-express) vil jeg tro ikke giver noget.

De eneste kort hvor man vil kunne mærke forskel er de grafikkort der er inegrerede i bundkortet.

Men, jeg er jo ikke expert så jeg kan tage fejl... jeg siger jo bare hvad jeg ser. ;-)



Rune skrev torsdag den 04 marts 2004 kl. 15:35: [ svar | nyeste ]
Dette vil jeg indtil videre også satse sparepengene på. Den primære grund til at afvente bundkort med PCI Express vil efter min opfattelse være, hvis man ønsker at beholde en måske meget dyr cpu/ram/bundkort-løsning mm. i et par år (dvs. måske til engang i 2006), hvorfor det kan være fornuftigt at have et bundkort, som tillader, at man kan anvende de PCI Express grafikkort, som formodentlig vil dominerede markedet fra og med 2005 (nuvel, en lidt snørklet sætning, håber at budskabet ikke blev helt begravet :-).


Rune skrev fredag den 05 marts 2004 kl. 00:46: [ svar | nyeste ]
Meget tyder efterhånden på, at Doom3 vil følge med NV40, læs mere her:

http://www.digitimes.com/NewsShow/Article1.asp?datePublish=2004/03/04&pages=A8&seq=48


Rune skrev fredag den 05 marts 2004 kl. 13:59: [ svar | nyeste ]
Mere om NV40:

"As is now traditional, Nvidia will have one extremely expensive card that will cost about €/$499. This card is expected to be faster clocked and it will have faster memory as well. The memory target sits close to the 600MHz range but it's still being tested for the right speed. As previously suggested, the card will use GDDR 3 memory which consumes less power and runs cooler then DDR 2... Production of NV40/NV40 Ultra is scheduled for April."

Kilde: http://www.theinquirer.net/?article=14533

Og:

"The PVR part is the most interesting as Nvidia claims that the NV4X generation will have support for no more and no less then MPEG 1/2/4 encode and decode as well as WMV9 decode acceleration. This means that all decoding and encoding operation previously done by software and very CPU dependant will be able to be processed on NV4X chips."

Kilde: http://www.theinquirer.net/?article=14524



Johnjohnh skrev lørdag den 06 marts 2004 kl. 20:27: [ svar | nyeste ]
Når de skriver at kortet vil have suport for encode og decode, er det så det samme som at man kan bruge det til at lave . avi til mpg2 dvd til avi eller ? og hvor meget hurtigere vil det så blive i forhold til software og cpu


Rune skrev lørdag den 06 marts 2004 kl. 23:56: [ svar | nyeste ]
Før Nvidia officielt udgiver NV40 er alt blot løse rygter, dvs. diverse spørgsmål må nok afvente fyldestgørende besvarelse, indtil Nvidia introducerer dette grafikkort.


Johnjohn skrev søndag den 07 marts 2004 kl. 08:13: [ svar | nyeste ]
jeg tænkte nok jeg var lidt for hurtig, men hvis det kommer til at sparke røv i video redigering, så kan det blive afgørene mht. valg af næste grafikkort, venter spændt :o


Rune skrev tirsdag den 16 marts 2004 kl. 13:19: [ svar | nyeste ]
The Inquirer bekræfter atter, at NV40 vil have 16 pipelines, men også, at der er tale om ny version af NV40 (den gamle blev skrottet), hvorfor vi næppe skal forvente NV40 før sommer/efterår 2004:

"Nvidia is telling "selected people" that NV40 is indeed 210 millions of transistor chip with 16 pipelines as we reported a few weeks ago. The other side of this NV40 coin is that the real Mc Coy the real NV40 card that was taped out quite some time ago is actually going to be KIA [Killed in action]. Very knowledgeable friends told us recently in the Vienna Opera house that NV40 with 16 pipes and 210 millions of transistor is completely other chip then original NV40... there is no possible way that Nvidia might have a working version of the chip at Cebit or if they have it its early silicon for showing off. You can forget about launch party at CeBIT or anytime soon, we are given to understand. Even if the company launches it in April it will be a pure paper launch as NVDA cannot deliver it so soon... As the case is altered, Nvidia might win performance crown again but it's absolutely certain that ATI R420XT will be the first next generation card in shops."

Læs det hele her:

http://www.theinquirer.net/?article=14749



Rune skrev torsdag den 18 marts 2004 kl. 16:13: [ svar | nyeste ]
Den 13. april ser ud til at være aktuelt bedste bud på, hvornår Nvidia introducerer NV40:

"Extremetech web-site reported that NVIDIA would announce NV40 on April 13, 2004 in San Francisco. Our sources close to NVIDIA confirmed that NV40 will be announced “sometime in mid April”. As you remember, the next generation of NVIDIA’s GPUs aka NV40 will be manufactured with 0.13micron technology and will contain 210 million transistors. The information circulating around the web says that the new NVIDIA solution will feature 16 rendering pipelines, and will support vertex shaders 3.0 and pixel shaders 3.0. NVIDIA expects NV40 to provide a significant performance burst compared to what their current solutions demonstrate."

Kilde: http://www.xbitlabs.com/news/video/display/20040318062830.html



3e6b1e90.rev.stofanet.dk skrev fredag den 19 marts 2004 kl. 21:45: [ svar | nyeste ]
Har lige fået 5000kr tilbage i skat, ved godt hvad de skal bruges på........


Rune skrev lørdag den 20 marts 2004 kl. 14:04: [ svar | nyeste ]
The Inquirer har åbenbart set et ægte NV40-grafikkort på CeBit-messen:

"When removing the heatsink, we noted that the NV40 GPU itself was, in comparison to what we have seen before, quite large. However whilst our earlier information indicated that it comprised of 205 -210 million transistors, our sources currently say that what we were holding was a 175 million transistor part... The primary shocker was that the board requires two large 4-pin power connectors as opposed to the single power connector on current high-end products. Perhaps a lot of end-users who have been thinking that they might wait and upgrade to NV40 when it becomes available, should start saving their sheckles to upgrade to a new power supply unit as well."

Læs mere her:

http://www.theinquirer.net/?article=14827



Rune skrev lørdag den 20 marts 2004 kl. 15:22: [ svar | nyeste ]
Jeg modtog netop en e-mail direkte fra Nvidia, så nu er der næppe tvivl om, at NV40 udkommer den 13. april - her er et uddrag:

"You're Invited to the Launch of Our Next-Generation GPU and the First Ever GeForce LAN Party in San Francisco!

Are you thirsty for a new level of graphics technology? Tuesday, April 13th, NVIDIA will be hosting an unprecedented all-day LAN party in conjunction with the introduction of our next-generation GeForce GPU. Play Unreal Tournament 2004 and Battlefield Vietnam the way it’s meant to be played, on custom NVIDIA gaming machines powered by our next-generation GeForce GPU! And, join NVIDIA executives and industry luminaries for the launch event that evening." (min fremhævning, red.)

Kilde: e-mail


Rune skrev søndag den 21 marts 2004 kl. 01:25: [ svar | nyeste ]
Første testresultater mht. NV40 (475 MHz VPU, 1200 MHz ram, Athlon 64 3200+):

HALO (1600x1200, uden FSAA + 8x ANI)

NV40: 51 FPS
NV38: 25 FPS (uden 8xANI)
R360: 27 FPS (uden 8xANI)

Kilde: http://www.nvnews.net/#1079758469

Så disse første resultater indikerer, at NV40 er ca. 100% hurtigere end Radeon 9800XT. Der er dog flere testresultater, men disse er uden kontrolgruppe og derfor reelt ligegyldige.



Johnjohn skrev søndag den 21 marts 2004 kl. 10:51: [ svar | nyeste ]
Ikke Dårligt, måske det bliver i år jeg sender mit Ti4400 på pension


0x50a46287.sdbnxx1.adsl-dhcp.tele.dk skrev søndag den 21 marts 2004 kl. 15:38: [ svar | nyeste ]
Uha, uha: To 4-pin power connectors til NV40 ifølge The Inquirer? Det lyder som en brandvarm affære, så jeg er egentlig mest spændt på, hvad Nvidias nye "Silent Running" går ud på.



Kristian skrev søndag den 21 marts 2004 kl. 15:51: [ svar | nyeste ]
Flere tilslutninger hjælper jo ikke, når de tages fra samme PSU :/

Ellers lyder det da vildt, hvis de halo resultater holder og er repræsentative :)



Rune skrev mandag den 22 marts 2004 kl. 13:23: [ svar | nyeste ]
De første billeder af NV40-grafikkort er dukket op:



Flere billeder kan findes her:

http://www.digit-life.com/news.html?103013#103013

Diverse billeder stammer fra dette site i Korea:

http://www.bodnara.co.kr/


snailwalker skrev tirsdag den 23 marts 2004 kl. 21:49: [ svar | nyeste ]
Hmm på newz.dk havde de et link til en side der sagde at NV40 non ultra brugte +100 W!

Det er desværre en sørgelig tendens vi ser i øjeblikket inden for hardwarestrømforbrug :(



Rune skrev tirsdag den 23 marts 2004 kl. 23:22: [ svar | nyeste ]
NV38 er målt til 94 watt, så jeg vil ikke blive overrasket, hvis NV40 ligger tæt ved 150 watt (eftersom NV38 og NV40 begge er 0,13 mikron) - læs mere om effektforbrug på aktuelle grafikkort her:

http://www.hardwaretidende.dk/hard/artikel/03/11/30/0824163

R420 er dog 0,13 mikron, mens R360 er 0,15 mikron, så ATi vinder ca. 15% her, men øger til gengæld taktfrekvensen med formodentlig 21% (412 til 500 MHz) samt transistorantallet med formodentlig 45% (110 til 160 millioner transistorer), så mon ikke, at R420 også forbruger markant mere effekt end R360...


GWiZ skrev onsdag den 24 marts 2004 kl. 03:33: [ svar | nyeste ]
150 watt... ouch, hvor meget er det egentlig i forhold til en CPU? Og hvad med temperatur/varmeudvikling? Det ender med man skal større køler på GFX end på CPU.

@snailwalker: Man skal bare slukke alt lyset, sætte brightness HELT op på skærmen, og desuden bruge køleskabet til at køle skidtet med, så kan det næsten spare sig ind... ;-)



Rune skrev onsdag den 24 marts 2004 kl. 13:50: [ svar | nyeste ]
Ifølge The Inquirer vil NV40 komme til at hedde GeForce 6800 (Ultra), dvs. uden FX-betegnelsen, læs mere her:

http://www.theinquirer.net/?article=14922


3e6b1e90.rev.stofanet.dk skrev onsdag den 24 marts 2004 kl. 14:43: [ svar | nyeste ]
Her lidt samlet info om NV40 og R420 http://www.elitebastards.com/page.php?pageid=4040&head=1&comments=1


Rune skrev fredag den 26 marts 2004 kl. 12:14: [ svar | nyeste ]
Mere nyt fra fronten:

"What Nvidia said more then once to its loyal NDA (non disclosure agreement) press is that its chip uses 16x1, 32x0 approach. This is why all of them have the general feeling that Nvidia will win this round of the graphics wars. This means that Nvidia can officially claim that its NV40 chip has 16 pipelines that can process one texture per clock which would pretty much mean that it will beat the R420 12x1 design. Nvidia also claims as much as 32x0, perhaps producing the ability of the NV40 to render pixels without Color or Z value that will be very important in Doom 3 and games that use this engine."

Læs det hele her:

http://www.theinquirer.net/?article=14972



Rune skrev fredag den 26 marts 2004 kl. 12:44: [ svar | nyeste ]
Og årets mere eller mindre officielle roadmap fra Nvidia:


Kilde: http://www.gzeasy.com/itnewsdetail.asp?nID=14821



GWiZ skrev fredag den 26 marts 2004 kl. 13:27: [ svar | nyeste ]
En lille ting: "By appointment only at GDC 2004, Epic unveiled a demo of Unreal III, hot on the heels of releasing UT 2004 to retail shelves. Powered by an unnamed next-generation nVidia card(...)"

Kilde: http://pc.ign.com/articles/501/501877p1.html

Så der er lavet en virkende udgave af NV40.. :-D



Rune skrev fredag den 26 marts 2004 kl. 22:06: [ svar | nyeste ]
Så har selveste John Carmack fået lov til at teste NV40:

"During his keynote speech at GDC, game engine developer extraordinaire John Carmack teased the audience about NVIDIA's soon to be launched NV40 with a quick quip which was as follows.

"I just got an nv40 and put it in my dev machine, and it is spectacular!"

Kilde: http://www.nvnews.net/#1080315857

Dog har Carmack ikke testet R420, så vi aner naturligvis intet om, hvorledes Carmack opfatter R420.



Jakel skrev søndag den 28 marts 2004 kl. 19:57: [ svar | nyeste ]
Damn! Hvis NV40 kommer til at forbruge ca. 150 W og Prescott (hvis den skulle blive interessant :S) omkring 125 W, så blir der sgu ikke ret meget tilbage til resten af systemet med en 360W PSU!


Rune skrev søndag den 28 marts 2004 kl. 22:39: [ svar | nyeste ]
Lidt nyt om NV40 og Unreal 3:

"The Game Developer's Conference 2004 has recently concluded. While the tone of the conference is always more low key than E3, there is usually quite the assortment of surprises to be had. One such surprise was the showing of Unreal 3 behind closed doors... Naturally, a current generation card wouldn't be able to show the effects of such an engine, and for that task, the NV40 was used... You may ask what was so special about the demo. For starters, the materials and surfaces being rendered were awesome. The textures were sporting a technique that far surpassed normal bump mapping and displacement maps to give the appearance of much more depth. This technique was used in the GDC exclusive level of Crytek's FarCry for AMD 64-bit processors, but paled in comparison to the level of quality found in the Unreal 3 engine. The end result appeared to have a lot of geometry going into the surfaces, while a look at the wireframes showed it as a flat surface made of very few polygons. The backgrounds and outdoor areas looked very natural and realistic. However, the biggest surprise was the character models themselves. The engine was running characters with 6 million polygons. Yes, you read that right, 6 million polygons."

Læs det hele her:

http://www.popcultureshock.com/news.php?id=688


Johnjohn skrev mandag den 29 marts 2004 kl. 16:24: [ svar | nyeste ]
Hvis de for så stort et effektforbrug så skal man nok ikke bruge en smart 3D scrensaver :o)


Rune skrev torsdag den 01 april 2004 kl. 00:49: [ svar | nyeste ]
Lidt om det formodede kølesystem på NV40:

"Our friend confirms that NV40 is going to be a two-slot card, but it won't be noisy one, we're assured. Nvidia will use a similar approach as it used with its NV38, Geforce FX 5950 Ultra card; that was a two-slot solution as a reference design. But we heard that this time around it won't be so easy to modify the cooling to get such a fat card into a single PC slot. Nvidia sure learned its lesson with its NV30. And now its partners have their eyes full of hope trained on its upcoming NV40. The card looks good and last thing that Nvidia needs is the thing whirring and clanking about like some demented gerbil on a wheel, while all we're trying to do is frag the bad guys."

Læs mere her:

http://www.theinquirer.net/?article=15061



Rune skrev torsdag den 01 april 2004 kl. 11:00: [ svar | nyeste ]
Det ser ud til, at de første propaganda-film mht. egenskaber ved NV40 er ankommet, download her:

http://developer.nvidia.com/object/sdk_home.html#NV40_Video_Clips


GWiZ skrev fredag den 02 april 2004 kl. 14:31: [ svar | nyeste ]
De førnævnte propaganda-film er lagt op på en dansk server her: http://www.dailyrush.dk/files/movies/789/ i én samlet pakke.

(Det ser iøvrigt meget nice ud!)



Rune skrev mandag den 05 april 2004 kl. 14:04: [ svar | nyeste ]
Atter lidt nyt om NV40, her vedr. ydelse:

Numerous sources have confirmed that a Futuremark 3DMark 2003 score of12,535 has apparently been demonstrated by Nvidia on its pre-production engineering samples. To put this in perspective, this story is brought to you by a tweaked AMD Athlon 64 FX system based on a Gigabyte GA-K8NNXP-940 mainboard with 1GB of Corsair XMS DDR, and is equipped with the current king of 3D gaming cards, an ATI Radeon 9800XT. This rock steady, real-world system benches a strong 7382 under 3DMark 2003 Build 340 at default settings, and indeed anything that can deliver a score over 7000 is pretty rapid. Squatting on top of Futuremark's Top 20 'Hall of Fame'ous willy wavers is a heavily overclocked 4.5GHz P4 – seeming to need freezing to -85ºC to attain this frequency - with a well overclocked ATi Radeon 9800XT. This system, apparently, marks up a score of 10,008... In back rooms at the CeBIT Messe, we heard talk of 3DMark03 scores of "over 10,000 3DMarks" for both ATI's R420 and Nvidia's NV40 but, for various reasons, we weren't particularly confident in our source. However, in light of today's news, we'll mention that that same source said that the ATI R420 was somewhat slower, though "not by much". Sources close to ATI have said that a score of 10,000 3DMarks for ATi R420 "would be a dream", indicating that R420 Revision: CeBIT 2K4 wasn't pulling this level of numbers."

Kilde: http://www.theinquirer.net/?article=15169



Q skrev onsdag den 07 april 2004 kl. 12:58: [ svar | nyeste ]
Hvad er Forskellen på pixel shader 2 og 3?


Rune skrev onsdag den 07 april 2004 kl. 13:06: [ svar | nyeste ]
Læs mere her:

http://www.elitebastards.com/page.php?pageid=4136&head=1&comments=1


Rune skrev fredag den 09 april 2004 kl. 22:50: [ svar | nyeste ]
Det ser ud til, at NV40 vil kræve, at man har en strømforsyning på ca. 500 watt - og det ser desværre ikke ud til at være nogen morsomhed:

"Today we can confirm that Nvidia recommends that the PSU for GeForce 6800 Ultra should be no less than a stonking 480W!"

Læs det hele her:

http://www.theinquirer.net/?article=15265

Dette vil dog virke som meget uheldigt - dvs. Nvidia kan vel ikke regne med, at vi alle skifter til 600-700+ watt strømforsyninger, når NV45 eller NV50 udkommer... men vi får se... Et gæt kan dog være, at ydelse bliver mindre vigtigt i forhold til effektforbrug og kølerlarm, når entusiaster snarligt skal vælge mellem R420 og NV40.



Johnjohn skrev lørdag den 10 april 2004 kl. 02:27: [ svar | nyeste ]
Det er sku sygt


Q skrev lørdag den 10 april 2004 kl. 10:16: [ svar | nyeste ]
Lige et spørgsmål til professoren Rune:-) Jeg har hele tiden sat mig i hovedet, at jeg vil købe en Tagan 480W strømforsyning, men nu kommer jeg sgu lidt i tvivl om PSUén kan trække hele systemet!!?:-( jeg skal nemlig også ud og investere i 2stk raptor 74 Hd(skal køre i raid0) + at den også skal trække en 7K250 og LiteOn Dvd brænder!!!

Kommer der ikke en stor startstrøm i sådan et par Raptor diske der køre i Raid? Eller sidder der en smart lille softstarter på bundkortet eller HDerne… haha :-\

Hvis du ikke anbefaler mig at købe en Tagan PSU!? hvad ville du så råde mig til at købe, så både NV40 og alt de andre periferi-enheder køre stabilt?

Hmm… ved godt det ikke liiige har noget med det her at gøre… :-) men min far skal ud og investere i en bærbar… ydelsen er ikke så vigtig som kvalitet af skærmen/billedet… er der et speciel/model mærke du synes godt om?

På forhånd tak…….. og Tak for den fedeste hardware side på nettet...



Rune skrev lørdag den 10 april 2004 kl. 19:26: [ svar | nyeste ]
Selv tak; jeg ville selv vente lidt, NV40 udkommer om få dage, og så burde vi vide meget mere med sikkerhed - diverse nyheder hos The Inquirer skal nogle gange tages med et gran salt og en skæppefuld peber. Med 480 watt strømforsyning af god kvalitet burde du dog næppe få problemer fremover - jeg ville ej heller bekymre mig om 2 x Raptor. Tagan 480 watt (TG480-U01) har fået ganske glimrende anmeldelse hos OCPrices, der skrev:

"The Tagan has impressed me very much considering 3 weeks ago I had never even heard of their PSUs. It has flawlessly run excessive loads without a single crash (well, not one relating to the PSU in any case) and for a PSU costing close to 15% less than the antec or Enermax alternative, if you can find one the Tagan is an excellent choice. Formidable build quality and top quality rails, plus excellent acoustic characteristics makes this PSU OcPrices #1 rated power supply in its price range."

Kilde: http://www.ocprices.com/index.php?rev_id=210&page=1&action=reviews

Men hvorvidt alt dette er nok til f.eks. Prescott og NV40, må tiden vise. Flere anmeldelser af ovennævnte strømforsyning finder du her (som alle indikerer, at du får svært ved at finde en bedre strømforsyning på ca. 500 watt end Tagan TG480-U01):

http://www.3dvelocity.com/reviews/tagan/tg480.htm

http://www.pcreview.co.uk/article-4310.php

http://www.hexus.net/content/reviews/review_print.php?dXJsX3Jldmlld19JRD02OTQ=

http://www.hardwarezoom.com/viewcontent.jsp?ReviewID=186

http://translate.google.com/translate?u=http%3A%2F%2Fwww.caseumbau.de%2Findex.php%3Fpage%3Dtest168%2Ftest168&langpair=de%7Cen&hl=fr&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools



Rune skrev lørdag den 10 april 2004 kl. 20:31: [ svar | nyeste ]
Første billede af NV40 reference-grafikkort med køler er ankommet:


Kilde: http://www.theinquirer.net/?article=15269

Endvidere bekræfter The Inquirer, at VPU'en består af hele 222 millioner transistorer og er eneste VPU, der foreløbigt vil understøtte pixel og vertex shadere version 3.0 - uddrag:

"We already know a fair amount of what Nvidia will reveal on the 13th in San Francisco and on the 14th in the land of chocolate and cuckoos. 16×1 and 32×0 no Z values is what Nvidia wants to tell people and 12353 3D marks 03 for the chip that has an amazing 222 million transistors. As we said before Nvidia will push hard the fact that it is the only firm that will have a Pixel Shader 3.0 model on the market and it will focus its marketing efforts there. This means that apart from full support for Shader Model 3.0 it will support model 3.0 Vertex Texture Fetch/Long programs/Pixel Shader flow control Vertex Texture Fetch/Long programs/Pixel Shader flow control and full speed fp32 shading. Let's hope everyone understands what this means."



Rune skrev søndag den 11 april 2004 kl. 12:35: [ svar | nyeste ]
Ønsker enkelte at vide mere om NV40, så kan en fuld artikel findes her, jeg går dog ud fra, at denne henvisning snart forsvinder, så det gælder dog nok om at være hurtig (man kan desværre ikke downloade direkte, men find selv nyheden "GeForce 6800 & Maximum PC" hos 3DChipset):

http://www.3dchipset.com/temp/6800.zip


Rune skrev søndag den 11 april 2004 kl. 23:59: [ svar | nyeste ]
Det ser ud til, at NV40 kan levere ca. 12500 point i 3DMark 03 (med standardindstillinger) - her bekræftet via information fra to forskellige sites:

http://www.theinquirer.net/?article=15268

http://news.mydrivers.com/pages/20040409121531_17315.htm


Rune skrev tirsdag den 13 april 2004 kl. 12:20: [ svar | nyeste ]
Som flere ved, så præsenterer Nvidia i dag NV40. Det sker dog i San Francisco, som er 9 timer forsinket ifht. dansk tid, så vi ser næppe de første testresultater før i aften eller i morgen. Imidlertid har Gigabyte allerede introduceret deres kommende NV40-grafikkort:

"Taipei, Taiwan, April 2004 – Gigabyte Technology Co. proudly announces the release of the market’s highest speed graphics accelerators, the GV-N68U256VH and GV-N68128D. Powered by NVIDIA’s latest highest-performing GeForce 6800 Ultra/6800 GPU, these cards deliver up to 8x the shading power of previous generation products for screaming gaming performance."
Kilde: http://tw.giga-byte.com/

Og Asus har frigivet design-billede af deres kommende NV40 grafikkort (Asus V9999 (Ultra)), som ser således ud:


Kilde: http://www.digit-life.com/news.html?103832#103832

Asus benytter her en køler, der tillader brug af første PCI-slot (om muligt), støjniveau er ukendt.


Kristian skrev tirsdag den 13 april 2004 kl. 19:28: [ svar | nyeste ]
Hvornår forventes de første resultater at rulle ind? Skal man holde sig vågen stå tidligt op?


red_martians skrev tirsdag den 13 april 2004 kl. 20:00: [ svar | nyeste ]
Jeg havde nu håbet på i nat!! hmmm...det kan da ik være så langt tid... jeg synes ellers jeg havde fået at vide, at det ville foregå d.13 i USA og d.14 i resten af verden!!


King Nothing skrev tirsdag den 13 april 2004 kl. 20:46: [ svar | nyeste ]
er der ikke kun en power connector?????


King Nothing skrev tirsdag den 13 april 2004 kl. 20:48: [ svar | nyeste ]
altså på asus modellen oven for


Rune skrev tirsdag den 13 april 2004 kl. 22:25: [ svar | nyeste ]
Billedet illustrerer ikke et færdigt NV40-grafikkort fra Asus; dvs. der er ingen udgange til monitorer mm., så derfor beskrev jeg tidligere blot billedet som et "design-billede" - færdige Asus V9999 grafikkort vil se ganske anderledes ud, men vil formodentlig have tilsvarende kølesystem, så alt andet end kølesystemet er nok uinteressant på ovenstående billede.


Ra skrev tirsdag den 13 april 2004 kl. 22:26: [ svar | nyeste ]
Hvad skulle vi lære af den? Det er kun en tegning og power-connectoren/ne er slet ikke tegnet ind!


Rune skrev onsdag den 14 april 2004 kl. 01:12: [ svar | nyeste ]
Så er flere billeder ankommet af reference-versionen mht. NV40:





Flere billeder kan findes her:

http://www.beyond3d.com/forum/viewtopic.php?t=11485

Køleren kunne umiddelbart virke som lidt af en luftpumpe, men nu skal vi naturligvis ikke skue hunden på hårene - så det bliver bestemt spændende at se, hvor støjsvag/larmende blæseren er...


Ra skrev onsdag den 14 april 2004 kl. 01:20: [ svar | nyeste ]
Jeg undrer mig altså over at der er brug for 2 strøm-stik, men alligevel er ret få MOSFETs (eller hvad dé der lodrette tingester nu hedder) til at regulere strømmen!


Rune skrev onsdag den 14 april 2004 kl. 01:40: [ svar | nyeste ]
Hmmm, faldt lige over dette:

5:00 PM - Dinner (FREE PIZZA!!!)
6:00 PM - NVIDIA Launch Check In
7:00 PM - 9:00 PM Launch event / Demos

Dvs. Nvidia introducerer næppe NV40 før klokken 19 - 21 den 13/4 i San Francisco, hvilket svarer til klokken 4 - 6 den 14/4 i Danmark - dvs. næppe nogen grund til at spilde mere potentiel god nattesøvn... :-)


Rune skrev onsdag den 14 april 2004 kl. 12:55: [ svar | nyeste ]
Første testresultater af GeForce 6800 Ultra i Far Cry (1024x768 med 4xFSAA og 8xANI fra HardOCP):

Første test
GeForce 6800 Ultra = 42 FPS
Radeon 9800XT = 33 FPS
GeForceFX 5950 Ultra = 24 FPS

Anden test
GeForce 6800 Ultra = 53 FPS
Radeon 9800XT = 40 FPS
GeForceFX 5950 Ultra = 29 FPS

Tredje test
GeForce 6800 Ultra = 46 FPS
Radeon 9800XT = 33 FPS
GeForceFX 5950 Ultra = 22 FPS

Kilde: http://mbnet.fi/elixir/NV40/

Her var GeForce 6800 Ultra 27 - 39 % hurtigere end Radeon 9800XT og 75 - 109% hurtigere end GeForceFX 5950 Ultra. I Need for Speed Underground fandt HardOCP:


Kilde: http://mbnet.fi/elixir/NV40/

Her var GeForce 6800 Ultra 3 - 16% (gennemsnit 10%) hurtigere end 9800XT. HardOCP har flere testresultater, men i disse anvendes forskellige grafiske indstillinger, således at vi har at gøre med mere end éen variabel, hvorfor disse testresultater desværre er relativt værdiløse. Rsultater fra Call of Duty og Splinter Cell 2 ser dog ud til at kunne sammenlignes:

Call of Duty (1024x768 + 4xFSAA + 8xANI):
GeForce 6800 Ultra = 214 FPS
Radeon 9800XT = 112 FPS
GeForceFX 5950 Ultra = 107 FPS

Her sker der til gengæld noget, dvs. 6800U er 91% hurtigere end 9800XT og 100% hurtigere end 5950U. Splinter Cell 2 ser således ud:

Splinter Cell 2 (1024x768 + 8xANI):
GeForce 6800 Ultra = 63 FPS
Radeon 9800XT = 35 FPS
GeForceFX 5950 Ultra = 38 FPS

Her er 6800U 80% hurtigere end 9800XT og 66% hurtigere end 5950U.

Indtil videre lettere skuffende resultater i Far Cry og NFS:Underground, men glimrende resultater i Call of Duty og Splinter Cell 2 - og GeForce 6800 Ultra skal naturligvis være ekstremt meget hurtigere end 9800XT, hvis der skal være grund til at finde sig i meget højt effektforbrug og muligvis støjende køler (dvs. Zalman ZM80C-HP passer bestemt ikke på NV40).


GWiZ skrev onsdag den 14 april 2004 kl. 13:15: [ svar | nyeste ]
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/default.asp

Så har firingsquad også testet NV40



Rune skrev onsdag den 14 april 2004 kl. 13:38: [ svar | nyeste ]
Det ser også ud til, at standard-køleren er tålelig - dog næppe, hvis man ikke vil acceptere over 30+ dBA:

"At the higher setting, the new cooler is loud, but not FX Flow loud. Whereas FX Flow’s motor contributed to a lot of the fan’s noise, this isn’t the case for the 6800 Ultra’s cooler. Instead the noise you hear is the whooshing sound of air moving at a very high velocity... In other words, it’s a loud noise, but not nearly as annoying as FX Flow was. The moderate setting is much more bearable. It’s still louder than RADEON 9800 XT and GeForce FX 5950 Ultra, but not loud enough to be distracting. The card’s fan never went above the moderate setting, even during extended testing sessions, and the 6800 Ultra board actually runs cooler than 5950 Ultra (a trait which really surprised us) so we don’t think the fan’s noise will become an issue unless you’re overclocking."

Kilde: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page6.asp

Ydelse ser dog fremragende ud (ofte ca. 2 x 9800XT 1600x1200), anbefalet strømforsyning fortsat 480 watt, mens Firingsquad mener, at 430 watt muligvis vil være nok (afhængigt af PSU-kvalitet og cpu-valg). MSI har tidligere præsteret fantastisk arbejde med 5950U (26dBA køling), så der burde forhåbentlig være gode muligheder for at opleve særligt støjsvagt 6800U grafikkort.


Johnjohn skrev onsdag den 14 april 2004 kl. 13:35: [ svar | nyeste ]
Også her http://www.hardwareanalysis.com/content/reviews/article/1708/


snailwalker skrev onsdag den 14 april 2004 kl. 14:02: [ svar | nyeste ]
Puha jeg må indrømme jeg er blevet ganske positivt overrasket. Flot klaret af nVidia!


Kristian skrev onsdag den 14 april 2004 kl. 14:10: [ svar | nyeste ]
Det er jo så I far cry, at vi mangler ydelsen og ikke i call of duty :(


Thomas L skrev onsdag den 14 april 2004 kl. 14:22: [ svar | nyeste ]
Så har Toms´hardware guide også testet GeForce 6800 Ultra: http://www.tomshardware.com/graphic/20040414/index.html



saitek skrev onsdag den 14 april 2004 kl. 15:13: [ svar | nyeste ]
Ja, ikke dårlig Nvidia

Tom (toms Hardware) havde lige denne kommentar efter en test..

Freezinassin! Compared to the GeForce 6800 Ultra, the former high-end models Radeon 9800XT and FX 5950 Ultra often seem like nothing more than cheap mainstream cards...

Forresten ser det ikke ud til at det er så extremt strømkrævende som først antaget.



Thomas L skrev onsdag den 14 april 2004 kl. 17:11: [ svar | nyeste ]
Nu har AnandTech også testet Geforce 6800 Ultra: http://www.anandtech.com/video/showdoc.html?i=2023&p=7

Og her i Far cry kan Geforce 6800 Ultra kommer op og vinde med 20FPS over Radeon 9800XT.



Thomas L skrev onsdag den 14 april 2004 kl. 17:22: [ svar | nyeste ]
Og her kan man finde mange af de site, der har testet Geforce 6800 Ultra: http://www.elitebastards.com/


Thomas L skrev onsdag den 14 april 2004 kl. 20:06: [ svar | nyeste ]
Endu et kendt site har lavet en test, nemlig Xbitlabs: http://www.xbitlabs.com/articles/video/display/nv40.html

Og her går det ganske glimerende for Geforce 5800 Ultra i Far Cry, især i 1600x1200, hvor den får hele 90FPS, mens Radeon 9800 XT for sølle 33FPS. Det lyder ret vildt sammenlignet med resultater andre steder fra, men der kan jo godt være tale om fejlmålinger.



Thomas L skrev onsdag den 14 april 2004 kl. 20:08: [ svar | nyeste ]
Ups, jeg mener ikke Geforce 5800 Ultra, men Geforce 6800 Ultra.


Søren skrev onsdag den 14 april 2004 kl. 20:55: [ svar | nyeste ]
Så skal Zalman eller Arctic lige på banen med en støjsvag løsning. For mig ser en Arctic VGA cooler mindst lige så kraftig ud som standard kølingen, så mon ikke der er muligt at lave god støjsvag køler, hvis eneste ulempe er at det fylder i kabinettet.


Info
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:

Om os

Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.



Startside
Lad HardwareTidende blive din startside: Klik her

Eller hvis du kun vil tilføje os til dine foretrukne: Klik her

Copyleft © 2000-2004 HardwareTidende