Information om PC hardware
find
sidste nyt søg arkiv forum statistik om os
Emner
Andet (48)
Bundkort (83)
Emulator (38)
Grafikkort (274)
Harddisk (19)
Køling (18)
Processorer (128)
RAM (24)
Software (81)

Links
Drivere
Emulator
Hardware
Spil
Download

Kommentarer
Lukning af HardwareTidende (stand-by på ubestemt tid) (341)
(2004-11-30 23:59:59)

Half-Life 2 - årets spil 2004 (100)
(2004-11-30 23:58:49)

Specifikationer på ATi Radeon R480 (Radeon X850) (39)
(2004-11-30 23:15:03)

Betydning af ramtimings, FSB og taktfrekvenser (64)
(2004-11-30 22:54:53)

The Elder Scrolls IV: Oblivion - tidlige billeder fra fortsættelsen til Morrowind (33)
(2004-11-30 22:51:58)

Hovedtelefoner med surround sound - introduktion og test (221)
(2004-11-30 21:03:22)

Test af 45 cpukølere til Athlon XP (socket A/462) (56)
(2004-11-30 20:33:15)

Bundkort til Athlon 64 - ATi Radeon Xpress 200 mod Nvidia nForce4 Ultra og VIA K8T800 Pro (21)
(2004-11-30 19:38:15)

Omfattende test af Athlon 64 cpu'er til socket 939 (120)
(2004-11-30 19:30:02)

Test af 5 bundkort til socket 939 (nForce3 Ultra mod K8T800 Pro) (90)
(2004-11-30 19:23:37)

DOOM3 på GeForce3 (15)
(2004-11-30 17:38:17)

Maj 2000 grafikkort-test (2)
(2004-11-30 15:23:46)

Guide til LCD-skærme (fladskærme) (290)
(2004-11-30 00:46:39)

Støjmålinger på 6 mellemklasse og high-end grafikkort (54)
(2004-11-30 00:01:19)

Test af stort antal grafikkort i 1600x1200 (juni 2004) (76)
(2004-11-29 18:35:19)

Ekstrem ydelse med grafikkort - første resultater med Nvidia SLI (95)
(2004-11-29 15:36:13)

Athlon 64 4000+ og Athlon 64 FX-55 mod Intels hurtigste cpu'er (56)
(2004-11-28 15:10:20)

Drivere til ATi grafikkort - Catalyst 4,8 mod 4,7 (44)
(2004-11-27 00:37:49)

Test af 12 forskellige bundkort med i925X eller i915 chipsæt - hvilke er bedst? (28)
(2004-11-25 22:22:53)

Test af ydelse i Half-life 2: High-end grafikkort og cpu'er (79)
(2004-11-25 22:21:44)


Ekstrem ydelse med grafikkort - første resultater med Nvidia SLI
Grafikkort af Webmaster Friday den 29 October 2004 kl. 18:54 [ Grafikkort ]
3dfx blev særligt kendte, da de i 1998 lancerede Voodoo 2 grafikkort, som kunne brokobles, så man med to grafikkort kunne opnå ca. det dobbelte i ydelse. 6 år senere er Nvidia tilbage med tilsvarende teknologi, så f.eks. to NV40-baserede grafikkort kan brokobles. Anandtech har leveret de første og spæde resultater, som vi kort ser nærmere på i denne artikel.

SLI (Scan Line Interleave) var navnet på den teknologi, som 3dfx anvendte til at brokoble to identiske grafikkort, og Nvidia har brugt samme forkortelse, der dog nu dækker over et andet begreb (Scalable Link Interface). Tom's Hardware beskriver forskellen:

"Back in the days of the Voodoo 2 add-on cards, SLI was a very complex matter, as you needed a "normal" 2D graphics card for non-3D applications in addition to the two Voodoo 2 cards. The VGA signals of this 2D card were transferred to the Voodoo 2 cards using an external cable, while the synchronization of the two Voodoo 2 cards and the exchange of image information occurred using a ribbon cable. The graphics information was split so that one card would render only the odd lines of the scene, while the other one took care of the even ones. Later, the results were merged or interleaved, hence the name "scan line interleaving." NVIDIA's new Multi-GPU technology employs a simple u-shaped bridge-connector to link the cards, allowing synchronization and transfer of image information. This also makes external cables superfluous... the NVIDIA setup has one card rendering the top half of the scene while the other one renders the bottom. The important difference here is that this division is not fixed at 50/50 but is flexible. Using a dynamic load-balancing technique, NVIDIA divides the load evenly between the two cards, letting each work at full capacity."
Kilde: http://graphics.tomshardware.com/graphic/20040628/nvidia-01.html

I virkeligheden har NV40-SLI således meget lidt at gøre med Voodoo2-SLI, selv om begge teknologier tillader brokobling af 2 identiske grafikkort. Scalable Link Interface (NV4x-SLI) fungerer kun via PCI Express bundkort, og kræver PCIe-kompatible grafikkort, så ejere af aktuelle AGP8x-grafikkort kommer næppe nogensinde til at kunne anvende disse til NV4x-SLI. Men nok om alt dette, lad os se, hvad Anandtech fandt, at NV4x-grafikkort i SLI kunne præstere på nForce4 SLI bundkort fra MSI - følgende hardware blev anvendt:

CPU: AMD Athlon 64 FX-55 (2,6GHz)
BUNDKORT: MSI K8N Neo4 Platinum/SLI (PCIe)
RAM: 2 x 512MB Corsair PC3200
GRAFIKKORT: 6600GT x 2 (PCIe), GeForce 6800GT x 2 (PCIe) og beta-Forceware 66.75
STYRESYSTEM: Windows XP med DirectX 9.0c

Vi fokuserer udelukkende på ydelse med 2 x GeForce 6800GT, og formålet med nærværende artikel er udelukkende at estimere, hvor megen ekstra ydelse 2 x 6800GT giver i stedet for 1 x 6800GT; vi starter med Doom3:

DOOM3


Kilde: http://www.anandtech.com/video/showdoc.aspx?i=2258

Dette ser bestemt lovende ud - 6800GT SLI er hele 75% hurtigere end 6800GT Single. Lad os se, om trenden fortsætter i Half-Life 2 Visual Stress testen:

HALF-LIFE 2 VISUAL STRESS TEST


Kilde: http://www.anandtech.com/video/showdoc.aspx?i=2258

Her var 6800GT SLI hele 70% hurtigere end 6800GT Single - så uanset hvad ATi gør, vil NV4x-SLI formodentlig vinde enhver kamp om billedrate i Half-Life 2. Især Far Cry imponerer dog stort mht. SLI-ydelse:

FAR CRY


Kilde: http://www.anandtech.com/video/showdoc.aspx?i=2258

Her er 6800GT SLI hele 106% hurtigere end 6800GT Single, hvilket burde være umuligt, men nuvel, resultaterne er umiddelbart vanskelige at diskutere med (et gæt vil dog være, at 6800GT Single opførte sig lidt langsommere, end det burde). Med 6800GT i SLI burde der nu ikke være problemer med at aktivere High Dynamic Range Rendering selv i 1600x1200.

KONKLUSION OG AFSLUTTENDE KOMMENTARER

I gennemsnit var 6800GT SLI hele 84% (spredning 70 - 106 %) hurtigere end 6800GT Single, hvilket indikerer, at Nvidia med SLI har et ekstremt stærkt kort på hånden. Dog er alt ikke som i de gamle Voodoo2-dage, hvor 2 x Voodoo2 nemt kunne installeres i et hvilket som helst bundkort med PCI-porte. At udnytte NV4x-SLI kræver specielle bundkort med PCIe, og endvidere kræves formodentlig en strømforsyning på 500-600 watt. Endvidere bør man være opmærksom på, at Nvidia grafikkort med standardkølere vil larme en del mere, end de allerede gør, såfremt SLI anvendes. Forhåbentlig er Galaxy snart klar med deres relativt støjsvage GeForce 6800GT grafikkort til PCIe - og med to af disse grafikkort i SLI burde både ydelse og støjniveau være absolut fremragende. Prisen for SLI er der næppe grund til at kritisere - allerede i 1998 var prisen for Voodoo2 SLI indledningsvist på kr. 5.600,00 - men selvfølgelig er det ikke blevet billigere, da 6800GT/6800Ultra i SLI forventes at koste fra ca. kr. 7.000,00 - 9.000,00 (alternativt kan grafikkort nummer to købes senere, hvor priserne er faldet - og hvor der er mere behov for dobbelt ydelse). Vi vender tilbage med mere omfattende SLI-resultater, når disse ankommer.



Rune skrev Friday den 29 October 2004 kl. 19:17: [ svar | nyeste ]
Ifølge The Inquirer kan der være enkelte problemer med selve SLI-broen (som Nvidia formodentlig snart får løst); læs mere her:

http://www.theinquirer.net/?article=19343


Anarchy skrev Friday den 29 October 2004 kl. 19:20: [ svar | nyeste ]
Kommer lige med et ubegavet udbrud:

Årh hvad mand!

Har indtil nu troet at det SLI gejl var en fis i en hornlygte men med ovenstående må jeg vidst tage nogle ting op til revision...

Men med 7000-9000 kr(!) skal man være mere end almindeligt godt lønnet for at kunne retfærdiggøre et sådant køb.



0x50a10807.kd4nxx13.adsl-dhcp.tele.dk skrev Saturday den 30 October 2004 kl. 12:51: [ svar | nyeste ]
Du kan også køre SLI med et mindre kort (f.eks. 6600) og så bliver din performance BEDRE end et single 6800 til lavere pris!


Xp3rt skrev Friday den 29 October 2004 kl. 19:20: [ svar | nyeste ]
OK Nvidia har fat i noget der :D

Hold kæft hvor de kort yder. Gid man kunne gøre det samme med X800 XT PE bare med AGP :D

Eller PCI. Hvis det kunne lade sig gøre...

Top nice, Nvidia :D



Gandalf skrev Friday den 29 October 2004 kl. 19:30: [ svar | nyeste ]
Top nice :D

Jeg springer nok SLI over for denne gang (mit 6800GT er AGP), men i næste generation er det helt sikkert noget, der bør tages med i overvejelserne, specielt hvis teknologien er blevet endnu mere udviklet til den tid!

Selvom det nok kun er for de aller hårdeste entusiaster indtil videre, så er det helt sikkert en ting med meget potentiale som jeg ser det! Næste generation bliver uden tvivl PCI-Express... Det er fremtiden :)



kQleskabsindianer skrev Friday den 29 October 2004 kl. 19:53: [ svar | nyeste ]
O M F G..!!!

heh. ja man må sgu sige det er nice! Desværre kan jeg heller ikke tilslutte mig millionærene, såehh - må nøjes med et enkelt gt - os agp version :|



terfy skrev Friday den 29 October 2004 kl. 21:31: [ svar | nyeste ]
weee, ser dejligt ud hvis man lige køber sådan et par kort og sætter dem sammen..

har lige sparet op til noget fedt grafik nemlig.. det koster penge, men gider ikk vente mer,. så bare kom med kortene, så er der en køber her..

plus jeg ska da vist oss ha skiftet bundkort så.. heh det er dejligt med penge.

om det falder hurtig i pris er jeg ligeglad med, jeg ska ikk vente mer syns jeg ikk..

såå farvel ti4200-128MB, det var en skøn tid, men du er sq blevet for langsom med tiden.. tid til opgraderinger.



terfy skrev Friday den 29 October 2004 kl. 21:38: [ svar | nyeste ]
lige en rettelse...

et kort ka sføli ikk blive langsommere med tiden, jeg mente i forhold til den generelle teknologi. før var det topnice, nu er det bundskod.



Veteran skrev Friday den 29 October 2004 kl. 21:53: [ svar | nyeste ]
Man kan da tage i step. Først et bundkort og et 6800gt, siden når der er flere penge kan man jo så lige købe et kort til.

Hvis man nu alligevel skal igang med upgrade, ikke? Og pengene ikke lige rækker langt nok lige nu.



Sven skrev Friday den 29 October 2004 kl. 22:24: [ svar | nyeste ]
Vil det ikke, på sigt, være en god ide for Nvidia, at bygge et heftigt grafikkort med 2 "indbyggede" 6800GT, så alle dem med kun een stor PCIe grafikport vil kunne få samme ydelse? Med en godt designet køler burde den heller ikke larme som 2x alm. 6800GT'ere, så et sådan kort ville jeg da hellere investere i fremfor 2 grafikkort.


terfy skrev Friday den 29 October 2004 kl. 22:32: [ svar | nyeste ]
din idé er god nok, jeg har selv tænket samme idé. det med at proppe det hele i ET PCIe kort..

men... så kom jeg til en tanke der sagde.: Kan EN PCIe sockel klare så stor en ydelse ? vil det blive en flaskehals, (siden der bruges 2xPCIe sokler til SLI-teknologien)..

jeg har INGEN idé om hvor meget PCIe soklerne egentlig kan klare, men det var bare en tanke jeg fik..



Erroneus skrev Friday den 29 October 2004 kl. 22:34: [ svar | nyeste ]
Spørgsmålet er nok om det kort ikke vil blive for advanceret at lave og om PCI-E overhovedet kan trække sådan et kort over kun en port.

:)



terfy skrev Friday den 29 October 2004 kl. 22:38: [ svar | nyeste ]
det med om portene kan trække det var det jeg tænkte på..

men om det er for advanceret, så må de klemme ballerne sammen og lave noget der rykker.. og fylder minimum.



terfy skrev Friday den 29 October 2004 kl. 22:36: [ svar | nyeste ]
ellers synes jeg osse det er en super idé... bare prop så meget ydelse man overhovedet kan i ET kort.. evt 3-7 GPU samt en f***** god lydløs køling.. ku være fedt til mig...

[Sprogbrug modificeret, Webmaster]



terfy skrev Friday den 29 October 2004 kl. 22:29: [ svar | nyeste ]
jeg synes egentlig det er utroligt at der er en så stor forskel på 6800 og 6600, når ET 6800 kort kan yde bedre end TO 6600 kort... det lyder da lidt skørt.. nogle forklaring på det ?? eller er det bare kortene der har så store ydelsesforskelle ??



Ra skrev Saturday den 30 October 2004 kl. 11:54: [ svar | nyeste ]
Den primære flaskehals er nok at testene er lavet med brug af AA+AF, der stiller store krav til RAM-båndbredden. 6600GT-kortene bruger jo kun 128bit-adgang mod 6800GT's 256-bit, så de er massivt handicappede her! Var testen foretaget uden AA+AF ville billedet være meget mere lige - bare vent, der skal nok dukke mange flere tests op, hvor styrker og svagheder testes på flere måder.


sharps skrev Friday den 29 October 2004 kl. 23:03: [ svar | nyeste ]
F***** for dårligt at de ikke lavet det til AGPx8 kort...Grrrrrr

[Sprogbrug modificeret, Webmaster]



terfy skrev Friday den 29 October 2004 kl. 23:09: [ svar | nyeste ]
er der lavet bundkort med 2 stk AGPx8 porte ?? jeg har hørt et eller andet sted fra at PCIe kan sammenligned med en AGPx16 dvs hvis EN PCIe port svarer til 2x AGPx8 porte, så er der ingen idé i at lave flere AGPx8 porte når PCIe er hurtigere..

men.. vent til dit kort ikk ka slæbe de tunge spil, og køb da et PCIe kort, så er du fremtidssikret.. ja eller du ka da oss bare købe det nu, så er du fri for at tænke mere over det..



Prigheadman skrev Friday den 29 October 2004 kl. 23:12: [ svar | nyeste ]
hmm SLI..... Tænk over det.... Når der engang kommer et spil hvor denne generations top-grafikkort halter, er næste generations grafikkort på plads... eller måske næste igen. Med den tid det ta'r at udvikle klasse-spil i dag, er hardwaren langt foran. Den nye generations grafikkort vil sikkert være mindst dobbelt så hurtige som dem vi har i dag, den hårde konkurrence taget i betragtning. Derudover vil de rumme features som nutidens grafikkort ikke har, og som de nye spil vil udnytte. Pågældende spil vil altså køre meget bedre/smukkere på et næste generations kort, end på to SLI-bridged 6800 ultra. Altså er man efter min mening meget bedre tjent med et stk. top-kort i dag og et stk. top-kort i morgen, i stedet for SLI. Prisen er nok ca. den samme. Det er klart at der er prestige i SLI, men stort bliver det aldrig efter min overbevisning. SLI er for de få som har mucho mucho monetos. SLI er lidt ligesom at køre 110-130 km på de danske motorveje i en formel 1 racer ikk'?Derimod kan der for proffesionelle grafikere sikkert være ganske store fordele/besparrelser i SLI - dette er kun en gamers betragtning ;)


terfy skrev Friday den 29 October 2004 kl. 23:21: [ svar | nyeste ]
hmm, du har nok ret..

det ku være man skulle "nøjes" med et enkelt kort..

Jeg ville gerne stræbe mig efter en tip-top SLI løsning, men det koster monetos:!!

Men min sunde fornuft siger "nøj med et 6200-kort", men for pokker hvor vil jeg gerne have over 100FPS i de nyeste grafik-krævende spil., og det er jo ikke lige i de billige kort man kan hente så mange FPS til nye spil..



Prigheadman skrev Friday den 29 October 2004 kl. 23:59: [ svar | nyeste ]
Terfy, jeg kan godt forstå dig. Der skal også være plads til at drømme :) Kunsten for os "nørder" er til en hver tid at få den bedste ydelse i mutidens spil, smukt ballanceret i forhold til hvor meget der står på kontoen. Har du råd, så køb et 6800 eller X800 kort i dag, og sæt resten af dine "SLI-kroner" ind på en bankbog mærket "R500 eller NV5x". Man skal ikke se meget mere end et år ud i fremtiden når det drejer sig om computer-spil, og så længe skal et 6800 eller X800 kort nok holde.....


terfy skrev Saturday den 30 October 2004 kl. 00:33: [ svar | nyeste ]
tja, teknologi koster.. men jeg venter til 6200kortet kommer uden blæser så den ikke larmer.. tror i længden jeg vil ha mere glæde af en lydløs PC end at kunne spille med fedeste grafik trods larmende computer..


Gandalf skrev Saturday den 30 October 2004 kl. 01:02: [ svar | nyeste ]
Progheadman, det kan godt være, men tænk over det: Det kan godt være at det koster nogle klejner, men at kunne køre derudaf i ALLE spil i 1600*1200 4XAA 8XAF med +100 FPS? Jo tak!

SÅ tæt på tror jeg heller ikke den næste generation er...



Cykelskur skrev Saturday den 30 October 2004 kl. 01:23: [ svar | nyeste ]
Meget dyr løsning...


D.Hansen skrev Saturday den 30 October 2004 kl. 02:54: [ svar | nyeste ]
Pregheadman jeg giver dig kun ret, så er der måske kommet PS 5.0 samt 32 pips eller hvad ved jeg, og så er de 2x6800GT ikke noget værd, men der går tid, men tror mit 6800GT AGP kommer til at holde mange år endnu :D


terfy skrev Saturday den 30 October 2004 kl. 09:50: [ svar | nyeste ]
tja, jeg havde mit ti4200 kort fra MSI i en 3 år eller lign.. måske mer, ka ikk huske det.. det kostede ihvertfald 1800kr dengang på edbpriser, (gav selv 1850kr for det).

og det var jo ikke engang topkortet dengang., så mon ikke jeg kan få geforce 6600 til samme pris snart..



Kiwi skrev Saturday den 30 October 2004 kl. 10:36: [ svar | nyeste ]
SLI er helt klart noget der er værd at overveje, hvis man har pengene til det. Som Anarchy havde jeg heller ikke forventet det store af SLI, men nøj... Der er bare fuld knald på :-) Det ser dog ud til det ikke er værd at sætte 6600GT i SLI (1x6800GT og et normalt bundkort koster 500$, 2x6600GT og et SLI bundkort koster 600$ og yder mindre), dette er lidt ærgeligt da det ellers kunnet have været med til at gøre SLI mere mainstream.

Gandalf du får ikke over 100fps i alle spil i 1600x1200 4xAA 8xAF, for det første ser det ud til testen er lavet uden AF og for det andet scorer det "kun" 66fps i D3 ;-)

Mht. "dual GPU" ville det forøge produktions omkostninger betragteligt, da nVidia jo skulle til at lave et helt nyt layout for den type kort.

Personligt vil jeg dog ikke mene at: "køb SLI bundkort og 1x6800, og opgrader senere" modellen er særlig interessant. Som Prigheadman siger går udviklingen ret stærkt, tror heller ikke man skal regne med at NV40 baserede board kommer til at falde meget. De vil nærmere udgå da deres diesize gør dem for dyre til at producere som mainstream kort, men selvfølgelig kan man vel altid finde et brugt. Men som tingene står nu er jeg klar til at købe SLI og nVidia, ligeså snart der kommer en NV40 type baseret på 0.09micron ;-)

Mht. ATI i SLI skulle der blive rig mulighed i fremtiden. Både SiS og VIA har kraftigt antydet at deres SLI bundkort vil kunne tage alle fabrikater, Alienware har også udtalt at de er villige til at licensere deres udgave. Dog er det springende spørgsmål stadig drivere og "børnesygdomme" fra de andre producenter, at dømme ud fra ovenstående tal kan nVidia's SLI ikke være meget bedre end den er :-)

En sidste lille tanke: Hvis ovenstående tal stammer fra timedemos hvor spillenes AI ikke er i brug vil CPU begrænsning nok trække FPS lidt længere ned ved normalt spil.



GWIZ skrev Saturday den 30 October 2004 kl. 11:48: [ svar | nyeste ]
Terfy: Ideen med flere Gpu'er på eet board er jo blevet prøvet - også af 3dfx (I miss those guys). Desværre gik det jo som de fleste ved ikke så godt. Jeg tror dog ikke at flaskehalsen i et sådant scenarie vil være PCIe porten. Båndbredde er der jo nok af - hvis vi tager i betragtning at agp2x og PICe 16x faktisk ikke yder særlig forskelligt i dag. Strømproblemet er jo sådan set ordnet, da kortet bare vil få ekstern strøm direkte fra psu'en. (Forestil jer en dobbelt-GPU Geforce 6800 Ultra - der skal man have eget kraftværk til!)

Rune: Jeg ville gerne se 2xGf6800GT overfor flagskibet (Ultra extreme, whatever), da det kunne være interessant og se hvor meget forskel på de to der er. Så kunne man ligefrem regne på costeffectiveness.

Hmm, umiddelbart tænker jeg også at med 2xgfx kort vil man ligefrem kunne tillade sig at spille i 2048x1536! Mmmmm, høj opløsning... groooowwl.



den venlige skrev Wednesday den 03 November 2004 kl. 04:41: [ svar | nyeste ]
okay kloge så forestil dig to 9800XT kort.. de bruger mere strøm....


Gandalf skrev Saturday den 30 October 2004 kl. 13:29: [ svar | nyeste ]
Kiwi: Pointen er også, at man aldrig skal bekymre sig om at få FPS under 60 og højst 50 med en setup ;)

Hvis folk beholder deres grafikkort i flere år, er der så ikke andre der også tror at det godt kan være det værd, at bruge nogle ekstra penge på et ekstra kort og så en ordentlig strømforsyning? Når man har det i så langt tid tror jeg godt det kunne betale sig ift. hvor meget glæde man når at få af det. Måske i denne generation, måske ikke. Men jeg kan godt lide konceptet, men nok kun især hvis de udvikler det :)



Rasmus akak Orca skrev Saturday den 30 October 2004 kl. 13:34: [ svar | nyeste ]
Husk at X800, X600 og X300 os har en SLI bro på sig...

Så i behøves ikk råbe for højt om Nvidia(Ved ikk om nogen har skrevet det her, gad ikk læse det hele :P)



Ra skrev Saturday den 30 October 2004 kl. 15:49: [ svar | nyeste ]
Hvad for noget vrøvl??? Jeg har aldrig hørt om ATI-kort der kunne bruge nVIDIAs SLI-bro - og et hurtigt tjek af et par grafikkort i X-serien viser at ingen af dem har den nødvendige connector på den modsatte side af PCIe-stikket.

Du drømmer vist!



Kiwi skrev Saturday den 30 October 2004 kl. 14:27: [ svar | nyeste ]
Bandwidth problemer på PCI-x skulle da ikke være det store problem, selv med multi GPU. Kan de ikke køre med 16x 133mhz på de hurtigste porte? AGP kører jo kun med 8x 66mhz. Er dog ikke 100% sikker på tallene, det er jo trods alt dagen derpå ;-)

Orca der er da ingen ATI kort der har en direkte SLI port ligesom 6800 kortene? Dog er det helt sikkert at R300 baserede kerner ikke har nogen problemer med parallel drift. Det kan dog blive et problem med drivere, men Alien Ware påstår f.eks. at deres SLI system ikke behøver specielle drivere....

Gandalf man er ihvertfald helt sikker på at have det hurtigste system med SLI ;-) Jeg er dog stadig ikke enig i at SLI på nuværende tidspunkt er en økonomisk rentabel løsning, også selvom man beholder sit grafikkort i 2 år. Men det hele kommer stadig an på hvor meget der sker på markedet. Der er enorme forventninger til R500 (f.eks. har ATI licenseret Intrinsity's Fast14 teknik for omkring et år siden, hvilket skulle give mulighed for højere hastighed, mindre varme, mindre strømforbrug og mindre die size, der er også snak om ny type ram og redesignede pipelines). NV50 vil også vinde rigtig meget alene ved at blive baseret på 0.09. Jeg vil gerne have nVidia SLI, men hvis jeg selv skal betale for det (hvilket der nok ikke er nogen tvivl om ;-)) venter jeg til næste generation. Jeg satser på mindre strømforbrug og højere overclock fra de næste nVidia high end.

Dog er det helt klart at både SM3.0, HDR FP32 blending, 8xSS osv. bliver langt mere interessante med dobbelt power som backup :-)



Gandalf skrev Saturday den 30 October 2004 kl. 16:17: [ svar | nyeste ]
Så hvornår kan vi egentlig regne med at dette overhovedet bliver tilgængelig ?


Gandalf skrev Saturday den 30 October 2004 kl. 16:18: [ svar | nyeste ]
Rasmus: Det lyder da som noget vås.. Kan du linke til noget?


Kiwi skrev Saturday den 30 October 2004 kl. 16:40: [ svar | nyeste ]
SLI bundkort skulle komme inden jul, det er ihvertfald hvad forskellige producenter siger.... Det er dog stadig svært at skaffe et PCI-X 6800 kort og der ser stadig ud til at være problemer med at opnå høje hypertransport hastigheder, så det bliver nok ikke nemt at blive SLI ejer foreløbig.

Mht. til ATI SLI.

VIA DualGFX: http://www.hardocp.com/article.html?art=NjY4LDE= . Citat: "Interestingly enough, we are hearing from more than one source that ATI will have their own “SLI” technology and it seems as though the K8T89Pro will possibly support SLI video card setups from both major manufacturers."

Alienware X2: http://www.tomshardware.com/hardnews/20041014_110140.html . De åbner for at motherboard fabrikanter kan licensere deres X2 teknologi. X2 understøtter jo begge fabrikanter.

SiS: http://www.cdrinfo.com/Sections/News/Details.aspx?NewsId=10925 . Citat: "According to SiS, the 756FX will also support two PCIe express graphics cards. In addition to supporting Nvidia's SLI (scalable link interface) solution, SiS claims it is developing a part that will support ATI PCIe cards."

Derudover udvikler ATI jo selv chipsets... Men der er ikke nogen SLI lignende port på nogen ATI kort, så Orca er lidt galt på den. Men det ser alligevel ud til at SLI til ATI er på vej :-)



Kristian E skrev Saturday den 30 October 2004 kl. 18:58: [ svar | nyeste ]
Jeg forstår ikke, hvorfor bundkortet skal være lavet til SLI; det burde da være teknisk muligt bare at forbinde et normalt grafikkort med et specielt SLI-grafikkort med et ikke mindre specielt SLI-kabel - SLI-grafikkortet skulle selvfølgelig også have strøm fra PSUen...


Ra skrev Saturday den 30 October 2004 kl. 19:25: [ svar | nyeste ]
Jaja, lav du sådan ét eller gå hen og sælg ideen til ATI... der er jo nok nogle grunde til at det er lavet som det er!


Kiwi skrev Saturday den 30 October 2004 kl. 19:49: [ svar | nyeste ]
Kristian E din ide er faktisk fin nok. SLI handler jo faktisk bare om at 2 grafikkort deles om at tegne et billede. Problemet med din ide er så at der skulle være et specielt SLI kort for hver serie, dvs. mindst et ekstra SLI kort pr. serie hvilket ville betyde ekstremt store produktions omkostninger. Der ville også blive problemer med at placere det ekstra kort i et normalt pc kabinet. Udover det vil jeg ikke mene at 8x AGP er hurtigt nok til 2x grafikkort, hvilket stadig ville begrænse SLI til PCI-X. Så rent umiddelbart virker den nuværende måde til at være den mest logiske og billigste :-)

Er dog meget spændt på hvordan de forskellige firmaer vil implementere det til ATI. Det lyder logisk nok at et avanceret chipset ville kunne dele signalet op i to, men hvordan vil de samle det igen? Kan det lade sig gøre med et Y-stik f.eks.?



Kristian skrev Saturday den 30 October 2004 kl. 21:58: [ svar | nyeste ]
Den billigste? Jeg betaler da gerne 400kr ekstra for et specielt SLI kort, hvis jeg slipper for at købe nyt bundkort! De kunne jo sagtens lave muligheden for alle kortene, og så deaktivere SLI på de normale ved at fjerne en chip - som man gjorde med TV-out i gamle dage (mit TI4200s print bærer tydeligt præ af en manglende chip bag TV-out hullet i bagpladen...)

Det er udviklingsomkostninger, der koster ved SLI; man laver bare alle grafikkort SLI-kompatible; men så fjerner man en chip fra standard kortene, så man kan tage lidt ekstra for SLI-kortene (eller tage overpris for det specielle SLi-kabel) - på den måde kommer de rette mennekser til at dække de rette udgifter. Det er kun ved meget avanceret teknologi som GPUer, at produktionsomkostninger spiller en rolle.

Jeg ved ikke, hvad du bygger din tvivl på AGP 8X på; men samtlige artikler om emnet indikerer, at nutidens grafikkort har mere end rigelig båndbredde til bundkortet: http://www.hardwaretidende.dk/hard/artikel/04/06/21/9864123 !

Mht. monteringen kunne de da bare levere udstyr med, så det kunne monteres i en 5,25 eller 3,5 plads. De kunne også lave nogle klips af en art, så det kunne sættes fast på det andet grafikkort (over?). Jeg ville da foretrække at kunne rykke rundt på mit grafikkort, da det giver meget bedre muligheder for køling.

Umiddelbart skulle man tro, at så store firmaer havde overvejer muligheden; men ser man på fadæser som NV30s køling og PS2, bliver man i tvivl...



Gandalf skrev Saturday den 30 October 2004 kl. 22:46: [ svar | nyeste ]
"..men samtlige artikler om emnet indikerer, at nutidens grafikkort har mere end rigelig båndbredde til bundkortet.."

Den artikel du henviser til har jo intet at gøre med SLI? Jeg tror da de ville gøre SLI mulig for AGP kort, hvis det altså havde været muligt...



Rasmus aka Orca skrev Saturday den 30 October 2004 kl. 23:20: [ svar | nyeste ]
Ehm hvis du kigger på et ATi X kort kan du se der er den lille bro som os sidder på Nvidias...

Ved ikk om det er til det, men kan ikk se hva det ellers skal bruges til



Ra skrev Sunday den 31 October 2004 kl. 01:26: [ svar | nyeste ]
Jeg vil gerne bede om et screenshot, tak, hvis jeg skal tro på det!


Kiwi skrev Sunday den 31 October 2004 kl. 10:18: [ svar | nyeste ]
Kristian hverken du eller jeg ved nok om emne til at klandre nVidia for at have valgt denne metode. Det virker jo f.eks. meget "enkelt" at lave et "fordeler-stik" til AGP porten og så smide begge kort i 5.25" slots, måske ville det endda også kunne lade sig gøre... Men helt seriøst, du må da også kunne se det molbo agtige? Hvis du smider grafikkort op i 5.25" slots skal der være ekstra køler til at lave airflow deroppe, du skal have "forlænger kabler" til VGA stikkene på kortet. Man skulle have et kæmpe kabinet (2x 6800Ultra ville da minimum fylde 4x 5.25"), og bare tanken om at skulle komme vandkøling på dem.... Du må da kunne se at SLI ville appelere til langt færre med den løsning (og dermed ikke kunne betale sig at producere)? Udover at have pengepungen i orden skal du til at nørkle med avanceret montering (evt. blive nødt til at hjemmebygge hele kabinettet...). Udover det er der så problemet med om AGP porten ville kunne levere data nok til to kort, den artikel du henviser til viser jo bare at AGP har power nok til et enkelt kort. Så kort sagt det lille fordeler-stik ville koste ekstreme summer at udvikle og kun henvende sig til en ganske lille flok...

Som jeg ser det har nVidia (og andre producenter) valgt at indbygge "fordeler-stikket" i chipsettet. Dvs. i realiteten betaler du en bagatel af 1000.- (max forskel mellem standard NF4 og SLI NF4) for dette avancerede fordeler stik, efter min mening virker det billigt sluppet... Derudover er monteringen en del nemmere end ovenstående rædsels scenarie. Bagdelen er så at det foreløbig kun findes til Socket 939 PCIe, men helt seriøst det er high end teknologi og hvis man overvejer SLI sidder man nok ikke med en Socket A maskine...

Mht. udviklings omkostninger kontra produktions omkostninger. Det er rigtigt at det koster mange penge at udvikle et produkt, disse penge skal tjenes ind i produktions fasen og bare en enkelt chip eller et par ekstra komponenter koster mange penge når man producerer millioner af kort. Specielt når disse ekstra komponenter kun ville blive udnytte af et fåtal.



0x53586e20.boanxx17.adsl-dhcp.tele.dk skrev Sunday den 31 October 2004 kl. 10:48: [ svar | nyeste ]
Jeg forstår ikke helt hvordan Alienware kan lave en driverless løsning. Så går hele dufisen vel lidt af SLI. Det smarte er jo netop at driverne beregner HVAD hvert kort skal beregne. Der er jo ikke meget pointe ved at lade et kort beregne den øverste halvdel af skærmen og et andet den nederste halvdel. Der vil jo ofte være meget større ændringer i den nederste halvdel. Så skal det ene kort vente på det andet, og så er meget af finessen ligesom væk. Nvidias drivere sørger for at hvert kort udfører 50% af beregningerne, det er ikke det samme som at regne på havldelen af skærmen.


Kiwi skrev Sunday den 31 October 2004 kl. 12:31: [ svar | nyeste ]
0x53586e20.boanxx17.adsl-dhcp.tele.dk Har lige tjekket lidt :-) Alienwares ALX system skulle køre på følgende måde: Spil -> Alienware software der dynamisk fordeler arbejdet mellem de to kort -> 2x Display driver -> 2x Grafikkort -> Alienware Video Merger Hub -> Monitor. Video Merger Hub'en er faktisk et PCI kort der tager det analoge signal fra de to grafikkort og sætter dem sammen til et. Så hvor godt systemet yder kommer an på om Alienwares software fordeler arbejdet godt nok.


Mandak skrev Sunday den 31 October 2004 kl. 13:18: [ svar | nyeste ]
Jeg tror VIA og SIS har gang i det rigtige. Vi kender fra server løsninger idéen om mere CPU power leveret fra ekstra CPU kort. Kortet sættes i et slot på samme måde som man putter mere RAM i sin comp. Forskællen er her at normalt står grafikkortet for både beregning og levering af billedet, I multi GPU-kort løsningen skal leveringen af billedet styres af motherboardet. Og det kan åbne op for både 2, 4 og X GPU'er. Samtid skal GPU'en designes mere som en CPU med Hypertransport eller ligende (så de kan dele RAM osv.). Båndbrede er ikke noget problem, man kan blot give vært slot sin egen PCIe bus. Alienwares løsning er faktisk en form for primitiv løsning af denne type.

Man...



Lars Rune Christensen skrev Sunday den 31 October 2004 kl. 23:42: [ svar | nyeste ]
Det er på tide at tage SLI alvorligt (Er der nogen der vil købe en kun lidt brugt 6800 GT AGP?) :-)


AllanDennehy skrev Monday den 01 November 2004 kl. 02:56: [ svar | nyeste ]
Yabayabadoooo!! Vi lever i spændende tider men det er svært at vælge. Jeg har ikke engang købt min 6800GT AGP endnu og den er godt på vej til at blive forældet! Måske skulle jeg heller følge Kiwis gameplan. Citat; "NV50 vil også vinde rigtig meget alene ved at blive baseret på 0.09. Jeg vil gerne have nVidia SLI, men hvis jeg selv skal betale for det (hvilket der nok ikke er nogen tvivl om ;-)) venter jeg til næste generation. Jeg satser på mindre strømforbrug og højere overclock fra de næste nVidia high end."



terfy skrev Monday den 01 November 2004 kl. 09:27: [ svar | nyeste ]
jeg satser på 100+ FPS i spil, i 1024*768 opløsning med alle finesser og detaljer slået til..

hvilket kort det er, er ligegyldigt, bare det opfylder disse krav.. (og i doom3 og stalker ska jeg nok vente lidt med at de stiger så højt i FPS der..)

er SLI så ikk lidt for dyr ? så måske bliver alienware en god løsning ? eller bliver det de kommende VIA kort ?

jeg er helt klart VIA-fan tiden vil vise hvilket system jeg køber til den tid..



terfy skrev Monday den 01 November 2004 kl. 09:30: [ svar | nyeste ]
er der nogle der har nogle links til noget med VIA/sis systemet ??

og evt alienware ? (ud over det link der fører til myter, hvor det ikke er fastlagt endnu)



Mick skrev Monday den 01 November 2004 kl. 10:03: [ svar | nyeste ]
http://www.dreamstation.cc/news/video_games/id4325


Mick skrev Monday den 01 November 2004 kl. 10:06: [ svar | nyeste ]
Og VIA's:

http://www.hardocp.com/article.html?art=NjY4LDI=

Det tog mig mindre end 1 minut at grave ovenstående links frem!!! Kan du ikke finde ud af at bruge google eller er man bare doven *G* ?



Kiwi skrev Monday den 01 November 2004 kl. 10:07: [ svar | nyeste ]
Terfy der er VIA's block diagram over DualGFX: http://www.via.com.tw/en/products/chipsets/flex-express/ , ud fra det er det Northbridge chippen der sørger for at fordele arbejdet. Spørgmålet er bare om det så er dynamisk fordeling som Alienware og nVidia's udgaver, men der kommer nok mere info om kort tid. Jeg regner med SiS løsningen vil ligne VIA's. Her er lidt om Alienware X2: http://www.pcper.com/article.php?aid=43 . Motherboard producenten Iwill skulle allerede være licenseret til at bruge teknikken. Alienwares løsning er nok den mest klumpede, ekstra PCI kort og en masse kabler på bagsiden. Udover det kører Video Merger Hub'en analogt, dvs. DVI ikke er en mulighed. Foruden er der risiko for kvalitetstab, men i de gamle Voodoo dage kunne det gøres uden kvalitetstab så jeg tror ikke det er noget at være ekstremt nervøs for.

Der er to grunde til at jeg ville vente med SLI. Problemer med NF4's A02 silicon (lavere hypertransport hastighed) og problemer med 6800 kortenes hardware accelering af film (det virker slet ikke). Sidst nævnte problem ser ikke ud til at blive rettet før NV40 migrerer til 0.11 eller 0.09 micron (næste revision af kernen), hvilket giver nVidia endnu en grund til at skynde sig med at få skiftet.



Glasmanden skrev Monday den 01 November 2004 kl. 18:50: [ svar | nyeste ]
Rune, kunne du finde på at droppe købet af din HIS X800 XT Ice II til fordel for nvidia kort med SLI mulighed?


Rune skrev Monday den 01 November 2004 kl. 19:01: [ svar | nyeste ]
Muligvis, desværre findes der intet Nvidia-grafikkort til PCI Express, som lever op til mine krav mht. støjniveau - men måske hvis Galaxy eller andre producenter tilbyder PCIe med støjsvag køling (indtil videre ser det ud til, at Galaxy kun leverer til AGP8x). Ellers er HIS X800XT IceQ til PCIe aktuelt min topkandidat, såfremt man ønsker PCIe.


Anders skrev Monday den 01 November 2004 kl. 19:09: [ svar | nyeste ]
Wow, det er jo ûber:P syns det ku lyde fornuftigt at købe et 6800 eller deromkring, og så game løs indtil det halter lidt, så kan man købe et matchende kort som så gerne sku være faldet:P Yah! god jul til min com^^^

-------------------------- 3dmark 03: 2941point^^... hm, ik så meget? ha! det min notebook : P



monolitten skrev Monday den 01 November 2004 kl. 21:01: [ svar | nyeste ]
nice nice havde selv dual voodoo 2 dengang.. det var tider :P


Kimi Räikkonen skrev Tuesday den 02 November 2004 kl. 11:33: [ svar | nyeste ]
Få nu lige armene ned!

Hvis man køber et kort nu, og samtidig smider penge væk på et SLI budkort for så at kunne opgradere med et ekstra kort senere, vil man sikkert kun få en lang næse. Det eneste man vil drømme om til den tid vil jo bare være et DX10 kort! Se her hvor dårilgt DX7 DX8 kort klarer sig på HL2 idag:

http://www.theinquirer.net/?article=19405

Jeg tror man skal glemme SLI med mindre du har råd til at købe begge kort med det samme.



kQleskabsindianer skrev Tuesday den 02 November 2004 kl. 22:53: [ svar | nyeste ]
Hehe kom lige til at stene over en linie i artiklen :d

"3dfx blev særligt kendte, da de i 1998 lancerede Voodoo 2 grafikkort, som kunne brokobles"

3dfx blev vist kendt lidt tidligere da de lancerede første 3d acceleration kort som rent faktisk ville noget :P Da jeg fik mit første orchid righteous i min pentium100mhz^^ var det som at få en hel ny spand :D

Men jo, nu får vi se hvornår mit 6800gt får aftjent sin værnepligt, og om der skal helt nyt kort i eller "bare " et ekstra ;)



Gandalf skrev Wednesday den 03 November 2004 kl. 17:57: [ svar | nyeste ]
Kimi: Du kan kun sammenligne denne generation med den forrige, fordi sidste generation havde altså også DX9.0, ligesom den nuværende nyeste generation. Så hvis man kunne have lavet en SLI opstilling med fx. to Radeon 9800 Pro dengang, havde det stadig været meget attraktivt og ville virkelig have givet store oplevelse i Far Cry, Doom3 og Half-Life 2 stadigvik... Så dén holder atlså ikke...


GWIZ skrev Thursday den 04 November 2004 kl. 10:54: [ svar | nyeste ]
Gandalf: Ja, men idet at SLI er på denne generation, og næste generation formentlig er DX10, så er hans pointe god nok. Man får jo ikke alle de nye snassy effekter med som der sikkert kommer med dx10, når man SLI'er.

Men jo som du siger HVIS man kunne lave SLI med to Radeon9800 pro havde det da stadig været attraktivt - hvis prisen altså holder. (Kan ikke huske hvor meget det er de koster nu)



Kimi Räikkonen skrev Thursday den 04 November 2004 kl. 13:17: [ svar | nyeste ]
Hvis du gemmer de ekstra penge som SLI mobo'erne koster og lægger dem oven i det du forventer at give for det ekstra 6800 (f.eks.), kunne du i stedet hoppe på den nye generation til den tid for ca. de samme penge. Det skal så være usagt om den ny generation vil være hurtigere end to kort fra den tilstedeværende, men chansen er der + chancen for nye features og DX10.

I eksemplet med dine to 9800 ville ydelsen måske have været ok.... men du får altså ingen 3DC. Og husk så lige at prisen på 9800 kort stort set ikke faldt før X800 var på hylderne, og da gik det stadig langsomt. I begyndelsen var der dårligt en 1000-lap i forskel, hvis du ville have en støjsvag løsning.

Endnu et argument for at spare pengene og oftere opgradere til nyeste generation i stedet, er muligheden for at skifte mellem nVidia og ATi. Hvad hvis du foretager en større investering i SLI på nuværende tidspunkt, men næste generation fra ATi tager et mileskridt fremad og er totalt overlegen i forhold til nVidia? Du vil nok føle dig mere bagbundet, uanset om du har investeret i kort #2 eller kun i mobo'et.

Husk også hvor godt 6800 serien klarer sig i f.eks. D3, hvad man ikke just kan sige om 5900 serien. Hvad nu hvis næste generation viser særlig styrke i netop det spil du har gået og ventet på?

Og så er der jo lige noget der hedder effektforbrug og støj.

Igen, har man råd til den store investering så man kan få to kort med det samme, så er der for øjeblikket intet som rent ydelsesmæsigt kan hamle op med SLI. Men som en investering foretaget over længere tid, mener jeg ganske enkelt det er for dyrt og for usikkert sammenlignet med alternativet.



Ra skrev Thursday den 04 November 2004 kl. 19:25: [ svar | nyeste ]
En rettelse: 9800-serien understøtter også 3Dc, da den er software-baseret.


GWIZ skrev Thursday den 04 November 2004 kl. 13:21: [ svar | nyeste ]
Kimi: enig.


Mick skrev Thursday den 04 November 2004 kl. 14:05: [ svar | nyeste ]
Dertil skal siges at R5x0 forventes at få omkring MANGE gange den ydelse vi ser idag. De data der er sluppet ud omkring Xbox II (R500) skal være at finde i R520 (PC udgaven) plus lidt ekstra. I så fald vil man halte bagefter (selv med 6800 Ultra i SLI) *G*.

Personligt mener jeg SLI er stendød sålænge strømforbruget er så vanvittigt (resten af maskine kommer til at koste). Hvad nu hvis næste generation af bundkort-chipsæt tilbyder noget nyt genialt? I så fald brænder man inde med et SLI bundkort (forældet) samt hele 2 temmeligt dyre grafikkort (som til den tid kun er interessante hvis man beholder sin strømslugende SLI-opkobling).

Derimod kan 2x6600 GT være en mulighed - men den tilbyder for lidt til at er interessant. Tilbage bliver oliesheiker & andre millionærer - ikke noget stort SLI-marked.

Så jeg tror næppe SLI har nogen større fremtid - med mindre strømforbruget og priserne på grafikort & PSU'er falder 25% *G*.



Fjog skrev Thursday den 04 November 2004 kl. 16:54: [ svar | nyeste ]
SLI er altså ikke et dødt fænomen. Ser det også klart som en fremtidssikring om man vil. DX10 ser vi først ved udgivelse af Longhorn der tidligst ser dagens lys i 2006 så regn roligt med DX9c i et par år i nu, så det skal i hvert fald ikke være derfor man fravælger SLI.
Dertil kommer at ATI har udtalt (som kortet er pt) at R520 vil omtrent dobbbelt så hurtigt som aktuelle highend grafikkort, og ikke MANGE gange hurtigere, kun ca. 2.
Så jeres argumenter for at skyde det til jorden og fravælge det er lidt hen i vejret.
Eneste punkt man kan fravælge det på er som sagt om det vil kunne følge performancemæssigt med (læs IKKE featuremæssigt, for det vil det), til en sammenlagt fornuftig pris. Hertil kan siges at et 6800GT i dag koster små 2500-2600 kr. med forsendelse fra USA. om om et halvt år når næste gen. kommer (?) vil det nok være nede i omkring 1500, så det sammenlagt bliver ca. 4000 kr. kun for grafikkortene. Dertil skal så ligges bundkort (hvilket jeg ikke ser som en ekstra udgift da mange nok vil skifte til nForce4 alligevel bare pga. de mange nye features det har, og SLI udgaven koster vel næppe mere end 200-400 mere end Ultra versionen, men det er selvfølgelig op til den enkelte at vurdere).
Til sidst kan så siges at har man så købt et nForce4 er muligeheden for SLI med næste gen. kort der jo også!

Men det er så bare min mening.


Mads skrev Friday den 05 November 2004 kl. 08:05: [ svar | nyeste ]
SLI er en dyr og dårlig lappeløsning, og ikke en god fremtidssikring.

Så (sli)kort kan det siges - men det er så bare min mening



Kimi Räikkonen skrev Friday den 05 November 2004 kl. 13:35: [ svar | nyeste ]
Det giver da ingen mening at bruge US priser til sammenligningen. Det forudsætter jo at du ikke bliver snuppet i stikprøverne og skal betale moms. Og at sige at et 6800GT vill være nede i 1500 er da ren ønsketænkning. Så kan vi lige så godt sige at R520 sikkert vil blive introduceret til 2500.

Jeg bryder mig slet ikke om at tale omfremtidssikring inden for PC hardware. Den bedste sikring vil til hver en tid være at have flest muligt uafhængige komponenter, som til hver en tid kan udskiftes med nyere og bedre med flere features.

Men set fra nVidias syspunkt er det da et fremragende initiativ, som kan binde langt flere købere til netop deres produkter. Det er uden tvivl hovedformålet fra deres perspektiv.



Mick skrev Friday den 05 November 2004 kl. 14:41: [ svar | nyeste ]
Hovsa! Mit svar gjalt indlægget længere oppe... ;o)


Mick skrev Friday den 05 November 2004 kl. 14:40: [ svar | nyeste ]
Hvis du ender med at 2 kort koster kr. 4000.- (bortset fra at det er ret spekulativt at gætte på priser indenfor denne branche.... *S*) så rammer du jo også ca. den pris et nyt highend kort koster.

Dertil SLI bundkort (formodentligt dyrere), stærkere strømforsyning (dyrere), mere køling (mere larm - ikke alle hælder vand på).

Men hvis man har penge som skidt og er synsk er det naturligvis en option *G*.



Gandalf skrev Friday den 05 November 2004 kl. 17:20: [ svar | nyeste ]
Hvis jeg nu køber et 6800GT til 3200 kr, hvilket jeg har og så senere køber endnu et til 2500 kr (det er en fair realistisk pris om ½ år IMOO), så vil jeg betale 5700 kr i alt. Jeg kan godt bare lide filosofien i, at købe et hurtigt grafikkort, så købe endnu et senere, når det er faldet i pris og så få godt den dobbelte ydelse. Så ville venne opsætning holde måske 1-1½ år før næste generation, men i den tid ville jeg få rigeligt glæde af SLI opsætningen, ingen tvivl om det. Det eneste der for mig taler imod er strømforsyningskravende og så måske støjen. Men begge ting er overkommelige, hvis man køber de rigtige mærker synes jeg...

Mads: Argumentér!



GWIZ skrev Saturday den 06 November 2004 kl. 03:37: [ svar | nyeste ]
Tja, et argument er vel at du netop ikke får dobbelt så høj ydelse... kun omkring max 80%. Og som Mick skriver: SLI bundkort (et skud ~300 extra ifht. alm bundkort), bedre PSU, bedre køling. Husk at hvis man køber de "rigtige" mærker så koster de jo også 500 mere. ;)

Ra: 3Dc er da slet ikke sotware baseret!? I så tilfælde kunne nVidia jo også benytte det, da ATi ikke har patenteret det (afaik). Alt andet end x800 benytter da DXT5 til normal-map kompression?



Ra skrev Saturday den 06 November 2004 kl. 10:38: [ svar | nyeste ]
Så vidt jeg kan de også godt det - men de vil næppe gøre det af PR-mæssige årsager. Teknologien er jo også optimeret til ATIs hardware, og efter hvad jeg har læst understøtter hele 9XXX-serien det også.


Carsten skrev Saturday den 06 November 2004 kl. 09:43: [ svar | nyeste ]
En væsentlig fordel ved SLI at det er her NU, det kan jo ikke just siges om ATI kommende R520, hvad nu hvis Nvidia også lader SLI løsningen virke i næste generation. SÅ syndes jeg da det er et spændende alternativ hvor man allerede idag kan få en ydelse, som jeg mener Rune tidligere i år skrev var flere år ude i fremtiden.

En anden ting er så lige de krav det stiller til kabinet og strømforbrug.

Er der nogen der ved om ATI også har lignende SLI planner for næste generation ?



Kiwi skrev Saturday den 06 November 2004 kl. 10:45: [ svar | nyeste ]
Carsten faktisk er det her ikke endnu ;-) Der er massere kommentarer højere oppe der omhandler ATI SLI, bare læs løs :-)

Efter min mening er de eneste potentielle købere til SLI folk som vil være med i forreste linie, koste hvad det vil. I DK vil du minimum komme til at give 9000.- for grafikkort og bundkort alene (2x6800GT). Hvis man skal være negativ får du for de penge et "first gen" SM3.0 hvor Flow Control/ Dynamic Branching ikke skulle fungere optimalt, du får 2x "avancerede" videoprocessorer som kun kan accelerere MPEG2, du får to små strømslugere som lige så snart computeren er tændt vil bruge 50W og når du fyrer op under et spil stiger forbruget, alene for grafikkort, til over 110W (yderst avanceret el radiator). Ydermere vil bundkortet/ chipsettet højst sandsynligt være begrænset til kun at kunne tage nVidia produkter.

Hvis man nu venter et halvt år er der en del fordele. For det første kan vi være sikre på at tingene ihvertfald ikke er kommet til at koste mere, udover det vil 6800 sikkert være blevet flyttet til 0.09micron og i den process vil videoprocessoren helt sikkert blive fikset (den virker allerede i 6600), nVidia kan endda vælge at foretage korrigeringer i deres SM3.0 implementation. Hvis SiS og VIA kommer med chipsets som kan tage begge mærker er det 100% sikkert at nVidia vil gøre det samme, dvs. du vil ikke længere være "stavnsbundet". En anden produktions teknologi vil også reducere strømforbrug.

Udfra ovenstående vil jeg mene at SLI på nuværende tidspunkt kun henvender sig til folk som vil have den allerhøjest mulige ydelse, og er totalt ligeglade med alt andet.



Kimi Räikkonen skrev Saturday den 06 November 2004 kl. 14:41: [ svar | nyeste ]
@ Kiwi: Enig.

Specielt stavnsbindingen er et godt modargument, men alle tiders argument for nVidia til netop at vælge den vej. Specielt da ATi siden 9700 virkelig er begyndt at æde markedsandel.

Og nej, SLI er her faktisk ikke, men det er da smart hvis man allerede kan få folk til at vælge nVidia fordi de "engang" vil have mulighed for at køre SLI.



Kimi Räikkonen skrev Saturday den 06 November 2004 kl. 14:50: [ svar | nyeste ]
Prøv også at lægge mærke til hvor dårligt to 6600 klarer sig i forhold til et enkelt 6800. Da ram-mængden og antallet af pipelines er det samme, burde denne opstilling klare sig langt bedre, hvilket også blev udtrykt i nVidias tidlige pressemeddelelser. Her skulle to 6600GT faktisk yde det samme som et 6800GT på nær et par procent.

Noget tyder på at SLI ikke er nær så effektivt som nVidia gerne vil gøre det til.

Jeg tror det vil være smartere at ofre lidt på solid køling at kabinet og grafik med henblik på overclocking, da det uden videre vil kunne anvendes på næste generation også.



Simon Kaastrup-Olsen skrev Sunday den 07 November 2004 kl. 15:51: [ svar | nyeste ]
Apropos overclocking, hvordan ser det ud med OC af et X700 Pro? Er det muligt at presse mere juice ud af det, da det jo principielt hører til X800 generationen. (fordi det måske er samme chip med færre pipes, men samme RAM og hvad ved jeg.)

Eller er det stadig et bedre køb at købe et 9800 pro kort i forhold til et X700. Kan nemlig ikke finde nogle artikler der sammenligner disse to kort. /SKO



Kiwi skrev Sunday den 07 November 2004 kl. 16:43: [ svar | nyeste ]
http://www.firingsquad.com/hardware/sapphire_hybrid_radeon_x700_pro/ 9800pro og X700pro ser ud til at ligge temmelig lige, dog har sidstnævnte SM2.0b og 3DC. Ydermere ser det ud til at clocke rimeligt i de reviews jeg har læst. Jeg vil dog mene at 6600GT/6800LE er bedre køb end begge disse kort, ihvertfald så længe 256mb ram ikke er en ekstrem fordel. Jeg vil nok anbefale dig at vente indtil alle kortene er gået retail i stor grad, det ser ud til der kommer en mindre krig og det betyder altid bedre/ billigere produkter ;-)


Simon Kaastrup-Olsen skrev Sunday den 07 November 2004 kl. 19:16: [ svar | nyeste ]
Hej Kiwi, tak for det! Jeg tjekker straks linket, og jeg kigger på 66GT/6800LE, promise:o) /SKO


Simon Kaastrup-Olsen skrev Sunday den 07 November 2004 kl. 19:46: [ svar | nyeste ]
Nogen der så ved om man kan få 6000GT uden Pci-Express? Lidt svært hvis man har en bundkort der kun kører med AGP... Kan i hvertfald ikke se sådanne kort på edbpriser.dk... plz somebody - argh


cAPS lOCK skrev Sunday den 07 November 2004 kl. 20:30: [ svar | nyeste ]
I følge ComputerBase (auf deutch bitte) lanceres kortet om 9 dage
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/oktober/geforce_6600_gt_agp_16_november/

...så med lidt (eller måske meget?) held er det muligt at købe op mod jul.

Test af AGP-versionen af 6600GT'eren er så småt begyndt at dukke op:

http://www.pconline.com.cn/diy/evalue/evalue/graphics/0410/478739_1.html

...ikke at jeg selv fik alverden ud af det link ;-)

/cl



cAPS lOCK skrev Sunday den 07 November 2004 kl. 20:33: [ svar | nyeste ]
>Deutsch< ...suk

/lEKTOR bLOMME



Rune skrev Sunday den 07 November 2004 kl. 23:10: [ svar | nyeste ]
Læs mere her:

http://www.theinquirer.net/?article=19340

Bemærk, at dit spørgsmål intet har med SLI at gøre, da SLI kun er relevant mht. PCI Express x16, hvorfor dit spørgsmål venligst burde være stillet i vores forum:

http://www.hardwaretidende.dk/forum/list.php?f=7


Ra skrev Sunday den 07 November 2004 kl. 23:24: [ svar | nyeste ]
- kan du ikke også fixe dét link der gør siden alt for bred til at læse i 1024x768?

- og måske be- eller afkræfte den tilbagevendende påstand om at 3Dc ikke understøttes af Radeon9800?



Kimi Räikkonen skrev Monday den 08 November 2004 kl. 16:11: [ svar | nyeste ]
Enig.

Jeg læser den tit på labtop og det er trælst! :-)



Rune skrev Monday den 08 November 2004 kl. 18:38: [ svar | nyeste ]
Så burde henvisningen være skrumpet en anelse; 3Dc understøttes udelukkende af R4xx-baserede grafikkort såsom X800 og X700:

"Like the X800, ATI has also integrated 3Dc support into X700" osv.

Kilde: http://www.firingsquad.com/hardware/ati_radeon_x700_xt/page2.asp

Øvrige grafikkort fra Nvidia og ATi kan dog anvende DXT5-komprimering af normal maps, men denne komprimeringsform kan være stærkt tabsgivende.


Rune skrev Saturday den 20 November 2004 kl. 13:35: [ svar | nyeste ]
Første billeder af Asus A8N-SLI Deluxe er dukket op:

http://www.digit-life.com/news.html?110866#110866

http://www.asus.com/news/2004/20041117.htm

http://www.asus.com/products/mb/socket939/a8nsli-d/overview.htm


Bemærk, at der desværre er aktiv blæser på bundkortet, men nuvel, SLI er nok ej heller rettet specielt til særligt støjfølsomme personer...


cpe.atm2-0-72256.0x535a7d5a.taanxx2.customer.tele.dk skrev Sunday den 21 November 2004 kl. 10:18: [ svar | nyeste ]
SLI - eller ikke SLI... Som det fremgår af ovenstående, så er der argumenter både for og imod. Men jeg vil da bare lige nøgtern konstatere, at omsider er der i det mindste "officielt" et AMD PCI-Expres bundkort på vej. Så må vi bare se, hvilke af disse bundkort der kommer først i handlen. SLI - eller ikke SLI... Personligt er jeg snart ligeglad, hvorvidt det understøtter SLI, Voodoo eller Xbox. Hvis bare snart de kunne tage sig sammen til, at få de pokkers PCI-Express bundkort i handlen. SLI - eller ikke SLI...


cAPS lOCK skrev Tuesday den 23 November 2004 kl. 21:41: [ svar | nyeste ]
Anandtech har fulgt op på artiklen:

http://www.anandtech.com/video/showdoc.aspx?i=2284

...og har svært ved at skjule begejstringen :)

ASUS board'et lader til at blive overkommeligt prissat:

The A8N-SLI Deluxe is a very interesting solution from ASUS as it will be targeted at both the high end and mainstream Socket-939 markets. With a price point of around $180, ASUS is hoping that all types of users, from casual to hardcore gamers will flock to the A8N-SLI Deluxe to either take advantage of SLI immediately or have the security of a SLI upgrade path.

Måske man skulle se at få afmeldt den XT'er ;)

/cl



Rune skrev Tuesday den 23 November 2004 kl. 23:58: [ svar | nyeste ]
Flere omfattende test af SLI her:

http://www.techreport.com/reviews/2004q4/nforce4-ultra/index.x?pg=1

http://www.tomshardware.com/graphic/20041123/index.html

http://www.hardocp.com/article.html?art=Njk2

http://www.firingsquad.com/hardware/nvidia_nforce_4_sli/


Rune skrev Sunday den 28 November 2004 kl. 21:46: [ svar | nyeste ]
Tidlig test af Asus A8N-SLI Deluxe med 2 x 6600GT:

http://www.behardware.com/articles/536/page1.html


Rune skrev Monday den 29 November 2004 kl. 10:52: [ svar | nyeste ]
Tech-Report har nu også testet SLI på omfattende måde, læs mere her:

http://www.tech-report.com/reviews/2004q4/sli/index.x?pg=1

En lille detalje var dog effektforbruget, dvs. addering af endnu en 6800GT eller 6800U forøgede et systems samlede effektforbrug med op til ca. 100 watt:


Kilde: http://www.tech-report.com/reviews/2004q4/sli/index.x?pg=1

Så en strømforsyning på 550 - 600 watt er næppe helt af vejen (med en virkningsgrad på 70% vil 370 watt kræve minimum 530 watt strømforsyning). Med en high-end Prescott cpu skal der formodentlig tillægges endnu 50 watt til det målte effektforbrug, da Tech Report testede med Athlon 64 4000+ (dvs. her ville PSU på 600 - 700 watt nok være en god ide).



Kristian E skrev Monday den 29 November 2004 kl. 15:36: [ svar | nyeste ]
Den opgivne effekt er altså på output siden - du kan jo læse på siden af din PSU...


Info
HardwareTidende er en omfattende guide til optimal afvikling af computerspil på PC. Dette kræver viden om hardware såsom grafikkort, cpu'er, ram og meget mere. Du kan læse mere om konceptet bag HardwareTidende her:

Om os

Hardwaretidende bliver kun opdateret, når der sker noget nyt og interessant. Skriv endelig til os, hvis der er noget, vi har overset; nyheder modtages gerne.



Startside
Lad HardwareTidende blive din startside: Klik her

Eller hvis du kun vil tilføje os til dine foretrukne: Klik her

Copyleft © 2000-2004 HardwareTidende