Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia bringt SLI zurück
Leonidas
2004-06-28, 15:02:22
Link (http://www.3dcenter.org/artikel/2004/06-28.php)
/edit 28.06.2004 / 15:50
Schreibfehler gefixt, hier und da zusätzlicher Text
/edit 28.06.2004 / 16:04
Nachtrag bezüglich des E7525-Chipsatzes
/edit 29.06.2004 / 03:53
weiterer Nachtrag
/edit 30.06.2004 / 07:48
weiterer Nachtrag
Pinoccio
2004-06-28, 15:05:11
Der Link im Artikel zum Forum funzt nicht. (15:03)
\edit: jetzt schon
Mh, was komisch ist: oben sind die beiden Karten dicht nebeneinander und der SLI-Stecker ist ja auch recht kurz und unten das MoBo hat zwei (relativ) weit auseinanderliegende PCIe-Steckplätze, gibt es dann Variable SLI-Stecker?
Könnte man nicht auch die Datenübertragung über das PCIe abwickeln? Das wäre doch dann endlich (für unendlich Geld *g*) mal die nötige Killerapplikation.
mfg Sebastian
fl_li
2004-06-28, 15:09:41
unterdessen anscheinend schon...:D
schade...hatte mehr vom Artikel erwartet (für das kann das 3D Center Team aber nix...(gibt halt einfach noch keine Benchs...)
könnte man per SLI eigentlich auch 3 oder mehrere NV40 "verknüpfen"?
Corrail
2004-06-28, 15:11:03
Tippfehler?
Da allerdings nVidia allerdings sowohl als Grafikchip- als auch als Chipsatz-Entwickler mit allen großen Mainboard-Herstellern eng zusammenarbeitet, dürfte es sicherlich das eine oder andere Mainboard mit diesen zwei benötigten Steckplätzen geben.
Gleich über dem Mainbaord-Pic.
SLI steht bei 3dfx fuer scan line interleave AFAIK.
Es hat insofern also nichts mit NVs Scalable Link Interface zu tun.
Sicher genial für Hardcorefreaks (bestimmt toll für Stereobrillen-Fans wie mich).
Ob man das so bald braucht...
Besonders praktisch wäre es natürlich, wenn die zweite Karte gar kein PCIe 16x mehr bräuchte, sondern in einen 1x-Slot passen würde und der ganze Datentransfer über den einen 16x Slot der ersten Karte und dann das Verbindungsstück liefe. Damit hätte man wohl das größte Board-Problem behoben.
Wird aber wohl Träumerei bleiben :(
StefanV
2004-06-28, 15:30:50
zu dem (Supermicro?) Dual Xenon Board pic:
Ironischerweise ist auf diesem Demonstrations-Mainboard mit zwei PCI Express x16 Steckplätzen
sogar noch ein AGPx8 Steckplatz zu finden.
Öhm, den AGP hab ich irgendwie, trotz intensiver suche, übersehen :|
[dzp]Viper
2004-06-28, 15:32:53
Original geschrieben von Stefan Payne
Öhm, den AGP hab ich irgendwie, trotz intensiver suche, übersehen :|
is doch genau zwischen den beiden PCI Express x16 ;)
Pinoccio
2004-06-28, 15:33:27
Original geschrieben von Stefan Payne
zu dem (Supermicro?) Dual Xenon Board pic:
Öhm, den AGP hab ich irgendwie, trotz intensiver suche, übersehen :|
Sieht in der Tat eher wie ein "kurzer" PCI-Steckplatz aus.
mfg Sebastian
\edit: mist, da war jemand schneller :baeh:
StefanV
2004-06-28, 15:35:41
Original geschrieben von [dzp]Viper
is doch genau zwischen den beiden PCI Express x16 ;)
Öhm, der ist irgendwie etwas zu weiß und auch von dem sonstigen Design her schaut der eher wie ein PCI aus.
Auch die Position dieses Steckplatzes stimmt nicht ganz (AGP ist etwas weiter nach hinten versetzt).
nggalai
2004-06-28, 15:36:48
Original geschrieben von Pinoccio
Mh, was komisch ist: oben sind die beiden Karten dicht nebeneinander und der SLI-Stecker ist ja auch recht kurz und unten das MoBo hat zwei (relativ) weit auseinanderliegende PCIe-Steckplätze, gibt es dann Variable SLI-Stecker?Nö, passt schon, so--jede Karte braucht zwei Steckplätze Platz.
Hier übrigens nochmals der Link auf die ComputerBase-Benchmarks (resp. ihre Kopie davon) zur Alienware-Lösung:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/juni/2x_geforce_6800_benchmarks
93,
-Sascha.rb
Original geschrieben von fl_li
unterdessen anscheinend schon...:D
schade...hatte mehr vom Artikel erwartet (für das kann das 3D Center Team aber nix...(gibt halt einfach noch keine Benchs...)
könnte man per SLI eigentlich auch 3 oder mehrere NV40 "verknüpfen"?
Theoretisch müsste dies, allerdings in einer "geraden" kombination, funktionieren.
[dzp]Viper
2004-06-28, 15:40:08
hihi
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/juni/port_nv45_diagnosezwecken/
schon lustig wie NV die leute erstmal an der Nase herumführt :D
Find ich goil *g*
nVidia hat uns nun unsere Vermutung bestätigt, dass es sich hierbei lediglich um einen Diagnose-Port des Engineering-Samples und nicht - wie von einigen Lesern vermutet - um eine Lösung nach Art des Voodoo²-SLI-Interfaces handelt.
Nach der Newsmeldung habe ich auch nicht mehr damit gerechnet, dass das doch für ne SLI lösung da wäre :)
Gut gemacht nV :D
Naja, aber in der Praxis wird das neue NVidia SLI sicherlich nicht so oft eingesetzt werden wie früher bei den Voodoos.
Dazu ist der Aufwand der betrieben werden muss einfach zu groß.
Die Mainboards werden sicherlich Mangelware. Dazu kommen dann noch die Kosten die auch deutlich höher liegen als damals.
Aber nett für Fans und professionelle Kunden das man die Möglichkeit hat.
Leonidas
2004-06-28, 15:52:18
Original geschrieben von Gast
SLI steht bei 3dfx fuer scan line interleave AFAIK.
Es hat insofern also nichts mit NVs Scalable Link Interface zu tun.
Danke für den Hinweis, steht nun mit drin.
Leonidas
2004-06-28, 15:53:23
Original geschrieben von fl_li
schade...hatte mehr vom Artikel erwartet
Es gibt nur haufenweise Images von den Karten und ein mickriges PDF, welches aber eher wie eine Präsentation und nicht wie eine technische Erklärung wirkt.
Leonidas
2004-06-28, 15:55:07
Original geschrieben von Stefan Payne
Öhm, der ist irgendwie etwas zu weiß und auch von dem sonstigen Design her schaut der eher wie ein PCI aus.
Auch die Position dieses Steckplatzes stimmt nicht ganz (AGP ist etwas weiter nach hinten versetzt).
Hab es erstmal rausgenommen, ist eher doch kein AGP.
BlueRaven
2004-06-28, 16:20:02
3dfx ist zurück und lebt in Nvidia weiter
BodyLove
2004-06-28, 16:28:12
fällt das NDA nicht erst ab 20Uhr?:spock:
Sonst eine Überraschung seitens NV. Aber teuer scheint das Gerät schon zu werden. Leider.:(
Fusion_Power
2004-06-28, 16:37:24
Waren das nicht die Großen NV-Karten mit den 2 Stromanschlüssen? O-O Das währen dann ja 4. Wow, bei dem Leistungshunger schon EINER Karte, was brauch man dann für ein Netzteil, welches 2 6800er verkraftet?
Das goibt am Ende sicher ne schöne Stromrechnung. :D Aber wer sich 2 der dicken Grakas leisten kann, hat damit wohl keine Probleme. ^^
MadManniMan
2004-06-28, 16:41:50
Erster Absatz nach den Vorraussetzungen:
"Im Gegensatz zur Voodoo2 sind die Anforderungen von SLI heutzutage leider etwas höher. Denn seinerzeit setzte die Voodoo2 als echte Addin*-Karte (also ohne 2D-Teil, welcher über eine extra 2D-Grafikkarte zur Verfügung gestellt werden musste) natürlich auf PCI als Steckplatz - und davon gab es zumeist ausreichend. Heute nun werden zwei PCI Express x16 Steckplätze notwendig, welche allerdings die wenigsten Mainboards aufweisen dürften, zudem ist der Support von der Chipsatz-Seite ebenfalls nicht sichergestellt."
Addon
mapel110
2004-06-28, 16:45:27
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/juni/3dfx_nvidia_sli/
CB mit wohl allen Bildern :)
/edit
eigentlich kanns nvidia nur darum gehen, alle benchmarks zu gewinnen. als reale Lösung für den gamer zu hause ists ja wohl nicht gedacht.
Original geschrieben von Fusion_Power
Waren das nicht die Großen NV-Karten mit den 2 Stromanschlüssen? O-O Das währen dann ja 4. Wow, bei dem Leistungshunger schon EINER Karte, was brauch man dann für ein Netzteil, welches 2 6800er verkraftet?
Das goibt am Ende sicher ne schöne Stromrechnung. :D Aber wer sich 2 der dicken Grakas leisten kann, hat damit wohl keine Probleme. ^^
Vor allem, welches Netzteil hat überhaupt so viele Stromanschlüße? Wer sowas im Rechner drin hat will ja gewiß auch seinen DVD-Brenner und seine 2 RAID-Festplatten anschließen...
Bin mal gespannt, ob die passenden Mainboards dann auch noch mehr als nur 32 PCIe-Lanes haben werden. Will dann ja auch GBit-Ethernet und RAID-Controller anschließen.
Hallo du wunderbare Welt der vollgestopften PCs :)
Insgesamt aber denke ich mal ist diese Fähigkeit ein Argument für nVidia: Ich kaufe mir heute ne normale GT und in em dreiviertel Jahr, wenn sie mir zu lahm wird einfach noch ne zweite günstig dazu, anstatt ne komplette neue GraKa zu kaufen.
Das ist doch mal ein Board wo mir die Anzahl der RAM Slots gefaellt. Wenn es jetzt noch Win64 gaebe... *traeum*
Das ist leider eine große Marketingblase, wobei ich in den CAD/Workstationbereich sinnvolle Einsatzmöglichkeiten sehe. Deswegen verstehe ich den Artikel nicht: ab heute auch CAD/Profi Karten Tests und Berichte auf 3DCenter?
Hellfire-Torrod
2004-06-28, 16:50:56
Futuremark 3DMark03
GeForce 6800 Ultra SLI - 20.185
:o
"Ich will nach hause, mammi":...(
Rampage 2
2004-06-28, 16:57:51
Nvidia hat der Größenwahn gepackt*eg*
Ich frage mich, wie das Teil in Doom3 abgeht...
Wenn Nvidia aber nur SLI aus der 3dfx-Technologie herausholt, dann macht mich das als ehemaliger (und noch aktiver) 3dfx-Fan wütend. Also Nvidia: holt mehr aus 3dfx heraus.
Übrigens: Das Temporal-AA gibt es auch für die Voodoo5=)
Es wird ja gar nicht so genutzt wie bei 3dfx damals. Denn dort wurden jeweils die geraden und ungeraden Zeilen von den beiden Grafikkarten gerechnet.
Bei NVidia soll es ja angeblich die obere und die untere Bildschirmhälfte sein.
Und dann ist das in der Praxis auch oft gar nicht mal mehr so viel schneller. Denn in der oberen Hälfte befindet sich in vielen Games zum größten Teil einfach nur der Himmel.
Ich verstehe nicht warum NVidia es nicht geschafft hat(oder nicht wollte?) diese Technik so zu nutzen wie 3dfx damals.
Ganz davon abgesehen das es für den normalen Enduser eh niemals interessant sein wird.
HellHorse
2004-06-28, 17:08:45
denn für zwei PCI Express x16 Steckplätze gibt es momentan keine andere Anwendung als nVidia´s SLI.
Würde ich so nicht sagen.
Zwei PCI-E Steckplätze machen sinn, wo immer man 2 Grafikkarten will. Sei es nun, ob man 4 Bildschirme will oder auf dem gleichen System testen will wie der gerade geschriebene Code auf ATi und NVIDIA Karten läuft oder irgendwelche Berechnungen auf einer Grafikkarte laufen lässt, die sich gut parallelisieren lassen.
Ok, das sind nicht gerade häufige Anwendungen, aber darum geht es ja nicht.
Windi
2004-06-28, 17:16:46
2 PCIe x16 Steckplätze heisse erklärts.
heise.de (http://www.heise.de/newsticker/meldung/48668)
Intels Workstation-Chipsatz E7525 (Codename Tumwater) unterstützt anscheinend 24 Lanes. Im ersten Slot bei der Hauptkarte werden 16 Lanes angeschlossen, bei der Zweitkarte schliesst man an dem 16-fach Slot nur 8 PCIe Lanes an.
edit: Dank an Pinoccio
Dazu passt dieses hier:
http://www.computerbase.de/news/hardware/chipsaetze/nvidia/2004/juni/mit_nforce_4_stand/
Für AMD User.
Pinoccio
2004-06-28, 17:24:19
@windi: dein Link ist futsch (glaub ich jedenfalls)
/edit: ist geändert
hier der sollte gehen (http://www.heise.de/newsticker/meldung/48668)
mfg Sebastian
Original geschrieben von Fadl
Es wird ja gar nicht so genutzt wie bei 3dfx damals. Denn dort wurden jeweils die geraden und ungeraden Zeilen von den beiden Grafikkarten gerechnet.
Bei NVidia soll es ja angeblich die obere und die untere Bildschirmhälfte sein.
[...]
Ich verstehe nicht warum NVidia es nicht geschafft hat(oder nicht wollte?) diese Technik so zu nutzen wie 3dfx damals.
Vielleicht ist das aus Sicht des Anti-Aliasings besser, das wurde damals ja noch nicht so groß geschrieben. Denn ein Chip sendet ja die Daten an den anderen, aber wie will Chip 2 AA machen, wenn er nicht weiß, was Chip 1 da für Farben in die anderen Zeilen hineinzaubert?
So müsste der Chip, bei dem die Daten zusammenlaufen, nur noch an der Grenze AA berechnen, nicht für's gesamte Bild.
don_salieri
2004-06-28, 17:44:22
Ich frage mich, wer eine derartige SLI-Lösung braucht? Die Grafikleistung ist doch bereits mit einer einzelnen GeForce 6800 Ultra irrsinnig hoch.
Technisch ist SLI sicher interessant, aber wenn man bedenkt, welchen Aufwand man dafür betreiben muss, und welche Probleme man sich damit einhandelt (Wärme- und somit Geräuschentwicklung), ist das der blanke Wahnsinn.
Ok, für den professionellen Workstationmarkt mag SLI Sinn machen, aber für Spieler, selbst für Hardcore-Zocker, ist das rausgeworfenes Geld.
BodyLove
2004-06-28, 17:49:21
Ich denke mit so einer Karte wäre man sogar in der Lage, das 8xAA von NV ohne Probs einzuschalten. Auch bei Spielen wie FarCry. Von der Seite ist es höchst interessant.
mapel110
2004-06-28, 17:50:34
Original geschrieben von don_salieri
aber für Spieler, selbst für Hardcore-Zocker, ist das rausgeworfenes Geld.
das werden sicher einige tun. 3dmark-score-listen werden für den nötigen anreiz sorgen.
Original geschrieben von BodyLove
Ich denke mit so einer Karte wäre man sogar in der Lage, das 8xAA von NV ohne Probs einzuschalten. Auch bei Spielen wie FarCry. Von der Seite ist es höchst interessant.
und man wäre damit immernoch nicht wirklich schneller als ATI's 6xAA.
Corrail
2004-06-28, 17:53:26
Aber ich finde die Möglichkeit sich jetzt eine 6800GT zu kaufen und wenn sie zu langsam wird in einem Jahr eine zweite billige 6800GT dazuzukaufen recht interessant.
Ansonsten ist das einfach nicht zum bezahlen. Für 2 6800 Ultra (vielleicht sogar noch Extreme Edition) bekomm ich einen ganzen Highend-PC!
mapel110
2004-06-28, 17:56:16
Original geschrieben von Corrail
Aber ich finde die Möglichkeit sich jetzt eine 6800GT zu kaufen und wenn sie zu langsam wird in einem Jahr eine zweite billige 6800GT dazuzukaufen recht interessant.
du musst aber das drumherum mit einbeziehen.
# Mainboard mit zwei PCI Express x16 Steckplätzen
# ein Netzteil, welches zwei nVidia-Grafikkarten verkraftet :-)
# ein ausreichend gekühlter PC, um mit der Abwärme von zwei HighEnd-Grafikkarten fertigzuwerden
dann ists nicht mehr so interessant. :(
SynchroM
2004-06-28, 18:24:55
DAS wünsch' ich mir zu Weihnachten!
http://www2.fht-esslingen.de/~mimuit01/kadde.jpg
Ultron
2004-06-28, 18:32:41
Als 3dfx Fan werde ich mir diese Karte ownwn, keine Frage!! Hab lang auf das ultimative Monster gewartet. :D
Birdman
2004-06-28, 18:38:07
Bei mir ist es nur eine Frage des Mainboards, ob ich mir so ein Monster hole oder nicht.
Bekomme ich ein vernünftiges AMD-64 Mobo (Desktop Modell please) mit zwei passenden PCI-Express Slots, dann gehört mein Geld bereits Nvidia.
Original geschrieben von don_salieri
Ich frage mich, wer eine derartige SLI-Lösung braucht? Die Grafikleistung ist doch bereits mit einer einzelnen GeForce 6800 Ultra irrsinnig hoch.
Technisch ist SLI sicher interessant, aber wenn man bedenkt, welchen Aufwand man dafür betreiben muss, und welche Probleme man sich damit einhandelt (Wärme- und somit Geräuschentwicklung), ist das der blanke Wahnsinn.
Ok, für den professionellen Workstationmarkt mag SLI Sinn machen, aber für Spieler, selbst für Hardcore-Zocker, ist das rausgeworfenes Geld.
Das sehe ich genauso, kein Normalanwender braucht so ein Monster. Wenn für sowas noch Geld vorhanden ist braucht derjenige an anderer Stelle auch nicht zu jammern.
3dfx wird dadurch auch nicht wieder lebendig, als 3dfx-Fan eine nVidia-Karte kaufen?:grübel:
tokugawa
2004-06-28, 18:44:09
Original geschrieben von Fusion_Power
Waren das nicht die Großen NV-Karten mit den 2 Stromanschlüssen? O-O Das währen dann ja 4. Wow, bei dem Leistungshunger schon EINER Karte, was brauch man dann für ein Netzteil, welches 2 6800er verkraftet?
Das goibt am Ende sicher ne schöne Stromrechnung. :D Aber wer sich 2 der dicken Grakas leisten kann, hat damit wohl keine Probleme. ^^
Das ist die PCI Express Variante, die kommt ja "nur" mit einem Stromstecker pro Karte.
Naja, meine Stromrechnung macht selbst eine dieser Karten nicht mehr mit, daher warte ich eher auf die 6600 oder wie auch immer die heißen wird...
nggalai
2004-06-28, 19:19:05
Original geschrieben von don_salieri
Ich frage mich, wer eine derartige SLI-Lösung braucht? Die Grafikleistung ist doch bereits mit einer einzelnen GeForce 6800 Ultra irrsinnig hoch.Echtzeit-Visualisierung und Offline Hardware-Rendering. Mit ersterem konnte sich Quantum jahrelang über Wasser halten, letzteres ist mitlerweilen fast NV-exklusiv. Und da kann man nie genug Leistung haben.
93,
-Sascha.rb
tokugawa
2004-06-28, 19:33:48
Original geschrieben von nggalai
Echtzeit-Visualisierung und Offline Hardware-Rendering. Mit ersterem konnte sich Quantum jahrelang über Wasser halten, letzteres ist mitlerweilen fast NV-exklusiv. Und da kann man nie genug Leistung haben.
93,
-Sascha.rb
Jo, sogar bei ersterem hat NVIDIA schon recht viel aufgeholt, zumindest auf dem CG-Institut meiner Uni, sowie bei www.vrvis.at, wo fast ausschließlich FX-Karten und NV40s werken. Find ich auch nett und ganz ok so, dass auch mal Benutzergruppen außer Gamer bedient werden, "3D" heißt ja nicht ausschließlich Spiele.
Uttar wrote:
One small number that might interest you guys: AFAIK, this solution is approximatively 35% faster than Alienware's
hui jui
nggalai
2004-06-28, 19:59:05
In der Hinsicht macht auch das "2 Slots bitte"-Problem nicht viel aus ... für solche Anwendungen nimmt man eh gerne mal ein Dual- und/oder Server-Board. Strom (und Lärm) ist auch kaum ein Problem.
93,
-Sascha.rb
Jesus
2004-06-28, 20:29:19
und allzu effizient ist SLI auch nicht ... bei den Voodoos waren es maximal so 70 %, meistens um die 30-50%
von der Wärmeentwicklung, Netzteil und Lärmbelästigung mal abgesehen :)
Matrix316
2004-06-28, 20:31:41
Wo es nicht mal eine zu kaufen gibt, wie soll man denn an gleich zwei kommen? :kratz: ;)
deekey777
2004-06-28, 21:07:19
Original geschrieben von Jesus
und allzu effizient ist SLI auch nicht ... bei den Voodoos waren es maximal so 70 %, meistens um die 30-50%
von der Wärmeentwicklung, Netzteil und Lärmbelästigung mal abgesehen :)
Unterlass so etwas, das bringt nur Stress mit sich.
Den Leuten, welche das SLI á la nVidia einsetzen werden, ist es so was von egal, was du geschrieben hast, wenn es ihnen nur um die pure Spieleperformance geht.
Zum Thema:
Wenn man 2 "6600 Ultra" per SLI miteinander verbindet, welche Leistung ist zu erwarten?
Aber 2*SLI*6800 non-ultra wären eine sehr interessante Sache, da relativ günstig. Oder so ähnlich.
MfG, Ich n00b.
tokugawa
2004-06-28, 21:17:49
Original geschrieben von deekey777
Unterlass so etwas, das bringt nur Stress mit sich.
Den Leuten, welche das SLI á la nVidia einsetzen werden, ist es so was von egal, was du geschrieben hast, wenn es ihnen nur um die pure Spieleperformance geht.
Also, ich find die am ehesten plausible Anwendung ist wie gesagt eben NICHT bei Spielen, sondern eben eher in "professionellen" und wissenschaftlichen Anwendungen (Echtzeitvisualisierung, HW-Offline-Rendering).
Für's Spielen allein wär so ein Ding eigentlich zu schade...
Hauwech
2004-06-28, 21:32:50
Und was waere deiner Meinung nach effizienter, Jesus?
Original geschrieben von Jesus
und allzu effizient ist SLI auch nicht ... bei den Voodoos waren es maximal so 70 %, meistens um die 30-50%
von der Wärmeentwicklung, Netzteil und Lärmbelästigung mal abgesehen :)
Damals war es effizient und ich habe sie mir gekauft. Mußte zwar einen Kleinkredit aufnehmen für meine 2 Monsters, das hat sich aber gelohnt. Ich habe, bis die Geforce GTS rauskam, mit denen gezockt. Zwischenzeitlich habe ich eine davon in einer Situation, in der ich wohl zuviel Rouge im Bauch hatte und nicht mehr klar bei Verstand war, verschenkt. Hab mir aber bei Gelegenheit eine gebrauchte Karte nachgekauft und jetzt liegen die beiden Kärtchen fein säuberlich im Karton hier. Mit den neusten Treibern. :stolz:
Bei den 6800 muß man mal abwarten, wie die Preise sich entwickeln, wann Mobos verfügbar sind und wie die Werte in Spielen aussehen. Aber ich glaube, nVidia hat mit dieser Lösung ein furchtbar heißes Eisen im Feuer. Wenn das so einschlägt, wie damals die Voodoo² Sli, dann wirds für den Wettbewerb eng.
thg widerspricht beim v-sync leos artikel ein wenig
V-Sync: Die Befürchtung, das V-Sync beim parallelen GPU-Betrieb zwingend aktiviert sein muss, um beide Signale zusammenzufügen, trifft nicht zu. NVIDIA hat eine Lösung gefunden, beide Signale in einen zusätzlichen Buffer zusammenzufügen. Die Gefahr von störenden Tearing-Effekten ist dabei nicht größer wie bei deaktiviertem V-Sync mit einer einzelnen Karte. Damit kann die die volle, maximale Framerate eines SLI-Systems ausgekostet werden, ohne dass die Monitor-Refreshrate die Framerate einschränkt.
quelle: thg
Schnitzl
2004-06-28, 21:42:28
Original geschrieben von Jesus
und allzu effizient ist SLI auch nicht ... bei den Voodoos waren es maximal so 70 %, meistens um die 30-50%
von der Wärmeentwicklung, Netzteil und Lärmbelästigung mal abgesehen :)
hm, also 70% find ich schon recht effizient...
Bei weniger ist dann meistens die CPU die Bremse also passts doch ;)
Ich sag dir, das war "damals" traumhaft - Unreal und später UT mit V2 SLI *schwelg*
P.S.: bei den V2 war übrigens weder die Lärmbelästigung noch die Wärmeentwicklung ein Problem, da gabs nämlich nichtmal nen Passivkühler ^^
ironMonkey
2004-06-28, 21:46:06
Original geschrieben von kmf
Damals war es effizient und ich habe sie mir gekauft. Mußte zwar einen Kleinkredit aufnehmen für meine 2 Monsters, das hat sich aber gelohnt. Ich habe, bis die Geforce GTS rauskam, mit denen gezockt. Zwischenzeitlich habe ich eine davon in einer Situation, in der ich wohl zuviel Rouge im Bauch hatte und nicht mehr klar bei Verstand war, verschenkt. Hab mir aber bei Gelegenheit eine gebrauchte Karte nachgekauft und jetzt liegen die beiden Kärtchen fein säuberlich im Karton hier. Mit den neusten Treibern. :stolz:
Bei den 6800 muß man mal abwarten, wie die Preise sich entwickeln, wann Mobos verfügbar sind und wie die Werte in Spielen aussehen. Aber ich glaube, nVidia hat mit dieser Lösung ein furchtbar heißes Eisen im Feuer. Wenn das so einschlägt, wie damals die Voodoo² Sli, dann wirds für den Wettbewerb eng.
Heutzutage ist das nicht mehr gang und gebe sowas zu holen, da man ein NT braucht was ordentlich Leistung bringt und ein Brett was wahrscheinlich nicht billig wird, also man müsste erstmal schauen das sich die Bretter schnell verteilen, einen Gehäuse Standard der große NT's zulässt und dann kann man schon eher drüber reden, weil wenn ATI das nachmacht( was ich mal denke) dann kann man sich mit der Entwicklung der Chips mehr Zeit lassen, da sich ja der high end Gamer zur not ja dann ne 2te Karte holen kann falls es nichtmehr reicht.
Derzeit ists unsinning, aber mit einem kleinen Blick in die ukunft hat es doch Sinn und Zweck.
Gruß
Original geschrieben von ironMonkey
Heutzutage ist das nicht mehr gang und gebe sowas zu holen, da man ein NT braucht was ordentlich Leistung bringt und ein Brett was wahrscheinlich nicht billig wird, also man müsste erstmal schauen das sich die Bretter schnell verteilen, einen Gehäuse Standard der große NT's zulässt und dann kann man schon eher drüber reden, weil wenn ATI das nachmacht( was ich mal denke) dann kann man sich mit der Entwicklung der Chips mehr Zeit lassen, da sich ja der high end Gamer zur not ja dann ne 2te Karte holen kann falls es nichtmehr reicht.
Derzeit ists unsinning, aber mit einem kleinen Blick in die ukunft hat es doch Sinn und Zweck.
Gruß hhm der GAMER bekommt nie genug;)
das wird die entwicklung nur drosseln wenn nur einer so heftige power bietet.
falls ati nicht mitzieht wirds nix damit, in goodies stehen sie ja schon hinten, mal schauen ob sie mehr power oder erst mehr goodies bringen werden.
hmm dann würde ati ja wieder den weg gehen den nvdia letztes jahr ging.
komische spielerein machen die beiden in letzter zeit.
hoffe mal das ati da kontert sonst treten wir auf der stelle, und die preise werden von nv wieder diktiert.
Blacksoul
2004-06-28, 22:09:53
Original geschrieben von nggalai
Echtzeit-Visualisierung und Offline Hardware-Rendering. Mit ersterem konnte sich Quantum jahrelang über Wasser halten, letzteres ist mitlerweilen fast NV-exklusiv. Und da kann man nie genug Leistung haben.
93,
-Sascha.rb
Vertreibt Quantum eigentlich noch AAlchemy Systeme?
Eigentlich müssten sie doch nur noch nVidia-Systeme anbieten.
Dual Xeon DP + 6800GT SLI wäre schon etwas sehr feines.
Fehlt nur noch das nötige Kleingeld :)
Original geschrieben von [dzp]Viper
hihi
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/juni/port_nv45_diagnosezwecken/
schon lustig wie NV die leute erstmal an der Nase herumführt :D
Find ich goil *g*
nVidia hat uns nun unsere Vermutung bestätigt, dass es sich hierbei lediglich um einen Diagnose-Port des Engineering-Samples und nicht - wie von einigen Lesern vermutet - um eine Lösung nach Art des Voodoo²-SLI-Interfaces handelt.
Nach der Newsmeldung habe ich auch nicht mehr damit gerechnet, dass das doch für ne SLI lösung da wäre :)
Gut gemacht nV :D
hehe ja das ist wirklich nett gemacht. Nvidia scheint jetzt richtig Gas zu geben. Man merkt irgendwie, dass sie freie Ressourcen haben, weil der Konsolendeal flach flällt.
Das klingt einfach nur genial. Ich muss auch sagen, dass nVidia hier mal was besonders nettes von 3dfx übernommen hat (endlich)! =)
Mal ne Frage an die Gurus: Ist es mit dieser Lösung möglich, höhere AA-Stufen zu fahren? So à la Voodoo4 4500 (1 Chip, 2xRGSSAA) Voodoo5 5500 (2 Chips, 4xRGSSAA)?
MfG,
Raff
Original geschrieben von Raff
Das klingt einfach nur genial. Ich muss auch sagen, dass nVidia hier mal was besonders nettes von 3dfx übernommen hat (endlich)! =)
Mal ne Frage an die Gurus: Ist es mit dieser Lösung möglich, höhere AA-Stufen zu fahren? So à la Voodoo4 4500 (1 Chip, 2xRGSSAA) Voodoo5 5500 (2 Chips, 4xRGSSAA)?
MfG,
Raff das ging schon mit den fxen die hatt quantum auch zusamengeschuster, sie waren zwar nicht schneller aber aa wahr quasi for free, bzw die höhren stuffen sind nutzbar gemacht worden.
allerdings nicht im pc bereich eingesetzt!
zeckensack
2004-06-28, 22:33:52
Original geschrieben von Jesus
und allzu effizient ist SLI auch nicht ... bei den Voodoos waren es maximal so 70 %, meistens um die 30-50%Schreib doch einfach mal garnichts, wenn du keine Ahnung hast. Jetzt nicht nur speziell auf dieses bezogen, sondern auf die vielen überflüssigen Postings, die du dir in den letzten paar Tagen ausgedacht hast.
Original geschrieben von Raff
Mal ne Frage an die Gurus: Ist es mit dieser Lösung möglich, höhere AA-Stufen zu fahren? So à la Voodoo4 4500 (1 Chip, 2xRGSSAA) Voodoo5 5500 (2 Chips, 4xRGSSAA)?Nein. Dafür müsste die Teilung auf Subpixelebene stattfinden.
Natürlich werden die schon vorhandenen AA-Modi schneller (und dadurch evtl erst vernünftig nutzbar), aber es kommen keine neuen hinzu.
Ah, ok, danke. :)
Naja, so schlimm ist das sicher nicht, denn nVidias 8xAA auch in 1600x1200x32 nutzen zu können (Vermutung) ist ja schon ne verdammt feine Sache. =)
MfG,
Raff
Exxtreme
2004-06-28, 22:36:50
Original geschrieben von Raff
Mal ne Frage an die Gurus: Ist es mit dieser Lösung möglich, höhere AA-Stufen zu fahren? So à la Voodoo4 4500 (1 Chip, 2xRGSSAA) Voodoo5 5500 (2 Chips, 4xRGSSAA)?
MfG,
Raff
IMHO wird das nicht gehen. Die Voodoo4 4500 könnte theoretisch auch 4x AA. 3dfx hat das aber per Treiber deaktiviert... IIRC. Vorhandene Modi werden einen kräftigen Leistungsschub erfahren, speziell die SSAA-Modi.
haben dann eigentlich alle verkauften gt und ultra karten diesen anschluß oder ist das dann eine "special edition"...
bei ersterem wäre es tatsächlich interessant, sich jetzt, pünktlich zu doom3 ;), so eine karte zu holen und später eine zweite karte zusätzlich zu kaufen. dann ist der wereverfall auch nicht so hoch... ok, man braucht eventuell ein neues mainboard, aber wenn das mit einem cpu-upgrade geschieht, lässt sich das meist eh nicht vermeiden.
Sieht so aus, als wenn alle PCI-E Versionen das SLI Interface besitzen.
Thomas
Raymond
2004-06-28, 22:55:58
Und wer bis zum vierten Quartal warten kann und das ganze für nen Athlon64 will.
http://www.gamestar.de/news/hardware/18497/
(Was nicht heisst das diese Quelle zuverlässig ist, hehe)
Gruss Ray
Winter[Raven]
2004-06-28, 23:05:17
Diese SLi-Lösung bestätigt wohl nVidias Vorhaben sich noch mehr auf dem Offlinerendering/Realtimerendering Markt auszubreiten.
Mit der Leistung verdrängen sie nicht nur die FireGL's von ATI sondern auch die restlichen Mitbewerber.
Original geschrieben von Raymond
Und wer bis zum vierten Quartal warten kann und das ganze für nen Athlon64 will.
http://www.gamestar.de/news/hardware/18497/
(Was nicht heisst das diese Quelle zuverlässig ist, hehe)
Gruss Ray hmm amd board mit ddr2 unterstützung.
ich dachte der k8 bleibt bei ddr1
oder ddr2 exclusive für den semperon komische.
aber die quelle ist eh fürn popo
nix für ungut
nggalai
2004-06-28, 23:07:48
Und eben--ist hauptsächlich für Profi-Anwendungen gedacht:
http://www.nvidia.com/object/IO_14167.html
Von 4 Medienmeldungen heute drehen sich 3 um Quadro-Systeme. Trotzdem, noch für "Consumer": ;)
In addition, the world’s top add-in-card manufacturers will also be adopting the technology. These include:
-Albatron Technology, Co. Ltd
-AOpen
-ASUS Computer International
-BFG Technologies, Inc.
-Chaintech
-ELSA Japan
-Gainward Co., Ltd.
-Gigabyte Technology, Co., Ltd.
-Leadtek Research, Inc.
-Micro-Star International
-Palit Microsystems, Inc.
-Pine, XFX, a Division of Pine
-PNY Technologies
-Prolink Computer Inc
-Sparkle
“Multi-GPU Ready” PCI Express motherboards will also be available from: Abit, ASUS Computer International, Epox, Gigabyte Technology, Co., Ltd., and Micro-Star International. In addition, the NVIDIA nForce™ media and communications processors (MCPs) will support the Company’s SLI initiative, with products to be introduced in the second half of 2004.
Das da unten mit "second half of 2004" dürfte sich wohl auf den nForce 4-Chipsatz beziehen.
(Link (http://www.nvidia.com/object/IO_14172.html))
93,
-Sascha.rb
Endorphine
2004-06-28, 23:55:25
Original geschrieben von tb
Sieht so aus, als wenn alle PCI-E Versionen das SLI Interface besitzen.
Thomas Mal ganz nebenbei — ich weiß nicht, ob es alle wissen oder ob es noch niemandem aufgefallen ist — das SLI-Platinchen nutzt offensichtlich für jede Karte zur Verbindung mit der anderen eine PCIe ×1 Buchse/Slot.
Möglicherweise nur wegen der guten Verfügbarkeit, stabilen Mechanik und des günstigen Preises von nVidia gewählt. Vielleicht handelt es sich aber auch um einen vollwertigen PCIe ×1 Slot auf jeder Karte, eine Spezialfunktion der PCIe-HSI Bridge.
Weiß da jemand genaueres? Würde mich nur von der Technik her interessieren, wie nV die Kommunikation zwischen beiden Karten konkret umsetzt.
Detailbilder:
http://media.hardwareanalysis.com/articles/large/11207.jpg
http://media.hardwareanalysis.com/articles/large/11208.jpg
zeckensack
2004-06-29, 00:23:23
Das kann auch ein anderes Protokoll sein, das nur auf vorhandene mechanische Elemente zurückgreift. So wie der Slot A die gleichen mechanischen Elemente wie der Slot 1 nutzte, aber auf Protokollebene ganz anders funktionierte.
Es könnte IMO auch ein NVIDIA-proprietäres Protokoll, oder gar Hypertransport sein.
LiveWire
2004-06-29, 00:32:38
High End, Enthusiast, Gamer, Server, Offlinerendering, blah. Was mich mehr interessiert in welche systeme dass rein soll, ich was hochleistung is mir schon klar, aber Netzteile (mehr als 800W im derzetigen Standrad Kasten, "Scotty wir bracuchen neue hyper-hoch-leistungs-thyristoren" lol) haben da schon Probleme, den wer zwei Graka´s, zwei Prozi´s und 8 Ramriegel hat (ich glaube dass alleine sind schon 400W) der hat bestimmt kein normales(!?) RAID System zu laufen sondern mindestens 4 Platten! Da wird dann der Begriff Rechenschrank auch zuhause wider mordern oderso den dass nimmt Platz weg ohne Ende, ganz zu schweigen von den thermal Solutions BTX is en Witz dagegen heute bereits veraltert, und ich dachte immer HomePCs, auserdem möchte ich den Gamer gerne sehen der sein 100KG Sys zur LAN schleppen will/muss, nein ich glaube nicht dass sich das wirklich etablieren wird, auch nicht im 2ten Anlauf, dass ist entweder fürs Offline Rendering & co oder eine weitere kranke Blühte von NV´s Marketingbereich!
Endorphine
2004-06-29, 00:41:53
Original geschrieben von zeckensack
Das kann auch ein anderes Protokoll sein, das nur auf vorhandene mechanische Elemente zurückgreift. So wie der Slot A die gleichen mechanischen Elemente wie der Slot 1 nutzte, aber auf Protokollebene ganz anders funktionierte.
Es könnte IMO auch ein NVIDIA-proprietäres Protokoll, oder gar Hypertransport sein. Darauf spekuliere ich auch. Es ist sicher einfacher umsetzbar, etwas proprietäres zu bauen. Oder vielleicht eine zusätzliche PCIe-Lane an der HSI-Bridge etwas "umzubauen" und für SLI zu verwenden... :kratz2:
Wenn die mechanische Verwandschaft sich auch elektrisch/logisch fortsetzt könnte ich es mir aber auch vorstellen, dass Fremdfirmen auch ein 4×/8× SLI bauen (à la Quantum3D bei 3dfx).
Irgendwie muss die Verbindung ja ohnehin realisiert sein. Imho wäre es sogar recht effizient, der HSI-Bridge einfach 16+1 Lanes einzupflanzen und eine davon für SLI vorzusehen. Hypertransport oder andere Schnittstellen müssten erst aufwändig zusätzlich in die GPU integriert werden, die PCIe-Bridge ist dagegen schon vorhanden.
Mal sehen, welche Annahme sich bewahrheitet :) (so wir denn überhaupt genaueres erfahren werden).
Warum sprechen eigentlich manche Seiten von einer "anderen Lösung bei Alienware"
Ich verwette sonst was drauf, das Alienware genau das benützt was heute vorgestellt wurde.
Plasmafusion
2004-06-29, 02:51:15
Na wenigstend hat PCI-Express jetzt einen (1) Sinn bekommen.
Hinweiß: Als 2CPU.com Xeon Freak :: bloss kein PCI-E Mobo mit a) Nvidia/SiS/VIA/Keks *.* b) Intel E7*** Chipsatz kaufen.
Es wird PCI-E Dual 16x Xeon Boards mit i875 (!) und Alderwood 925XE geben werden [tun] von ASUS und Iwill. Alles andere ist Müll für's Übertackten ...
BesenWesen
2004-06-29, 02:54:48
Original geschrieben von SynchroM
DAS wünsch' ich mir zu Weihnachten!
http://www2.fht-esslingen.de/~mimuit01/kadde.jpg
:D
Hehe... bei dem Bild fiel mir doch prompt diese kleine Szene aus dem Film "23" ein, als Karl Koch und David mit einer schrottreifen PDP-11 aus dem Kernforschungszentrum Jülich bei ihrem "Arbeitgeber" antanzen:
Lupo: "Ihr hättet ne Micro-PDP 11 kaufen sollen, richtig?!"
Karl: "Richtig, aber die hier..."
Lupo: "Die hier braucht Starkstrom !"
Karl: "Dann lassen wir halt nen Anschluß legen..."
Lupo: "Ja, und ne Entlüftungsanlage gleich dazu, sonst kannst Du in Deiner Wohnung nen Sauneclub aufmachen!"
Nunja...soviel dazu :)
Ansich halte ich es schon für eine nette Sache, daß NV diese Idee wieder ausgegraben hat... die Hardware- und Leistungsenthusiasten wirds freuen (sofern sich dieses neue SLI als ähnlich effektiv herausstellt wie damals bei der V2).
Auch die Aussicht, seiner 6800 wenn nach einiger Zeit die Preise gefallen sind eine Zweite zur Seite zu stellen und somit einen ordentlichen Leistungsschub für relativ wenig Geld zu bekommen, gefällt... auf den ersten Blick. Abgesehen davon, daß man ein Mainboard benötigt, welches mehr als 32 PCI Express Lanes zur Verfügung stellt sehe ich die größte Hürde im immensen Strombedarf heutiger High-End Grafikkarten. Gut, NVIDIA haben ihre Empfehlung für ein 480 Netzteil wieder zurückgenommen, gänzlich aus der Luft gegriffen wird das jedoch nicht gewesen sein. Man benötigt in jedem Fall ein starkes NT schon für EINE 6800, zwei von diesen werden wohl viele überfordern. Somit ist es heute wohl Essig mit der Hoffnung, mittels SLI seinem Rechner irgendwann nochmal kostengünstig auf die Sprünge helfen zu können. Vom Stromverbauch des kompletten Systems einmal abgesehen, den ich schon bei meinem übertakteten AthlonXP mit der GFX5900XT ziemlich gruselig finde (hatte ich mal nachgemessen... mit Monitor bis zu 300 Watt).
Die Freaks und Profianwender werden sich daran natürlich nicht stören, für die mag sich SLI als ein leckeres Angebot herausstellen. Im Hinblick auf die Prestigeträchtigkeit des Spitzen-High-End Segments könnte ich mir gut vorstellen, daß ATI bald etwas ähnliches anbietet, ansonsten hätten sie das Rennen in dieser Liga (diesesmal) verloren.
Leonidas
2004-06-29, 03:05:34
Original geschrieben von Fusion_Power
Waren das nicht die Großen NV-Karten mit den 2 Stromanschlüssen? O-O Das währen dann ja 4. Wow, bei dem Leistungshunger schon EINER Karte, was brauch man dann für ein Netzteil, welches 2 6800er verkraftet?
Das goibt am Ende sicher ne schöne Stromrechnung. :D Aber wer sich 2 der dicken Grakas leisten kann, hat damit wohl keine Probleme. ^^
Die PCI-E Karten haben nur einen Stromanschluß, auch die ganz grossen.
Leonidas
2004-06-29, 03:06:55
Original geschrieben von mapel110
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/juni/3dfx_nvidia_sli/
CB mit wohl allen Bildern :)
/edit
eigentlich kanns nvidia nur darum gehen, alle benchmarks zu gewinnen. als reale Lösung für den gamer zu hause ists ja wohl nicht gedacht.
Ich denke fast eher, die wollen das Produkt für den Workstation-Markt haben. Das es auch mit der GF6 geht, dürfte vermutlich eher ein Nebeneffekt sein.
Leonidas
2004-06-29, 03:08:17
Original geschrieben von Gast
Das ist leider eine große Marketingblase, wobei ich in den CAD/Workstationbereich sinnvolle Einsatzmöglichkeiten sehe. Deswegen verstehe ich den Artikel nicht: ab heute auch CAD/Profi Karten Tests und Berichte auf 3DCenter?
Nein. Aber warum darüber nicht berichten? Es funtzt auch mit GF6. Und angesichts des 3dfx-Erbes ist es auch jeden Fall berichtenswert.
Leonidas
2004-06-29, 03:09:17
Original geschrieben von Fadl
Und dann ist das in der Praxis auch oft gar nicht mal mehr so viel schneller. Denn in der oberen Hälfte befindet sich in vielen Games zum größten Teil einfach nur der Himmel.
Dafür gibt es LoadBalancing.
Leonidas
2004-06-29, 03:12:51
Original geschrieben von Gast
Uttar wrote:
One small number that might interest you guys: AFAIK, this solution is approximatively 35% faster than Alienware's
hui jui
... welches aber wieder hingegen mit einer beliebigen gfx funktioniert. Hat alles seine Vor- und Nachteile.
Leonidas
2004-06-29, 03:14:03
Original geschrieben von deekey777
Aber 2*SLI*6800 non-ultra wären eine sehr interessante Sache, da relativ günstig. Oder so ähnlich.
... dachte sich auch NV und schloß die GF6800nU von SLI aus.
Leonidas
2004-06-29, 03:14:59
Original geschrieben von 3Dfx
thg widerspricht beim v-sync leos artikel ein wenig
V-Sync: Die Befürchtung, das V-Sync beim parallelen GPU-Betrieb zwingend aktiviert sein muss, um beide Signale zusammenzufügen, trifft nicht zu. NVIDIA hat eine Lösung gefunden, beide Signale in einen zusätzlichen Buffer zusammenzufügen. Die Gefahr von störenden Tearing-Effekten ist dabei nicht größer wie bei deaktiviertem V-Sync mit einer einzelnen Karte. Damit kann die die volle, maximale Framerate eines SLI-Systems ausgekostet werden, ohne dass die Monitor-Refreshrate die Framerate einschränkt.
quelle: thg
Danke! Wird ergänzt.
Leonidas
2004-06-29, 03:17:29
Original geschrieben von Raff
Das klingt einfach nur genial. Ich muss auch sagen, dass nVidia hier mal was besonders nettes von 3dfx übernommen hat (endlich)! =)
Mal ne Frage an die Gurus: Ist es mit dieser Lösung möglich, höhere AA-Stufen zu fahren? So à la Voodoo4 4500 (1 Chip, 2xRGSSAA) Voodoo5 5500 (2 Chips, 4xRGSSAA)?
MfG,
Raff
8xAA wird maximal doppelt so schnell - was immer noch langsamer wäre als das 6xAA der R420. Überhalb von 4xAA macht es bei NV momentan noch keinen Sinn.
tokugawa
2004-06-29, 06:37:15
Original geschrieben von Leonidas
Ich denke fast eher, die wollen das Produkt für den Workstation-Markt haben. Das es auch mit der GF6 geht, dürfte vermutlich eher ein Nebeneffekt sein.
Es gibt schon manche Forschungs-Institute, die eben gerade auch Consumer Hardware wie die FX 5800 Ultra oder die 6800 einsetzen... ist einfach günstiger, bzw. ist es gar nicht schlecht, wenn man auf einem "Consumer-Treiber" die Visualisierungs-Anwendungen zum laufen bringt (die ganzen Algorithmen und Techniken kommen ja sowieso irgendwann in "Consumer-Software" wie Spiele).
Für mich privat ist es allerdings doch eher nichts :), wobei mich die Mainboard-Anforderung am meisten stört derzeit.
tokugawa
2004-06-29, 06:39:52
Original geschrieben von Leonidas
Original geschrieben von Gast
Das ist leider eine große Marketingblase, wobei ich in den CAD/Workstationbereich sinnvolle Einsatzmöglichkeiten sehe. Deswegen verstehe ich den Artikel nicht: ab heute auch CAD/Profi Karten Tests und Berichte auf 3DCenter?
Nein. Aber warum darüber nicht berichten? Es funtzt auch mit GF6. Und angesichts des 3dfx-Erbes ist es auch jeden Fall berichtenswert.
Da stimm ich zu, es heißt ja 3DCenter und nicht 3DGAMECenter.
Ich finde es in Ordnung oder sogar noch viel interessanter, wenn auch Berichterstattung gemacht wird, die über reines Spielen hinausgeht.
Demirug
2004-06-29, 07:52:38
Original geschrieben von Coda
Warum sprechen eigentlich manche Seiten von einer "anderen Lösung bei Alienware"
Ich verwette sonst was drauf, das Alienware genau das benützt was heute vorgestellt wurde.
Nein, die Alienware Lösung funktioniert anders.
Bei dieser Lösung weiss im Prinzip eine Grafikkarte nichts von der anderen. Ein Softwarelayer der zwischen der Applikation und den Karten liegt verdoppelt der Datenstrom und schickt in zu jeder Karte. Dabei werden dann noch bestimmte Anpassungen vorgenommen damit jede Karte nur einen Teil des Bildes rendert. Am anderen Endes greift man dann die beiden Ausgangsignale ab und baut über den "Video Merger Hub" wieder ein Bild daraus. Dieser Merger Hub ist letzte Endes nichts anderes als eine spezialversion der im Videobreich schon länger benutzten Seamless Video switches mit Blend Funktion. Spezialversion deshalb weil man mit hoher Wahrscheinlichekeit alles an Funktionen entfernt hat was man nicht unbedingt braucht um das ganze günstiger zu machen.
Demirug
2004-06-29, 10:28:46
In der Entwickler FAQ zu SLI finden sich auch noch ein paar interesante Sachen.
http://developer.nvidia.com/object/sli_faq.html
Bei Render2Texture teilen sich die beiden Chips demnach auch die Arbeit und syncronisieren sich dann. Das dürfte ein Vorteil gegenüber der Alienware Lösung sein den dort wird bei Render2Texture wahrscheinlich jeder der beiden Chips die komplette Texture rendern müssen.
Hauwech
2004-06-29, 10:53:35
Warum wird das Bild eigentlich horizontal und nicht vertikal gesplittet? Wie sieht das mit dem 3DFx Verfahren aus jeweils gerade und ungerade Zeilen rechnen zu lassen? Lohnt sich das hier nicht oder ist das nichts fuer AA/AF?
Demirug
2004-06-29, 11:00:07
Original geschrieben von Hauwech
Warum wird das Bild eigentlich horizontal und nicht vertikal gesplittet? Wie sieht das mit dem 3DFx Verfahren aus jeweils gerade und ungerade Zeilen rechnen zu lassen? Lohnt sich das hier nicht oder ist das nichts fuer AA/AF?
Die beiden Teile müssen ja wieder zusammengesetzt werden. Mit einem horizontalen Split sollte man dabei den schnellsten Datentransfer erreichen weil man schön linear arbeiten kann.
deekey777
2004-06-29, 12:57:21
Original geschrieben von Leonidas
... dachte sich auch NV und schloß die GF6800nU von SLI aus.
Hallo???
Lars sagt aber was anderes (http://www.de.tomshardware.com/graphic/20040628/nvidia-sli-03.html) :
"Beide PCI-Express-Karten müssen von identischer Leistungsklasse sein, also jeweils zwei GeForce 6800 Ultra, zwei GeForce 6800 GT oder 6800 Standard. Ein Mischen der Kartentypen ist nicht möglich, obwohl es dank Load Balancing eigentlich denkbar wäre. Ob der SLI-Betrieb auch mit künftigen NV4x-Mainstream-Karten möglich sein wird, ist noch unklar. NVIDIA dazu: 'No comment'."
Steht also im "Widerspruch" zu Deinem Artikel.
Schade wäre, wenn nVidia zumindest die Mainstreamgrafikkarten von SLI ausschliesst.
Edit: Falls das oben geschriebene wie Klugscheissen aussieht, sorry. :weg:
Demirug
2004-06-29, 13:12:07
deekey777, offiziel geht es mit der 6800nU nicht.
Wie es inoffiziel aussieht wird auch noch davon abhängen wie es mit dem Verkauf von den teilen aussieht.
Wenn man die kleine Brücke nicht einzelen zu kaufen bekommt sondern nur in Verbindung mit Karten dann wird das mit dem Dual betrieb nur mit den entsprechenden Karten was.
deekey777
2004-06-29, 13:19:55
Original geschrieben von Demirug
deekey777, offiziel geht es mit der 6800nU nicht.
Wie es inoffiziel aussieht wird auch noch davon abhängen wie es mit dem Verkauf von den teilen aussieht.
Wenn man die kleine Brücke nicht einzelen zu kaufen bekommt sondern nur in Verbindung mit Karten dann wird das mit dem Dual betrieb nur mit den entsprechenden Karten was.
Aha. THX.
Die Hoffnung stirbt also zuletzt.
Offiziell spricht nV von GeForce 6 - und Quadro-Serien, die sich dafür eigneten.
Und wenn ich mir diese Seite (http://www.nvidia.com/object/IO_11761.html) so anschaue, so teht die QuadroFX da mit 4,5GTex/s.
Das liesse bei 16 Pipes etwa 280MHz Takt erahnen, oder, und das halte ich für wahrscheinlicher, 375MHz bei 12 Pipes.... und 12 Pipes hat bekanntlich auch die 6800nu.
Borsti
2004-06-29, 13:30:09
Original geschrieben von deekey777
Hallo???
Lars sagt aber was anderes (http://www.de.tomshardware.com/graphic/20040628/nvidia-sli-03.html) :
Steht also im "Widerspruch" zu Deinem Artikel.
Schade wäre, wenn nVidia zumindest die Mainstreamgrafikkarten von SLI ausschliesst.
Edit: Falls das oben geschriebene wie Klugscheissen aussieht, sorry. :weg:
Bis gestern war ich mir zu 99% sicher, das auch die nU für SLI vorgesehen ist. Zum einen weil im Briefing auch von der standard mal die Rede war und auch von "6800 series". Zum Anderen hat die 6800 nU zumindest bei AGP das selbe PCB wie die GT. Aber in der offiziellen FAQ steht nur GT und Ultra... also das wird noch zu klären sein.
Lars - THG
Demirug
2004-06-29, 13:30:44
Original geschrieben von q@e
Offiziell spricht nV von GeForce 6 - und Quadro-Serien, die sich dafür eigneten.
In der SLI-FAQ (http://www.nvidia.com/page/pg_20040624928832.html) steht aber nur:
6800U, 6800GT und Quadro FX 3400.
EDIT: Lars war schneller
Pinoccio
2004-06-29, 13:37:46
Original geschrieben von q@e
Und wenn ich mir diese Seite (http://www.nvidia.com/object/IO_11761.html) so anschaue, so teht die QuadroFX da mit 4,5GTex/s.
Das liesse bei 16 Pipes etwa 280MHz Takt erahnen, oder, und das halte ich für wahrscheinlicher, 375MHz bei 12 Pipes.... und 12 Pipes hat bekanntlich auch die 6800nu.
http://www.heise.de/newsticker/meldung/48696 schreibt
"Auf der QuadroFX 3400 kombiniert Nvidia den 16-Pipeline-Chip GeForce 6800 GT mit 256 MByte GDDR3-Speicher, der allerdings mit 450 MHz niedriger getaktet ist als bei der Consumer-Version."
mfg Sebastian
Pressemitteilung by nVidia
NVIDIA bringt revolutionäre neue Multi-GPU Technologie auf den Markt
NVIDIA SLI schöpft das komplette Potenzial von PCI Express aus
SANTA CLARA, CA-28. Juni 2004 - NVIDIA (Nasdaq: NVDA), der weltweite Marktführer in Visual und Media Processing Lösungen, zeigte heute eine neue revolutionäre Technologie, die es ermöglicht, dass mehrere Grafik-Karten der NVIDIA® GeForce(tm) 6 oder der NVIDIA Quadro® Serie in einem einzigen PC oder einer Workstation arbeiten und so eine enorme Erhöhung der Grafikleistung erzeugt wird. Die NVIDIA SLI Technologie, die im Laufe des Jahres in PCI Express basierten PCs und Workstations von weltweit führenden Herstellern verfügbar sein wird schöpft die zusätzliche Bandbreite und die Funktionen dieser neuen Hochleistungs-Bandbreiten-Bus-Architektur aus.
[+ bla]
Mir fällt auf Anhieb auch kein besonderer Grund ein, warum das mit 12-Pipern, ausser durch gewolltes Weglassen der Ports, nicht möglich sein sollte.
Original geschrieben von Pinoccio
http://www.heise.de/newsticker/meldung/48696 schreibt
"Auf der QuadroFX 3400 kombiniert Nvidia den 16-Pipeline-Chip GeForce 6800 GT mit 256 MByte GDDR3-Speicher, der allerdings mit 450 MHz niedriger getaktet ist als bei der Consumer-Version."
mfg Sebastian
Komisch, weder die 4 als Tippfehler passt, denn auch wenn da eine 3 stünde, wäre das ja nicht weniger, als die Consumer-Version der GT, noch passt dazu die Füllratenangabe mit 4,2GTex/s - die läßt nämlich nur auf 350MHz schließen.
er... das scheint sich auf das RAM zu beziehen, mit den 450MHz - ok. :)
Allerdings dürfte ein 16-Pipe-Chip nur mit schlappen 260MHz laufen für 4,2GTex/GPix. :|
Demirug
2004-06-29, 13:43:16
Original geschrieben von q@e
Mir fällt auf Anhieb auch kein besonderer Grund ein, warum das mit 12-Pipern, ausser durch gewolltes Weglassen der Ports, nicht möglich sein sollte.
Einen technischen Grund sehe ich auch nicht.
Borsti
2004-06-29, 13:51:12
Original geschrieben von Demirug
Einen technischen Grund sehe ich auch nicht.
Eine Erklärung wäre, das nicht alle Kartenhersteller das aufwändigere PCB der GT für ihre Standard verwenden wollen bzw. das die Hersteller nach einer günstigeren (weniger Layer) Platine drängen. Das ist jetzt aber reine Spekulation.
Lars
Mal eine andere Sache:
Bei nV hieß es in letzter Zeit oft "No comment on unannounced products" - ist denn eine "non-ultra" überhaupt für PCI-e angekündigt? ;)
Ihr dürft nicht den wirtschaftlichen Aspekt außer Acht lassen.
Leonidas
2004-06-29, 15:56:52
Original geschrieben von deekey777
Hallo???
Lars sagt aber was anderes (http://www.de.tomshardware.com/graphic/20040628/nvidia-sli-03.html) :
Steht also im "Widerspruch" zu Deinem Artikel.
Schade wäre, wenn nVidia zumindest die Mainstreamgrafikkarten von SLI ausschliesst.
Ich weiss. Alle NV-Unterlagen deuten jedoch klar darauf hin, daß die 6800nU ausgeschlossen ist.
Leonidas
2004-06-29, 16:09:51
Original geschrieben von q@e
Und wenn ich mir diese Seite (http://www.nvidia.com/object/IO_11761.html) so anschaue, so teht die QuadroFX da mit 4,5GTex/s.
Das liesse bei 16 Pipes etwa 280MHz Takt erahnen, oder, und das halte ich für wahrscheinlicher, 375MHz bei 12 Pipes.... und 12 Pipes hat bekanntlich auch die 6800nu.
Diese Seite stellt aber schlicht alle Quadro-Lösungen vor - ohne Bezug auf SLI.
Leonidas
2004-06-29, 16:10:41
Original geschrieben von q@e
Mir fällt auf Anhieb auch kein besonderer Grund ein, warum das mit 12-Pipern, ausser durch gewolltes Weglassen der Ports, nicht möglich sein sollte.
Technisch gibt es keinen. Nur Marketing-Technisch.
Original geschrieben von Leonidas
Diese Seite stellt aber schlicht alle Quadro-Lösungen vor - ohne Bezug auf SLI.
Das ist mir klar - es war auch nur als Indiz angeführt, ob eine QuadroFX standardmäßig mit 16 oder 12 Pipelines daherkommt - und damit Rückschlüsse auf die Möglichkeit der Verwendung einer 6800nu mit SLI zuläßt.
Borsti
2004-06-30, 10:27:33
Es wird wohl eine 6800nu mit SLI geben. Der Name der PCIe ist aber noch nicht klar... daher keine Aussage bisher dazu.
Lars - THG
status
2004-06-30, 10:40:09
hi all
Ich weiss ja nicht obs bereits jemand geschrieben hat, den ich bin schlicht und und einfach zu faul die ganzen 6 seiten durchzulesen, aber ich hallte das ganze für einen riesigen schwachfug.
Ich mein jetzt nicht das nvidia mit der sli lösung, gegenüber Ati boden gut machen will, sondern wie hoch wird die wärmeentwickling der ersten karte sein, da die zweite karte den lüfter der ersten so ziemlich komplett verdeckt und nach hinten ja auch wärme abstrahlt?
Und von den gleich 2 verlorenen slots hab ich bisher noch niemand reden hören, also nicht mehr viel platz für ne soundkarte mit zusätzlichen optischen eingang am 2 slotblech oder ne externe netzwerkkarte, raid & scsi, vergessen wir in dem fall gleich ganz.
ach ja die 4 stromanschlüsse, hehe, dem erfinder des Y kabels sei hier mal ein dank ausgesprochen, der bedarf dieser kabel wird erheblich steigen.
greetz
Original geschrieben von status
hi all
ach ja die 4 stromanschlüsse, hehe, dem erfinder des Y kabels sei hier mal ein dank ausgesprochen, der bedarf dieser kabel wird erheblich steigen.
greetz
Hi
Erst informieren, dann denken, dann posten! Zeig und doch mal die 4 Stromanschluesse von denen du hier redest.
nggalai
2004-06-30, 10:56:27
Original geschrieben von status
ach ja die 4 stromanschlüsse, hehe, dem erfinder des Y kabels sei hier mal ein dank ausgesprochen, der bedarf dieser kabel wird erheblich steigen.Die PCI-Express Versionen der Karten haben jeweils einen Stromanschluss. Die SLI kommt also mit 2 Steckern aus.
93,
-Sascha.rb
...und wie Wärmeentwicklung ändert sich nicht, wenn der Lüfter weniger gute Zufuhr erhält - schließlich ändert sich auch nicht die Leistungsaufnahme. :)
Davon ab sind die mir bislang bekannt Lösungen für "die großen" nV3x und nV4x durchaus in der Lage auch mit blockiertem Lüfter die Karte betriebsfähig zu halten. :)
deekey777
2004-06-30, 12:11:52
Alienware's Video Array compared to NVIDIA SLI (http://www.tomshardware.com/hardnews/20040629_101923.html)
Marketing Blah-Blah...
Hauwech
2004-06-30, 16:33:04
Das Belueftungsproblem halte ich fuer vernachlaessigbar, zumindest bei den Systemen die an Profis ausgeliefert werden. Unzureichende Belueftung kann man sich da zu dem wahrscheinlich nicht gerade niedrigen Preis nicht leisten.
Wenn es das ganze fuer Privatanwender gibt, also wahrscheinlich erst mit nForce4 & Co. fuer AMD und mit SIS & Co. Chipsaetzen fuer P4 sehe ich eigentlich auch kein Problem.
Die Gehaeusebauer werden den handwerklich nicht so Begabten bestimmt gerne "Prepared for SLI"-Gehaeuse anbieten (wahrscheinlich nur ein oder vielleicht sogar 2 Luefter in der Seitenwand).
Wer kein neues Gehaeuse kaufen will aber dennoch SLI moechte, der bastelt sich selber einen oder zwei Luefter in die Seitenwand.
IMHO ist das aber auch nicht unbedingt notwendig. nVidia duerfte schon wissen das ein normales Gehaeuse ausreicht, schliesslich kann und will nicht jeder extra deswegen umbauen oder neu kaufen. Lassen wir uns aber mal ueberraschen. Auf den Post von q@e vertrauend gestehe ich nVidia das mal zu.
Shodan Veritas
2004-06-30, 23:34:00
Um so mehr ich mich durch DAS
http://developer.nvidia.com/attach/7155
hier in Sachen SLI durcharbeite, hört sich das von Absatz zu Absatz mehr an wie ATIs/Volaris AFR. Denn wenn beide Grakas den selben Frame abarbeiten, wieso soll man dann die von der CPU vorbereiteten Frames immer auf die Anzahl der GPUs anpassen? Wobei die Optimierungsregeln für RenderTargetUpdates dann wieder für NVs offizielle Erklärung sprechen...
Könnte es sein, das je nach Anwendung die Ansteuerung der GPUs verschieden erfolgt, z.B. für problematische Sachen AFR als Legacy-Modus?
Original geschrieben von nggalai
Die PCI-Express Versionen der Karten haben jeweils einen Stromanschluss. Die SLI kommt also mit 2 Steckern aus.
93,
-Sascha.rb
Wirklich? :| Ich hab das Adapterkabel, was man für die PCI-E Versionen braucht irgendwo mal gesehen, und das hat eben 2 Stecker nach aussen geführt und nicht nur einen. Wenn ich noch wüsste wo das war...
Original geschrieben von Hauwech
Das Belueftungsproblem halte ich fuer vernachlaessigbar, zumindest bei den Systemen die an Profis ausgeliefert werden. Unzureichende Belueftung kann man sich da zu dem wahrscheinlich nicht gerade niedrigen Preis nicht leisten.
Wenn es das ganze fuer Privatanwender gibt, also wahrscheinlich erst mit nForce4 & Co. fuer AMD und mit SIS & Co. Chipsaetzen fuer P4 sehe ich eigentlich auch kein Problem.
Die Gehaeusebauer werden den handwerklich nicht so Begabten bestimmt gerne "Prepared for SLI"-Gehaeuse anbieten (wahrscheinlich nur ein oder vielleicht sogar 2 Luefter in der Seitenwand).
Wer kein neues Gehaeuse kaufen will aber dennoch SLI moechte, der bastelt sich selber einen oder zwei Luefter in die Seitenwand.
IMHO ist das aber auch nicht unbedingt notwendig. nVidia duerfte schon wissen das ein normales Gehaeuse ausreicht, schliesslich kann und will nicht jeder extra deswegen umbauen oder neu kaufen. Lassen wir uns aber mal ueberraschen. Auf den Post von q@e vertrauend gestehe ich nVidia das mal zu.
Es wird wohl demnächst jede Menge Boards (mit allen Chipsätzen) mit PCI-E 16 "Fakeslots" geben ;) die in Wirklichkeit 4x oder 8x Slots sind. Warum auch nicht? Rein theoretisch sollte das beidseitig funktionieren, auch wenn nicht alle Lanes angeschlossen sind.
Original geschrieben von HOT
Wirklich? :| Ich hab das Adapterkabel, was man für die PCI-E Versionen braucht irgendwo mal gesehen, und das hat eben 2 Stecker nach aussen geführt und nicht nur einen. Wenn ich noch wüsste wo das war...
Schau dir doch einfach mal die Bilder der SLI Version an. Wieviele Stromstecker zaehlst du?
deekey777
2004-07-01, 12:09:37
Mir ist gerade eingefallen, warum man (als Otto-Normal-Spieler) SLI braucht:
Zur Zeit ist die 6800er Serie (im eigenem Haus) die absolute Spitze. Wenn aber nächstes Jahr bzw. in den nächsten 12-18 Monaten (SM3.0-)Spiele kommen, für die eine NV40PCIe (uU auch eine NV48) nicht mehr ausreicht, wenn man die gleiche Performance wie auf einer NV50 bzw. deren Nachfolger haben möchte - dann könnte man einfach noch eine zu diesem Zeitpunkt "veraltete" 6800er PCIe kaufen und diese per SLI-"Brücke" mit der vorhandenen verbinden... Oder so ähnlich.
:weg:
PS: Sollte jemand denken, dass ich mit dem Post nur rumtrollen oder ähnliches will, der irrt sich.
MadManniMan
2004-07-01, 13:05:16
Original geschrieben von deekey777
(...)
:up: Genau so siehts doch aus! Das selbe Phänomen, was damals beim V² anzutreffen war...
Der einzige Unterschied ... die Nachteile der 2*X Lösung waren damals nicht so stark wie heute, nun braucht man PCIe Lanes, tierisch viel Saft, bestimmte MoBo-Kombis, muß viellleicht auf den neuesten Tech-Level verzichten ... aber die Performance? :naughty:
Demirug
2004-07-01, 18:09:32
Original geschrieben von Shodan Veritas
Um so mehr ich mich durch DAS
http://developer.nvidia.com/attach/7155
hier in Sachen SLI durcharbeite, hört sich das von Absatz zu Absatz mehr an wie ATIs/Volaris AFR. Denn wenn beide Grakas den selben Frame abarbeiten, wieso soll man dann die von der CPU vorbereiteten Frames immer auf die Anzahl der GPUs anpassen? Wobei die Optimierungsregeln für RenderTargetUpdates dann wieder für NVs offizielle Erklärung sprechen...
Könnte es sein, das je nach Anwendung die Ansteuerung der GPUs verschieden erfolgt, z.B. für problematische Sachen AFR als Legacy-Modus?
Aufgrund von dem was ich gerade erfahren haben muss man wohl von einem Hybriden Verfahren ausgehen. Allerdings erfolgt der Wechsel zwischen unterschiedlichen Varianten scheinbar dynamisch und Situationsabhängig.
Shodan Veritas
2004-07-02, 03:01:14
Original geschrieben von Demirug
Aufgrund von dem was ich gerade erfahren haben muss man wohl von einem Hybriden Verfahren ausgehen. Allerdings erfolgt der Wechsel zwischen unterschiedlichen Varianten scheinbar dynamisch und Situationsabhängig.
Hatte schon gedacht, ich würde mal wieder Don Quichote spielen, aber diesmal war es wohl keine Windmühle...
Höhere Skalierungen als DualSLI (so ab 4 GPUs) dürften in mancher Situation also gemeine Latenzen zur Folge haben.
Da wüßte ich doch zu gerne, wann das System welche Technik nutzt.
Demirug
2004-07-02, 07:46:10
Original geschrieben von Shodan Veritas
Hatte schon gedacht, ich würde mal wieder Don Quichote spielen, aber diesmal war es wohl keine Windmühle...
Höhere Skalierungen als DualSLI (so ab 4 GPUs) dürften in mancher Situation also gemeine Latenzen zur Folge haben.
Da wüßte ich doch zu gerne, wann das System welche Technik nutzt.
Vorerst ist SLI sowieso nur für 2 GPUs gedacht. Ob man die AFR Variante nutzt hängt laut dem nVidia Mitarbeiter davon ab ob man dem Treiber erlaubt für mehr als einen Frame die Daten zu Buffern (Pre-Render Limit). Wenn mindestens zwei Frames im Kommando Buffer sind wird AFR genutzt ansonsten wird auf ein Verfahren gewechselt bei dem beide Chips gemeinsam einen Frame rendern.
Die Latenz wird also nicht grösser als sie bisher auch schon war den der DX Treiber buffert auch schon bei den jetzigen Karten Frames. Bei OpenGL kann man das ja einstellen und diese Einstellung bestimmt dann mit.
In diesem Modus hat man natürlich nicht nur die doppelte Füllrate sondern auch die doppelte Vertexleistung genutzt werden. Interesant ist allerdings auch das es auch für den Fall das beide Chips gemeinsam an einem Frame arbeiten noch ein paar Dinge im Chip geben soll die verhindern das beide Chips alle Verticen bearbeiten. Allerdings wollte man dort nicht auf Details eingehen.
Was vielleicht auch noch interesant sein könnte ist die Nutzbarkeit der 4 Monitoranschlüsse der beiden Karten. Zum einen kann man natürlich jeden Monitor getrennt nutzen aber es ist auch möglich allen 4 zu einem grossen virtuellen zusammenfügen und dafür einen Rendercontext zu bekommen.
Shodan Veritas
2004-07-03, 01:20:53
Original geschrieben von Demirug
Vorerst ist SLI sowieso nur für 2 GPUs gedacht. Ob man die AFR Variante nutzt hängt laut dem nVidia Mitarbeiter davon ab ob man dem Treiber erlaubt für mehr als einen Frame die Daten zu Buffern (Pre-Render Limit). Wenn mindestens zwei Frames im Kommando Buffer sind wird AFR genutzt ansonsten wird auf ein Verfahren gewechselt bei dem beide Chips gemeinsam einen Frame rendern.
Wenn man also das Pre-Render Limit auf 1 setzt zwingt man die Chips, jeden Frame gemeinsam zu rendern.
Die Latenz wird also nicht grösser als sie bisher auch schon war den der DX Treiber buffert auch schon bei den jetzigen Karten Frames. Bei OpenGL kann man das ja einstellen und diese Einstellung bestimmt dann mit.
Die Grafikleistung eines SLI-Systems dürfte aber stärker an der CPU hängen als bei einem Einzelchip (6800-U/16 vs 6600-SLI/2x8 (wenn es denn SLI für die kleinen NV40-Ableger gäbe...))
In diesem Modus hat man natürlich nicht nur die doppelte Füllrate sondern auch die doppelte Vertexleistung genutzt werden. Interesant ist allerdings auch das es auch für den Fall das beide Chips gemeinsam an einem Frame arbeiten noch ein paar Dinge im Chip geben soll die verhindern das beide Chips alle Verticen bearbeiten. Allerdings wollte man dort nicht auf Details eingehen.
Was vielleicht auch noch interesant sein könnte ist die Nutzbarkeit der 4 Monitoranschlüsse der beiden Karten. Zum einen kann man natürlich jeden Monitor getrennt nutzen aber es ist auch möglich allen 4 zu einem grossen virtuellen zusammenfügen und dafür einen Rendercontext zu bekommen.
:laola:
SLI bringt also Surround-Gaming mit deftigem Tempo...
:laola:
Fehlt nur noch der endgültige Overkill:
Bekommt man mit einer Shutterbrille 3d über vier Monitore oder bräuchte es dafür zwei Quadros mit Framelock?
Auch ein netter Nebeneffekt:
Was ist der günstigste HDTV-Beamer?
Vier XGA-Beamer! (die dann allerdings milimetergenau aufgestellt werden müssen)
http://www.xtremesystems.org/forums/attachment.php?postid=486282 http://www.xtremesystems.org/forums/attachment.php?postid=486283
An dem Tag, an dem das 6-fach GraKa Bild realität wird, werden Rückspiegel über den Monitoren angebracht werden
(volles Surround Feeling? Meine Fresse, da geht man doch seelisch dran zugrunde - das hält doch niemand länger als 30 minuten aus (womöglich mit je einer Box auf jedem Monitor, einer dadrunter und einer darüber...))
Hach, und dann was rauchen oder total besoffen sein und die Psychose ist perfekt - herrlich!
deekey777
2005-06-03, 12:50:32
Leichenflederer...
Bringt SLI eigentlich auch den Videoprozessoren der beiden Grafikkarten irgendwelche Vorteile? Nehmen wir an, er funktioniert, so wie es sein soll, sprich mit bestimmter Software wäre auch das zB MPEG1/2/4-Encoding möglich: Würden die beiden Grafikkarten im SLI-Verbund miteinander teilen und verteilen?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.