PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: SLI-Performance der GeForce GTX 1080 Ti wenig überzeugend


Leonidas
2017-04-18, 12:44:28
Link zur News:
https://www.3dcenter.org/news/sli-performance-der-geforce-gtx-1080-ti-wenig-ueberzeugend

MrSpadge
2017-04-18, 13:53:44
Aus meiner Perspektive gibt es für das multi-GPU Problem in Spielen nur eine gute Lösung: mehrere Chips auf einem Interposer oder noch besser mit Intel Embedded Multi-die Interconnect Bridge (EMIB). So kann man die Bandbreite und Latenz für die Kommunikation der Chips um mindestens eine Größenordnung verbessern, so dass dieser Verbund nach außen hin wie ein Chip agieren könnte (ähnlich AMDs CCX). Perfekt wäre natürlich eine Anbindung mit der vollen Geschwindigkeit des on-chip interconnects.. aber das wird auch mit dieser Technik schwierig bzw. wenig energieeffizient.

MrS

Deisi
2017-04-18, 14:02:57
Das SLI ohne x16/x16 PCI Lanes schlecht skaliert ist doch schon länger bekannt. Da hätte man sich den Test zumindest auf der Mainstream Platform sparen können.

Gast
2017-04-18, 14:23:27
Mich nervt es, dass SLI/Crossfire und MutliGPU aus DX12 laufend in einen Topf geworfen werden. Mit MultiGPU kann man richtig gute Ergebnisse erzielen, während SLI/Crossfire meist ein mäßtiger Kompromiss ist.

HeinLo
2017-04-18, 14:51:10
Es ist ausserdem bekannt, dass SLI nur mit Treiberanpassungen seitens nVidia ordentlich skaliert. Solange nVidia das nicht wieder in die Prioritätenliste mit oben aufnimmt ist da nicht viel zu erwarten. Bei AMD gab es hin und wieder XFire Statements zu Treiberreleases. Leider enthält der Test keinen Vergleich, aber viel schlimmer, es ist nur ein i7 6700K, wenigstens ein 7700k und ein schneller 8-Kerner hätte man zum Vergleich bei zwei Ti nehmen müssen, das wäre aussagekräftiger gewesen.
Wieder so ein Benchmark-Review bei dem man die Kompetenz der Redakteure arg in Zweifel ziehen muss. Aber gut, es gibt zumindest Klicks.

Seltsam finde ich das AotS Ergebnis, man hätte dort mehr erwartet nachdem Multi-GPU damit einmal sehr gut funktionierte. Bei Bethesda/Doom bin ich auch ein wenig enttäuscht, dass man das dort nicht austestet.

Ein Revival von Multi-GPU lässt noch auf sich warten, obwohl wir das auf dem Weg nach 8k und 4k-VR doch so sehr nötig haben. Die Displayhersteller werden schneller die extrem hohen Auflösungen anbieten als die GPU-Hersteller entsprechende Technologiesprünge machen können...

wolik
2017-04-18, 15:57:14
Als Besitzer eines PC mit 1080SLI kann ich nur sagen: sehr peinliches test. Leider ich bin nicht am mein PC um paar Bilder zu posten. One vs SLI. (Witcher 3 und GTA 5)

aufkrawall
2017-04-18, 16:23:42
Was soll denn am dem Test falsch sein?
Die Erwartung ist natürlich, dass wenn man in 4k SLI einschaltet, die Skalierung in jedem unterstützten Spiel >80% beträgt. Das ist bei zig spielen auch ohne TAA und CPU-Limit offenbar nicht der Fall. Von den ganzen Problemen zusätzlich mal abgesehen.

CD-LABS
2017-04-18, 17:49:40
Was soll denn am dem Test falsch sein? (...)
Dass er auf Sockel 1151 aufbaut. Das ist ein interessanter Randtest, den man Leuten zeigen kann, um sie von SLI auf 1151 abzubringen. Er ist sogar wirklich interessant, denn das die Ergebnisse so desaströß wären, das hätte ich nicht erwartet. Daher ist es ein interessanter Mosaikstein, um am Ende zu einem Gesamtfazit zu 1080 Ti SLI zu kommen. Am Ende, bloß ein Stein...


...2011-3, ab Sommer dann 2066 oder womöglich auch dem ominösen Server-Sockel von AMD, ist Pflicht, sozusagen der Torbogen für jeden SLI-Test.

Edit: Ich detailliere es noch etwas aus: Jedem hier, der sagen würde hey, ich habe viel Geld und denke drüber nach ein SLI-System zu bauen. Soll ich das wirklich machen? würde entgegnet werden, dass...

...man sich dann erst einmal um die maximierung einer der Karten (über Kühlung bzw. Takt) Gedanken machen sollte.
...eine Plattform mit genügend Lanes gönnen sollte.
...zur momentan schnellsten Einzel-Graka als Basis greifen sollte.
...man auch die CPU nicht vergessen sollte.


Nichts davon wurde in dem Test befolgt. Es ist ein typisches Beispiel für MultiGPUDoneWrong. Es ist cool, mal einen Test zu haben, der zeigt, dass das wirklich problematisch ist. Und das, obwohl sogar auf Frametimemessungen verzichtet und bloß AVG-FPS genutzt wurden, der Test also sogar an dem Punkt sogar noch MultiGPU bevorzugt.

aufkrawall
2017-04-18, 18:11:24
Und die Skalierung wäre mit mehr Lanes in 4k ohne TAA wirklich besser?

Gast
2017-04-18, 18:55:50
Momentan werden Plattformen von Intel und AMD mit SLI und XFire beworben, die bei zwei belegten Slots "nur" jeweils PCIe3x8 anbieten können.

Ich bin eigentlich überzeugt, dass das für SLI/XFire auch genügt. Bei der GTX980 war es kein grosses Problem:https://www.techpowerup.com/reviews/NVIDIA/GTX_980_PCI-Express_Scaling/10.html

Wenn diese neuen sehr schnellen Karten jeweils mehr als knapp 8GB/s Durchsatz benötigen sollten die GPU-Hersteller das auf die Packung schreiben, damit man weiss ob sinnvolles SLI mit typischen Gaming-Boards überhaupt möglich ist.
Zumindest bei nVidia hat man betont mit den neuen Bridges die Bandbreitenprobleme zu beheben.

CD-LABS
2017-04-18, 19:19:23
Und die Skalierung wäre mit mehr Lanes in 4k ohne TAA wirklich besser?
Nach allem, was man bisher von Usern so gehört hat und aus den wenigen Tests am Rande extrahieren oder extrapolieren konnte? Ja.

aufkrawall
2017-04-18, 19:24:34
Ist halt die Frage, ob die User sich nicht ihre eigenen Ergebnisse cherrypicken, um sich für ihre Investition ein gutes Gefühl zu verschaffen. ;)

CD-LABS
2017-04-18, 19:54:05
Ist halt die Frage, ob die User sich nicht ihre eigenen Ergebnisse cherrypicken, um sich für ihre Investition ein gutes Gefühl zu verschaffen. ;)
Naja, die User machen es dafür aber auch richtig und takten die einzelnen Karten hoch, (bzw. kühlen sie stark, was ja bei seit neuerem fast aufs gleiche hinaus läuft) was natürlich die Skalierung prozentual wieder schlechter darstehen lässt. Natürlich, ohne überragende Tests kann man den schlechten Tests nicht wirklich nachweisen, dass die methodischen Fehler auch zu Fehlern im Ergebnis führen.

Gast
2017-04-19, 13:11:58
Ich nehme an, dass die 40% mit AFR zustande kommen, da SFR praktisch tot ist? Dank AFR bekommt man dann noch mal schoen ein Frame Input Lag. Das lohnt sich!

MrSpadge
2017-04-20, 09:41:13
Mich nervt es, dass SLI/Crossfire und MutliGPU aus DX12 laufend in einen Topf geworfen werden. Mit MultiGPU kann man richtig gute Ergebnisse erzielen, während SLI/Crossfire meist ein mäßtiger Kompromiss ist.
Gerade mit Tile Based Rendering und ner low-level API könnte Multi-GPU eigentlich ganz einfach sein: eine GPU fängt oben links an, die Tiles abzuarbeiten. Die nächsten unten rechts. Bei 4 GPUs noch eine in den jeweils anderen Ecken. Die GPUs teilen den anderen jeweils mit, welches Tile sie bearbeiten, welche schon erledigt sind und reservieren die nächsten 1 oder mehr Tiles (je nach dem, wie viele sinnvoll sind), die sie als nächstes angehen wollen. Kommt es bei den Reservierungen zu Konflikten, ist der Frame fast fertig und es gibt leichte Verluste durch Abstimmungen, wer welches Tile rechnen soll. Oder man rechnet ein bisschen umsonst und wirft ein paar doppelt gerechnete Tiles weg. Die GPU, die als erste fertig ist, baut alle Tiles zum fertigen Bild zusammen.
Damit bekommt man automatisch eine Lastverteilung auf alle GPUs, solange noch Tiles da sind. Das ist viel besser als eine statische Verteilung oder Abschätzung für split frame rendering und umgeht die Probleme von alternate frame rendering komplett.

Ob die low-level APIs eine derartige low-level Kontrolle zulassen, weiß ich nicht. Vermutlich nicht, denn sonst hätte es nicht so lange gedauert, bis man Maxwell als tile based renderer entlarvt hätte. Aber sowas ließe sich ja auch vom Treiber managen.

MrS

Leonidas
2017-04-30, 10:23:40
Leider enthält der Test keinen Vergleich, aber viel schlimmer, es ist nur ein i7 6700K, wenigstens ein 7700k und ein schneller 8-Kerner hätte man zum Vergleich bei zwei Ti nehmen müssen, das wäre aussagekräftiger gewesen.


Den schnellen 8-Kerner bekommt man nicht auf 4.6 GHz (so wie der Test lief).

Sorry, *das* war jetzt kein Argument. 6700 = 7700K, abgesehen vom Takt. Wenn ich den 6700K auf 4.6 GHz hochziehe, dann hat der Niveau oberhalb 7700K. Und das ist mit die beste Gaming-CPU derzeit.

Alle 6C/8C haben Schwierigkeiten, mit den hohen Taktraten des 7700K mitzuhalten. Nicht, das sie es nicht schaffen würde und den vielleicht sogar schlagen - aber die Differenz liegt im Rahmen weniger Prozentpunkte und ist die viel höheren Preise der 6C/8C nicht wert.

Sprich: Die CPU des Tests ist okay. Man kann über den Sockel 1151 diskutieren, sicherlich.

Gast
2017-04-30, 12:35:39
.Alle 6C/8C haben Schwierigkeiten, mit den hohen Taktraten des 7700K mitzuhalten. Nicht, das sie es nicht schaffen würde und den vielleicht sogar schlagen - aber die Differenz liegt im Rahmen weniger Prozentpunkte und ist die viel höheren Preise der 6C/8C nicht wert.
Solange Multicore über 4 echte Kerne nicht greift, machen 8 Kerner mit niedrigem Takt keinen Sinn, dann ist höhere IPC und Takt wichtiger.

Könnte die Hersteller in solchen Fällen, so wie AMD mit Zen nicht einfach ein CCX abschalten und das übriggebliebene dann einfach höher takten. Die TDP würde es ja zulassen. So wie ein 8 Zylinder Motor, der eine Zylinderbank abschaltet, wenn sie nicht gebraucht wird. Das würde die 8 Kerner jedenfalls deutlich attraktiver machen. Wenn die Anwendung nur 2-3 Kerne anfordert wäre das doch eine feine Sache. Ich kann mir vorstellen das AMD darauf eingehen würde wenn es Sinn macht. Das könnte man mit einen modifizierten Treiber sicher hinkriegen.

maximus_hertus
2017-04-30, 12:42:51
Den schnellen 8-Kerner bekommt man nicht auf 4.6 GHz (so wie der Test lief).

Sorry, *das* war jetzt kein Argument. 6700 = 7700K, abgesehen vom Takt. Wenn ich den 6700K auf 4.6 GHz hochziehe, dann hat der Niveau oberhalb 7700K. Und das ist mit die beste Gaming-CPU derzeit.

Alle 6C/8C haben Schwierigkeiten, mit den hohen Taktraten des 7700K mitzuhalten. Nicht, das sie es nicht schaffen würde und den vielleicht sogar schlagen - aber die Differenz liegt im Rahmen weniger Prozentpunkte und ist die viel höheren Preise der 6C/8C nicht wert.

Sprich: Die CPU des Tests ist okay. Man kann über den Sockel 1151 diskutieren, sicherlich.

Auch wenn es nur 980 Ti SLI ist - 16/8 verliert biszu 37% gegenüber 16/16. 8/8 wird wohl eher noch mehr verlieren.... https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10937345&postcount=2135

Von daher ja, dieser "Test" ist nicht wirklich was Wert, leider.

Gast
2017-05-01, 17:37:50
Könnte die Hersteller in solchen Fällen, so wie AMD mit Zen nicht einfach ein CCX abschalten und das übriggebliebene dann einfach höher takten.

Genau dafür wurden ja der Turbo-Modus XFR oder wie immer man das nennen mag entwickelt.

Ich denke allerdings es wird Zeit dass sich die Prozessorentwicklung für Desktops was von ihren mobilen Kollegen abschaut.
Heterogenous Multiprocessing sollte auch auf dem Desktop langsam aber sicher kommen.
1-2 auf hohen Takt/Durchsatz optimierten Kerne gemeinsam mit 4-8 effizienten Kernen wären nicht schlecht.