Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Performance von PCI Express 1.1, 2.0 & 3.0 sowie x4, x8 & x16 ...
Leonidas
2017-01-31, 08:48:57
Link zur News:
https://www.3dcenter.org/news/performance-von-pci-express-11-20-30-sowie-x4-x8-x16-untersucht
Scream
2017-01-31, 09:25:48
Das bestätigt wieder einmal, dass PCI Express 3.0 x8 bei Single-GPUs absolut keine Auswirkungen besitzt :)
CD-LABS
2017-01-31, 09:59:50
Das bestätigt wieder einmal, dass PCI Express 3.0 x8 bei Single-GPUs absolut keine Auswirkungen besitzt :)
Leider nicht ganz, denn Techpowerup bietet ja bloß AVG-FPS an, des weiteren ist das ein Test mit einer 1080.
Damit die entschärfte Aussage Zwischen PCIe 3.0 x8 und PCIe 3.0 x16 besteht bei keiner SingleGPU ein relevanter Unterschied wirklich gezeigt werden könnte, bräuchte es Benches mit Frameverläufen mit einer zum Anschlag übertakten Titan X Pascal, die keine Besonderheiten jenseits der Relevanzgrenze (ich würde da 10% vorschlagen) aufzeigen.
Edit: Eigentlich müsste man dann auch gleich dem Board noch mehr und schärfer getimten Ram sowie einen 7700K@5Ghz oder so verpassen.
Redirion
2017-01-31, 10:12:57
Ich bin etwas überrascht, wie gut sich PCI-Express 3.0 8x im Vergleich zu PCI-Expess 2.0 16x schlägt. Denn es bietet weniger Bandbreite (7877 MB/s vs 8000 MB/s). Da scheint sich das ja wirklich mit der Overhead-Reduzierung von 20% auf 1.54% gelohnt zu haben.
Lowkey
2017-01-31, 10:19:34
Leider nicht ganz, denn Techpowerup bietet ja bloß AVG-FPS an, des weiteren ist das ein Test mit einer 1080.
Damit die entschärfte Aussage Zwischen PCIe 3.0 x8 und PCIe 3.0 x16 besteht bei keiner SingleGPU ein relevanter Unterschied wirklich gezeigt werden könnte, bräuchte es Benches mit Frameverläufen mit einer zum Anschlag übertakten Titan X Pascal, die keine Besonderheiten jenseits der Relevanzgrenze (ich würde da 10% vorschlagen) aufzeigen.
Edit: Eigentlich müsste man dann auch gleich dem Board noch mehr und schärfer getimten Ram sowie einen 7700K@5Ghz oder so verpassen.
Sehe ich auch so. Man kann den Test nur auf das Testsystem übertragen. Mit Kabylake und Titan X bekommt man sicherlich andere Ergebnisse.
Und das Fazit ist nicht, dass PCI-E 3.0 x8 besser ist, sondern der Leistungsverlust relativ gering ist. Und auch hier gibt es Außreißer.
Der Test ist dennoch einer der wenigen, aktuellen, interessanten Tests, die selten werden.
Birdman
2017-01-31, 12:17:57
Leider nicht ganz, denn Techpowerup bietet ja bloß AVG-FPS an, des weiteren ist das ein Test mit einer 1080.
Titan-X hätte mit Sicherheit überhaupt nichts an dem Ergebnis geändert - das zeigen die FHD Benchmarks wo eine Titan-X nur in den seltensten Fällen schneller ist als eine GTX1080.
Allenfalls einen kleinen Unterschied (aber sicher auch nicht mehr wie 1%) könnte man evtl. sehen, wenn man eine schnellere CPU nehmen und höheren Memory Clockspeed und schärfere Timings fahren würde.
Im Grundsatz ist der Test daher imho schon interessant und auch relevant.
Ich glaube da verliert man mehr fps wenn man im Winter sein Zimmer auf 24° anstelle von 21° heizt, als wenn man nur PCIe 2.0/x16 oder PCIe 3.0/x8 fährt..
Das Problem tritt mit einer Grafikkarte doch garnicht auf, das ist es doch. Wer testet sowas mit einer Grafikkarte? Bullshit.
Ausserdem habe ich dann immer x16 zur Verfügung, auf welchen Bord sollte ein solcher eingeschränkter Support für PEG Steckplätze bestehen das ich den Steckplatz auf x8 oder x4 runterfahren muss?
Relevant wird das ganze im Crossfire oder SLI und dort geht das mehr als paar Prozent in die Knie. Der Test von techpowerup ist völig nutzlos und gibt das schon bekannte wieder. Vor allem an einer Karte die nicht so sehr an der Bandbreite hängt.
CD-LABS
2017-01-31, 12:30:52
(...)
Der Test ist dennoch einer der wenigen, aktuellen, interessanten Tests, die selten werden.
Hat eigentlich jemand eine Idee, warum das passiert? Es gibt doch zigtausende hochinteressante Fragen im Hardwarebereich, die man beantworten könnte.
Statt dessen liest man auf 90% der Seiten die gleichen stinklangweiligen Standard-Lineup Graka-, CPU- und SSD-Tests. Toll... :rolleyes:
Scream
2017-01-31, 12:52:59
Hat eigentlich jemand eine Idee, warum das passiert? Es gibt doch zigtausende hochinteressante Fragen im Hardwarebereich, die man beantworten könnte.
Ich denke das liegt an zwei Faktoren. Solche Artikel und Testszenarien sind meist deutlich aufwendiger in der Erstellung, was für den Autor mehr Zeit und Aufwand bedeutet. Zweitens sind dies meist etwas speziellere Fragen, die nicht so viele Leser interessieren. Solche Artikel kommen daher auf weniger Aufrufe. Oft kommen dann noch Leser hinzu, die solche Tests zwar grundsätzlich schätzen, aber immer etwas daran auszusetzen haben und nörgeln.
Kurz gesagt mehr Arbeit und weniger Nutzen. Kann ich auf jeden Fall durch meinen Blog bestätigen.
Lowkey
2017-01-31, 12:55:53
Die PCGH macht manchmal gute Tests außer der Reihe. Dennoch wird die PCGH weder hier im Forum noch bei denen im Forum fast nie zitiert oder als Quelle genannt. Würde die PCGH morgen eingestellt werden, so würde es kaum auffallen.
Im Netz halten sich einfache Meinungen bei einer Mehrheit. Es besteht keine Notwendigkeit für gute Tests, denn Fehler korrigiert der Widerruf bei Nichtgefallen oder Defekt.
Loeschzwerg
2017-01-31, 13:06:49
Hat eigentlich jemand eine Idee, warum das passiert? Es gibt doch zigtausende hochinteressante Fragen im Hardwarebereich, die man beantworten könnte.
Statt dessen liest man auf 90% der Seiten die gleichen stinklangweiligen Standard-Lineup Graka-, CPU- und SSD-Tests. Toll... :rolleyes:
Das fängt doch schon hier im Forum bei den Nutzern an, die wenigsten interessieren sich noch für so einen Blick über den Tellerrand und es gibt auch immer weniger Nutzer die sich mal zum Spaß mit einer weniger beleuchteten Thematik befassen (und auch Geld für HW o.ä. ausgeben).
anddill
2017-01-31, 13:35:46
Das Problem tritt mit einer Grafikkarte doch garnicht auf, das ist es doch. Wer testet sowas mit einer Grafikkarte? Bullshit.
Ausserdem habe ich dann immer x16 zur Verfügung, auf welchen Bord sollte ein solcher eingeschränkter Support für PEG Steckplätze bestehen das ich den Steckplatz auf x8 oder x4 runterfahren muss?
Relevant wird das ganze im Crossfire oder SLI und dort geht das mehr als paar Prozent in die Knie. Der Test von techpowerup ist völig nutzlos und gibt das schon bekannte wieder. Vor allem an einer Karte die nicht so sehr an der Bandbreite hängt.
FM2+ mit Carrizo.
...und was willt du da für eine Grafikkarte ranhängen die von x16 oder x8 Unterschieden profitiert oder darunter leidet? Es gibt keine die in der Config mit einem Carrizo profitiert. Mobile vllt. x4 vs x8, dass beantwortet der techpowerup Test aber nicht. Carizzo rennt längst ins CPU Limit wenn die Graka von mehr Bandbreite noch profitieren würde. Die langweilt sich dann.
Ultron
2017-01-31, 14:08:41
Sehr schöne Übersicht!
Insbesondere für externe Grafik bedeutet das, dass die Hersteller einfach PCI-Express 3.0 x4 (oder schneller) bei einem Notebook nach außen legen sollten, ohne den Thunderbolt Umweg Eigentlich könnte man die Grafikkarte einfach auf dem Displaydeckel installieren.
Sobald es bessere Bildschirme in den Größen 13-20" gibt ist der Markt für externe Grafik sowieso tot, weil sich dann jeder ein ITX Gaming Notebook bauen kann, was komplett in einen Rucksack passt.
Redirion
2017-01-31, 14:16:42
FM2+ mit Carrizo.
und unter AM4 mit Bristol Ridge (Athlon X4 950) wird das auch noch mal aktuell.
Tigerfox
2017-01-31, 14:26:51
Dies ist für zwei Dinge interessant: Erstens einmal lag hier immer ein kleiner Nachteil von AMDs Bulldozer-CPUs, welche noch über kein in die CPU selber integriertes PCI-Express-Interface verfügen (im Gegensatz zu den kommenden Ryzen-CPUs). Und zweitens deutet es an, das indirekte Verbindungen generell Performance kosten – was eine Erklärung dafür sein dürfte, wieso per Thunderbolt angebundene externe Grafik derart viel an Performance verliert, obwohl die dafür benutzte Bandbreite PCI Express 3.0 x4 entspricht (und damit gutklassig ist).
Bullshit! Das ist bei Bulldozer bzw. allen AMD-CPUs von S940 bis AM3+ was völlig anderes un bei Intel nur Vergleichbar mit S1366.
DMI ist ja nichts anderes als PCIe x4, weshalb es auch immer dann eine neue Generation DMI gab, wenn der PCH eine neue Generation PCIe beherrschte. AMDs A-Link Xpress zwischen North- und Southbridge und UMI bei FMx funktionieren genauso.
Wenn jetzt eine Graka in einem PCIe x4 am PCH hängt, egal ob direkt oder über TB3, dann ist klar, dass das heftiger ist als ein PCIe x4 direkt an der CPU, weil ja auch noch andere Zugriffe über das DMI laufen, z.B. auf SSDs, was ja auch ordentlich Bandbreite braucht.
Das wird sich bei Gaming-Benchmarks auf ein Minimum beschränken, aber ich sehe hier den Hauptgrund für den Verlust. Bei TB3 kommen sicherlich noch Reibungsverluste hinzu, TB ist zwar so eine Art externes PCIe, überträgt seine Daten aber nicht gleich - z.B. hat TB3 40Gbps Brutto, aber 8B/10B-Kodierung, PCIe3.0 x4 hat 32Gbps, aber mit 128B/130B-Kodierung, was auch nur so ungefähr auf den gleichen Nettowert hinausläuft.
Bei AMDs bisherigen CPUs und Intels S1366-CPUs (und noch heute im Serverbereich). Wird eine serielle Hochgeschwindigkeits Punkt-zu-Punkt verbindung benutzt, bei AMD Hypertransport, bei Intel QuickPathInterconnect.
Auf S1366 hatte QPI 4,8GT/s bzw bei Extreme Editions 6,4GT/s - das entspricht 9,6GB/s bzw. 12,8GB/s pro Richtung (inzwischen ist man bei 19,2GB/s).
HT 3.0 kann bis zu 2,6GT/s, genutzt wurden aber bei Piledriver zuletzt nur bis 2,2GT/s, was jeweils 10,4GB/s und 8,8GB/s entspricht (beim Opteron ist man bis 6,4GT/s und 12,8GB/s gegeangen).
Diese Verbindungen waren hauptsächlich dazu gedacht, CPUs in Mehrsockelsystem miteinander zu verbinden, aber bei diesen Plattformen wurde eben auch die Northbridge damit angebunden.
Wenn man das jetzt mit PCIe vergleicht, sieht man, dass es immer für PCIe2.0 x16 (8GB/s) reicht, aber nichtmehr für PCIe3.0 x16 (knapp 16GB/s) oder 2xPCIe2.0 x16 - trotzdem hat man bei AM2+/AM3/AM3+ und S1366 munter Northbridges mit 40 PCIe-Lanes und mehr für 2x16 oder 4x8 angebunden.
Da kann mir keiner erzählen, dass das zu wenig Bandbreite wäre - sonst ergäbe auch die NF200/PLX PEX8747-Lösung für S115x keinen Sinn, denn hier switched man ja auch nur 16 Lanes der CPU auf 32 hoch.
Der Sinn ist einfach, dass die GPUs untereinander schnell kommunizieren können - über den Switch oder die Northbridge, in der CPU und separat - Die Verbindung zur CPU muss nicht so groß sein.
Trotzdem stimme ich vielen Vorrednern zu - Es ist total irrelevant, ob eine einzelne Graka durch PCIe x4 oder x8 Nachteile hat. Einziges Szenario ist eben, dass man eine moderne Graka in ein System mit PCIe2.0 setzen will - eben AM2+/AM3/AM3+ und S1366/S1156/S1155 mit Sandy Bridge.
Da ist dann der Unterschied zwischen PCIe2.0 x16 und 3.0 x16 interessant. Aber mehr auch nicht, niemand wird noch ein System mit PCIe1.1 für moderne Grakas nutzen (zuletzt AM2 und S775 mit P35). Da wird aber die lahme CPU die Graka viel mehr bremsen als die PCIe-Anbindung.
Und eine Graka in einen PCIe x4 stecken muss man auch nur, wenn man SLI/Crossfire betreiben will (3-way auf S115x oder 2-way, wenn das Board kein Aufteilen der CPU-Lanes unterstützt). Das hätte man testen sollen: 3-way SLI/Crossfire auf S1151 mit x8/x4/x4 vs. x16/x8/x8 per PEX8747 und per S2011-3 sowie 4x8 per PEX8747 und per S2011-v3 (dann muss man natürlich einen S2011-3 Sixcore irgendwie auf vier Kerne beschränken). Wobei das AFAIK nun auch irrelevant ist, da DX12 garnicht mehr als zwei GPUs zulässt, und auch nie wirklich relevant war, da Multi-GPU einfach Mist ist und sich nie gelohnt hat.
Letztes Szneario wäre imho, wenn man auf S1151 oder 1150 unbedingt sein NVMe-SSD an der CPU anbinden will, dann bleibt einem ja nurnoch PCIe3.0 x8, oder eben bei Carrizo auf FM2+, der nur 8 Lanes hat (übrigens der Nachfolger auf AM4 auch!) - aber das ist so selten.
AMD-Gast
2017-01-31, 14:41:18
Das Problem tritt mit einer Grafikkarte doch garnicht auf, das ist es doch. Wer testet sowas mit einer Grafikkarte?
Ein Systemgerät das an vielen Lanes angebunden wird (GPU), profitiert bei gleicher Blockgröße kaum von höherer Transferrate, ein Gerät das an wenigen Lanes gebunden ist, schon mehr (USB-SATA Festplatten).
Unter Spielen wird die derzeitige Rate kaum ausgenutzt, dort kann man nur mit synthetischen Benchmarks (reiner Datenaustausch GPU zu CPU) klare Unterschiede ausmachen. Was diese Auslastung angeht, ist sie für Spieler jedoch derzeit kaum relevant. Am x16 PEG sind sogar noch Pins bei Leitungspaaren frei, wird also die physisch verfügbare Anzahl noch gar nicht vollkommen ausgenutzt. Da ist selbst bei PCIe 2.0 noch Luft. Synthetische Benchmarks würden den Unterschied jedoch klar aufzeigen, nur liegt ein solches simuliertes Szenario unter Spielen bisher kaum vor.
Schwierigkeiten gibt es eher mit der Kompatibilität (da gab es bei AMD auch mal Probleme). Die Transferraten von PCIe 3.0 an x8 oder x16 Lanes reichen für Spiele noch eine halbe Ewigkeit, eher profitieren andere Systemgeräte (wie oben beschrieben) von den neueren Protokollen, die braucht der Spieler natürlich auch.
Ich denke techpowerup wollten nur beweisen, daß es unter Spielen bisher für die Grafikkarte nicht so relevant ist und da haben sie Recht.
FM2+ mit Carrizo.
Nope, weil auch dort für die GPU uninteressant. Siehe Text oben.
anddill
2017-01-31, 14:50:43
Es ging mir darum daß es tatsächlich Konfigs mit einer Graka und nur PCIe3x 8fach Anbindung gibt. Hab so ein System gerade erst zu Weihnachten gebaut. CPU und Board sollte so billig wie möglich sein, um die Zeit bis nach Rizen und die ersten Preisturbulenzen zu überbrücken, Grafikkarte sollte aber schon was vernünftiges sein. Also wurde es ein einfaches FM2+ Board, ein Athlon X4 845 und eine RX 480.
Ph0b0ss
2017-01-31, 15:04:26
Mit der Performance Summary von techpowerup stimmt was nicht. Wenn man z.B. alle Tests mit PCIe x16 2.0 gegen PCIe x16 3.0 verrechnet kommt man auf 97,96% statt 99%. (Auch bei PCIe 3.0 x8 und PCIe 1.1 x4 komme ich auf andere Werte (99,4% und 72,3%)).
Außerdem hat PCIe x16 2.0 in 4 Tests nur ~95% und PCIe x8 3.0 in 3 Test nur ~96% der Performance von PCIe x16 3.0. Das hört sich zwar nicht viel an, kann aber (wie schon hier von CD-LABS geschrieben) schon ein Problem sein, falls dieser Verlust konzentriert in bestimmen Szenen autritt oder der Verlust gar durch ständige kurze Ruckler enstanden ist.
AMD-Gast
2017-01-31, 15:26:06
Es ging mir darum daß es tatsächlich Konfigs mit einer Graka und nur PCIe3x 8fach Anbindung gibt. Hab so ein System gerade erst zu Weihnachten gebaut. CPU und Board sollte so billig wie möglich sein, um die Zeit bis nach Rizen und die ersten Preisturbulenzen zu überbrücken, Grafikkarte sollte aber schon was vernünftiges sein. Also wurde es ein einfaches FM2+ Board, ein Athlon X4 845 und eine RX 480.
Ist ein schönes kleines System.
Carizzo als letzte Bulldozerausbaustufe liefert pro Takt mehr Leistung, sollte aber nicht unbedingt so viel schneller als vorhergehende Angebote sein, es ging eher um mehr Effizienz. Irgendwo hat AMD dann mit Downsizing vergleichbare Leistung raus gekitzelt, kann aber 'preistreu' gegenüber der Kundschaft bleiben. Die Reduzierung von 16 auf 8 Lanes ist für diesen Aufbau kaum relevant. Wozu Ballast umher schleppen, der nicht gebraucht wird.
Hast Du vollkommen richtig gemacht, der Preis stimmt mMn.;)
Berserkervmax
2017-01-31, 17:28:52
Genau deshalb habe ich noch meine 2700K @5ghz und eine 1070GTX @PICE2.0x16
Weil es völlig ausreicht !
Ph0b0ss
2017-01-31, 17:42:03
Genau deshalb habe ich noch meine 2700K @5ghz und eine 1070GTX @PICE2.0x16
Weil es völlig ausreicht !
Teste doch mal zur Sicherheit mit Savegames, ob z.B. PCIe auf 110Mhz hochgetaktet mehr Leistung bringt.
Das ist wiede mal so n Test als Blendgranate wo man merkt die Tester haben eigentlich nur wenig Ahnung.
Die Bandbreite und Latenz der CPU-GPU Schnittstelle werden von den unterschiedlichen Effekten und Engines auch unterschiedlich beansprucht, je nach dem wie viel je gerendertem Frame noch zusätzlich über CPU optimiert oder bearbeitet wird. Da wird die Latenz schon entscheidender sein als das die gerade maximal verfügbare Bandbreite. Ein Deaktivieren von CPU-Lastigen Effekten kann das eine oder andere Problem an der Stelle lösen. Bandbreite brauchts hauptsächlich wenn Sourcen im VRAM aktualisiert werden müssen, das hilft gegen hässliche Framedrops bzw. bei den minimum FPS.
Es wäre informativer gewesen die extremen Spiele bzw. Beispiele auf unterschiedliche Grafikeinstellungen zu testen und auch mal die Programmierer zu interviewen, wo denn welche Art Bottlenecks zu erwarten sind... endlose Balkendiagramme kann man sich doch eigentlich erspaaren...
Viel interessanter wäre es nicht nur high end Karten zu testen.
Ich denke so an 2GB Karten, wie die GTX 960.
Meine Vermutung ist dass wenn der Grafikspeicher am Limit ist die Pci-e Geschwindigkeit wichtig ist.
... vorallem bei spielen die ständig texturen streamen, Doom wäre interessant
Das ist wiede mal so n Test als Blendgranate wo man merkt die Tester haben eigentlich nur wenig Ahnung.
Die Bandbreite und Latenz der CPU-GPU Schnittstelle werden von den unterschiedlichen Effekten und Engines auch unterschiedlich beansprucht, je nach dem wie viel je gerendertem Frame noch zusätzlich über CPU optimiert oder bearbeitet wird. Da wird die Latenz schon entscheidender sein als das die gerade maximal verfügbare Bandbreite. Ein Deaktivieren von CPU-Lastigen Effekten kann das eine oder andere Problem an der Stelle lösen. Bandbreite brauchts hauptsächlich wenn Sourcen im VRAM aktualisiert werden müssen, das hilft gegen hässliche Framedrops bzw. bei den minimum FPS.
Es wäre informativer gewesen die extremen Spiele bzw. Beispiele auf unterschiedliche Grafikeinstellungen zu testen und auch mal die Programmierer zu interviewen, wo denn welche Art Bottlenecks zu erwarten sind... endlose Balkendiagramme kann man sich doch eigentlich erspaaren...
_unterstreich_ +1 like ;D;D
Ein Systemgerät das an vielen Lanes angebunden wird (GPU), profitiert bei gleicher Blockgröße kaum von höherer Transferrate, ein Gerät das an wenigen Lanes gebunden ist, schon mehr (USB-SATA Festplatten).
So sieht das aus!
Da wird die Latenz schon entscheidender sein als das die gerade maximal verfügbare Bandbreite.
Nicht das ich wüsste, zu einem gibt es unterschiedliche Layer zum anderen kann der Traffic mit Class Priorität übertragen werden. Dadurch entsteht weder bedeutent höhere Latenz noch Engpässe. Die Entwickler werden das nutzen, da braucht man nicht extra zu fragen. Da limitiert eher die Hardware selbst und nicht der Bus.
Leonidas
2017-02-01, 04:20:32
Mit der Performance Summary von techpowerup stimmt was nicht. Wenn man z.B. alle Tests mit PCIe x16 2.0 gegen PCIe x16 3.0 verrechnet kommt man auf 97,96% statt 99%. (Auch bei PCIe 3.0 x8 und PCIe 1.1 x4 komme ich auf andere Werte (99,4% und 72,3%)).
Kannst Du das genauer mit Berechnungsmethode etc. ausführen? Wäre ja Blöd, wenn die Durchschnittsbildung bei TPU nicht stimmt.
Es wäre informativer gewesen die extremen Spiele bzw. Beispiele auf unterschiedliche Grafikeinstellungen zu testen und auch mal die Programmierer zu interviewen, wo denn welche Art Bottlenecks zu erwarten sind... endlose Balkendiagramme kann man sich doch eigentlich erspaaren...
Vielleicht ja. Aber als Einstieg in die Diskussion ist es schon einmal wertvoll. Wieviele andere Artikel haben wir, die sich hierum kümmern?
Ph0b0ss
2017-02-01, 18:57:49
Kannst Du das genauer mit Berechnungsmethode etc. ausführen? Wäre ja Blöd, wenn die Durchschnittsbildung bei TPU nicht stimmt.
Für jedes Spiel einzeln das Verhältnis ausgerechnet und dann den Mittelwert aus allen 21 Ergebnissen ausgerechnet.
So:
https://abload.de/img/fpsrfbfp.png
Lowkey
2017-02-01, 19:06:55
Vielen Dank für die Arbeit. Also sind x16 2.0 und x8 3.0 eigentlich in den Specs gleich, aber x8 3.0 ist praktisch schneller.
Laut dem Test spielt es keine Rolle, ob die Karte im zweiten x8 statt im ersten x16 steckt. Ein 2500k mit einem PCI-E 2.0 x16 wäre demnach 2% langsamer.
Das Spiel mit PCI-E 3.0 läuft fast so ob wie mit allen anderen Optionen: OC lohnt nicht, weil das bringt nur ein paar Prozent. DDR4-3000+ lohnt nicht, weil das bringt nur ein paar Prozent. Ein i7 ist nur ein paar Prozenz schneller als der i5, also lohnt es sich nicht.
Ultron
2017-02-07, 00:17:35
Also ganz verstehen tu ich die Performance-Differenz bei externer Grafik zwischen Thunderbolt und PCI-E 3.0 4x nicht.
Laut diesem Artikel wird der PCI-E Traffic über Thunderbolt einfach durchgereicht ohne anzufassen:
https://www.antary.de/2017/02/05/usb-typ-c-und-usb-3-1-ein-ueberblick/
Thunderbolt 3 bietet neben 40 Gbit/s über das Thunderbolt-Protokoll immer USB 3.1 Gen 2 mit 10 Gbit/s (inklusive der Alternate Modes) und zwei Mal DisplayPort 1.2. Darüber hinaus können die zugrunde liegenden vier PCI-Express-3.0-Lanes auch ohne aufgesetztes Protokoll genutzt werden. Erste externe Grafikkartengehäuse machen von dieser Möglichkeit bereits Gebrauch. Insgesamt ist das Anwendungsgebiet von Thunderbolt 3 riesig.
Leonidas
2017-04-30, 16:38:44
Thunderbolt über PCIe 3.0 x4 läuft aber in aller Regel über den Mainboard-Chipsatz - und nicht über einen PCIe-Port der CPU selber. D.h. es geht über das (limitierte) DMI-Protokoll zur CPU. Das dürfte der Knackpunkt sein. Selbst wenn nicht einmal eine Protokoll-Wandlung stattfindet, muß es durch den Mainboard-Chipsatz zur CPU.
Die Übertragung von PCIe selber zu Thunderbolt dürfte zudem Latenzen kosten - allerdings hast Du Recht, es wird direkt übertragen, es findet (an dieser Stelle) keine Protokoll-Wandlung statt.
Leonidas
2017-04-30, 17:51:17
Für jedes Spiel einzeln das Verhältnis ausgerechnet und dann den Mittelwert aus allen 21 Ergebnissen ausgerechnet.
So:
https://abload.de/img/fpsrfbfp.png
Nachträglich:
Ich stimme Dir absolut zu, die Werte sind allesamt um ein paar Punkte falsch. Sehr erstaunlich, weil dies nun wirklich einfache Rechnungen sind. Ich habe leider auch nicht herausbekommen, wo der Fehler von TPU liegt. Die beliebte (falsche) Methode, Absolutwerte zu addieren und dann gegenzurechnen, ist es jedenfalls *nicht* - diese Methode bringt in diesem Fall sogar nahezu dasselbe heraus wie Du.
PS: Ich hab diesbezüglich mal das letzten Gfx-Review von TPU untersucht. Die Index-Werte in dem sind nahezu perfekt (eine Rundungs-Ungenauigkeit). Jedenfalls gibt es keine so klaren Abweichungen.
Ausserdem habe ich dann immer x16 zur Verfügung, auf welchen Bord sollte ein solcher eingeschränkter Support für PEG Steckplätze bestehen das ich den Steckplatz auf x8 oder x4 runterfahren muss?
Um ein altes Thema aufzurollen, was gerade bei mir aktuelle geworden ist. Ich habe ein gratis Grafikkartenupgrade von meiner EVGA GTX 770 2GB auf eine GTX 980 4GB bekommen.
Mein Asrock Z87 Extreme6 Mainboard unterstützt mit dem damals aktuellen Chipsatzes folgende zwei PCIe-Kombos: [16x - 0x - 0x] oder [8x - 8x - 4x]
Nachdem ich auf dem dritten Slot eine PCIe-Erweiterungskarte für 4fach USB-3.0 nutze, drosselt das Mainboard mir den ersten PCIe-16x-Slot auf 8x herunter. Somit für mich sehr angenehm, dass ich mit PCIe 3.0 auf 8x gesenkt keine Leistungseinbußen habe.
Somit widerlege ich die Aussage, dass immer 16x zur Verfügung steht und der Test sinnfrei sei. Mir hat der Test sehr viel gebracht, da ich jetzt beruhigt sein kann, dass mein i4770 übertaktet noch genug Leistung für meine Grafikkarte liefert und nichts gedrosselt wird durch die Bandbreite ;-)
Relevant wird das ganze im Crossfire oder SLI und dort geht das mehr als paar Prozent in die Knie. Der Test von techpowerup ist völig nutzlos und gibt das schon bekannte wieder. Vor allem an einer Karte die nicht so sehr an der Bandbreite hängt.
P.S.: Das einzige was somit nutzlos ist, ist o. g. Aussage. Da der Verfasser leider wie ich GAST-Schreiber ist, wird er das wohl nicht mehr lesen. Für den Rest jedoch, hoffentlich einen hilfreicher Kommentar was meine Erfahrung betrifft.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.