Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 5. August 2011
Leonidas
2011-08-05, 13:18:47
Link zur News:
http://www.3dcenter.org/news/2011-08-05
Mike111
2011-08-05, 13:58:43
Bis auf das neue Macbook Air benutzen doch alle Thunderbolt Macs einen Light Ridge Controller mit "four Thunderbolt channels (4 x 10Gbps bidirectional = 80Gbps aggregate bandwidth)". http://www.anandtech.com/show/4542
Lassen die sich nicht irgendwie kombiniert nutzen, selbst wenn das von Haus aus nicht vorgesehen ist (z.B. mit mehreren Controllern im externen Gehäuse)?
Kinman
2011-08-05, 14:08:28
Ich habe den Test bei HT4U nur überflogen, aber ich vermute der Leistungsunterschied von nur 20% zwischen HD 5450 und HD 6950 liegt in erster Linie an der CPU-Leistung des E-350ers und weniger an der PCIe Bandbreite. Natürlich hat diese sicherlich auch einen Einfluss, aber bestimmt keine dermaßen großen.
Wenn ich lustig bin, werde ich es mal selbst am i7-2600 testen und die HD 6950 in den x4er und x1er stecken und vergleichen.
lg Kinman
Oberst
2011-08-05, 15:40:25
Ich habe den Test bei HT4U nur überflogen, aber ich vermute der Leistungsunterschied von nur 20% zwischen HD 5450 und HD 6950 liegt in erster Linie an der CPU-Leistung des E-350ers und weniger an der PCIe Bandbreite.
Das sehe ich auch so. Bei 1280x1024 ist die Last auf der CPU ja sowieso sehr hoch, da stoßen schon deutlich schnellere CPUs mit solchen Karten an ihr Limit, der kleine Bobcat ist da hoffnungslos überfordert.
Ob x4 also Limitiert, kann man eigentlich nur mit manchen AMD 970 Boards testen, denn bei SandyBridge kommen die Lanes des x4 normalerweise von der SB, die natürlich eine klar höhere Latenz und meist auch merklich weniger Durchsatz bietet (bedingt durch die knappe Anbindung an die CPU). Bei den 970 Chipsätzen von AMD hat man hingegen genug Lanes in der NB, um auch einen x4 Slot darauf zu machen.
Vom E350 aber auf andere CPUs hochzurechnen, ist sicher nicht sehr präzise.
M.f.G.
Deinorius
2011-08-05, 21:54:03
Wenn man schon das Minimum für die PCIe Bandbreite ermitteln möchte, sollte man sich besser an niedriger getakteten CPUs halten, die mit der Leistung auch in den Laptops kommen können (also vorwiegen Sandy Bridge).
Ein Test mit gar einer 2600, die ja sogar 8 Threads beherrscht, ist für solche Grafik-Docks nicht praxisrelevant.
Besser geeignet im Desktop-Bereich wären Pentium G620T oder 2100T, bzw. bei den QuadCores geht eh nur der 2400S.
Kinman
2011-08-05, 22:20:30
Je höher die CPU Leistung, desto mehr die Beeinträchtigung rein durch den Bandbreitenverlust und das soll ja gezeigt werden. Wenn die CPU oder GPU Leistung dann geringer ist, schlägt es sich ja nur positiv auf den Verlust durch den x1 Slot aus.
Aber wenn ich den Test mach, kann ich natürlich auch mit verschiedenen CPU Takten testen.
lg Kinman
Deinorius
2011-08-05, 23:16:10
Mit niedrigeren Takten testen wäre hilfreich. Ich würde dann auch eher mit deaktiviertem HT testen.
Wie du ja schon geschrieben hast. Mit max. Leistung scheint der Verlust groß zu sein, aber wenn man keine 45 W CPU in seinem Laptop hat (weil man z.B. auch einigermaßen mobil sein möchte), wird man sich auch keine allzu dicke GPU dazu kaufen und da könnte der Leistungsunterschied noch niedriger sein. Sowas sollte in Tests auch beachtet werden.
Leonidas
2011-08-06, 06:58:18
Ihr habt völlig recht, das kommt viel eher als Erklärung in Frage. Ich werde korrigieren.
Kinman
2011-08-06, 07:48:27
Ihr habt völlig recht, das kommt viel eher als Erklärung in Frage. Ich werde korrigieren.
Danke!
--
Gibt es Wünsche, was getestet werden sollte? An Benchprogrammen tu ich mir gerne alles an, bis auf Furmark - davon lasse ich die Finger.
Die gesamte Hardwareconfig ist in meinem Profil.
lg Kinman
BigKid
2011-08-06, 10:02:16
Hmm... Ihr schreibt dass sich das bei HighEnd-Grakas nicht lohnt...
Nur - sprecht ihr dabei von HighEnd-Desktop Grakas oder HighEnd-LapTop Grakas ?
Fakt ist doch, dass selbst die neuste, beste non sli LapTop Graka grade mal in die Regionen einer GTX560 vorstößt und dass dafür ein IMMENSER Aufpreis zu zahlen ist und die Auswahl an möglichen Geräten auch ziemlich klein wird.
Also aus meiner Sicht wäre es schon eine Super Sache eine GTX460 vernünftig angebunden zu kriegen - sofern der Preis für das Gehäuse stimmt...
Nur ist da wieder das Problem, dass man das Bild der externen Graka wieder nicht auf den internen Monitor kriegt...
Für Desktops sehe ich den Benefit von einer solchen Lösung aber wiederum nicht ...
Oberst
2011-08-06, 15:06:46
Fakt ist doch, dass selbst die neuste, beste non sli LapTop Graka grade mal in die Regionen einer GTX560 vorstößt und dass dafür ein IMMENSER Aufpreis zu zahlen ist und die Auswahl an möglichen Geräten auch ziemlich klein wird.
Den immensen Aufpreis zahlt man allerdings nur bei den GTX Topmodellen. Ein Preisunterschied zwischen HD6970M und GTX580M von 356€, wie es z.B. beim Schenker XMG ist, zeigt deutlich, dass die NVidia Lösung preislich etwas abgehoben ist. Der Aufschlag von der Standardlösung GTX560M zur HD6970M beträgt mit 107€ ein akzeptables Niveau, aber der Aufpreis für die GTX580M ist mit 463€ sicherlich klar zu hoch (vor allem, da die GTX580M ja keinesfalls klar die Leistungskrone hat, da bei AMD ja noch die HD6990M im Angebot ist).
Bei Dell ist das ähnlich, da kostet die HD6990M 230€ weniger als eine GTX580M (Alienware 17x R3), obwohl sie im Großen und Ganzen als etwas schneller gilt. Entsprechend lässt sich NVidia die GPU ziemlich vergolden (man sollte auch beachten, dass in beiden Fällen die GTX580 kein Optimus hat, also hier auch keinerlei Vorteil gegenüber AMD vorhanden ist).
Sicherlich sind Notebook Grafikchips keine preiswerte Sache und eine Desktop Lösung ist immer preiswerter, aber die NVidia Topmodelle sind sicherlich auch preislich klar deplaziert, normalerweise ist der Preisunterschied schon merklich geringer.
M.f.G.
Moerf
2011-08-06, 17:12:11
Wie immer bei diesem Thema verweise ich gerne an diese Stelle: http://forum.notebookreview.com/gaming-software-graphics-cards/418851-diy-egpu-experiences.html verweise.
Dort findet man recht umfassende Informationen zu der Thematik externe Grafikkarten am Laptop.
Auch z.B. schon sehr viele Beispiele und derern Benchmarkergebnisse. Das ganze ist leider noch nicht 100%ig professionell mal durchgebencht worden, aber vielleicht kommt das ja noch mal.
Ich möchte auch darauf hinweisen, dass Optimus-fähige Laptops eine treiberseitige Bandbreitenkomprimierung nutzen können, die die tatsächlich nutzbare Leistung der Grafikkarte noch erhöht.
Ich finde auch die Behauptung, dass PCI Express 8x das Maß der Dinge ist schon anmaßend in der Hinsicht, dass die Benchmarkzahlen de egpu-Benutzer und auch meine eigenen Erfahrungen damit eine ganz andere Sprache sprechen. Spielen ist nämlich definitiv möglich und das auch in hohen bis sehr hohen Qualitätseinstellungen. Die externe Lösung ist trotzdem natürlich noch klar langsamer, aber keinesfalls nutzlos.
Ronny145
2011-08-08, 23:28:32
Da derzeit wieder gern auf die eine Intel-Folie verwiesen wird, welche ein "DirectX 11.1" für die 2014er Intel-Prozessorenarchitektur "Haswell" vorsieht, sei diesbezüglich nochmals gesagt: Derzeit gibt es kein DirectX 11.1 und auch keinen bekannten Ansatz zu diesem. Dies sagt nicht, daß es kein DirectX 11.1 geben wird – genauso wenig allerdings, wie jene Roadmap-Eintragung dies bestätigt. Gerade die Hersteller von integrierter Grafik brüsten sich gern mit nicht existierenden Standards oder wollen durch eine solche Aussage darauf hinweisen, daß ihre Grafiklösung schon mehr als DirectX 11 beherrscht (aber eben noch weniger als DirectX 12). Ob es ein DirectX 11.1 gibt, wird man schlicht sehen müssen.
Das möchte ich noch einmal aufgreifen. Es ist löblich, dass darauf hingewiesen wird. Natürlich sollte abgewartet werden was die Zeit bringt. So weit vor release ist das immer eine ungenaue Sache. Jedoch bist Du nicht besser. Du behauptest erneut, Haswell käme in 2014, was mindestens genauso auf wackligen Beinen steht. Denn hier steht Intel gegen dich. Auf Juni Folien ist Haswell für 2013 angekündigt. Auch das 2014er Gerücht muss abgewartet werden, gilt für dich genauso. Mit dem brüsten sehe ich nicht so, kann mich nicht erinnern, dass sich Intel auf internen NDA Roadmaps mit irgendwas brüstet. Das sind doch keine Marketing Folien für die Öffentlichkeit. Das zeigt im übrigen die OpenGL Version. Intel gibt hier vorsichtig 3.2 an und lässt sich mit dem (+) Spielraum nach oben.
Ronny145
2011-08-09, 19:42:15
Dazu passend der Link aus der news von heute: http://www.insideris.com/directx-11-update-details-coming-in-september/
Da scheint sich ein Update anzukündigen, sonst würde "updates details coming in september" kaum Sinn ergeben. Die Hersteller haben viel viel früher Infos dazu als wir. Trotzdem wird gerne mit "darf ja nicht sein" argumentiert. Nur weil "wir" davon nichts wissen, muss das noch lange nichts bedeuten.
Ronny145
2011-08-11, 11:32:01
Intel news vom 10. August.
Intel’s planned 2013 products, codenamed “Haswell,” are the third step in the Ultrabook device progression and expected to reduce power consumption to half of the “thermal design point” for today’s microprocessors.
http://newsroom.intel.com/community/intel_newsroom/blog/2011/08/10/intel-capital-creates-300-million-ultrabook-fund
Möchtest Du deine 2014 Behauptung nicht langsam etwas abschwächen solange es keine stichhaltigeren 2014er Gerüchte gibt?
Leonidas
2011-08-15, 05:54:56
Bei so was gibt es immer Spielraum zwischen "Zeitpunkt der ersten Auslieferung an die OEMs" und "Zeitpunkt der Marktverfügbarkeit". Hersteller neigen zudem dazu, generell ersteres zu sagen, weil die meisten Aussagen für Analysten getroffen werden und die interessiert allein die geschäftliche Seite.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.