Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014
aufkrawall
2013-10-16, 21:59:29
Ja aber du musst mal die Engine Balance vergleichen die ist absolut auf Nvidias seite, das Performance Ratio sieht besser für Nvidia aus ganz klar
Zumindest bei 1080p und im Schnitt recht klar mit echtem SGSSAA (was alles erfasst).
Bei Auflösungen dadrüber werden die Radeons aber schon effizienter und GK104 ist dann eher deutlich schlechter.
dargo
2013-10-16, 22:06:46
Die haben 1,256 Volt.
Das meine ich. Mit 1,256V kommt so ein Kühler schon mal je nach Gehäuse an seine Grenzen. Dann wirds u.U. etwas lauter. Ich lege für die 1050/1500Mhz nur 1,102V (Standard 1,143V) an, die reichen hier. Und meine Dual-X ist somit schön leise. Ich hatte auch schon eine Sapphire hier mit 1,25V gehabt und weiß wieviel schneller die Lüfter dafür drehen müssen.
Schaffe89
2013-10-16, 22:07:43
Es gibt immer mehr Games die Ingame SSAA anbieten dort ist der Verbrauch dichter an Furmark.
Ihr wollt euch wohl einfach irgendetwas zusammenreimen vor dem Start, wartet halt bis die Tests da sind. Selbst mit gleichbleibenden Powertune sind die Furmark Verbräuche immer 30 bis 40Watt höher. Bei Titan steigt da der Verbrauch viel weniger an.
Es sieht ganz danach aus, als ob die 290x etwas mehr mehr verbraucht, aber keine 60 Watt.
dildo4u
2013-10-16, 22:15:26
Die Vergangenheit zeigt,das selbst bei den High-End Karten bei AMD gespart wurde bis zum umfallen was dem Kühler angeht,daher ist der Verbrauch nicht utopisch.Hoher Takt schlechter Kühler vs niedriger Takt und guter Kühler macht locker 50Watt aus.
N0Thing
2013-10-16, 22:24:23
Hat ein PR-Mann von AMD vor ein paar Monaten nicht angekündigt, daß AMD in Zukunft mehr auf eine gute Kühllösung achten will?
Ich hoffe mal für AMD, daß dies nicht nur Marketing war.
Armaq
2013-10-16, 22:26:06
Die haben 1,256 Volt. Der Kühler sollte mit Standardsteuerung aber locker reichen. Laut brüllend, bei geringer Temperatur.
MfG,
Raff
Ja, die Karte kannst du unter Vollast im Furmark bei ca. 63°C halten (100%).
Schaffe89
2013-10-16, 22:29:43
Man kann doch über den Kühler überhaupt noch nichts sagen, weil man gar nicht weiß wie schnell die Karte im Furmark gedreht hat, wahrscheinlich eher nicht so schnell, wegen der hohen Temperaturen.
Keine Ahnung warum die überhaupt Furmark testen.
Zudem könnte HPM weniger Leckströme haben und AMD deswegen vielleicht die Temps höher ansetzen, damit dei Karten leise arbeiten.
Zergra
2013-10-16, 23:27:42
Hat ein PR-Mann von AMD vor ein paar Monaten nicht angekündigt, daß AMD in Zukunft mehr auf eine gute Kühllösung achten will?
Ich hoffe mal für AMD, daß dies nicht nur Marketing war.
Die Kühlleistung ist vllt. ja auch besser geworden, nur verbraucht der Chip einfach zu viel ?
Es sollten wohl erstmal ein paar mehr Exemplare getestet werden, möglicherweise gehen die Spannungen dort weit auseinander.
In diesem Thread geht es doch primär um Highend-Hardware? Was ich in diesem Zusammenhang nicht verstehe - was soll die Diskussion um den Verbrauch?
r3ptil3
2013-10-17, 00:25:00
In diesem Thread geht es doch primär um Highend-Hardware? Was ich in diesem Zusammenhang nicht verstehe - was soll die Diskussion um den Verbrauch?
Gehört neben der Leistung immerhin zu den wichtigsten Faktoren einer Grafikkarte.. Gab ja eine Überleitung, angefangen von der Temperatur zum Verbrauch. Hast vielleicht nicht mitbekommen, dass die 290X anscheinend ziemlich unangenehm heiss wird.
LSSJBroly
2013-10-17, 00:25:25
In diesem Thread geht es doch primär um Highend-Hardware? Was ich in diesem Zusammenhang nicht verstehe - was soll die Diskussion um den Verbrauch?
Es geht nicht primär um den Verbrauch - der kann gerne bei 300 und mehr Watt liegen - wenn die Performance stimmt. Es geht schlicht um die Effizienz und darum, dass ein höherer Verbrauch schwerer abzuführen ist, was wärmere und lautere referenz/custom-designs zur folge hat.
Zeiten, wo die Leistungsaufnahme völlig egal sind, sind spätestens seit Fermi vorbei.
Wie es bei der 290(X) aussehen wird, bleibt noch abzuwarten.
matty2580
2013-10-17, 00:41:42
Es kommt immer auf den Einsatzzweck an.
Im professionellen Bereich ist der Verbrauch durchaus wichtig. ^^
Hawaii ist kein reiner Gamer Chip.
Gipsel
2013-10-17, 01:12:54
Hawaii ist kein reiner Gamer Chip.Das wissen wir genau genommen noch gar nicht.
StefanV
2013-10-17, 02:29:01
Hawaii ist kein reiner Gamer Chip.
Hast du schon was über das SP:DP Verhältnis von Hawaii gehört??
Bisher hat AMD sich nicht dazu geäußert:
Wahrscheinlich: 1:16, vielleicht 1:4, unwahrscheinlich, aber möglich: 1:2
Ist die Frage, ob wir hier eher mit 1:16 rechnen sollten oder eher 1:4...
Und so lang dieses nicht bekannt ist, neben anderen Dingen, ist eine Aussage, wie du sie getroffen hast, schliecht nicht möglich!!
Weil ausschließen, dass Hawaii eher ein reiner Gamer Chip ist, kann man nämlich nicht...
mczak
2013-10-17, 04:09:26
Das wissen wir genau genommen noch gar nicht.
Das ist zwar richtig aber würde ein Nur-Gaming Chip wirklich Sinn machen? Das Ding scheint doch prädestiniert für HPC. Mehr maximal möglicher Speicher (als bei der Konkurrenz), ausserdem wohl deutlich effizienter (mehr Einheiten bei tieferem Takt). Ausserdem hat man noch gegenüber Tahiti die schönen neuen ACEs. Und da will man weiter Tahiti Compute Karten verkaufen obwohl man eine popelige billige Consumerkarte anbietet die da haushoch überlegen ist (ausser dass halt ECC und 1:4 DP fehlen würden)?
Ich verstehe die Diskussion um die Furmark-Ergebnisse nicht. Furmark ist ein Power-Virus und wird in den Treibern sowieso gedrosselt.
Oh man, irgend einem Chinesen ist'n Sack Reis auf seine R290X gefallen und hier herrscht rege Panik
OBrian
2013-10-17, 06:49:40
Bisher hat AMD sich nicht dazu geäußert:
Wahrscheinlich: 1:16, vielleicht 1:4, unwahrscheinlich, aber möglich: 1:2
Ist die Frage, ob wir hier eher mit 1:16 rechnen sollten oder eher 1:4...Ich tippe auf 1:4 wie bei den anderen auch. Macht den wenigsten Aufwand. 1:16 wäre eine üble Kastration, die den Profimarkt komplett ausschließt, warum sollte man sich das antun? Mit 1:4 kann man immer noch deutlich mehr Rechenpower als bei Tahiti anbieten. Für 1:2 ist wohl in der Chipfläche einfach kein Platz, wir wundern uns ja sowieso schon, was die alles da reingequetscht haben.
Schaffe89
2013-10-17, 07:26:00
In diesem Thread geht es doch primär um Highend-Hardware? Was ich in diesem Zusammenhang nicht verstehe - was soll die Diskussion um den Verbrauch?
Solange die Karte im Idle sparsam ist ( wo sie sich bei mir 95% der Zeit befindet), ist mir ein Mehrverbrauch von 50 Watt ( angenommen das stimmt) ziemlich egal, solange das kühlbar ist und der Preis und die Features stimmen.
Aber ich versteh immer noch nicht, warum man die Furmark Ergebnisse für bare Münze nimmt, wenn doch AMD Karten hier traditionell immer mehr verbrauchen.
N0Thing
2013-10-17, 09:45:42
In diesem Thread geht es doch primär um Highend-Hardware? Was ich in diesem Zusammenhang nicht verstehe - was soll die Diskussion um den Verbrauch?
Der Verbrauch ist ja generell nicht uninteressant, steht aber vor allem iim Zusammenhang mit der Kühllösung und damit auch der Lautstärke, die am Ende dabei heraus kommt.
HTB|Bladerunner
2013-10-17, 10:03:30
Ich hoffe die max. ~1900rpm der r9 290x mit Referenz-Radial-Lüfter im Screenshot bewahrheiten sich. Das wären mindestens 700rpm weniger wie mit der Referenzkühlung der 7970 und damit fast schon erschreckend leise. Da stellt sich mir die Frage wie sinnvoll dann noch die Custom-Kühllösungen sind. Ich wäre höchstens noch offen für ein trippleslot Radiallüfterdesign.
Angiesan
2013-10-17, 11:33:50
Naja wenn ich die Diskussion hier so betrachte und man wohl nichts anderes findet wird jetzt auf dem Verbrauch rumgetrampelt bis der Arzt kommt, dabei sind die wenigsten mit einer GTX 780 oder Titan mit Standard-Takt unterwegs was dem Verbrauch auch nicht zuträglich ist.
Aus eigener Erfahrung mit unterschiedlichen GTX 780 Karten kann ich sagen das zwischen Anfangs-Boost, also wenn die Karte Kühl ist und End-Boost dann wenn die Karte Ihr Temptarget erreicht hat gute 30 Watt Verbrauch gelegen haben.
Die Erklärung ist recht einfach erreicht einen GTX Ihr Temptarget verringert sie so lange Spannung und Takt bis der Kühler den Chip mit ca. 2000 RPM kühlen kann. Anfangsspannung ist dann 1,162 Volt und Endspannung war hier 1,025-1,038 Volt wobei man bei zweit genantem Wert schon sehr nahe am Base-Takt rumdümpelte, was so ganz nebenbei gute 5-10% FPS -Differenz zur Folge hat.
Wenn die R9 nicht den Takt und auch nicht die Spannung in vergleichbarer Art senken wird. ist es vollkommen normal, dass die Karte mehr verbrauchen wird.
Was bei dem Test z.B. nicht berücksichtigt wird ist ob die Benches mit aufgeheizter GTX oder kühler GTX gemacht wurden. Beim Furmark wohl aber mit warmer Karte und damit "Energie optimiert".
Ich denke wir werden sehen was seriöse Tests mit vorgeheizter GTX und R9 ergeben, sowohl bei Leistung wie Verbrauch, denn es ist noch lange nicht so das alle Seiten mit vorgeheizter Karte die Performance messen, so dass die AMD gleich doppelt gewatscht werden einmal mit einem hohen Boost der GTXén beim Benchen und dann mit höherem Verbrauch im Furmark:freak:
dargo
2013-10-17, 11:48:54
Ich hoffe die max. ~1900rpm der r9 290x mit Referenz-Radial-Lüfter im Screenshot bewahrheiten sich. Das wären mindestens 700rpm weniger wie mit der Referenzkühlung der 7970 und damit fast schon erschreckend leise. Da stellt sich mir die Frage wie sinnvoll dann noch die Custom-Kühllösungen sind. Ich wäre höchstens noch offen für ein trippleslot Radiallüfterdesign.
Custom-Design ist immer sinnvoll. Bei so einer Karte hätte ich auch nichts gegen einen Triple-Slot Kühler wie damals bei meiner GTX480. Trotz recht hohem Verbrauch war die Karte schön leise. Und sehr weit von >90°C entfernt. Wenn mich meine Erinnerung nicht täuscht hat die GPU trotz OC keine 70°C gesehen.
ShadowXX
2013-10-17, 11:56:34
Ich tippe auf 1:4 wie bei den anderen auch. Macht den wenigsten Aufwand. 1:16 wäre eine üble Kastration, die den Profimarkt komplett ausschließt, warum sollte man sich das antun? Mit 1:4 kann man immer noch deutlich mehr Rechenpower als bei Tahiti anbieten. Für 1:2 ist wohl in der Chipfläche einfach kein Platz, wir wundern uns ja sowieso schon, was die alles da reingequetscht haben.
Naja...wenn Hawaii tatsächlich auf der Grundlage des Pitcarn Design erstellt wurde kann es wirklich durchaus sein, dass er genau wie Pitcarn nur 1:16 ist.
Ich weiß jetzt nicht wieviel ATI/AMD an Transis dadurch sparen kann gegenüber 1:4, aber vielleicht ist genau das eben der Grund warum ATI/AMD soviel auf so wenig Platz unterbekommen hat.
boxleitnerb
2013-10-17, 12:39:59
Nein, du hast offenbar mich nicht verstanden oder nicht verstehen wollen. Ich sprach von meinen Testüberprüfungen und meinen Erkenntnissen und nicht von Marketing.
Stecke ich eine 7970 GHz Edition ins Gehäuse und führe dort die gleichen Benchmarks, auch bei höheren Temperaturen durch, dann nimmt sich PT 1.0 kaum etwas gegenüber dem offenen Teststand. Es bleibt eigentlich bei dem gleichen Resultat und da wiederum - bei festgesetzten Taktraten - kommen höchstens Performance-Abweichungen von 1 Prozent zwischen PT0 und PT+20 heraus. Und wenngleich der Boost dort dann im Graphen zappelt, bleibt es bei diesen Resultaten (ohne dass man Ruckler im Spiel wahrnehmen kann).
Bei NV ist das eben deutlich anders, aber ich muss nicht erneut die Unterschiede zwischen Boost und Base aufzeigen, dass in einigen Fällen oft nur noch der Base-Takt dort anliegt und dies ins Feld führen. Richtig ist, dass NV nur den Base-Takt garantiert. Diskussionen und Vergleiche zur Performance, werden aber immer nur mittels Ergebnissen zum Boost-Takt geführt.
Von daher meine Einschätzung, dass AMDs PT bislang ehrlicher für den Endkunden sind und er dann die in Benchmarks präsentierten Resultate in der Praxis auch erhält. Eigentlich wollte ich dazu mal einen Artikel präsentieren, aber leider kommt immer irgendwie, irgendwas dazwischen. Vielleicht heb ich mirs auf bis PT2.0 bei AMD da ist, dann habe ich wenigstens mehr zu meckern ;).
Darüber hinaus bin ich sicher, dass du anderer Meinung bist. :)
Ich hab dich schon verstanden, du musst mir nicht unterstellen, dich nicht verstehen zu wollen. Auch deine Spitze am Schluss kannst du lassen, was soll das?
Bloß passt das Wort "ehrlich" da finde ich nicht in den Kontext hinein. Es bleibt schließlich dem Tester überlassen, wie er testet. Wenn er andere Ergebnisse hat als Nvidia in ihren eigenen Labs, ist es halt so. Nvidia hat damit nicht direkt was am Hut.
Und übrigens sind die Messungen immer noch eine Stichprobe - unter anderen Voraussetzungen (anderes Gehäuse, bessere Belüftung, Custom-Modelle) kann das wieder etwas anders aussehen. Den Boost 2.0 pauschal zu beurteilen, ist daher auch ungeschickt mMn.
http://www.techpowerup.com/reviews/ASUS/R9_280X_Direct_Cu_II_TOP/24.html
Wenn man sich die Avg.(crysis2) Verbrauchswerte anschaut, so verbraucht die 280x knapp 20watt mehr als die 680 und bei Maximum(Furmark) sinds dann 60 watt mehr.
Furmark Tests sind einfach Müll und nichtmal der Rede wert.
Seufz, noch einer der nicht verstanden hat, wie Boost 2.0 bzw. Powertune 2.0 funktioniert. Hinweis: Die 280X hat kein Powertune 2.0...
Man kann es daher nicht mit bisherigen Tests vergleichen.
Armaq
2013-10-17, 13:46:59
Ich hab dich schon verstanden, du musst mir nicht unterstellen, dich nicht verstehen zu wollen. Auch deine Spitze am Schluss kannst du lassen, was soll das?
Bloß passt das Wort "ehrlich" da finde ich nicht in den Kontext hinein. Es bleibt schließlich dem Tester überlassen, wie er testet. Wenn er andere Ergebnisse hat als Nvidia in ihren eigenen Labs, ist es halt so. Nvidia hat damit nicht direkt was am Hut.
Und übrigens sind die Messungen immer noch eine Stichprobe - unter anderen Voraussetzungen (anderes Gehäuse, bessere Belüftung, Custom-Modelle) kann das wieder etwas anders aussehen. Den Boost 2.0 pauschal zu beurteilen, ist daher auch ungeschickt mMn.
Wenn vom Boost nichts übrig bleibt, wie in den beschriebenen Szenarien, ist der Boost einfach nur nutzlos für den Käufer und eine Falle für den Tester. Was willst du da kleinreden?
boxleitnerb
2013-10-17, 13:56:55
Wenn vom Boost nichts übrig bleibt, wie in den beschriebenen Szenarien, ist der Boost einfach nur nutzlos für den Käufer und eine Falle für den Tester. Was willst du da kleinreden?
Und die beschriebenen Szenarien sind allgemeingültig? Kaum.
Zudem ging es um das Thema Ehrlichkeit. In diesem Zusammenhang liegt die Bürde beim Tester, nicht bei AMD oder Nvidia - es sei denn, es wird falsch beworben. Augenscheinlich ist das bei keinem der beiden der Fall, bloß gibt Nvidia eher das untere Ende an (Basis und Durchschnittsboost) und AMD scheinber eher das obere Ende (Maximalboost mit "up to"). Beides ist wenn man Buchstabenkorinthenkackerei betreibt gleich ehrlich oder unehrlich, denn beides ist korrekt, wobei ich die Angabe der niedrigeren (sprich eher wahrscheinlichen) Werte als tendenziell ehrlicher halte. Das ist aber nur meine Meinung, kann man natürlich auch anders sehen.
Superheld
2013-10-17, 13:58:20
AMD To Show Off Radeon R9 290X Video Card in Montreal Tomorrow!
http://www.legitreviews.com/amd-show-radeon-r9-290x-video-card-montreal-tomorrow_126569
newz is von gestern.
Iruwen
2013-10-17, 14:00:47
Wie funktioniert der "Boost", nennen wir ihn mal so, denn nun?
NV = Basistakt liegt an, wenn die Situation es zulässt wird auf den Boosttakt erhöht
AMD = Boosttakt liegt an, wenn die Situation es nicht zulässt wird der abgesenkt soweit nötig
Oder wie?
Hübie
2013-10-17, 14:02:46
Als Enduser (-kunde) entscheide doch ich welchem Test ich mehr Glaubwürdigkeit beimesse. Je näher der Tester an meine Präferenzen heran rückt desto präziser die Vorhersage wie sich Hardware XY bei mir daheim verhält. Und ich betreibe daheim kein nVidia-Labor. Könnten wir uns auf die Begriffe Takt- und Temperaturverhalten einigen? Boost oder Powertune ist Gewäsch was am Ende nur eines macht: Effizienz erhöhen. Warum nehmt ihr nicht auch CPUs heran? Die takten viel munterer hin und her. Ich finde es nicht schlimm wenn die Tests so different sind. Mittlerweile kann man ja alles dahrim nachstellen und innerhalb von 14 Tagen ohne Worte zurück senden wenn das online gekaufte Produkt nicht zusagt. Und man findet heraus wer biased ist...
Schaffe89
2013-10-17, 14:07:56
Seufz, noch einer der nicht verstanden hat, wie Boost 2.0 bzw. Powertune 2.0 funktioniert. Hinweis: Die 280X hat kein Powertune 2.0...
Man kann es daher nicht mit bisherigen Tests vergleichen.
Mit anderen Worten du weißt noch gar nicht wie Powertune 2.0 funktioniert und trollst durch die Foren mit deinem Furmark verbrauch, der völlig nebensächlich ist.
Warum muss man immer nur annehmen, dass du bei einem Nvidiarelease genau das Gegenteil sagen würdest.
Wenn vom Boost nichts übrig bleibt, wie in den beschriebenen Szenarien, ist der Boost einfach nur nutzlos für den Käufer und eine Falle für den Tester. Was willst du da kleinreden?
So sieht halt die Praxis aus. Und wenn du auf dem fast nie eintredenden Fall@ boxleitner, wie es Peter durch seine Tests herausgefunden hat, dass die HD 7970 durch Powertune bei Fall X/Y mal ein einziges Prozent langsamer arbeitet, herumreitest ,um Nvidias Boost als ehrlicher darzustellen, obwohl das in der Praxis nun null relevanz hat dann frage ich mich schon ob das ganze Geschreibsel hier nicht voneinem extremen bias durchzogen ist.
Wenn dich der Launch der neuen Karten zu sonem Käse hinreißen lässt, dann bin ich ja gespannt was du dann schreibst wenn die Tests da sind, dann werden dann wohl auch irgendwelche abstrusen Beispiele herangezogen um sich irgendetwas schön zu reden. Dat mach mal bitte alleine.
Zudem ging es um das Thema Ehrlichkeit.
Da ist Nvidias Boost, so wie er in der Praxis sich verhält und bei kurzen Tests die Karte höher taktet, als bei langen Tests, also ehrlicher?
Warum weichst du denn, wenn man ehrlichkeit diskutiert auf die 1% divergierenden Boost bei Powertune @ Standard aus?
Und die beschriebenen Szenarien sind allgemeingültig? Kaum.
Jedenfalls treten sie eigentlich immer so ein, nach längerer Last, wenn die Karte @ stock läuft.
Du argumentierst mit viel weniger Substanz als zum Bleistift Peter Gräber, deswegen auch seine Aussage. " Darüber hinaus bin ich sicher, dass du anderer Merinung bist".
Thomas Gräf
2013-10-17, 14:29:12
Als Gamer braucht man stabile und hohe min Frams...alles andere is doch Kinderkram.
gnahr
2013-10-17, 14:32:25
gibs infos zum namen der dual-karte?
ich müsste ja lachen, wenn es wieder auf "X2" hinausläuft nachdem man sich ja ab 5000 extra davon getrennt hat.
Duplex
2013-10-17, 14:41:39
gibs infos zum namen der dual-karte?
ich müsste ja lachen, wenn es wieder auf "X2" hinausläuft nachdem man sich ja ab 5000 extra davon getrennt hat.
R9-290 X2 wäre doch i.o.
gibs infos zum namen der dual-karte?
ich müsste ja lachen, wenn es wieder auf "X2" hinausläuft nachdem man sich ja ab 5000 extra davon getrennt hat.
R9 290X2? :ugly:
MfG.
Raff
john carmack
2013-10-17, 14:42:39
Als Gamer braucht man stabile und hohe min Frams...alles andere is doch Kinderkram.
! ! !
gnahr
2013-10-17, 14:53:35
R9 290X2? :ugly:
R9 295X hat aber auch was...
X2 kollidiert irgendwie für die kurzschreibweise aus nem crossfire-verbund von 2 290ern non-X.
Gipsel
2013-10-17, 15:20:26
Wie funktioniert der "Boost", nennen wir ihn mal so, denn nun?
NV = Basistakt liegt an, wenn die Situation es zulässt wird auf den Boosttakt erhöht
AMD = Boosttakt liegt an, wenn die Situation es nicht zulässt wird der abgesenkt soweit nötig
Oder wie?Die beiden Varianten sind prinzipiell identisch und nicht zu unterscheiden. Es funktioniert bei beiden so, daß der höchste Takt gefahren wird, der im aktuellen Power- bzw. Temperaturrahmen (diese Definitionen unterscheiden sich allerdings) möglich ist. Da Unterschiede aufzumachen ist entweder PR oder Augenwischerei.
Zumindest solange die GPU-Last nahe bei 100% liegt. Könnte ein Spiel z.B. mit 200fps laufen, wird aber per Vsync auf 60fps eingebremst, dreht die GPU logischerweise rund zwei Drittel der Zeit Däumchen. Hier kann man ansetzen und in solchen Situationen den GPU-Takt senken, um Strom zu sparen. In Spielsituationen dürften sich damit normalerweise keine Nachteile ergeben (bei bestimmten GPGPU-Geschichten allerdings schon, da muß der Treiber clever sein).
fondness
2013-10-17, 15:52:15
Mit anderen Worten du weißt noch gar nicht wie Powertune 2.0 funktioniert und trollst durch die Foren mit deinem Furmark verbrauch, der völlig nebensächlich ist.
Warum muss man immer nur annehmen, dass du bei einem Nvidiarelease genau das Gegenteil sagen würdest.
Solch ein Furmark-Wert ist natürlich Wasser auf die Mühlen der NV-Fans. Ich weiß auch gar nicht was es an den Aussagen von Peter zu kritisieren gibt, das sind schließlich Fakten die er aufzählt. AMD hält den Takt praktisch immer, NV nutzt die meist optimalen Testbedingungen bei offenen Teststand bei den Reviewern aus um zusätzlich zu boosten. In einem nicht optimal belüfteten Gehäuse sieht das ganz anders aus mit dem Boost. Wie Powertune 2.0 aussieht darüber kann man aktuell nur spekulieren.
Blediator16
2013-10-17, 16:10:33
Solch ein Furmark-Wert ist natürlich Wasser auf die Mühlen der NV-Fans. Ich weiß auch gar nicht was es an den Aussagen von Peter zu kritisieren gibt, das sind schließlich Fakten die er aufzählt. AMD hält den Takt praktisch immer, NV nutzt die meist optimalen Testbedingungen bei offenen Teststand bei den Reviewern aus um zusätzlich zu boosten. In einem nicht optimal belüfteten Gehäuse sieht das ganz anders aus mit dem Boost. Wie Powertune 2.0 aussieht darüber kann man aktuell nur spekulieren.
Ich kann dir zu 1000% versichern, dass wenn AMD als 1. mit der Boostgeschichte gekommen wäre, die Foren voll wären von "AMD cheats at benchmarks" usw. und ich bin mir sicher, dass wenn PT2 auch so arbeitet, sich welche hinreißen lassen werden und AMD vorwerfen zu cheaten. Man erinnert sich noch an den Tessschalter, der vor Jahren kam und nie nachweislich etwas verändert hat, wenn er auf AMD optimiert war und daraus wurde ein unheimliches Trara gemacht, aber als Kepler mit dem Boost kam, dann war es plötzlich gut für den Verbraucher.
Duplex
2013-10-17, 16:16:37
Diese Boost Geschichte sollte man einfach ignorieren, nervt doch langsam oder ? Hab bei meiner GTX einfach ein Mod Bios ohne Boost drauf gemacht und hab permanent den selben Takt.
Iruwen
2013-10-17, 16:18:36
@Blediator16, Kannst du auch was anderes als darüber zu lamentieren wie parteiisch alle sind? Ich erinnere an das anhaltende Gemecker über den Boost bei NV und die Notwendigkeit des "Vorwärmens". Die "Parteien" nehmen sich da rein gar nichts.
Skysnake
2013-10-17, 16:27:27
Und die beschriebenen Szenarien sind allgemeingültig? Kaum.
Geht es aber nicht genau darum?
Für nVidia mit ihrem Boost2.0 kann man doch gar nichts mehr voraussagen, einfach weil es so empfindlich ist. Nimm ein anderes Gehäuse und dein Boost sieht am Ende komplett anders aus. Damit werden "Vergleichs"tests halt verdammt schwierig.
Zudem ging es um das Thema Ehrlichkeit. In diesem Zusammenhang liegt die Bürde beim Tester, nicht bei AMD oder Nvidia - es sei denn, es wird falsch beworben. Augenscheinlich ist das bei keinem der beiden der Fall, bloß gibt Nvidia eher das untere Ende an (Basis und Durchschnittsboost) und AMD scheinber eher das obere Ende (Maximalboost mit "up to"). Beides ist wenn man Buchstabenkorinthenkackerei betreibt gleich ehrlich oder unehrlich, denn beides ist korrekt, wobei ich die Angabe der niedrigeren (sprich eher wahrscheinlichen) Werte als tendenziell ehrlicher halte. Das ist aber nur meine Meinung, kann man natürlich auch anders sehen.
Und beim Leser....
Und seien wir doch mal ehrlich. Die meisten wird Boost 2.0 einfach überfordern.
Diese Boost Geschichte sollte man einfach ignorieren, nervt doch langsam oder ? Hab bei meiner GTX einfach ein Mod Bios ohne Boost drauf gemacht und hab permanent den selben Takt.
Ja klar ne... :ugly:
Ein BiosMod, mit dem man die Garantie verliert kann ja wohl nicht die Grundvorraussetzung sein...
Iruwen
2013-10-17, 16:32:32
Das machen ja auch nur Leute die wissen was sie tun (sollten sie zumindest). Und den Rest der Menschheit interessieren weder Boost noch OC. Großer Vorteil bei AMD: keine Spannungssperre in Hardware.
gnahr
2013-10-17, 16:32:36
"Vergleichs"tests dienen zum "vergleichen".
dass man da nicht alles bis auf den letzten quanten-spin reproduzieren kann liegt in der natur und ist einfach einzupreisen. ein robuster test kann damit umgehen und eben auch ne varianz aufzeigen.
aber wenn man sich unbedingt deshalb in die hose machen will...
Skysnake
2013-10-17, 16:41:59
Dann schau dir aber mal an welche Diskussionen es rund ums "Vorheizen" gibt, und wer das alles macht, und wies mit Benchtables aussieht und Gehäusen.
Das kannste nur relativ schlecht nachbilden. Allein das Verstauben des Kühlers kannste ja schon gar nicht richtig nachbilden. Ist ne Karte mit Boost 2.0 in nem normalen GEhäuse nach 1-2 JAhren 0, 1, 2, 3, 5, 7 oder 10% langsamer, weil der Kühler etwas zugesetzt ist? Keine Ahnung und wird bei jedem anders sein. Verklicker das aber mal jemand, das seine GPU nach ner gewissen Zeit im Rechner langsamer werden kann, weil der Kühler sich zusetzt ;D
Viel Spaß.
gnahr
2013-10-17, 16:48:45
wenn man sich ins hemd machen will...
das ist nicht der sinn von den massen-tests die jede halbwegs große zeitung meint machen zu müssen. ich weiß (ohne smiley) wie dein beitrag ausfallen würde, wenn ich mal auf die radial-kühler der ref-designs abgehen sollte von wegen haltbarkeit und vor allem lautstärke.
fixed clocks stammen einfach aus der vorzeit. in der praxis funktioniert es bereits nahezu flächendeckend, da muss man sich doch nicht mehr über gebühr mit den esos die sich darüber ausspinnen auslassen. zum glück setzen beide großen firmen bereits darauf.
Hübie
2013-10-17, 16:49:27
Diese Boost Geschichte sollte man einfach ignorieren, nervt doch langsam oder ? Hab bei meiner GTX einfach ein Mod Bios ohne Boost drauf gemacht und hab permanent den selben Takt.
Sorry for OT: einfach die min- und max-Wert gleichgesetzt oder wie?
Ähm. Worum ging es in diesem thread doch gleich :| Ach ja. Hawaii. Wenn die Karte bei 1000 MHz und mittlerer Drehzahl schon glüht deutet das doch auf ein nicht so gutes OC-Potenzial hin (analog zur GTX770) oder?
Skysnake
2013-10-17, 16:51:44
Gegen einen Boost ist auch NICHTS! auszusetzen an sich. Das ist absolut ok. Man kann damit halt das letzte aus der Karte raus holen.
Was aber ein Problem in meinen Augen ist, ist die Einbeziehung der aktuellen GPU-Temperatur....
Man kann die rein nehmen zum throtteln, also um ein Überhitzen zu verhindern, aber doch bitte nicht um zu entscheiden, ob man jetzt boosten kann oder nicht... Das macht die ganze Sache einfach viel zu instabil.
So macht es halt einen unterschied, ob die Luft im Gehäuse 10°C wärmer oder kälter ist. das ist nicht wirklich optimal.
EDIT:
Sorry for OT: einfach die min- und max-Wert gleichgesetzt oder wie?
Ähm. Worum ging es in diesem thread doch gleich :| Ach ja. Hawaii. Wenn die Karte bei 1000 MHz und mittlerer Drehzahl schon glüht deutet das doch auf ein nicht so gutes OC-Potenzial hin (analog zur GTX770) oder?
Ohne Kenntnis der Lüfterdrehzahl/Verbrauch dazu, sagt das erstmal rein garnichts aus.
Wie schon oft gesagt wurde, kann AMD auch einfach wert darauf gelegt haben, eine leise Karte @stock zu haben. 94°C killen keine Karte, wenn Sie darauf ausgelegt ist. Und AMD wollte ja was am "Kühler" tun. Kann also schon sein, dass Sie einfach nur leise sein wollten/wollen.
Botcruscher
2013-10-17, 16:58:04
Die Temperatur und Leistungsaufnahme sind doch die Größen schlechthin für so eine Regelung. Was will man da herumnörgeln.
Dann verabschiedet euch endlich vom Marketingwort Boost und kommt zum deutschen Begrenzer zurück. Genau das macht die Technik nämlich. Die Leistung situationsabhängig begrenzen.
PS: Natürlich gibt es am Boost was auszusetzen. Die meisten Leistung braucht man bei den Min-FPS und genau da wird oft begrenzt. Boost gibt es meist eh nur da wo genug Luft ist.
PSS: Der Boost ist eigentlich nur da um im Grenzbereich für den Benchmark noch was raus zu holen. In Zeiten wo 10% gleich mal 100€ aufwärts ausmachen nimmt man das gerne mit.
Skysnake
2013-10-17, 17:02:24
Hat jemand von der Leistungsaufnahme gesprochen?
Not...
Die Leistungsaufnahme zu begrenzen ist ok.
Aber es ist immer ziemlich doof, wenn man die Chiptemperatur und damit die Umgebungstemperatur mit rein nimmt. Das sollte nur in sehr geringem Maße passieren. Halt gerade um ein Überhitzen zu verhindern, aber das wars dann auch. Alles andere macht das ganze System eben viel zu chaotisch.
boxleitnerb
2013-10-17, 17:16:50
Mit anderen Worten du weißt noch gar nicht wie Powertune 2.0 funktioniert und trollst durch die Foren mit deinem Furmark verbrauch, der völlig nebensächlich ist.
Warum muss man immer nur annehmen, dass du bei einem Nvidiarelease genau das Gegenteil sagen würdest.
Ich möchte mich nicht hundertprozentig festlegen, aber was mir angetragen wurde, klingt Boost 2.0 sehr sehr ähnlich und geht sogar noch ein paar Schritte weiter bei der Implementierung (Granularität). Die Karte wird innerhalb der gesetzten Grenzen (die bei der Temperatur zumindest sehr großzügig sind) so hoch takten wie möglich, im "Steady-State"-Betrieb wird die Temperatur auch der Hauptfaktor sein, das Powertarget eher weniger. Daher auch die berechtigte Annahme, dass Furmark keine Sonderrolle einnimmt.
Deine persönlichen OT-Anfeindungen kannst du doch mal sein lassen, wen interessiert denn das? Ich wusste und weiß mehr über die Karten als du, was willst du mir da ankommen und mir irgendwas erzählen??
So sieht halt die Praxis aus. Und wenn du auf dem fast nie eintredenden Fall@ boxleitner, wie es Peter durch seine Tests herausgefunden hat, dass die HD 7970 durch Powertune bei Fall X/Y mal ein einziges Prozent langsamer arbeitet, herumreitest ,um Nvidias Boost als ehrlicher darzustellen, obwohl das in der Praxis nun null relevanz hat dann frage ich mich schon ob das ganze Geschreibsel hier nicht voneinem extremen bias durchzogen ist.
Wenn dich der Launch der neuen Karten zu sonem Käse hinreißen lässt, dann bin ich ja gespannt was du dann schreibst wenn die Tests da sind, dann werden dann wohl auch irgendwelche abstrusen Beispiele herangezogen um sich irgendetwas schön zu reden. Dat mach mal bitte alleine.
Ich bezog mich auf den Vergleich Boost 2.0/Powertune 2.0, falls du das nicht gemerkt haben solltest. Boost 2.0 und PT 1.0 kann man sinnvollerweise gar nicht vergleichen, weil das eine eben deterministisch ist und das andere nicht.
Da ist Nvidias Boost, so wie er in der Praxis sich verhält und bei kurzen Tests die Karte höher taktet, als bei langen Tests, also ehrlicher?
Warum weichst du denn, wenn man ehrlichkeit diskutiert auf die 1% divergierenden Boost bei Powertune @ Standard aus?
Der Boost selbst kann nicht ehrlich oder unehrlich sein, sondern es geht darum wie damit umgegangen wird. Ich sehe nicht, dass Nvidia irgendwo von einem Boosttakt von z.B. 1 GHz schreibt oder auch nur den "Durchschnittsboost" garantiert. Das ist in jedem Review seit GK104 nachzulesen. Wie gesagt - das fällt auf den Tester zurück, wenn hier falsche Erwartungshaltungen entstanden sind, weil man nicht richtig zugehört hat, als der Turbo erklärt wurde.
Und wie gesagt: Powertune 1.0 habe ich nie angesprochen oder gemeint, s.o.
Jedenfalls treten sie eigentlich immer so ein, nach längerer Last, wenn die Karte @ stock läuft.
Du argumentierst mit viel weniger Substanz als zum Bleistift Peter Gräber, deswegen auch seine Aussage. " Darüber hinaus bin ich sicher, dass du anderer Merinung bist".
"Eigentlich immer", aha. Also als ich meine Titans noch unter Luft noch betrieben hatte, war der Takt "eigentlich immer" über dem Basistakt, und das deutlich. Er erreichte zwar nicht den maximalen Boost-Bin, aber ungefähr in der Mitte hat sich das eingependelt. Und da bin ich auch wahrscheinlich nicht der Einzige, bei dem das so ist. Wenn du jetzt aber meinst, die eine Konfiguration (Gehäuse, Kühlung) von Peter ist so repräsentativ für den Rest der Welt, dass man alles andere getrost ignorieren kann, dann lasse ich dir den Glauben gerne.
Ich glaube dein Problem ist eher, die Substanz meiner Beiträge zu erkennen. Sorgfältiger lesen und vielleicht bei Unklarheiten nachfragen sollte da helfen.
Geht es aber nicht genau darum?
Für nVidia mit ihrem Boost2.0 kann man doch gar nichts mehr voraussagen, einfach weil es so empfindlich ist. Nimm ein anderes Gehäuse und dein Boost sieht am Ende komplett anders aus. Damit werden "Vergleichs"tests halt verdammt schwierig.
Das mit der Vergleichbarkeit stelle ich auch gar nicht in Abrede. Ich habe nur etwas dagegen, wenn behauptet wird, dass etwas "eigentlich immer" so ist, nur weil es z.B. bei Peter so ist. Von mir aus noch bei hardware.fr oder sonstwem. Ich HASSE Pauschalisieren ungefähr mit derselben Leidenschaft, wie du wahrscheinlich proprietären Kram hasst :freak:
Und beim Leser....
Und seien wir doch mal ehrlich. Die meisten wird Boost 2.0 einfach überfordern.
Von mir aus auch noch beim Leser. Es kann eben nicht angehen, dass man mit fehlgeleiteten Erwartungshaltungen ankommt und dann die eine Lösung als ehrlich und die andere als unehrlich bezeichnet. Das ist einfach inkompetent. Es wäre etwas ganz anderes, wenn Nvidia nun hergegangen wäre und in irgendeiner Form die Boosttaktraten garantiert oder eine gewisse Erwartungshaltung geschürt hätte. Das wäre natürlich unehrlich gewesen. Nur ist es halt nicht so, daran gibt es nichts zu rütteln.
Und zum Schluss nochmal zum Thema Ehrlichkeit, vielleicht kann ich mit folgender Gegenüberstellung Klarheit schaffen, was ich gemeint hatte (Annahme: Es ist dieselbe GPU, nur auf zwei Arten beworben):
a) 800 MHz garantiert, mittlerer Boosttakt bei 900 MHz (nicht garantiert). Tatsächlich anliegender Takt z.B. 850 MHz
b) Bis zu 1000 MHz Boosttakt (nicht garantiert). Tatsächlich anliegender Takt z.B. auch 850 MHz.
Wie schon erwähnt:
Rein "rechtlich" ist das beides vollkommen wasserdicht, es wird nichts versprochen, was nicht auch geliefert wird. Aber es kann wohl keiner abstreiten, dass der IHV lieber b) benutzt, um die Boostfunktionalität zu bewerben. Warum? Weil er da die größere Zahl draufschreiben kann. Man kann ihm keinen Strick draus drehen wegen dem "bis zu", aber die Suggestivwirkung nimmt er natürlich gerne mit.
Skysnake
2013-10-17, 17:51:55
Ich bezog mich auf den Vergleich Boost 2.0/Powertune 2.0, falls du das nicht gemerkt haben solltest. Boost 2.0 und PT 1.0 kann man sinnvollerweise gar nicht vergleichen, weil das eine eben deterministisch ist und das andere nicht.
[/qoute]
Und genau deswegen ist eben PT1.0 "ehrlicher". Also ich habe nie aus der Diskussion raus gelesen, das es um PT2.0 ginge.
Und wie du sagst, 1.0 ist halt recht deterministisch, daher auch "ehrlicher".
[quote]
Der Boost selbst kann nicht ehrlich oder unehrlich sein, sondern es geht darum wie damit umgegangen wird. Ich sehe nicht, dass Nvidia irgendwo von einem Boosttakt von z.B. 1 GHz schreibt oder auch nur den "Durchschnittsboost" garantiert.
Nein das nicht, aber so Sachen wie die Hinweise, "wie man benchen sollte", also z.B. die Anregung man sollte doch einen Raum mit Temperatur XY haben ist schon SEHR fragwürdig. Damit versucht nämlich nVidia schon durchaus sich besser darstellen zu lassen als Sie sind.
Ich wüsste nicht, dass Sie in ihrem Benchleitfaden gesagt hätten: "Hey Leute, toll wenn ihr so bis dahin gebencht habt, um euren Lesen aber die besten Ergebnisse zu liefern, steckt das Ding bitte noch in ein kleines schelcht belüftetes Gehäuse und heizt so ca 30 min vor und testet dann nochmals"
Das ist halt meines Wissens nach nicht passiert, und wir wissen auch warum.
Das ist in jedem Review seit GK104 nachzulesen. Wie gesagt - das fällt auf den Tester zurück, wenn hier falsche Erwartungshaltungen entstanden sind, weil man nicht richtig zugehört hat, als der Turbo erklärt wurde.
Und wie gesagt: Powertune 1.0 habe ich nie angesprochen oder gemeint, s.o.
Naja, Tester sollten skeptisch sein, aber man muss auch die Temperaturangabe seitens nVidia sehr kritisch sehen.
Das mit der Vergleichbarkeit stelle ich auch gar nicht in Abrede. Ich habe nur etwas dagegen, wenn behauptet wird, dass etwas "eigentlich immer" so ist, nur weil es z.B. bei Peter so ist. Von mir aus noch bei hardware.fr oder sonstwem. Ich HASSE Pauschalisieren ungefähr mit derselben Leidenschaft, wie du wahrscheinlich proprietären Kram hasst :freak:
Genau darum geht, es doch aber bei "Vergleichs"tests zwischen den beiden GPU-Herstellern. Man will einen möglichst representativen Vergleich beider Hersteller. Mit Boost2.0 ist das halt DEUTLICH schwieriger geworden.
Eigentlich müsste es eben 3 Vergleiche geben Bestcase im offenen Benchtable mit 20°C Raumtemp, AVG, und dann noch Worstcase in nem gedämmten Mini-Gehäuse ohne Lüfter und 30 min vorheizen.
Das wirst du aber nicht bekommen, dafür sind die ganzen TEsts VIEL zu auswändig, und das weiß auch nVidia...
nVidia kommt daher tendenziell mit der Art und Weise wie Boost2.0 implementiert ist, in den Benches wohl besser weg als bei den Leuten real.
Es ist dabei zu befürchten, das AMD genau auf den gleichen Trichter gekommen ist, und sich genau so Vorteile verschafft. Das läuft dann am Ende auf das Gleiche raus wie beim AF/AA gefake/cheate zwischen Ati und nVidia in den guten alten Zeiten...
Von mir aus auch noch beim Leser. Es kann eben nicht angehen, dass man mit fehlgeleiteten Erwartungshaltungen ankommt und dann die eine Lösung als ehrlich und die andere als unehrlich bezeichnet. Das ist einfach inkompetent. Es wäre etwas ganz anderes, wenn Nvidia nun hergegangen wäre und in irgendeiner Form die Boosttaktraten garantiert oder eine gewisse Erwartungshaltung geschürt hätte. Das wäre natürlich unehrlich gewesen. Nur ist es halt nicht so, daran gibt es nichts zu rütteln.
nVidia hat diese "Erwartungshaltung" aber wohl durchaus provoziert, eben durch so SAchen wie die angabe zur Raumtemperatur, die man doch haben sollte für die Tests.
MadManniMan
2013-10-17, 18:09:32
Yay, Fanboy's Paradise.
Screw you guys, I'm going ... away.
[x] unsubscribe
Ultron
2013-10-17, 18:27:28
PS: Natürlich gibt es am Boost was auszusetzen. Die meisten Leistung braucht man bei den Min-FPS und genau da wird oft begrenzt. Boost gibt es meist eh nur da wo genug Luft ist.
PSS: Der Boost ist eigentlich nur da um im Grenzbereich für den Benchmark noch was raus zu holen. In Zeiten wo 10% gleich mal 100€ aufwärts ausmachen nimmt man das gerne mit.
Seh ich genauso!
Ich würde einfach sagen man misst entweder:
- nur noch die 10 Min-FPS und bildet daraus den Durchschnitt + Frametimes, weil avg und max ist nicht mehr aussagekräftig.
- schält den Boost bei beiden Karten komplett ab zum benchen, oder setzt die Karte manuell auf den Boosttakt.
- fester OC-Wert mit beiden Karten am Limit ohne Boost.
Anders wird man nicht mehr vergleichen können. Ist das gleiche bei Turbogeladenen Autos wenn die Luft und Ladeluftkühler kalt ist, bei Overboost.
dildo4u
2013-10-17, 18:50:26
http://abload.de/img/bb43u56.png
Na dann steht der preisliche Gegner ja fest. ;) Konstant über 30 Fps mit FXAA und DX11-DoF glaube ich aber nicht.
MfG,
Raff
Neue AMD Karten sorgen für Absatzeinbruch bei NV (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-AMD-Volcanic-Islands-Verkaufszahlen-Geforce-Grafikkarten-geschaedigt-1092951/?utm_source=facebook.com&utm_medium=socialPCGH&utm_campaign=computecsocial&utm_content=Grafikkarten-Grafikkarte-97980NewsNvidia-AMD-Volcanic-Islands-Verkaufszahlen-Geforce-Grafikkarten-geschaedigt-1092951)
Das sind gute Nachrichten.
Nakai
2013-10-17, 18:57:44
Wow, laut CB ist die 7970/280X eher auf GTX780/Titan-Niveau. Das Ergebnis ist mies...hätte mir eher 30%+ da erhofft.
Neue AMD Karten sorgen für Absatzeinbruch bei NV (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-AMD-Volcanic-Islands-Verkaufszahlen-Geforce-Grafikkarten-geschaedigt-1092951/?utm_source=facebook.com&utm_medium=socialPCGH&utm_campaign=computecsocial&utm_content=Grafikkarten-Grafikkarte-97980NewsNvidia-AMD-Volcanic-Islands-Verkaufszahlen-Geforce-Grafikkarten-geschaedigt-1092951)
Das sind gute Nachrichten.
Das einzige Verwunderliche ist, dass es so lange gedauert hat. Das PLV der AMD-Karten ist seit Monaten besser.
Wow, laut CB ist die 7970/280X eher auf GTX780/Titan-Niveau. Das Ergebnis ist mies...hätte mir eher 30%+ da erhofft.
Das ist in Einzelfällen ja nicht ausgeschlossen. ;) Auch wenn die HD 7970 nie auf Titan-Niveau ist ...
MfG,
Raff
john carmack
2013-10-17, 19:04:19
Neue AMD Karten sorgen für Absatzeinbruch bei NV (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-AMD-Volcanic-Islands-Verkaufszahlen-Geforce-Grafikkarten-geschaedigt-1092951/?utm_source=facebook.com&utm_medium=socialPCGH&utm_campaign=computecsocial&utm_content=Grafikkarten-Grafikkarte-97980NewsNvidia-AMD-Volcanic-Islands-Verkaufszahlen-Geforce-Grafikkarten-geschaedigt-1092951)
Das sind gute Nachrichten.
Vielleicht sollte Nvidia einfach mal die Preise senken... :rolleyes:
mironicus
2013-10-17, 19:06:07
Na dann steht der preisliche Gegner ja fest. ;) Konstant über 30 Fps mit FXAA und DX11-DoF glaube ich aber nicht.
MfG,
Raff
Logischerweise hätte ein Gegner für die Titan auch z.B. mehr Speicher.
Ich spekuliere auf Preise zwischen 480-540 Euro im Handel, und die Preisempfehlung seitens AMD bei 499 Euro.
Nakai
2013-10-17, 19:10:15
Das ist in Einzelfällen ja nicht ausgeschlossen. ;) Auch wenn die HD 7970 nie auf Titan-Niveau ist ...
MfG,
Raff
Hups, da kamen wohl ein paar Beiträge davor. Ich ging da explizit auf Bioshock: Infinite drauf ein. Bei CB und Ht4u ist man eher auf Titan-Niveau. Wenn die 290X nur 17% vor einer 780GTX ist, hat man hier kaum Mehrperformance als Tahiti...deswegen schwach. Ich würde da eher 30% erwarten.
Man muss auch sagen, dass die 780GTX und Titan nur so positioniert sind, damit AMDs 7970GHz oder R280X solala "geschlagen" werden. Die 20-25% die Titan/780 teilweise vor einer R280X vorne sind, sind einfach locker von R290X schlagbar.
StefanV
2013-10-17, 19:12:08
Naja, 'ne 7970 für 250€ (und weniger), wer kann da schon widerstehen?!
Ist ja nicht so, dass 'ne 770 besonders preiswert wäre oder sonst wie besser als 'ne 7970...
Superheld
2013-10-17, 19:13:59
http://abload.de/img/bb43u56.png
und hier nochmal
The @AMDRadeon R9 290X ready to bring the thunder against the GTX 780 in UltraHD, live from Montréal!:
https://twitter.com/Thracks/status/390805214753988609/photo/1
dildo4u
2013-10-17, 19:15:06
Hups, da kamen wohl ein paar Beiträge davor. Ich ging da explizit auf Bioshock: Infinite drauf ein. Bei CB und Ht4u ist man eher auf Titan-Niveau. Wenn die 290X nur 17% vor einer 780GTX ist, hat man hier kaum Mehrperformance als Tahiti...deswegen schwach. Ich würde da eher 30% erwarten.
Man muss auch sagen, dass die 780GTX und Titan nur so positioniert sind, damit AMDs 7970GHz oder R280X solala "geschlagen" werden. Die 20-25% die Titan/780 teilweise vor einer R280X vorne sind, sind einfach locker von R290X schlagbar.
Jup Extreme Cherry pickt,in Hohen Auflösungen bricht Titan/GTX780 total ein.
http://ht4u.net/reviews/2013/amds_radeon_r-serie-grafikkarten_r9_270x_und_280x_und_r7_260x_im_test/index32.php
horn 12
2013-10-17, 19:20:39
Findet Heute dann das R9 290X Video in Montreal statt, soll ja in knappen 3 Stunden losgehen ?!
Blediator16
2013-10-17, 19:21:01
Jup Extreme Cherry pickt,in Hohen Auflösungen bricht Titan/GTX780 total ein.
http://ht4u.net/reviews/2013/amds_radeon_r-serie-grafikkarten_r9_270x_und_280x_und_r7_260x_im_test/index32.php
Ich dachte dafür wären die Karten da. Entweder hohe Auflösungen,DS oder jegliche Formen von extrem AA. :freak:
Peter Gräber
2013-10-17, 19:21:41
Heute Abend 21 Uhr gibt AMD neue Infos zur R9 290X bekannt.
@Raff: Ich glaube nicht, dass die R9 290X der preisliche Gegner von 780X wird. Ich vermute den Preis klar höher. Vermutlich geht es um Balkenlänge. Man wird sich aber im Preis sehr deutlich von Titan entfernen (meine Meinung) und da bleibt es spannend, was NV tun wird. Ich kann mir nicht vorstellen, dass NV sich klar vom bisherigen Preisgefüge von Titan entfernen wird. Nach meinen Infos passt die Ausbeute auch weiterhin noch nicht und NV verkauft nicht zum Selbstkostenpreis oder gar darunter. Wird ne spannende Geschichte werden.
@box: Ich kann nur (und muss bislang) Boost 2.0 mit PT 1.0 vergleichen. Das ist aktueller Stand beider Kontrahenten und auch nur darauf haben sich meine Aussagen bezogen. Über PT 2.0 kann ich in Bälde was sagen, aber jetzt noch nicht.
dildo4u
2013-10-17, 19:22:09
Dachte dafür wären Karten da. Entweder hohe Auflösungen,DS oder jegliche Formen von extrem AA. :freak:
Es geht um das Game speziell dort Performt Titan/GTX780 total abnormal im Verhältnis zu anderen Games auch unter 1080p daher Cheery pickt um 290X gut dastehen zu lassen.
Superheld
2013-10-17, 19:23:39
Findet Heute dann das R9 290X Video in Montreal statt, soll ja in knappen 3 Stunden losgehen ?!
davon sind doch die twitter pics
*glaub*
die speisen uns nur mit bildern ab wetten:(
Skysnake
2013-10-17, 19:25:16
Also ich seh da kein Cherry Picking bzgl Auflösung ob jetzt 25 oder 29% ist jetzt auch nicht DER Unterschied beim Vergleich GTX780 vs 7970GHz.
dildo4u
2013-10-17, 19:27:29
Also ich seh da kein Cherry Picking bzgl Auflösung ob jetzt 25 oder 29% ist jetzt auch nicht DER Unterschied beim Vergleich GTX780 vs 7970GHz.
Das Game ist Cheery pickt Nvidia performt total abnormal zum Rest ist nich so schwer zu kapieren.
Eggcake
2013-10-17, 19:28:15
Es geht um das Game speziell dort Performt Titan/GTX780 total abnormal im Verhältnis zu anderen Games auch unter 1080p daher Cheery pickt um 290X gut dastehen zu lassen.
Naja, aber da liegt ja die 7970GHz bereits deutlich vor Titan, deshalb sind wären die 17% der 290X sehr mager.
dildo4u
2013-10-17, 19:31:10
Naja, aber da liegt ja die 7970GHz bereits deutlich vor Titan, deshalb sind wären die 17% der 290X sehr mager.
Die Info bekommt man aber nicht von diesem Tweet,dort geht nur Darum die 780 schlecht dastehen zu lassen.
M4xw0lf
2013-10-17, 19:35:44
Die Info bekommt man aber nicht von diesem Tweet,dort geht nur Darum die 780 schlecht dastehen zu lassen.
Die ja preislich am nächsten liegen wird, also der natürliche Gegner ist. 2% Schneller als Titan klingt auch einfach nicht spannend.
Hübie
2013-10-17, 19:38:49
@Raff: Ich glaube nicht, dass die R9 290X der preisliche Gegner von 780X wird. Ich vermute den Preis klar höher. Vermutlich geht es um Balkenlänge. Man wird sich aber im Preis sehr deutlich von Titan entfernen (meine Meinung) und da bleibt es spannend, was NV tun wird. Ich kann mir nicht vorstellen, dass NV sich klar vom bisherigen Preisgefüge von Titan entfernen wird. Nach meinen Infos passt die Ausbeute auch weiterhin noch nicht und NV verkauft nicht zum Selbstkostenpreis oder gar darunter. Wird ne spannende Geschichte werden.
Die Tatsache das nVidia jetzt K40c, K40m, K40s, K40t und K40st bringen wird bzw. teilweise schon ausliefert zeigt aber dass die auch am GK110 was drehen / gedreht haben (metal-spin? binning??). Diese führen sozusagen K20, K20x, K20xm, K20c, K20m, K20s fort und ich vermute, ähnlich wie beim GK104-425-Launch, dass die Preise seicht unter den vorherigen liegen werden.
Aber groß entfernen nicht - da stimme ich zu.
Gipsel
2013-10-17, 19:47:18
Ich kann nur (und muss bislang) Boost 2.0 mit PT 1.0 vergleichen. Das ist aktueller Stand beider Kontrahenten und auch nur darauf haben sich meine Aussagen bezogen. Über PT 2.0 kann ich in Bälde was sagen, aber jetzt noch nicht.Na klar kannst Du das. Nimm Dir eine HD7790 her, die läuft schon eine Weile mit PT 2.0. ;)
Okay, die Leistungsaufnahme ist jetzt nicht soo hoch, aber egal.
Peter Gräber
2013-10-17, 19:59:56
Nee, leider nicht ganz Gipsel - PT2.0 bringt mehr mit sich - zumindest laut AMD. Und bei der HD 7790 blieb der Takt eigentlich immer oben, ungeachtet der Temps.
Es geht um das Game speziell dort Performt Titan/GTX780 total abnormal im Verhältnis zu anderen Games auch unter 1080p daher Cheery pickt um 290X gut dastehen zu lassen.
Wie gesagt, das war mal. Kepler ist mit den aktuellen Treibern sehr gut in Bioshock 3, Grid 2 und Tomb Raider unterwegs.
MfG,
Raff
LSSJBroly
2013-10-17, 20:05:05
Wie gesagt, das war mal. Kepler ist mit den aktuellen Treibern sehr gut in Bioshock 3, Grid 2 und Tomb Raider unterwegs.
bei euch, ja. Da passt die relation auch.
Nur im test von HT4U ist eine GTX 780 (@902MHz) trotz fast +25% Rechenleistung und +29% Speicherbandbreite nur 2 bis 3% schneller als die GTX 770 (@1.085MHz) ...hmmm...
Da passt etwas ganz und gar nicht ...
Blaire
2013-10-17, 20:18:20
HT4u testet das Level "FinktonProper" gleich zu Beginn, wenn sich der Fahrstuhl öffnet, 10 Sekunden mit Fraps (wenn ich mich nicht irre). Zumindest auf GeForce Titan konnte ich fast exakte Werte reproduzieren. Ist aber auch ne fiese Stelle und muss nicht dem gesamten Spielverlauf entsprechen.
Gipsel
2013-10-17, 20:29:14
Nee, leider nicht ganz Gipsel - PT2.0 bringt mehr mit sich - zumindest laut AMD. Und bei der HD 7790 blieb der Takt eigentlich immer oben, ungeachtet der Temps.Wirklich? Die Umstellung auf mehr echte Powerstates und das schnelle Wechseln dazwischen erfolgte bereits mit der 7790 (falls man sie denn ins Limit treibt).
Hübie
2013-10-17, 20:34:03
bei euch, ja. Da passt die relation auch.
Nur im test von HT4U ist eine GTX 780 (@902MHz) trotz fast +25% Rechenleistung und +29% Speicherbandbreite nur 2 bis 3% schneller als die GTX 770 (@1.085MHz) ...hmmm...
Da passt etwas ganz und gar nicht ...
Der Treiber den Peter verwendet ist von Juni... ;)
dildo4u
2013-10-17, 20:36:44
Der Treiber den Peter verwendet ist von Juni... ;)
Blaire kommt aufs Selbe mit aktuellen Treiber.
boxleitnerb
2013-10-17, 20:46:56
@box: Ich kann nur (und muss bislang) Boost 2.0 mit PT 1.0 vergleichen. Das ist aktueller Stand beider Kontrahenten und auch nur darauf haben sich meine Aussagen bezogen. Über PT 2.0 kann ich in Bälde was sagen, aber jetzt noch nicht.
Bleibt dennoch der Punkt der Erwartungshaltung bzgl. Boost 2.0 im Zusammenhang mit der Ehrlichkeit - keine Ahnung woher die bei dir kommt ;)
Die Technik selbst ist neutral; es geht wie gesagt um die Art, wie die Hersteller und die Tester damit umgehen. Da ist halt etwas durcheinandergekommen in deinem Kommentar, aber gut, kann ja mal passieren.
aufkrawall
2013-10-17, 20:52:24
Bei den meisten Benchmarks von Bioshock: I ist NV schneller, und das war schon zu Release so:
http://www.guru3d.com/articles_pages/bioshock_infinite_graphics_performance_review_benchmark,6.html
http://www.techspot.com/review/655-bioshock-infinite-performance/page3.html
http://www.hardware.fr/articles/900-11/benchmark-bioshock-infinite.html
Die HT4U-Szene ist einfach nicht repräsentativ und NV hatte in dem Spiel nichts aufzuholen.
Eggcake
2013-10-17, 20:58:40
Gibt's jetzt nicht eine Ankündigung/ein Event zur 290X? Links?
Superheld
2013-10-17, 20:58:41
wann ist nun vorstellung, der 24 wurde mal genannt ?;(
@egg
das event ist schon vorbei, noch ewas von cb, pünktlich um 21uhr..
http://www.computerbase.de/news/2013-10/amd-torpediert-nvidia-mit-benchmarks-zur-r9-290x/
In dem von AMD ausgewählten Benchmark lässt das Unternehmen die R9 290X gegen eine GTX 780 in Bioshock Infinite in der Ultra-HD-Auflösung von 3.840 × 2.160 ohne AF und der Einstellung „Ultra“ bei Verwendung von Diffusion Depth of Field antreten. Während die R9 290X in diesem Benchmarks 44,25 Bilder pro Sekunde erreichen soll, kommt Nvidias GeForce GTX 780 – laut AMD – auf 37,67 Bilder pro Sekunde.
Nakai
2013-10-17, 20:58:57
Immer die Cherry-Picking-Totschlagargumente. Es ist mir wirklich egal. Der Unterschied zwischen GTX780/Titan und 7970Ghz/280X ist einfach keine Welt.
Ob die eine Karte jetzt 10-20% schneller oder 10-20% langsamer ist, ist einfach nur lulle und langweilig. Unterschiedliche Spiele, Spielszenen, Einstellungen verlagern mal Bottlenecks zu anderen Positionen in der Architektur. Natürlich kanns dann Unterschiede geben...
...ach, ich versteh scho, ihr Leistungs- und Qualitätsfaschisten(:tongue:)...ich brauch sowas nicht mehr bzw. ist mir egal. ;D
AMD Radeon R9 290X Preview: Bioshock Infinite Benchmarks in Ultra High Definition (4K) (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/AMD-Radeon-R9-290X-Benchmark-1093119/)
R9 290X vor GTX Titan – mit diesem Takt ...
MfG,
Raff
Hübie
2013-10-17, 21:02:58
Blaire kommt aufs Selbe mit aktuellen Treiber.
In BI. Grid 2 kommt bei ht4u nicht vor und TR hat blaire nicht bestätigt. Also 33% geklärt.
Eggcake
2013-10-17, 21:04:12
Das ist alles was sie veröffentlichen wollen und nur Bioshock Infinite in 4k? Und ich hock' hier voller Erwartungen :D
– solange die AMD-Karte ihren Maximaltakt halten kann
Klingt jetzt aber auch nicht erfreulich.
mironicus
2013-10-17, 21:06:06
http://ht4u.net/news/28489_amd_veroeffentlicht_4k-benchmarks_zur_radeon_r9_290x/
gnahr
2013-10-17, 21:12:04
Klingt jetzt aber auch nicht erfreulich.
plus minus null im best-case. das ist in der tat eine überraschung.
http://www.reactiongifs.com/wp-content/uploads/2013/10/austin-omg.gif
boxleitnerb
2013-10-17, 21:12:23
Interessant, dass die 290X einen "quiet mode" hat, vermutlich konservative Powertune/Temp Settings:
http://www.legitreviews.com/benchmarks-amd-radeon-r9-290x-versus-nvidia-geforce-gtx780_126653
Blediator16
2013-10-17, 21:13:43
Wenn der "Scheiss die Wand an Mode" ausgeblurrt ist, dann muss er ja besser sein. Wieso sollte man sonst einen schlechteren Wert unkenntlich machen^^
dildo4u
2013-10-17, 21:14:49
Interessant, dass die 290X einen "quiet mode" hat, vermutlich konservative Powertune/Temp Settings:
http://www.legitreviews.com/benchmarks-amd-radeon-r9-290x-versus-nvidia-geforce-gtx780_126653
Zumindest aktuelle NV Treiber auch Nice Testsystem mit Intel CPU lol.
gnahr
2013-10-17, 21:15:28
vielleicht ist das auch der "400watt core-fusion"-mode. :D
come on, blurr-filter kann man doch zurückdrehen. werft photoshop an!
Zumindest aktuelle NV Treiber auch Nice Testsystem mit Intel CPU lol.
Dabei wäre das in 4K gerade bei diesem Spiel gar nicht nötig. Da würde sogar ein kleiner FX genügen. ;)
MfG,
Raff
Wilhelm
2013-10-17, 21:24:02
http://www.tomshardware.com/news/amd-radeon-r9-290x-benchmark-performance,24732.html#xtor=RSS-999
Botcruscher
2013-10-17, 21:26:10
4K,4K, 4K... am Arsch. Kein Schwein hat dafür einen Monitor.
Ronny145
2013-10-17, 21:27:45
4K,4K, 4K... am Arsch. Kein Schwein hat dafür einen Monitor.
Gibt genügend Spiele mit Downsampling, es braucht nicht zwingend ein 4K Monitor.
Blediator16
2013-10-17, 21:27:57
TH behauptet sie haben mehr Ergebnisse dürfen aber nur die BSI Ergebnisse veröffentlichen.
We're in the process of benchmarking AMD's upcoming Radeon R9 290X flagship. But before the embargo expires, the company gave us the go-ahead to publish a couple of numbers from tests we've already run.
dargo
2013-10-17, 21:28:14
4K,4K, 4K... am Arsch. Kein Schwein hat dafür einen Monitor.
Na und? Dann hast du größeren Puffer für deinen Monitor. ;)
Felixxz2
2013-10-17, 21:31:19
HT4U hat schon alle Games gebencht, nicht nur BI. 290X ~20% schneller als 780.
Eggcake
2013-10-17, 21:31:43
TH behauptet sie haben mehr Ergebnisse dürfen aber nur die BSI Ergebnisse veröffentlichen.
War das nicht offensichtlich? Denkst du die Redaktionen haben alle eine 290X bei sich und benchten genau jetzt den einen Benchmark und danach bauten sie die Karte wieder aus? :>
@Felixx
HT4U hat nicht gebencht, die Zahlen kommen von AMD.
Blediator16
2013-10-17, 21:31:55
HT4U hat schon alle Games gebencht, nicht nur BI. 290X ~20% schneller als 780.
Das sind AMD Benches.
War das nicht offensichtlich? Denkst du die Redaktionen haben alle eine 290X bei sich und benchten genau jetzt den einen Benchmark und danach bauten sie die Karte wieder aus? :>
@Felixx
HT4U hat nicht gebencht, die Zahlen kommen von AMD.
Ne, aber die Werte hätten von AMD sein können oder nur Vorort Benches oder sonstwas.
M4xw0lf
2013-10-17, 21:31:58
HT4U hat schon alle Games gebencht, nicht nur BI. 290X ~20% schneller als 780.
Neien. Das sind AMDs Zahlen, die ht4u zeigen darf.
LSSJBroly
2013-10-17, 21:32:35
HT4U hat schon alle Games gebencht, nicht nur BI. 290X ~20% schneller als 780.
HT4Us Werte stammen direkt von AMD, die haben diese nicht selber gebencht ...
mist, zu langsam:)
Botcruscher
2013-10-17, 21:34:48
Na und? Dann hast du größeren Puffer für deinen Monitor. ;)
Trotzdem hat es null Relevanz für die überwältigende Mehrheit. Da wird ein Marketing Ballon nach dem andern aufgepumpt.
dildo4u
2013-10-17, 21:36:08
Laut Anandtech kommt die 780 im Shaderlimit näher interessant.
http://www.anandtech.com/show/7424/amd-radeon-r9-290x-performance-preview-bioshock-infinite
dargo
2013-10-17, 21:36:30
Trotzdem hat es null Relevanz für die überwältigende Mehrheit. Da wird ein Marketing Ballon nach dem andern aufgepumpt.
Nö... da geht man sicher dem CPU-Limit aus dem weg. ;)
Felixxz2
2013-10-17, 21:44:48
Ups sorry guys
Sind denn die Benches von PCGH von denen selbst? Steht da zumindest b
LSSJBroly
2013-10-17, 21:45:32
Ups sorry guys
Sind denn die Benches von PCGH von denen selbst? Steht da zumindest b
Jup.
Eggcake
2013-10-17, 21:45:39
Jo. Es durften erst Bioshock Infinite und Tomb Raider in 4k gezeigt werden (basierend auf eigenen Benches).
M4xw0lf
2013-10-17, 21:46:42
Ups sorry guys
Sind denn die Benches von PCGH von denen selbst? Steht da zumindest b
Ja sind sie, da PCGH "zufällig" schon Werte fertig hatte (O-Ton Raff) :D
schreiber
2013-10-17, 21:49:31
Hm, und warum hat HT4U dann als einzige Seite so viele Zahlen?!
M4xw0lf
2013-10-17, 21:50:24
Hm, und warum hat HT4U dann als einzige Seite so viele Zahlen?!
Die waren wohl nicht vor Ort, aber für nicht-anwesende gabs diese Zahlen.
Pressevertreter[n], welche nicht anwesend sein konnten, erlaubte AMD zum heutigen Abend die Veröffentlichung der 4K-Benchmarks, wie sie seitens des Herstellers getätigt wurden und im Reviewers-Guide für die Presse abgedruckt sind.
dildo4u
2013-10-17, 21:50:33
Hm, und warum hat HT4U dann als einzige Seite so viele Zahlen?!
Die sind aus dem AMD Review Guide.
Superheld
2013-10-17, 21:50:49
Hm, und warum hat HT4U dann als einzige Seite so viele Zahlen?!
steht im text..:whisper:
boxleitnerb
2013-10-17, 21:53:32
Jetzt scheinen die Reviewer ja endlich Karten bekommen zu haben. Find ich gut, dass es so früh ist (wenn der 24./25. stimmt) - oftmals haben die ja nur 2-3 Tage Zeit.
LSSJBroly
2013-10-17, 21:56:16
Gab es nicht auch mal gerüchte, dass das NDA am 18. fallen sollte?
Locuza
2013-10-17, 21:56:46
Jetzt scheinen die Reviewer ja endlich Karten bekommen zu haben. Find ich gut, dass es so früh ist (wenn der 24./25. stimmt) - oftmals haben die ja nur 2-3 Tage Zeit.
Dafür hat man sogar offiziell den Redaktionen die "Show" bei den UHD Benches gestohlen.
gnahr
2013-10-17, 21:57:11
sie bekommen zu haben heißt ja nicht sie lange zu haben.
man denke an launches zurück wo nach n stunden das gute stück zum nächsten "tester" gehen musste...
Gab es nicht auch mal gerüchte, dass das NDA am 18. fallen sollte?
Morgen um 6 sind wir schlauer.
boxleitnerb
2013-10-17, 22:16:07
Gab es nicht auch mal gerüchte, dass das NDA am 18. fallen sollte?
Nicht dass ich wüsste.
Blediator16
2013-10-17, 22:16:51
So kann man auch Kosten sparen
NVIDIA is holding a press event in Montreal today and it looks like AMD is crashing that party. AMD set up shop at the hotel across the street and allowed the media to come over to run both the game titles BioShock: Infinite and Tomb Raider at 4K resolutions with the AMD Radeon R9 290X versus the NVIDIA GeForce GTX 780. This rather bold move came as a shock as NVIDIA flew us up here to attend their press event and here we had AMD asking us to come to their hotel to look at how their graphics card performs. As you could imagine NVIDIA wasn’t too happy with this marketing stunt and sat outside AMD conference room warning their invited guests not to enter. Since we were guests of NVIDIA we declined to visit with AMD here in Montreal, but AMD did send over pictures and results of the demos that they were running inside the room. Some press did cross into ‘enemy’ lines and they confirmed that the numbers that we were supplied with were very close to the ones they personally ran.
Wird als lächerliche Aktion beschimpft in 3 2 1... :D
schreiber
2013-10-17, 22:19:50
HT4U hat offenbar das NDA gebrochen. Es durften nur die Bioshock und Tombraider-Werte gezeigt werden.
NDA laut CB-Volker übermorgen erst ablaufen.
Schaffe89
2013-10-17, 22:20:12
Wenn AMD sagt die Karte wäre 20% schneller, dann muss man mindestens 5 bis 10% davon abziehen, wenn nicht 10 bis 15%.
gnahr
2013-10-17, 22:23:11
Wird als lächerliche Aktion beschimpft in 3 2 1... :D
ist gängige praxis seit 1 2 3... schon immer.
aus welchem schundblatt hast du denn den reißerischen ton als wär es was neues?
find ich etwas arm leute mit material zu locken was den testern sowiso als teaser verkauft wurde anstatt mal den launch zu vollziehen. die hose nicht runterlassen können, aber demonstrativ überall in die ecken pinkeln.
dildo4u
2013-10-17, 22:23:40
Wenn AMD sagt die Karte wäre 20% schneller, dann muss man mindestens 5 bis 10% davon abziehen, wenn nicht 10 bis 15%.
Oder alles selbst im von AMD ausgesuchten Bench.
http://www.anandtech.com/show/7424/amd-radeon-r9-290x-performance-preview-bioshock-infinite
Wenn sie Titan durchgehend angreifen würde hätte man die Karte auch damit verglichen.Aber so kann man wenigsten hoffen,das die Karte schnell unter 500€ fällt.Was auch so noch ein absurder Aufschlag ist zur R280 doppelter Preis für 20% mehr Leistung.
horn 12
2013-10-17, 22:25:30
Rechne NDA kann sich ab morgen 06:00 nicht mehr halten.
WICHTIG wäre wie es mit der Temperatur, ebenso der Lautstärke aussieht, stimmen jene 40% Lüfter und die hohen 93 Grad ?
Zudem der Stromverbrauch, dies sind auch wichtige Ereignisse welche nun langsam durchsickern sollten!
Blediator16
2013-10-17, 22:27:50
Wie es AMD macht, sie machen es falsch, also scheiss was drauf :D
Schaffe89
2013-10-17, 22:32:05
Wenn sie Titan durchgehend angreifen würde hätte man die Karte auch damit verglichen.Aber so kann man wenigsten hoffen,das die Karte schnell unter 500€ fällt.
Das glaube ich nicht, die Vorzeichen stehen so, dass sie mindestens auf Augenhöhe mit Titan ist.
Man macht das wohl nicht weil Titan völlig außer Konkurrenz läuft.
Man hat eine ähnliche IPC wie die GTX 780 und es kann auch sein, dass nochmal 5% durch die Treiber hinzukommen, wie bei 7970 Launch.
Es wird keine Überkarte, aber eine gute für den Markt.
Superheld
2013-10-17, 22:38:29
Wie es AMD macht, sie machen es falsch, also scheiss was drauf :D
flug und essen war doch kostenlos.
Gipsel
2013-10-17, 22:38:37
Laut Anandtech kommt die 780 im Shaderlimit näher interessant.
http://www.anandtech.com/show/7424/amd-radeon-r9-290x-performance-preview-bioshock-infiniteVielleicht auch ein Texturierungs-Limit.
290X: 2816 ALUs, 176 TMUs, Verhältnis 16:1
780: 2304 ALUs, 192 TMUs, Verhältnis 12:1
horn 12
2013-10-17, 22:41:28
Zudem ist wohl schon der Preis klar, in etwa 550 bis 580 Euro am Launchtag, welcher sehr bald Richtung 500 Euro tendiert, auch knapp darunter!
Eine R9 290 ohne X sollte somit wohl "nur" knappe 400 Euro kosten, nicht schlecht.
Will wohl die GTX 780 um gute 100 Euro übertrumpfen, und dies mit der R9 290-er Karte!
gnahr
2013-10-17, 22:43:26
Es wird keine Überkarte, aber eine gute für den Markt.bei dem preis? naja, es ist was neues, aber es ist nicht das übliche "endlich" oder ne pferdekur für "den markt".
es fühlt sich definitiv nach refresh an.
boxleitnerb
2013-10-17, 22:43:34
Vielleicht auch ein Texturierungs-Limit.
290X: 2816 ALUs, 176 TMUs, Verhältnis 16:1
780: 2304 ALUs, 192 TMUs, Verhältnis 12:1
Ist Texelfüllrate bei den krassen Steigerungen der vergangenen Jahre überhaupt noch wichtig bzw. ein Flaschenhals?
Ich weiß, der Vergleich hinkt vielleicht, aber bei HD5000/6000 hatte AMD immer deutlich mehr Texelfüllrate und war eigentlich immer langsamer. Man hat die TMUs halt an die ALUs gekoppelt, die sind mitgewachsen. Das heißt aber ja nicht zwingend, dass man soviel Texelleistung überhaupt braucht.
Gipsel
2013-10-17, 23:05:59
Ist Texelfüllrate bei den krassen Steigerungen der vergangenen Jahre überhaupt noch wichtig bzw. ein Flaschenhals?
Ich weiß, der Vergleich hinkt vielleicht, aber bei HD5000/6000 hatte AMD immer deutlich mehr Texelfüllrate und war eigentlich immer langsamer. Man hat die TMUs halt an die ALUs gekoppelt, die sind mitgewachsen. Das heißt aber ja nicht zwingend, dass man soviel Texelleistung überhaupt braucht.Viele Postprocessingeffekte (auch DOF, was da explizit ewähnt wurde) hängen an der Bandbreite. Und wenn die Caches effektiv funktionieren entsprechend auch an der Texturleistung. Man bekommt Grafikanwendungen ebenfalls locker dahin, daß man das braucht, was Skysnake immer für GPGPU anmahnt: mehr Bandbreite (auf allen Ebenen).
Edit:
Da fällt mir gerade ein, daß im Killzone:Shadowfall postmortem pdf was dazu drinsteht. Die nehmen für ihr DOF einen 13x13 Filter-Kernel, was bedeutet, daß die im Prinzip für jeden dargestellten Pixel 169 Samples nehmen müssen. Bei FullHD sind das bei 2 MPixel also 338 MSamples pro Frame, bei 60fps dann schon ~20 GSamples/s. Also alles andere als vernachlässigbar, zumal DoF ja nicht der einzige PP-Effekt ist und man ja auch das Bild erstmal rendern muß, was dann geblurred werden soll. Wann immer man das schneller machen will, geht es darum, die Speicherzugriffe zu optimieren/minimieren.
Jo. Es durften erst Bioshock Infinite und Tomb Raider in 4k gezeigt werden (basierend auf eigenen Benches).
Von Tomb Raider hat AMD nichts gesagt.
MfG,
Raff
Hugo78
2013-10-17, 23:24:00
Oh, oh die Luxxer scheinen etwas angenagt von AMD zusein.
Aufgrund des noch bestehenden NDAs können wir dies nicht weiter ausführen und kommentieren. Soviel sei aber gesagt: Wir haben schon bessere Starts einer neuen Grafikkarte (organisarotischer Art) gesehen und auch die Unklarheiten rund um ein NDA bzw. den Starttermin dürften in den wenigsten Redaktionen für Heiterkeit sorgen.
Mit viel Lärm um fast nichts könnte man dann das umschreiben, was AMD an Performance-Werten zur Radeon R9 290X rauslässt.
- http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/28294-benchmarks-zur-radeon-r9-290x-direkt-von-amd.html
john carmack
2013-10-17, 23:29:02
Oh, oh die Luxxer scheinen etwas angenagt von AMD zusein.
- http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/28294-benchmarks-zur-radeon-r9-290x-direkt-von-amd.html
Was ist das denn für ein scheiß?
Wie oft hat Intel schon CPU´s verschieben müssen...?!!!
OMG! da ist der Start um ganze 2 Wochen verschoben worden... Hilfe! Ich häng mich auf... :rolleyes:
Eggcake
2013-10-17, 23:34:19
Von Tomb Raider hat AMD nichts gesagt.
MfG,
Raff
Dann irrt sich LegitReviews wohl:
http://www.legitreviews.com/benchmarks-amd-radeon-r9-290x-versus-nvidia-geforce-gtx780_126653
Naja, erklärt auch warum sonst überall nur Bioshock zu sehen ist =)
Felixxz2
2013-10-17, 23:36:48
Laut Anandtech kommt die 780 im Shaderlimit näher interessant.
http://www.anandtech.com/show/7424/amd-radeon-r9-290x-performance-preview-bioshock-infinite
Klar, im Shaderlimit gewinnt, wer mehr Shader hat....und die 780 hat mehr Shader, wie jedes Kind weiß :freak:
Mal ehrlich, bitte kommt bald der Test. Das Getrolle, die Fanboyflamewars und das gewine in allen Foren geht echt auf keine Kuhhaut. Und nagt am Popcornvorrat ;D
dildo4u
2013-10-17, 23:40:50
Klar, im Shaderlimit gewinnt, wer mehr Shader hat....und die 780 hat mehr Shader, wie jedes Kind weiß :freak:
Mal ehrlich, bitte kommt bald der Test. Das Getrolle, die Fanboyflamewars und das gewine in allen Foren geht echt auf keine Kuhhaut. Und nagt am Popcornvorrat ;D
Die AMD hat ne Höhere Rechenleistung daher ist das schon interessant.Und ich gebe nur die Feststellung von Anandtech weiter wäre schön wenn du nicht jeden Post als Flame bezeichnen würdest.Auf anderen Seiten geht ganz anders zu,dort ist grad die Hölle los,da hier wie in alten Zeiten kontrollierte Benches als Erstes kommen.AMD wird grad zerrissen.
Thomas Gräf
2013-10-17, 23:41:26
Jetzt geht die Schlammschlacht erst richtig los...
Superheld
2013-10-17, 23:41:57
@Bernie
wann fällt endlich die NDA?doch morgen?:D
uweskw
2013-10-17, 23:41:58
....... sondern es geht darum wie damit umgegangen wird. Ich sehe nicht, dass Nvidia irgendwo von einem Boosttakt von z.B. 1 GHz schreibt oder auch nur den "Durchschnittsboost" garantiert. Das ist in jedem Review seit GK104 nachzulesen. Wie gesagt - das fällt auf den Tester zurück, wenn hier falsche Erwartungshaltungen entstanden sind, weil man nicht richtig zugehört hat, als der Turbo erklärt wurde.
Wen interessiert schon der Takt? Was im Review zählt ist Balkenlänge. Und da gaukelt NV etwas vor was in User-Alltag nicht eingehalten wird. In einem Durchschnittsgehäuese erreicht man mit NV selten bis nie die Werte der offenen Testaufbauten. Mit AMD meist schon! Und jetzt eier bitte nicht auf dem "Durchschnittsgehäuse" herum. Du weist genau wie es gemeint ist.
Greetz
U.S.
Duplex
2013-10-17, 23:43:08
Auf anderen Seiten geht ganz anders zu dort,dort ist grad die Hölle los,da hier wie in alten Zeiten kontrollierte Benches als Erstes kommen.AMD wird grad zerrissen.
Ein schwarzer Tag für AMD.
Blediator16
2013-10-17, 23:45:44
Die AMD hat ne Höhere Rechenleistung daher ist das schon interessant.Und ich gebe nur die Feststellung von Anandtech weiter wäre schön wenn du nicht jeden Post als Flame bezeichnen würdest.Auf anderen Seiten geht ganz anders zu,dort ist grad die Hölle los,da hier wie in alten Zeiten kontrollierte Benches als Erstes kommen.AMD wird grad zerrissen.
Behauptest du gerade, dass nur Anand gebencht hat und alle anderen Seiten, die untereinander ähnliche Werte liefern, von AMD gelieferte/gestellte Werte sind?
dildo4u
2013-10-17, 23:47:21
Behauptest du gerade, dass nur Anand gebencht hat und alle anderen Seiten, die untereinander ähnliche Werte liefern, von AMD gelieferte/gestellte Werte sind?
AMD hat das Game und die Auflösung vorgeben noch kontrollierter geht wohl kaum.
boxleitnerb
2013-10-17, 23:48:19
Wen interessiert schon der Takt? Was im Review zählt ist Balkenlänge. Und da gaukelt NV etwas vor was in User-Alltag nicht eingehalten wird. In einem Durchschnittsgehäuese erreicht man mit NV selten bis nie die Werte der offenen Testaufbauten. Mit AMD meist schon! Und jetzt eier bitte nicht auf dem "Durchschnittsgehäuse" herum. Du weist genau wie es gemeint ist.
Greetz
U.S.
Nvidia gaukelt gar nichts vor, oder sitzt der Nvidia-CEO höchstselbst am Test-PC und macht die Benchmarks am Nordpol? :freak:
Mann Leute, achtet doch mal auf eure Worte, kann ja echt nicht so schwer sein. Nvidia gibt den Testern die Karten, was die dann damit machen und wie sie ihre Testergebnisse präsentieren, ist nicht mehr in Nvidia's Hand und auch nicht deren Verantwortung.
Und doch, ich "eiere" drauf rum, dass man mit einer Sample Size von 1 keine allgemeine Aussage treffen kann.
Blediator16
2013-10-17, 23:49:57
AMD hat das Game und die Auflösung vorgeben noch kontrollierter geht wohl kaum.
Ich weiß nicht ob du aufgepasst hast, aber dir wurde in mehreren Beiträgen bereits gesagt, dass Bioshock Inf. nicht besser auf AMD Karten läuft. Und was ist an dieser Auflösung falsch? Nvidia hat vor einigen Tagen die Battlebox für 4k angekündigt und auch so scheint 4k für sie wichtig zu sein. 4k Benches kommen nicht aus heiterem Himmel.
Botcruscher
2013-10-17, 23:50:23
Ein schwarzer Tag für AMD.
Für Beide. Was NV heute gezeigt hat war ja auch ganz großes Kino.
PS: Kontrollierte Benches und gekaufte Reviews gab es als letztes mit dem Betatreiber und der 460 von NV. Damals, als plötzlich viele Seiten die plötzliche Idee hatten doch mal die Karte samt dem neuen Betatreiber, in lustigen Auflösungen, zu testen... und irgendwie das Wort "Anzeige" im Artikel vergessen haben.
TheCounter
2013-10-17, 23:52:24
Für Beide. Was NV heute gezeigt hat war ja auch ganz großes Kino.
Morgen soll ja noch was kommen ^^
Mal schauen, aber wenn die 290X grad mal so schnell wie die 780 wird, dann ist das jetzt ned wirklich was besonderes.
dildo4u
2013-10-17, 23:52:49
Ich weiß nicht ob du aufgepasst hast, aber dir wurde in mehreren Beiträgen bereits gesagt, dass Bioshock Inf. nicht besser auf AMD Karten läuft.
Laut ht4u läuft's massiv besser auf AMD's 250€ Karte liegt vor Titan.(2560 x 1440)
http://ht4u.net/reviews/2013/amds_radeon_r-serie-grafikkarten_r9_270x_und_280x_und_r7_260x_im_test/index32.php.
uweskw
2013-10-17, 23:53:18
Ein schwarzer Tag für AMD.
Wieso? Für die User machen sie doch alles richtig. Nur ein paar NV Fanboys sind "angefressen"
Greetz
U.S.
Blediator16
2013-10-17, 23:54:05
Wenn man sich einen Durchschnitt aus mehreren Reviews bildet, dann sind die 770 und 280x in etwa gleich schnell.
dildo4u
2013-10-17, 23:54:37
Wieso? Für die User machen sie doch alles richtig. Nur ein paar NV Fanboys sind "angefressen"
Greetz
U.S.
Welcher User will ein einzigen Bench und keine Angaben zum Preis,Verbrauch etc?Die Aktion ist sowas von sinnlos und wird ein Negativen Nachgeschmack haben.
r3ptil3
2013-10-17, 23:58:01
Habe ich jetzt was übersehen oder wo soll die 290X gleich schnell sein wie die GTX 780? Die 290X ist doch überall schneller??
dildo4u
2013-10-17, 23:59:41
Habe ich jetzt was übersehen oder wo soll die 290X gleichschnell sein wie die GTX 780? Die 290X ist doch überall schneller??
Hier z.b in dem von AMD ausgesuchten Bench,aber "nur" mit High Details.
http://www.anandtech.com/show/7424/amd-radeon-r9-290x-performance-preview-bioshock-infinite
uweskw
2013-10-18, 00:00:04
Nvidia gaukelt gar nichts vor, oder sitzt der Nvidia-CEO höchstselbst am Test-PC und macht die Benchmarks am Nordpol.......
Wie kann man nur so voreingenommen sein? Die wollen doch beide nur unser Bestes, in € Yen oder USD. Hat AMD dir die Freundin vergrault?
Aber ne Frage: Hat AMD seine Benchmarks auf einem Intel-System gemacht?
greetz
U.S.
matty2580
2013-10-18, 00:00:44
AMD ging es heute einzig darum die Nvidia-Präsentation zu stören.
Und wenn ich mir die Foren so ansehe, haben sie dass auch geschafft. ^^
dildo4u
2013-10-18, 00:01:32
AMD ging es heute einzig darum die Nvidia-Präsentation zu stören.
Und wenn ich mir die Foren so ansehe, haben sie dass auch geschafft. ^^
Nur hat NV Heute nix interessantes gezeigt. lol
r3ptil3
2013-10-18, 00:01:56
Hier z.b in dem von AMD ausgesuchten Bench,aber "nur" mit High Details.
http://www.anandtech.com/show/7424/amd-radeon-r9-290x-performance-preview-bioshock-infinite
Wird wohl eine Ausnahme sein.. Bei min. FPS dürfte die 290X da weit vor der GTX 780 sein.
Woklbokl
2013-10-18, 00:02:29
Nur hat NV nix interessantes Heute gezeigt. lol
Es war ja auch ein Editors Day, der is für Entwickler schon recht Interessant gewesen, für Konsumenten natürlich nich, dafür is ja der morgige Tag da.
Gipsel
2013-10-18, 00:04:35
Es war ja auch ein Editors Day, der is für Entwickler schon recht Interessant gewesen, für Konsumenten natürlich nich, dafür is ja der morgige Tag da.Editors sind aber keine Entwickler. Zu deutsch war das ein Pressetag, und für die Presse dürfte es auch relativ langweilig gewesen sein. Okay, gab ein paar Gamedemos. Super.
StefanV
2013-10-18, 00:09:07
Gab es nicht auch mal gerüchte, dass das NDA am 18. fallen sollte?
Selbst wenn, machts aufgrund der nV Präsentation durchaus Sinn, den Launch um 'ne Woche (oder zwei) zu verlegen, wenn mans wollen würde.
Allerdings kannst du dich schon mal drauf gefasst machen, dass die neue Karte ordentlich einschlagen wird. Die Daten schauen definitiv danach aus, dass sie schneller sein wird. Entsprechend wird in den Foren auch ordentlich geflamt werden und jeglicher Bullshit gegen AMD ausgegraben werden.
Aber bald sind wir ja schlauer, mal schauen, wie das Kärtel denn genau wird...
dildo4u
2013-10-18, 00:09:15
Wird wohl eine Ausnahme sein.. Bei min. FPS dürfte die 290X da weit vor der GTX 780 sein.
4fps.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/AMD-Radeon-R9-290X-Benchmark-1093119/
boxleitnerb
2013-10-18, 00:10:51
Wie kann man nur so voreingenommen sein? Die wollen doch beide nur unser Bestes, in € Yen oder USD. Hat AMD dir die Freundin vergrault?
Hast du bitte auch Argumente oder kommt da nichts mehr außer Fragen zu meinem Liebesleben? :rolleyes:
Botcruscher
2013-10-18, 00:18:03
4fps.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/AMD-Radeon-R9-290X-Benchmark-1093119/
7970GHz der ungekrönte P/L King unter den Karten. Die Zahlen machen die 4K Aktion noch lächerlicher. :freak:
dildo4u
2013-10-18, 00:19:46
Jup die R280X sieht jetzt sehr sehr gut aus.
Schaffe89
2013-10-18, 00:38:16
Ein schwarzer Tag für AMD.
Made my Day :D
Je blödsinniger die Kommentare um so mehr Fanboy? Kann man da zustimmen? :D
Ne Scherz beiseite, ich gucke mir grad das Treiben bei CB und HWL an, ist echt megamäßigunterhaltsam, schade dass LZ nicht mehr hier ist.
OBrian
2013-10-18, 00:51:04
Ein schwarzer Tag für AMD.Stimmt, genau, Quartalsbilanz zeigt endlich wieder schwarze Zahlen!
Was aber völlig OT hier ist. Zum Marketing kann man AMD nur loben, die sind jetzt seit Wochen in der Presse mit ihrer undurchsichtigen Launchtaktik. Da sitzen jetzt offenbar tatsächlich fähige Leute in der Marketingabteilung, was ganz ungewohntes.
Sven77
2013-10-18, 00:52:54
Je blödsinniger die Kommentare um so mehr Fanboy? Kann man da zustimmen? :D
mag übertrieben sein aber irgendwo hat er Recht. NDA nicht fallen lassen und dann so einen Scheiß abziehen? Und die Community springt auch noch darauf an.. dachte eigentlich AMD hätte seine Lektion was Marketing angeht gelernt, für mich ist das auf einem Niveau mit dem Fermi-Mockup..
die sind jetzt seit Wochen in der Presse mit ihrer undurchsichtigen Launchtaktik.
Nicht jede Publicity ist gute Publicity, auch wenn der Spruch anders geht
Blediator16
2013-10-18, 00:54:18
Wenn man weniger emotional an so einen release gehen würde, dann scheisst man sich wegen einiger Tage verschiebung, die es scheinbar nie gab, nicht an.
Schaffe89
2013-10-18, 00:57:40
NDA nicht fallen lassen und dann so einen Scheiß abziehen? Und die Community springt auch noch darauf an.. dachte eigentlich AMD hätte seine Lektion was Marketing angeht gelernt, für mich ist das auf einem Niveau mit dem Fermi-Mockup..
Ich finde ungeachtet dessen, welchen Ärger die Tester haben das Marketing recht solide.
Man ist seit Wochen in der Presse, garniert heute mit den Quartalszahlen, finde ich recht okay.
Finde deine Empfindung dazu etwas seltsam,ob das NDA nun heute oder übermorgen fällt, ist doch relativ "sacke".
Nicht jede Publicity ist gute Publicity, auch wenn der Spruch anders geht
Manchmal habe ich das Gefühl, AMD kann nichts richtig machen. Das wird wohl imho daran liegen, dass manche einfach dazu neigen bei Hardware X/Y hyperkritisch zu sein.
Screemer
2013-10-18, 01:00:35
Hier z.b in dem von AMD ausgesuchten Bench,aber "nur" mit High Details.
http://www.anandtech.com/show/7424/amd-radeon-r9-290x-performance-preview-bioshock-infinite
liest du hier eigentlich mit oder schreibst du nur biast beiträge ohne reflexion? es wurde dir jetzt auf den letzten 5 seiten zig mal dargelet an was es liegt. die verwendete testszene von ht4u ist ein extremer außreiser auf nv-seite. in 95% der anderen benches zu bi sieht es ganz anders aus.
komm mal wieder runter von deinem gebetsmühlenartigen geschreibsel.
Hast du bitte auch Argumente oder kommt da nichts mehr außer Fragen zu meinem Liebesleben? :rolleyes:
darum gehts doch gar nicht. wenn man ein bisschen quer liest, dann sieht es bei titan/780 leider so aus, dass der takt in geschlossenen systemen auf dauer nicht gehalten wird. natürlich gibts dafür lösungen, aber die sind für stock benches einfach irrelevant. gleiches wird bei pt2.0 wohl auch für die neue amd serie gelten. die karten müssten mittlerweile vorgeheizt werde und erst dann dürfte man benches drüber laufen lassen. das ist den "beschissenen" taktmodi geschuldet. da brech ich sicher keine lanze für einen der ihvs.
Wenn man weniger emotional an so einen release gehen würde, dann scheisst man sich wegen einiger Tage verschiebung, die es scheinbar nie gab, nicht an.
dem ist kaum noch was hinzuzufügen. ob das ding jetzt letzte woche gekommen wäre oder erst in 5 tagen ist sowas von wurscht. ist ja fast so als ob man erwarten würde, dass neue handys sofort auf den markt kommen, wenn sie in der glbenchmark/gfxbenchmark-db auftauchen.
Sven77
2013-10-18, 01:04:13
Manchmal habe ich das Gefühl, AMD kann nichts richtig machen. Das wird wohl imho daran liegen, dass manche einfach dazu neigen bei Hardware X/Y hyperkritisch zu sein.
AMD ist mir momentan um einiges sympathischer als Nvidia zu denen dieser Eiertanz besser passen würde, das regt mich ja gerade so auf.
Die NDA ist mir auch relativ schnuppe, wenn man dann aber jetzt eine geschönten Bench vorgesetzt bekommt der das absolute Best-case-scenario aufzeigt fühl ich mich schon veräppelt.
Schaffe89
2013-10-18, 01:04:47
Deine persönlichen OT-Anfeindungen kannst du doch mal sein lassen, wen interessiert denn das? Ich wusste und weiß mehr über die Karten als du, was willst du mir da ankommen und mir irgendwas erzählen??
Ich finde es einfach nur pornös, wie deine Argumentationskette aufgebaut ist.
Solche Augenwischerei bwzüglich des Boosts kann man sich eigentlich sparen.
weiß mehr über die Karten als du
Ein Totschlagargument, notfalls behauptest du halt, ich habe den Boost nicht verstanden.:tongue:
War wohl nix mit dem 18.10 6:01. mal wieder nur gerüchte:D
Die NDA ist mir auch relativ schnuppe, wenn man dann aber jetzt eine geschönten Bench vorgesetzt bekommt der das absolute Best-case-scenario aufzeigt fühl ich mich schon veräppelt.
AMD gings vor Allem darum nvidias Veranstaltung im nahegelegenen Hotel zu stören. Das hat wunderbar funktioniert:-)
Mancko
2013-10-18, 07:49:15
AMD gings vor Allem darum nvidias Veranstaltung im nahegelegenen Hotel zu stören. Das hat wunderbar funktioniert:-)
Glaube nicht das das so toll funktioniert hat. Nvidia hat nämlich gar nichts interessantes gezeigt. Insofern gab es da jetzt nicht wirklich was zu stören. Da hätten sie sich schon einen besseren Zeitpunkt aussuchen müssen. Das Negativfeedback das in den Foren gerade herrscht wegen der Aktion ist eher nicht so prickelnd. Sieht ein bisschen unsouverrän aus.
HTB|Bladerunner
2013-10-18, 07:49:45
Es gibt ein paar neue(?) Details...
"The 290X has a "UBER-mode" switch on the side which he couldn't tell more about because of NDA"
"280X is still Tahiti but it's a "completely new ASIC""
"The 290X was surprisingly very quiet and looks amazing (much better than GTX780 IMO, I love black)"
"290X is designed to run at 95c so it'll get hot but it won't throttle nor get damaged by this. This is the target they're aiming for. The GPU will run really hot but will still be stable."
"290X is HDMI 1.4 (not 2.0, so it's limited to 30Hz @ 4K on HDMI)"
"-Mantle will be strictly up to the developers to use or not to use. They apparently have some big name players in the field who will use Mantle. Dice is the first big one but expect to see more in the near future. Mantle is what everyone say it is. It brings a console-like development environment to the PC. I wouldn't hold my breath for 20% better performance. I would however expect much smoother and better ports."
http://www.overclock.net/t/1434848/lr-amd-to-show-off-radeon-r9-290x-video-card-in-montreal-tomorrow/210#post_21006178
Nvidia gaukelt gar nichts vor, oder sitzt der Nvidia-CEO höchstselbst am Test-PC und macht die Benchmarks am Nordpol? :freak:
Mann Leute, achtet doch mal auf eure Worte, kann ja echt nicht so schwer sein. Nvidia gibt den Testern die Karten, was die dann damit machen und wie sie ihre Testergebnisse präsentieren, ist nicht mehr in Nvidia's Hand und auch nicht deren Verantwortung.
Und doch, ich "eiere" drauf rum, dass man mit einer Sample Size von 1 keine allgemeine Aussage treffen kann.
Also ist es deiner Erfahrung nach nicht so (mit den geschlossenen Gehäusen und nV)?
M4xw0lf
2013-10-18, 08:29:15
Nvidia gaukelt gar nichts vor, oder sitzt der Nvidia-CEO höchstselbst am Test-PC und macht die Benchmarks am Nordpol? :freak:
Mann Leute, achtet doch mal auf eure Worte, kann ja echt nicht so schwer sein. Nvidia gibt den Testern die Karten, was die dann damit machen und wie sie ihre Testergebnisse präsentieren, ist nicht mehr in Nvidia's Hand und auch nicht deren Verantwortung.
Und doch, ich "eiere" drauf rum, dass man mit einer Sample Size von 1 keine allgemeine Aussage treffen kann.
Aber sicher weiß man bei Nvidia ganz genau, dass das Boostverhalten der Karten eben gerade dann zum tragen kommt, wenn die Karte nur kurz läuft und dann eine noch kürzere Spielelast zu meistern hat. Und wo sonst außer in Benchmarks trifft man auf ein solches Lastszenario?
Wer mit so einer Karte im Referenzdesign out of the box eine Stunde am Stück zockt, hat nichts von diesem Boost.
ShadowXX
2013-10-18, 08:51:41
Wer mit so einer Karte im Referenzdesign out of the box eine Stunde am Stück zockt, hat nichts von diesem Boost.
Es kann aber genausogut sein das die 290X nach einer Stunde nur noch mit 800 MHz läuft weil Sie so runtergedrosselt wird....
Dann hast du auch nichts von AMDs "Up to 1GHz".
Die AMD könnte sogar auf 600MHz oder weniger drosseln....bei nV hast du dann wenigstens den garantierten Basistakt.
"290X is designed to run at 95c so it'll get hot but it won't throttle nor get damaged by this. This is the target they're aiming for. The GPU will run really hot but will still be stable."
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.
MfG,
Raff
boxleitnerb
2013-10-18, 08:57:54
Aber sicher weiß man bei Nvidia ganz genau, dass das Boostverhalten der Karten eben gerade dann zum tragen kommt, wenn die Karte nur kurz läuft und dann eine noch kürzere Spielelast zu meistern hat. Und wo sonst außer in Benchmarks trifft man auf ein solches Lastszenario?
Wer mit so einer Karte im Referenzdesign out of the box eine Stunde am Stück zockt, hat nichts von diesem Boost.
Das mag so sein und das nimmt man auch sicher gerne mit. Es gibt aber immer noch keine Garantie auf einen Boost-Takt, und die Testmethodik obliegt noch immer der Presse, nicht Nvidia ;)
Es kann aber genausogut sein das die 290X nach einer Stunde nur noch mit 800 MHz läuft weil Sie so runtergedrosselt wird....
Dann hast du auch nichts von AMDs "Up to 1GHz".
Die AMD könnte sogar auf 600MHz oder weniger drosseln....bei nV hast du dann wenigstens den garantierten Basistakt.
Na selbst 800 MHz glaube ich nicht, ich denke es wird eher 900 sein. Aber es stimmt schon, was du sagst. Für manche mag es Semantik sein, ob man von Boosten oder Drosseln spricht, und im Allgemeinen sehe ich das auch so. Nicht jedoch, wenn man unkorrekterweise eine unehrliche Handlungsweise unterstellen will.
Das ist genauso wie wenn ich einen Ferrari kaufe, wo dransteht "von 0 auf 100 bei Leergewicht in 3 Sekunden", ich dann ein Wohnmobil dranhänge und dem Autohersteller Unehrlichkeit vorwerfe, weil aus den 3 Sekunden jetzt 15 geworden sind :freak:
tm0975
2013-10-18, 09:06:48
Nvidia gaukelt gar nichts vor, oder sitzt der Nvidia-CEO höchstselbst am Test-PC und macht die Benchmarks am Nordpol? :freak:
Mann Leute, achtet doch mal auf eure Worte, kann ja echt nicht so schwer sein. Nvidia gibt den Testern die Karten, was die dann damit machen und wie sie ihre Testergebnisse präsentieren, ist nicht mehr in Nvidia's Hand und auch nicht deren Verantwortung.
Und doch, ich "eiere" drauf rum, dass man mit einer Sample Size von 1 keine allgemeine Aussage treffen kann.
und ich dachte schon ich müsse ewig auf ne vernünftige signatur warten. verdammt, sie wird nicht angezeigt.
Nvidia gaukelt gar nichts vor, oder sitzt der Nvidia-CEO höchstselbst am Test-PC...
"This puppy here is Fermi" :rolleyes:
und dass man von einen testfall keine aussage machen kann, ist schon klar. dass man aber von 100 irreführende bzw nicht zielführende aussagen machen kann, beweisen pcgh und cb regelmäßig. und dann ist ja noch das thema mit den umfragen hier bei 3DC welche gern mal einen hang zur suggestion haben. es gibt also reihenweise fehler beim thema "entscheidungsunterstützung beim grafikkartenkauf". und beim thema CPU/APU ists kein deut besser...
Sunrise
2013-10-18, 09:07:00
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.
MfG,
Raff
Ganz klar eine vorbereitete Antwort. Das Ding braucht bei der Die-Größe, der hohen Packdichte und den angepeilten Frequenzen wohl einfach zuviel Saft bei voller Last, was es für den Kühler nicht sonderlich einfach macht da anzugreifen. Das hätte man sicher mit 28nm HPM statt vornehmlich auf Fläche auch anders optimieren können, allerdings gehe ich davon aus, dass man sich mit der 780GTX solange als möglich schlagen möchte und man damit dann eben deutlich mehr Spielraum als NV derzeit hat.
Persönlich würde ich das Teil nur mit Custom-Kühler verbauen.
HTB|Bladerunner
2013-10-18, 09:11:08
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.
MfG,
Raff
Ich vermute mal der "Uber-Mode" wird die 1GHz annähernd halten auf Kosten der Lautstärke. Der "Silent-Mode" würde dann auf Grund der geringeren Lüfterdrehzahl in derartigen Temperaturregionen langsam runtertakten.
Aber das ausgerechnet du uns das fragst, macht mich jetzt stutzig. :D
M4xw0lf
2013-10-18, 09:13:44
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.
MfG,
Raff
Na, das ist genau eine der Fragen, für deren Beantwortung wir auf hochwertige Tests angewiesen sind :)
Virtual
2013-10-18, 09:19:16
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.
MfG,
Raff
Na schön, Raff! Deine Frage nehme ich beim deinem Wort! Da wir hier alle an Aufklärung interessierte Zocker sind und leider erwiesenermaßen an der Ehrlichkeit der beiden Hersteller zweifeln müssen, einige von uns mehr an der grünen, einige mehr an der roten, und du auch selbst Zweifel an der roten Ehrlichkeit ausgedrückt hast, wirst du doch sicher in deiner Position zur Wahrheitsfindung beitragen können. Bekommen wir von dir Messungen mit Spielen deiner Wahl zu sehen, die deine Zweifel im Wesentlichen bestätigen oder eher widerlegen, damit ich letztlich alle wissen, welcher Farbe wir zum Thema Verpackungsangabe und realer Taktfrequenz eher glauben dürfen? Ich werde dich bei Gelegenheit daran erinnern!
HTB|Bladerunner
2013-10-18, 09:21:31
@Raff
Die Testerei muss für euch ja diesmal ziemlich unangenehm sein. Zwei Betriebsmodi (Silent und Uber) bedeuten ja doppelte Arbeit...:D
Skysnake
2013-10-18, 09:32:12
Das Game ist Cheery pickt Nvidia performt total abnormal zum Rest ist nich so schwer zu kapieren.
1. Hatten wir doch schon geklärt, das dem nicht wirklich so mehr ist.
2. Hast du das überhaupt nicht so geschrieben :tongue: Wir können nicht wissen was du meinst, sondern nur lesen was du schreibst
Trotzdem hat es null Relevanz für die überwältigende Mehrheit. Da wird ein Marketing Ballon nach dem andern aufgepumpt.
Ist es aber nicht SEHR erstaunlich, das du/andere sich über "zuviel" Marketing bei AMD beschweren? ;D
Das muss man sich mal auf der Zunge zergehen lassen :biggrin:
Wer hätte das vor 2 Jahren gedacht? Da hätte dir doch JEDER inkl mir, den Vogel gezeigt.
So kann man auch Kosten sparen
Wird als lächerliche Aktion beschimpft in 3 2 1... :D
Jup, so kann man Geld sparen ;D Einfach die Konkurrenz die ganzen Leute einfliegen lassen, und dann selbst mit dem Zuckerbrot winken ;D
Die Aktion ist schon SEHR böse. Vor allem weil es schon SEHR verführerrisch war. Ich denke die Presse konnte durchaus absehen, was da so abgeht, und die Chinesen haben ja bisher wirklich noch nicht viel gezeigt. Das NDA bei AMD funktioniert also eigentlich sehr gut. Zumindest im Vergleich zu normal. Wenn du da dann Benchwerte zeigen darfst, dann ist das eigentlich ziemlich cool für die Redaktionen denke ich mal. Man nimmt damit ja den Leakern VOLL den Wind aus den Segeln!
ist gängige praxis seit 1 2 3... schon immer.
aus welchem schundblatt hast du denn den reißerischen ton als wär es was neues?
find ich etwas arm leute mit material zu locken was den testern sowiso als teaser verkauft wurde anstatt mal den launch zu vollziehen. die hose nicht runterlassen können, aber demonstrativ überall in die ecken pinkeln.
Naja, ich finde das schon nicht normal. Die Presse wurde gut eingebunden, und den Leakern hat man richtig gut nen Haufen vor die Tür gesetzt. Je länger ich über die Aktion nachdenke, desto mehr komme ich zu dem Schluss, dass die Redaktionen, die sich immer an NDAs halten und jetzt eben auch schon Karten haben, damit eigentlich "belohnt" werden.
Wäre aber ECHT mal interessant dazu die Meinung der Redakeure zu hören!
Das glaube ich nicht, die Vorzeichen stehen so, dass sie mindestens auf Augenhöhe mit Titan ist.
Man macht das wohl nicht weil Titan völlig außer Konkurrenz läuft.
Man hat eine ähnliche IPC wie die GTX 780 und es kann auch sein, dass nochmal 5% durch die Treiber hinzukommen, wie bei 7970 Launch.
Es wird keine Überkarte, aber eine gute für den Markt.
Naja, man sollte aus dem Treiber nicht zu viel erwarten. Tahiti hatte den "Vorteil" einer komplett neuen Architektur! Das man da mal mehr findet ist durchaus wahrscheinlich. Die Treiber sind jetzt aber 2 Jahre gereift! und Hawaii ist nicht fundamental anders. Da wird es sicherlich keinen Wundertreiber-Reloaded geben.
AMD ging es heute einzig darum die Nvidia-Präsentation zu stören.
Und wenn ich mir die Foren so ansehe, haben sie dass auch geschafft. ^^
Jup, das haben Sie DEFINITIV geschafft ;D
Editors sind aber keine Entwickler. Zu deutsch war das ein Pressetag, und für die Presse dürfte es auch relativ langweilig gewesen sein. Okay, gab ein paar Gamedemos. Super.
Ja, die Frage ist, wie stark war dies vorher abzusehen?
nVidia dürfte ziemlich angefressen sein, und wenn der Kommentar stimmt, das nVidia aktiv darauf hingewirkt hat, dass die Leute NICHT hingehen, dann zeigt das wie angefressen Sie sind/waren.
AMD hat mal so richtig die Party platzen lassen bei nVidia. Dass das Event bei nVidia dann auch noch eine absolut herbe Enttäuschung war, ist natürlich der Supergau. Das ist richtig doof gelaufen für nVidia. So hat AMD ihnen voll die Aufmerksamkeit gestohlen und es bleibt eben noch mals verstärkt das schwache Eventbild von nVidia stehen. Der Tag hat halt in der Erinnerung was von Kaffee, der wie eingeschlafene Füße schmeckt.
Stimmt, genau, Quartalsbilanz zeigt endlich wieder schwarze Zahlen!
Was aber völlig OT hier ist. Zum Marketing kann man AMD nur loben, die sind jetzt seit Wochen in der Presse mit ihrer undurchsichtigen Launchtaktik. Da sitzen jetzt offenbar tatsächlich fähige Leute in der Marketingabteilung, was ganz ungewohntes.
Definitiv :up:
Haben Sie ja zumindest teilweise auch nVidia "geklaut" ;D
mag übertrieben sein aber irgendwo hat er Recht. NDA nicht fallen lassen und dann so einen Scheiß abziehen? Und die Community springt auch noch darauf an.. dachte eigentlich AMD hätte seine Lektion was Marketing angeht gelernt, für mich ist das auf einem Niveau mit dem Fermi-Mockup..
Wieso?
Damit pisst man doch vor allem Leakern ans Bein.
AMD gings vor Allem darum nvidias Veranstaltung im nahegelegenen Hotel zu stören. Das hat wunderbar funktioniert:-)
/sign
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.
MfG,
Raff
hm...
Ganz im Ernst?
Ganz ganz ganz schwer zu sagen. Klar, Elektromigration ist bei höheren Temps ein größeres Thema, an sich sind die Temps früher ja aber auch da gewesen. Ich würe mir da allgemein eher Sorgen ums Package machen, da sich dieses stärker ausdehnt bei höheren TEmperaturen und es dmait zu höheren Spannungen im Package kommt. Gerade die Heat-Cykles sind da ein Thema. nVidia ist da ja mal mit Bump-Gate fett auf die NAse gefallen.
Wenn das aber an sich eingeplant ist, würde ich mir jetzt nicht zwingend einen Kopf machen. Es ist aber wirklich schwer zu beurteilen, inwieweit die Aussage eben richtig ist.
Schwierig schwierig. Ich würde ihnen aber unterm Strich erstmal glauben, die RMA Quoten aber GENAU im Auge behalten.
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.
MfG,
Raff
Ist halt die Frage wie man die Teile auslegt. 2-3 Jahre in typischen Heim-PCs wird das schon gut gehen.
Palpatin
2013-10-18, 09:40:20
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.
MfG,
Raff
Müsste man doch Problemlos mit der Lüfterdrehzahl so Steuern können. Karte fängt erst an zu drosseln wenn Lüfter bei 100% ist. Und mit ~5000 upm müsste es schon ein sehr schlecht belüftetes Gehäuse bei sehr hohen Zimmertemps sein das es der Lüfter nicht schafft und die Karte drosselt.
trotzdem geht das hart auf die GPU und auch auf das gesamte Board. Erinnert auch an die Single-Slot 8800GTs.
fondness
2013-10-18, 10:07:46
Das ist genauso wie wenn ich einen Ferrari kaufe, wo dransteht "von 0 auf 100 bei Leergewicht in 3 Sekunden", ich dann ein Wohnmobil dranhänge und dem Autohersteller Unehrlichkeit vorwerfe, weil aus den 3 Sekunden jetzt 15 geworden sind :freak:
Wenn ich eine Karte in ein Gehäuse verbaue hänge ich ihr also ein Wohnmobil dran?
Das Problem an NVs Boost ist ganz allgemein, dass er genau dann funktioniert wenn man die Leistung nicht benötigt. Dh bei sehr hoher Grafiklast bringt er fast nichts. Er hebt aber die avg fps für die Balkenlänge in Szenen wo man ohnehin genug Leistung hat. Und halt ganz am Anfang wo die Karte noch kalt ist.
Skysnake
2013-10-18, 10:12:25
Naja, das ist jetzt aber auch nicht ganz ehrlich.
Der Boost bringt schon was bei hoher GPU-Last. Es muss nur davor genug "Luft" gegeben haben. Der Boost bringt halt nur nichts bei dauerhaft hoher Last.
Im Prinzip sollte sich der Boost positiv auf die min FPS auswirken. Also für die Const 60 FPS Leute, die eben alles über 60/90/what ever FPS skippen. DIe haben dann im Optimalfall in der Theorie genug Luft zwischen drin.
Das Problem ist, man hat ne GPU immer um Sie möglichst 100% aus zu lasten ;D
ShadowXX
2013-10-18, 10:13:21
Wenn ich eine Karte in ein Gehäuse verbaue hänge ich ihr also ein Wohnmobil dran?
Das Problem an NVs Boost ist ganz allgemein, dass er genau dann funktioniert wenn man die Leistung nicht benötigt. Dh bei sehr hoher Grafiklast bringt er fast nichts. Er hebt aber die avg fps für die Balkenlänge in Szenen wo man ohnehin genug Leistung hat.
Du weißt nicht wie das jetzt bei den neuen AMDs ist...vielleicht drosselt er da sofort runter wenn hohe Grafiklast anliegt. So völlig unbegründet kommt das "up to" von AMD sicher nicht.
Aber ohne praxisnahe Tests bringt das momentan echt nichts, darüber weiter zu diskutieren, da wir einfach nicht wissen wie sich die 290X verhält..
fondness
2013-10-18, 10:15:01
Du weißt nicht wie das jetzt bei den neuen AMDs ist...vielleicht drosselt er da sofort runter wenn hohe Grafiklast anliegt. So völlig unbegründet kommt das "up to" von AMD sicher nicht.
Aber ohne praxisnahe Tests bringt das momentan echt nichts, darüber weiter zu diskutieren, da wir einfach nicht wissen wie sich die 290X verhält..
Natürlich weiß ich nicht wie sich die 290X verhält, das bezog sich ja auch ganz offensichtlich auf NV. Aber wenn es so wie auf der 7790 (PowerTune 2.0) funktioniert drosselt die Karte jedenfalls kaum.
dargo
2013-10-18, 10:16:46
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.
MfG,
Raff
Wäre es möglich, dass der neue Fertigungsprozess höhere Temperaturen zulässt?
Ubermode
2013-10-18, 10:19:22
Ja, Hallo erstmal....
Nico von Golem.de hier, war viel früher schon mal da, aber das ist ein neuer Account.
Wie bei allen anderen Schreibern auch: Meine Meinung ist hier und sonstwo meine eigene, und nicht die meines Arbeitgebers. Der bezahlt mich ja nur in IMHOs dafür ;)
Ich musste hier einfach wieder mitspielen, denn das ist einer der lustigsten Launches der letzten Jahre.
Und was Silent und Uber betrifft: 6990, anyone? ;)
fondness
2013-10-18, 10:23:16
LOL:
Wie AMD uns am heutigen Vormittag verständigte, gab es ein Missverständnis bei der Kommunikation. Es war lediglich erlaubt die 4K-Benchmarks des Spiel Bioshock zu zeigen – die weiteren Resultate standen weiterhin unter NDA. Wir haben darum unsere ursprünglichen Artikel hierzu abändern müssen. Wir bitten um Verständnis.
http://ht4u.net/news/28489_amd_veroeffentlicht_4k-benchmarks_zur_radeon_r9_290x/
Anhand der zahlreichen HT4U-Werte konnte man jedenfalls schon sehen das die Karte durchgängig vor der GTX780 liegt. Hat jemand die Tabelle zufällig noch im Cache?
Sven77
2013-10-18, 10:26:54
Ja, in 4K.. wahrscheinlich kratzte da die 780GTX oft genug am 3GB Limit. Die haben schon bewusst die 780GTX als Gegner genommen und 4K wo sich sowieso Vorteil für GCN abzeichnen. Also ist das einfach geschönter BS, vor allem da die Karten nichtmal HMDI 2.0 besitzen und auch Hawaii generell zu lahm für 4K ist (edti: zumindest wenn man anständige Fps anpeilt)..
fondness
2013-10-18, 10:30:54
Einen PC-Monitor schließe ich ohnehin nicht über HDMI an, sondern über DP. Alles andere werden wir eh bald erfahren. Das 4K tendenziell AMD entgegen kommt (zumindest bei den alten Karten) ist natürlich richtig.
M4xw0lf
2013-10-18, 10:32:20
Ja, in 4K.. wahrscheinlich kratzte da die 780GTX oft genug am 3GB Limit. Die haben schon bewusst die 780GTX als Gegner genommen und 4K wo sich sowieso Vorteil für GCN abzeichnen. Also ist das einfach geschönter BS, vor allem da die Karten nichtmal HMDI 2.0 besitzen und auch Hawaii generell zu lahm für 4K ist (edti: zumindest wenn man anständige Fps anpeilt)..
Selbst unter 4k muss man noch manuell durch Texturmods oder sonstwas eingreifen, um die 3GB zu überfüllen.
dargo
2013-10-18, 10:33:15
Ja, in 4K.. wahrscheinlich kratzte da die 780GTX oft genug am 3GB Limit. Die haben schon bewusst die 780GTX als Gegner genommen und 4K wo sich sowieso Vorteil für GCN abzeichnen. Also ist das einfach geschönter BS, vor allem da die Karten nichtmal HMDI 2.0 besitzen und auch Hawaii generell zu lahm für 4K ist (edti: zumindest wenn man anständige Fps anpeilt)..
2x Hawaii aber nicht mehr. :wink: 4k ist eh ein recht großer Schritt von nur Full-HD. Da ist es nur logisch, dass jenes erstmal nur für SLI/CF User interessant wird.
Skysnake
2013-10-18, 10:35:02
LOL:
http://ht4u.net/news/28489_amd_veroeffentlicht_4k-benchmarks_zur_radeon_r9_290x/
Anhand der zahlreichen HT4U-Werte konnte man jedenfalls schon sehen das die Karte durchgängig vor der GTX780 liegt. Hat jemand die Tabelle zufällig noch im Cache?
Du meinst die hier? ;D
Ja, in 4K.. wahrscheinlich kratzte da die 780GTX oft genug am 3GB Limit. Die haben schon bewusst die 780GTX als Gegner genommen und 4K wo sich sowieso Vorteil für GCN abzeichnen. Also ist das einfach geschönter BS, vor allem da die Karten nichtmal HMDI 2.0 besitzen und auch Hawaii generell zu lahm für 4K ist (edti: zumindest wenn man anständige Fps anpeilt)..
Also laut einer Meldung hat Hawaii HDMI2.0
M4xw0lf
2013-10-18, 10:36:01
Du meinst die hier? ;D
Also laut einer Meldung hat Hawaii HDMI2.0
Witzig, vor ner halben Stunde höchstens wars noch online ^^
PCGH_Thilo
2013-10-18, 10:36:48
LOL:
http://ht4u.net/news/28489_amd_veroeffentlicht_4k-benchmarks_zur_radeon_r9_290x/
Anhand der zahlreichen HT4U-Werte konnte man jedenfalls schon sehen das die Karte durchgängig vor der GTX780 liegt. Hat jemand die Tabelle zufällig noch im Cache?
Uncool. In der Mail an uns stand klar drin, dass nur Bioshock Infinite erlaubt ist. SO WAS VON KLAR.
Felixxz2
2013-10-18, 10:37:45
Ja, in 4K.. wahrscheinlich kratzte da die 780GTX oft genug am 3GB Limit.
Nein.
Also ist das einfach geschönter BS, vor allem da die Karten nichtmal HMDI 2.0 besitzen und auch Hawaii generell zu lahm für 4K ist (edti: zumindest wenn man anständige Fps anpeilt)..
Displayport 1.2
Sven77
2013-10-18, 10:38:21
Also laut einer Meldung hat Hawaii HDMI2.0
Wenns so ist nehm das gern zurück..
fondness
2013-10-18, 10:43:01
Uncool. In der Mail an uns stand klar drin, dass nur Bioshock Infinite erlaubt ist. SO WAS VON KLAR.
Tja so ein kleiner Leak reicht wohl schon aus um die Klickzahlen explodieren zu lassen. ;)
ShadowXX
2013-10-18, 10:46:26
Wenns so ist nehm das gern zurück..
Die letzte Nennung war HDMI 1.4....
Sven77
2013-10-18, 10:50:49
Displayport 1.2
Wird an UHD-Tvs die Ausnahme bleiben.. und UHD-Monitore die Consumertauglich sind kann man nicht mal mit dem Fernglas erspähen ;D
dargo
2013-10-18, 10:59:09
Wird an UHD-Tvs die Ausnahme bleiben..
Ich denke es wird sicherlich genug DP<-->HDMI 2.0 Adapter geben. Oder spricht was dagegen?
AnarchX
2013-10-18, 11:02:14
Uber Mode laut Reviewer Guide langsamer als der Quiet Mode?
http://muropaketti.com/amdlta-esimakua-radeon-r9-290xn-suorituskyvysta-vs-geforce-gtx-780
fondness
2013-10-18, 11:05:13
Uber Mode laut Reviewer Guide langsamer als der Quiet Mode?
http://muropaketti.com/amdlta-esimakua-radeon-r9-290xn-suorituskyvysta-vs-geforce-gtx-780
Naja das dürfte schlicht Messschwankungen sein. Sieht so aus als wäre die Leistung gleich, der Lüfter wird wohl bei Quiet-Modus auf Laustärke optimiert sein und beim Uber-Modus auf Temperatur und OCing-Verhalten.
boxleitnerb
2013-10-18, 11:11:41
Es würde mich nicht verwundern, wenn die beiden Modi kaum Unterschiede zeigen, denn im Quiet Mode dürfte die Karte dank des hohen Temperaturtargets beim Benchen (kurze Last) bereits meist bis ans Maximum takten.
Andererseits hieß es klar, dass wenn man die Spec ignoriert, die Karte auch mehr wie 1000 MHz mitmacht. Ich assoziierte das eigentlich mit diesem Turbomodus, den mir meine Quelle anfangs genannt hatte. Na wir werden sehen.
ShadowXX
2013-10-18, 11:13:22
Naja das dürfte schlicht Messschwankungen sein. Sieht so aus als wäre die Leistung gleich, der Lüfter wird wohl bei Quiet-Modus auf Laustärke optimiert sein und beim Uber-Modus auf Temperatur und OCing-Verhalten.
Das sind keine Messschwankungen, sondern IMHO ein perfektes Beispiel für ein nicht vorgeheiztes Testsystem.
Gipsel
2013-10-18, 11:14:21
Naja das dürfte schlicht Messschwankungen sein. Sieht so aus als wäre die Leistung gleich, der Lüfter wird wohl bei Quiet-Modus auf Laustärke optimiert sein und beim Uber-Modus auf Temperatur und OCing-Verhalten.So sieht es aus. Eventuell werden die RAM-Timings im Über-Mode noch etwas entschärft, damit man mehr Spielraum für die Taktfrequenz beim Übertakten bekommt.
Aber im Prinzip sagen uns die Werte, daß in den Benches dort der Maximaltakt auch im quiet-Mode gehalten wurde.
fondness
2013-10-18, 11:18:04
Das sind keine Messschwankungen, sondern IMHO ein perfektes Beispiel für ein nicht vorgeheiztes Testsystem.
Du hast schon bemerkt das der Unterschied bei gerade einmal 0,26fps bzw. 0,1fps liegt? Das ist nichts.
Sunrise
2013-10-18, 11:19:50
Der Tomb Raider Bench ist ja mal sowas von geil.
Quiet Mode 40.2 fps
Und jetzt geb ich mal richtig Gas! Ladies and gentlemen, please fasten your seat belts!
Uber Mode 40.3 fps
Ich schmeiß mich weg...
Da will ich jetzt aber genau wissen, was dieser Modus anders macht.
Gipsel
2013-10-18, 11:22:00
Der Tomb Raider Bench ist ja mal sowas von geil.
Quiet Mode 40.2 fps
Und jetzt geb ich mal richtig Gas! Ladies and gentlemen, please Fasten your seat belts!
Uber Mode 40.3 fps
Ich schmeiß mich weg...
Man sollte natürlich auch den Takt hochziehen, wenn man im Modus mit schneller drehendem Lüfter und höherem Powertarget ist. ;)
Armaq
2013-10-18, 11:22:40
Du hast schon bemerkt das der Unterschied bei gerade einmal 0,26fps bzw. 0,1fps liegt? Das ist nichts.
Wenn der Quiet-Mode bei kaltem Start lief und Über im Anschluss, dann ist es das richtige Beispiel für den Murks, den uns die beiden IHVs vorstellen.
dargo
2013-10-18, 11:23:18
Das sind keine Messschwankungen, sondern IMHO ein perfektes Beispiel für ein nicht vorgeheiztes Testsystem.
Wir reden hier von 0,6% Unterschied. :freak: Natürlich sind das Messschwankungen.
boxleitnerb
2013-10-18, 11:23:26
Du hast schon bemerkt das der Unterschied bei gerade einmal 0,26fps bzw. 0,1fps liegt? Das ist nichts.
Meinst du nicht, dass bei einem vorheizten System der Quiet Mode den Maximaltakt nicht halten könnte und die Unterschiede deutlicher ausfallen würden? Sein Kommentar ist durchaus relevant. Ihr habt beide Recht, du siehst die Verbindung nur nicht.
HarryHirsch
2013-10-18, 11:23:30
Das wirds sein. Die haben den switch umgelegt aber im CCC nix verändert.
Der Tomb Raider Bench ist ja mal sowas von geil.
Quiet Mode 40.2 fps
Und jetzt geb ich mal richtig Gas! Ladies and gentlemen, please fasten your seat belts!
Uber Mode 40.3 fps
Ich schmeiß mich weg...
Schlecht, d.h. nicht der Charakteristik entsprechend, getestet.
MfG,
Raff
Felixxz2
2013-10-18, 11:25:16
Wird an UHD-Tvs die Ausnahme bleiben.. und UHD-Monitore die Consumertauglich sind kann man nicht mal mit dem Fernglas erspähen ;D
Gibt auch UHD TVs mit DP1.2 und wie schon erwähnt, kann man AFAIK ja auch nen simplen, passiven DP1.2 -> HDMI 2.0 Adapter verwenden.
Der Tomb Raider Bench ist ja mal sowas von geil.
Quiet Mode 40.2 fps
Und jetzt geb ich mal richtig Gas! Ladies and gentlemen, please fasten your seat belts!
Uber Mode 40.3 fps
Ich schmeiß mich weg...
Wie soll denn der Ubermode auch schneller sein, wenn der Quiet Mode ebenfalls auf 1000MHz taktet? :wink:
Der wird wohl einfach ein agressiveres Lüfterprofil, höheres Powertarget und mehr OC Potenzial bieten. Der Takt ist ja aber trotzdem auch im Ubermode stock bei 1000Mhz abgeriegelt.
boxleitnerb
2013-10-18, 11:26:58
Man sollte natürlich auch den Takt hochziehen, wenn man im Modus mit schneller drehendem Lüfter und höherem Powertarget ist. ;)
Und du meinst nicht, AMD hätte das getan bzw. es würde automatisch gehen? Was für einen Sinn hätte es denn sonst, in beiden Modi Benchmarks zu vergleichen? :confused:
fondness
2013-10-18, 11:29:09
Meinst du nicht, dass bei einem vorheizten System der Quiet Mode den Maximaltakt nicht halten könnte und die Unterschiede deutlicher ausfallen würden? Sein Kommentar ist durchaus relevant. Ihr habt beide Recht, du siehst die Verbindung nur nicht.
Gibt es irgend eine Beleg für diesen angeblichen Zusammenhang? Oder wird da einfach nur irgendwas konstruiert?
ShadowXX
2013-10-18, 11:29:55
Meinst du nicht, dass bei einem vorheizten System der Quiet Mode den Maximaltakt nicht halten könnte und die Unterschiede deutlicher ausfallen würden? Sein Kommentar ist durchaus relevant. Ihr habt beide Recht, du siehst die Verbindung nur nicht.
Danke...wenigstens einer hat es verstanden.
Einfach ein schlechter Test. Ich kann auch jede Graka mit Boost bei min. Lüfterdrehzahl fixieren und wenn sie nur kalt genug anfängt und der bench kurz genug ist, wird es keinen Unterschied machen.
boxleitnerb
2013-10-18, 11:32:24
Gibt es irgend eine Beleg für diesen angeblichen Zusammenhang? Oder wird da einfach nur irgendwas konstruiert?
Logik. Warum sollte man gezielt Benchmarks bei gleichem Takt machen, das ergibt keinen Sinn. Ergo ist es wahrscheinlicher, die Ursache für die Taktgleichheit in den Umgebungsfaktoren zu suchen.
Ich war auch kurz etwas verwirrt. Vor allem da die Benches ( die Folien mit den Benches) doch von AMD selbst kommen, oder?
Ja, scheint so. Wobei mir noch nicht ganz klar ist, warum AMD die Bedingungen nicht so angepasst hat, dass eben ein Unterschied hier zu sehen ist. Sei es nun den Quiet Mode thermisch "auszubremsen" oder den Über Mode zu boosten, indem man mit dem Takt halt wirklich zu 1050-1100 MHz geht und dabei halt die Standardspecs verletzt.
Sunrise
2013-10-18, 11:34:26
Und du meinst nicht, AMD hätte das getan bzw. es würde automatisch gehen? Was für einen Sinn hätte es denn sonst, in beiden Modi Benchmarks zu vergleichen? :confused:
Ich war auch kurz etwas verwirrt. Vor allem da die Benches ( die Folien mit den Benches) doch von AMD selbst kommen, oder?
Da Raff aber eben Andeutungen gemacht hat und er sonst unter NDA steht, werden wir wohl weiter warten müssen, was das soll.
Gipsel
2013-10-18, 12:03:10
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.Du kannst GPUs jahrelang ununterbrochen bei 95°C betreiben. Habe ich selber gemacht (sogar bei 100-105°C, 24/7, an die 2 Jahre lang, das Ding funktioniert immer noch). Solange Spannung und Takt konservativ genug gewählt sind, geht das ohne Probleme.
Im Umkehrschluß heißt das dann (wie boxleitnerb schon richtig bemerkte) daß da bei niedrigeren Temperaturen (besserer Kühlung) Luft für mehr Takt sein sollte.
Hugo78
2013-10-18, 12:08:36
Ist halt die Frage wie man die Teile auslegt. 2-3 Jahre in typischen Heim-PCs wird das schon gut gehen.
Ja klar, da kauft man ne 600€ Karte um sie sehenden Auges nach 2 Jahren wegwerfen zudürfen... ganz toll => Wiederverkaufswert Null komma Null.
y33H@
2013-10-18, 12:11:18
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.Wieso das denn? Viele Chips werden so heiß und es stört sie nicht.
LadyWhirlwind
2013-10-18, 12:16:59
Wieso das denn? Viele Chips werden so heiß und es stört sie nicht.
AMD (und Nvidia) stört es sicher auch nicht wenn die Lebensdauer auf Grund der hohen Temperaturen sinkt. Wenn die Chips (unter schlechten Bedingungen) 2 1/2 Jahre durchhalten reicht das...
Hugo78
2013-10-18, 12:30:41
Wieso das denn? Viele Chips werden so heiß und es stört sie nicht.
Vergiss nicht den DAU Faktor. :biggrin:
Kumpel von mir, Soldat und somit auch nur Wochendzocker, hab ich anfang des Jahres sein Yorkfield Sytem auf ein IvyB umgebaut und die Staubfilter vom Gehäuse waren dicht, entsprechend sah dann auch sein Gehäuse aus.
Graka war ne GTX 285 ohne OC, läuft immernoch aber die dürfte mittlerweile öfter mal deutlich mehr als die originalen max. 81 °C (http://www.computerbase.de/artikel/grafikkarten/2009/test-nvidia-geforce-gtx-285-sli/22/)gehabt haben.
http://www7.pic-upload.de/thumb/18.10.13/err7jqdjgfa.jpg (http://www.pic-upload.de/view-21051451/burnbabyburn.jpg.html)
Und das ist der Normalfall beim technikfernen User.
...
Und Raucher, nehme ich mal an?
Gipsel
2013-10-18, 13:22:30
Und Raucher, nehme ich mal an?
Jup, sieht danach aus. Nur über die Temperatur bekommst Du das nicht so verfärbt, ohne daß da auf der Karte was wegschmilzt.
Peter Gräber
2013-10-18, 13:23:14
Uncool. In der Mail an uns stand klar drin, dass nur Bioshock Infinite erlaubt ist. SO WAS VON KLAR.
Also das hier aus der AMD-Mail hat mich in die Irre geführt:
"Sollte kein 4K-System zur Verfügung stehen, finden sich Benchmarks übrigens schon im Reviewers Guide von heute, auf Seite 20 – zur Veröffentlichung ab 21 Uhr, dem 17.10."
Eindeutig missverständlich, oder?
boxleitnerb
2013-10-18, 13:25:01
In welchem Kontext stand das denn? Kam vorher ein Satz, wo sich klar ausschließlich auf Bioshock bezogen wurde oder nicht?
http://videocardz.com/46929/official-amd-radeon-r9-290x-2160p-performance-17-games
Falls noch nicht bekannt...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.