Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - "Southern Islands" GPUs (wohl 40 nm, 2010) - Off-Topic und Spam
Flatterball77
2010-10-23, 02:02:29
Die neuen Karten sind schwer gepusht mit vielen fails. Man sollte das mal neutral erkennen. Ich bin kein Fanboy, habe die heutigen Tests abgewartet.
Klar wenig Stromverbrauch hier und da. Aber NV bietet auch gute Lösungen seitens 460/470. Und das mit sehr guter Zukunft. Dabei immer besser BQ mässig. ;)
Der Fermi steht gut da gerade mit den guten Preisen. AMD hat da zu knappern.
Mancko
2010-10-23, 02:19:32
Wie man ein Stromverbrauchsmonster wie die 470 vorziehen kann, ist mir schleierhaft...
Weil man einfach ein Produkt haben will, mit dem man Spass hat? Mal ganz ehrlich - wen interessiert denn beim Zocken der Stromverbrauche. Also ich geh ganz normal arbeiten und zocke im Schnitt 2 bis 3 Stunden am Tag - maximum. Die restliche Zeit ist der PC unter Windows aktiv und dort ist Stromverbrauch schonmal überhaupt kein Problem. Dann gibt es noch Geräte wie die PS3, Fernseher, T-Home Receiver, Devolo DLAN, Netzwerkdrucker und ein ACER NAS System. Bei den meissten läuft dann noch der Fernseher parallel. Wen interessieren da bitte die paar Watt einer Grafikkarte.
Sorry aber ich kauf mir doch kein 200 Euro Produkt um am Ende neue Rekorde im Niedrigverbrauch aufzustellen. Wenn man hier nach manchen geht, könnte man den Eindruck gewinnen, dass nur noch der Stromverbrauch zählt. Also primär zählt erstmal Leistung, Bildqualität, Features, und Softwareunterstützung zu einem bestimmten Preis. Erst wenn das zwischen bestimmten Produkten einigermaßen gleich ist, dürften sich die meissten für den Stromverbrauch interessieren. Und bei den zuerst genannten Punkten, ist Nvidia einfach besser aufgestellt. AMD bringt halt einfach immer nur Standardkost aber nichts für Enthusiasten und die Softwareunterstützung ist auch mau, weil sie da nicht genug Geld in die Hand nehmen. Den preislichen Vorteil haben sie derzeit auch nicht.
Bei der aktuellen Preislage würde ich jederzeit entweder eine 460 OC oder eben eine 470 kaufen. Für den Preis bekommt man dort einfach mehr geboten und muss sich auch BQ-technisch nicht bevormunden lassen und keine Kompromisse eingehen. Man kann einfach selber entscheiden ob das Spiel maximale BQ zulässt oder man auf etwas verzichtet.
x-dragon
2010-10-23, 02:45:08
Wenn ihr Fermi so toll findet dann kauft sie euch doch einfach, falls nicht sowieso schon lange passiert. Jeder hat halt andere Kriterien beim Kauf einer Grafikkarte, bspw. mehr als 2 Monitore anschliessen zu können, oder halt auch der Stromverbrauch weil man seinen PC nicht nur mal für 2-3 Std. zum spielen anschaltet, aber dies ist hier ja nun wirklich nicht das Kaufberatungsabteil.
Ansonsten sind ja Spekulationen auch schön und gut, aber Grafikkarten als schrottig abzutun von denen man noch gar nichts gesehen hat ist halt einfach nur niveaulos ... und erübrigt eigentlich gleich jede Diskussion.
OgrEGT
2010-10-23, 20:09:00
Sorry for OT
Solche Launches sind keine Ausnahme. Bei nVidia passiert so etwas nie. Weder die GTX470, noch die GTX260 hatten falsche Spezifikationen.
Diese Launches sind auch durchorganisiert. Es war geplant.
Nein. Wieso? Anscheinend sind Reviewer unter Zeitdruck nicht in der Lage Karten, Einstellungen und Ergebnisse auf Richtigkeit zu validieren. Ich sehe also klaren vorsatz.
Immerhin haben die die Fehler doch als erste entdeckt. Den Vorsatz unterstellst Du bislang nur.
Denn diese absolute Aussage ergibt sich allen Zahnrädchen, die bei diesen Launch nicht hätten passieren dürfen.
Vielleicht solltest Du diese Theorie einem Anwalt unterbreiten, welcher prüfen könnte ob man Anklage erheben kann.
aus versehen hat man bestimmt nicht die "falschen" karten verschickt, entweder hat man es billigend in kauf genommen und/oder es war abgesprochen. wenn es dummheit gewesen ist dann frag ich mich warum es mehrere brands betrifft.
Siehst Du, solange Du die genaue Ursache nicht kennst. Könnte ein Fehler in der Supplychain sein. Offenbar sind falsche Karten versendet worden. Falsche Nummern in SAP hinterlegt... Was auch immer.
einfach nur naiv zu denken es ist aus purer dummheit einzelner geschehen.
Du kannst mich selbst dann noch nicht naiv nennen, selbst wenn sich die Behauptungen bewahrheiten sollten. Nur aufgrund dessen, dass man nicht von vorneherein mehrere Sichtweisen ausschließt sicher nicht.
- wie auch immer, ob nun 6870 oder gtx460 mit 800mhz da entscheidet jetzt einfach der preis oder die färbung
So ist es. Der mündige Käufer wägt zwischen Leistung/features und nach Preis in Bezug auf seine Ansprüche ab, und entscheidet dann. Ich hätte auch ne GTX470 damals gekauft. War mir persönlich einfach zu laut, da Lautstärke eine meiner Hauptprioritäten ist.
Wie gesagt, kann jeder selber entscheiden was er macht.
Fetter Fettsack
2010-10-23, 20:29:16
Ich sehe also klaren vorsatz.
Was du siehst, sind Indizien, die diesen Schluss zulassen, ihn jedoch nicht direkt beweisen.
Zudem wüsste ich nicht, warum man vom Grundsatz "in dubio pro reo" abweichen sollte. Die Altgriechen werden sich schon was dabei gedacht haben. ;D
Die Optik ist zugegebenermaßen allerdings schon ein wenig schief. [EDIT: wenn man allerdings bedenkt, dass es anscheinend die Partner waren, kann man mE eher nicht sagen, dass AMD dafür die Schuld tragen müsse.]
Wer will mir als Erster sagen, dass es doch nicht die Altgriechen waren?^^
LovesuckZ
2010-10-23, 20:34:33
Was du siehst, sind Indizien, die diesen Schluss zulassen, ihn jedoch nicht direkt beweisen.
Zudem wüsste ich nicht, warum man vom Grundsatz "in dubio pro reo" abweichen sollte. Die Altgriechen werden sich schon was dabei gedacht haben. ;D
Die Optik ist zugegebenermaßen allerdings schon ein wenig schief.
Nur sind die anderen Indizien so stark, dass die falschen Samples eben nicht nur als Zufall zu betrachten sind. Wären nur sie alleine beim Launch aufgetreten, könnte man hier von Zufall sprechen.
Aber in Kombination mit den anderen Vorfällen, passt es perfekt ins und führt zu einem ziemlich klaren Bild.
Black-Scorpion
2010-10-23, 20:36:58
Keine Kunst, dein Bild ist allseits bekannt.
OgrEGT
2010-10-23, 20:39:51
Aber was mich eigentlich hier speziell in diesem Thread am Meisten ´interessiert, sind weitere Eckdaten, vielleicht Performance Leaks zu Cayman...
BTT.
Iruwen
2010-10-23, 20:56:03
Keine Kunst, dein Bild ist allseits bekannt.
Look who's talking.
Fetter Fettsack
2010-10-23, 21:10:38
Wer ohne Schuld ist, werfe den ersten Stein. :)
Im Übrigen finde ich, dass wir uns an OgrEGTs subtilen Hinweis, das ursprüngliche Thema beizubehalten, halten sollten.
Gipsel
2010-10-23, 21:12:13
Nur sind die anderen Indizien so stark, dass die falschen Samples eben nicht nur als Zufall zu betrachten sind.Welche Testsamples kamen mit der falschen Shaderzahl?
Genau! Die von AMD gelieferten HD6850 entsprachen alle den offiziellen Specs. HIS und Sapphire haben da bei ein paar Karten was verbockt (wieso hat Asus es zum Beispiel richtig hinbekommen?). Also hör' mal mit Deinen kruden Verschwörungstheorien auf!
RoNsOn Xs
2010-10-23, 21:20:21
kein futter geben, gar nicht drauf eingehen... leute bitte. sonst gibts wieder 300 weitere seiten damit. überzeugen kann man hier eh keinen.
HD-Ronny
2010-10-23, 23:39:18
Nur sind die anderen Indizien so stark, dass die falschen Samples eben nicht nur als Zufall zu betrachten sind. Wären nur sie alleine beim Launch aufgetreten, könnte man hier von Zufall sprechen.
Aber in Kombination mit den anderen Vorfällen, passt es perfekt ins und führt zu einem ziemlich klaren Bild.
Die Hölle friert ein. Ich muß LovesuckZ leider recht geben. Na ja ,jeder fanboi hat auch irgendwann mal recht. :freak: Mit den falschen Bios der HD6850 ist ja schon so dämlich das man fast AMD bzw. den Boardpartnern glauben könnte. Ne, die sind so doof und glaubten das merkt keiner... Jetzt habe ich ein klares Bild der Firma AMD.
Dann noch das Ding mit der anisotropen Quality, die halten uns alle für doof. Das mag ich nicht. Dementsprechend wird ein Switch zur grünen Seite immer wahrscheinlicher.
Menace
2010-10-24, 08:03:55
Ich finde es eigentlich traurig, was hier bzgl. einiger abläuft. Seitenweise werden Thesen dargeboten, ohne auf entsprechende Begründungen zu nennen und unlogische Folgerungen zu berücksichtigen. Ist ja ungenommen, dass nicht jeder wissenschaftliche Argumentation gegeben ist, aber warum lässt man hier die Gleichen immer wieder und wieder die gleichen Thesen wiederholen, ohne dass sich der Sinn der Aussage irgendwie verändert?
Vielleicht von dieser Seite so gewollt? :rolleyes:
Gipsel
2010-10-26, 13:42:04
AMD wird mit der 6990 die mGPU karten verschandeln, schon die 5970 bietet im vergleich zur 5870 zu wenig, die Cayman Versionen werden da noch mal was drauf setzten.So wie die GTX295 das Ganze auf nv-Seite verschandelt hat? Also ehrlich, Deine einseitige Einschätzung kannst Du mal besser stecken lassen.
Die HD5970 hat 2 volle Cypress mit niedrigerer Spannung und abgesenktem Takten. Bei der GTX295 hat nvidia zusätzlich noch Einheiten und das Speicherinterface beschnitten. Warum sollte dann ein Dual Cayman (ohne deaktivierte Einheiten aber) mit aggressivem Binning für geringere Spannungen keinen Sinn machen?
So wie die GTX295 das Ganze auf nv-Seite verschandelt hat? Also ehrlich, Deine einseitige Einschätzung kannst Du mal besser stecken lassen.
Dass SLi in vielerlei Hinsicht (Skalierung, Performance, Unterstützung, Treibersupport, Profile) besser ist, ist kein Geheimnis mehr.
fondness
2010-10-26, 13:59:30
hingegen hat NV mit dem G104 in dem bereich gewaltig aufgeholt, eigentlich ja schon fast gleichwertig zu AMD, aber das wollen die meisten nicht war haben/einsehen und ziehen immer wider den GF100 als vergleich heran wie so auch immer... die messungen lügen aber nicht...
Nein, auch Gf104 ist noch lange nicht gleichwertig zu AMD, das ist eben das was du nicht einsehen willst, obwohl du es eh besser weißt. Dann auch noch zu schreiben die Messungen lügen nicht ist blanker Hohn sonst nichts.
Jeder sieht das eine 6870 annähernd so schnell ist wie eine GTX470 aber deutlich weniger verbraucht als selbst eine GTX460. AMD hat hier nochmal nach gelegt und NV ist noch lange nicht gleichwertig.
Dass SLi in vielerlei Hinsicht (Skalierung, Performance, Unterstützung, Treibersupport, Profile) besser ist, ist kein Geheimnis mehr.
Das ist nicht nur völlig am Thema vorbei sondern auch in vieler Hinsicht überholt.
Gipsel
2010-10-26, 14:01:44
Dass SLi in vielerlei Hinsicht (Skalierung, Performance, Unterstützung, Treibersupport, Profile) besser ist, ist kein Geheimnis mehr.
Sollte ich da irgendeinen Zusammenhang oder gar ein Argument zur Verteidigung Durals Standpunkt, nämlich daß ein Dual Cayman im Vergleich zu einem einzelnen zu langsam sein wird, erkennen? Es ging überhaupt nicht um irgendeinen SLI vs. Crossfire Vergleich.
Aber da Du das angesprochen hast, schaue Dir mal die Crossfire-Skalierung der 6800er an und zeige mir, wo SLI soo viel besser ist!
Iruwen
2010-10-26, 14:20:25
Mikroruckler sieht man halt leider auf FPS-Balken nicht.
Jeder sieht das eine 6870 annähernd so schnell ist wie eine GTX470 aber deutlich weniger verbraucht als selbst eine GTX460. AMD hat hier nochmal nach gelegt und NV ist noch lange nicht gleichwertig.
Ahja? Interessante Einordnung von "annähernd" und "deutlich", und so schön differenziert.
dildo4u
2010-10-26, 14:25:16
Jeder sieht das eine 6870 annähernd so schnell ist wie eine GTX470
.
Wo bitte mit vergleichbaren AF ist die 6870 auf 5850 Level.
http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/
LovesuckZ
2010-10-26, 14:34:29
Nein, auch Gf104 ist noch lange nicht gleichwertig zu AMD, das ist eben das was du nicht einsehen willst, obwohl du es eh besser weißt. Dann auch noch zu schreiben die Messungen lügen nicht ist blanker Hohn sonst nichts.
Jeder sieht das eine 6870 annähernd so schnell ist wie eine GTX470 aber deutlich weniger verbraucht als selbst eine GTX460. AMD hat hier nochmal nach gelegt und NV ist noch lange nicht gleichwertig.
Man sieht ja an AMD's Verhalten beim Launch wie gleichwertig Barts ist. Wer cheaten, betrügen und täuschen muss, der hat die Hose voll gehabt. Lustig, dass du hier die GTX470 nimmst, lässt die sich doch ohne Spannungserhöhung nochmal um 20-25% höher bringen, wo bei AMD schon im Schnitt bei 950Mhz schluss ist. Und eine GTX460 mit höhreren Takt ignoriert man, wo man weiß, dass die Karten bei besserer BQ sogar gleichschnell sind.
Also ehrlich, Deine einseitige Einschätzung kannst Du mal besser stecken lassen.
I lol'd.
Sowas von jemanden zu lesen, der hier AMD Produkte promotet, ist schon sehr erheiternd. :biggrin:
fondness
2010-10-26, 14:38:27
Wo bitte mit vergleichbaren AF ist die 6870 auf 5850 Level.
http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/
Bei PCGH lagen die GF-Karten schon immer besser, HQ kostet darüber hinaus im Durchschnitt so gut wie nichts: http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index9.php
Aber das weißt du natürlich auch selbst.
fondness
2010-10-26, 14:40:14
Man sieht ja an AMD's Verhalten beim Launch wie gleichwertig Barts ist. Wer cheaten, betrügen und täuschen muss, der hat die Hose voll gehabt. Lustig, dass du hier die GTX470 nimmst, lässt die sich doch ohne Spannungserhöhung nochmal um 20-25% höher bringen, wo bei AMD schon im Schnitt bei 950Mhz schluss ist. Und eine GTX460 mit höhreren Takt ignoriert man, wo man weiß, dass die Karten bei besserer BQ sogar gleichschnell sind.
Es ist NVs Problem das sie den Takt nicht höher ansetzen können weil ihnen sonst der Stromverbrauch durch die Decke geht.
fondness
2010-10-26, 14:42:10
Ahja? Interessante Einordnung von "annähernd" und "deutlich", und so schön differenziert.
Warum sollte mir ich die Mühe machen zu differenzieren wenn von Dural nichts dergleichen kommt? Aber daran hast du dich natürlich nicht gestört.
LovesuckZ
2010-10-26, 14:42:58
Es ist NVs Problem das sie den Takt nicht höher ansetzen können weil ihnen sonst der Stromverbrauch durch die Decke geht.
Hä? 6870 lässt sich kaum übertakten. Also hat AMD schon das maximale angesetzt. Es ist daher klar, das eine 6870 eher mit einer GTX460@780Mhz+ zu vergleichen ist, weil beide am oberen Limit der Taktrate laufen.
Das man eine GTX470 herzieht, ist doch nur deswegen geschuldet, weil man irgendwelche Vorteile für die 6870 haben will. Denn gegen die GTX460@780Mhz zieht sie in einigen Bereichen klar den kürzeren - Lautstärke, Temperatur, Bildqualität, Tessellationleistung etc.
sklave_gottes
2010-10-26, 14:43:57
Wo bitte mit vergleichbaren AF ist die 6870 auf 5850 Level.
http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/
Das ist anhand der Technischen Daten total unrealistisch. Aber selbst in deinem Verlinktem test hat die 6870 0,1%-12% vorsprung je nach Spiel.
Wobei bei diesem Test die 6870 im gegensatz zur 5850 immer tri und ohne repl. filtert.
---> bulschit b2T
fondness
2010-10-26, 14:47:28
Hä? 6870 lässt sich kaum übertakten. Also hat AMD schon das maximale angesetzt. Es ist daher klar, das eine 6870 eher mit einer GTX460@780Mhz+ zu vergleichen ist, weil beide am oberen Limit der Taktrate laufen.
Das man eine GTX470 herzieht, ist doch nur deswegen geschuldet, weil man irgendwelche Vorteile für die 6870 haben will. Denn gegen die GTX460@780Mhz zieht sie in einigen Bereichen klar den kürzeren - Lautstärke, Temperatur, Bildqualität, Tessellationleistung etc.
Die GTX470 nahm ich weil sie vergleichbare Leistung liefert, ganz einfach. Und es ging um Stromverbrauch und um nichts anderes, das du jetzt wieder mit NV-Werbung auffährst ist bei dir wohl normal. Bitte nimm eine GTX460@800Mhz, es bleibt bei meiner Aussage. Die 6870 liegt schließlich selbst unter einer GTX460@675Mhz.
LovesuckZ
2010-10-26, 14:52:37
Es ging um Stromverbrauch und um nichts anderes, das du jetzt wieder mit NV-Werbung auffährst ist bei dir wohl normal. Bitte nimm eine GTX460@800Mhz, es bleibt bei meiner Aussage. Die 6870 liegt schließlich selbst unter einer GTX460@675Mhz.
Es ist lustig, dass du dabei ignorierst, dass für ähnliche BQ auch mehr Leistung bei AMD verrichtet werden muss.
Genauso wie Leistung nichtssagend ist, ist es der Stromverbrauch. AMD bietet keinen nVidia-HQ Modus an. Um ihn zu erreichen, darf man SSAA einsetzen. Und dann geht die Energieeffizienz deutlich den Berg hinab.
Dural
2010-10-26, 15:11:24
Nein, auch Gf104 ist noch lange nicht gleichwertig zu AMD, das ist eben das was du nicht einsehen willst, obwohl du es eh besser weißt. Dann auch noch zu schreiben die Messungen lügen nicht ist blanker Hohn sonst nichts.
Jeder sieht das eine 6870 annähernd so schnell ist wie eine GTX470 aber deutlich weniger verbraucht als selbst eine GTX460. AMD hat hier nochmal nach gelegt und NV ist noch lange nicht gleichwertig.
GTX470 IST AUCH GF100 :freak: :rolleyes:
Messwerte in der regel ca.: 6850 + 10Watt = GTX460 + 10Watt = 6870
somit ist GF104 so ziemlich exakt auf dem Leistung/Watt (GTX460 kein voller GF104) bereich wie 6870 +/- mit den normalen schwankungen die es immer geben wird auch innerhalb der gleichen serie... aber weil du es bist kannst du gerne 10Watt mehr (bei 120Watt sind das ganze 8%) für GF104 rechnen, einfach lächerlich! erst recht wenn man bedenkt das GF104 / GTX460 im Idle schon über 5Watt weniger verbrauchen......
hast du überhaupt weder barts noch eine GF104 karte? bestimmt nicht........ :rolleyes:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.