Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Antilles - Dual-Cayman - HD 6990 - Q1 2011
AnarchX
2010-10-26, 15:20:41
http://img534.imageshack.us/img534/4840/amdradeonhd6990offdetai.jpg (http://img534.imageshack.us/i/amdradeonhd6990offdetai.jpg/)
http://www.donanimhaber.com/ekran-karti/haberleri/AMDden-dunyanin-en-hizli-ekran-karti-Tum-detaylariyla-Radeon-HD-6990.htm
http://img261.imageshack.us/img261/7634/gpuroadmapkopie.jpg
Eine Dual-GPU-Karte auf Basis der Cayman GPU:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8345923#post8345923
235,ANTILLES PRO (671C),NI CAYMAN
236,ANTILLES XT (671D),NI CAYMAN
Mögliche Spekulationsgrundlagen:
Maximale Board-Power von 300W oder mehr? 2x 8-Pin für OCing?
Wie groß könnte der Abstand zum >225W Cayman XT sein?
Wird Antilles auf AFR-Crossfire basieren oder gibt es eine neue Technologie?
Gipsel
2010-10-26, 15:24:36
AMD wird mit der 6990 die mGPU karten verschandeln, schon die 5970 bietet im vergleich zur 5870 zu wenig, die Cayman Versionen werden da noch mal was drauf setzten.
Könntest Du das mal ein wenig ausführen, was Du mit "verschandeln" meinst?
Warum sollte der Leistungszuwachs kleiner ausfallen als z.B. bei einer GTX295, die ja aus zwei doch deutlich beschnittenen GT200b bestand? Leute hauen sich auch SLIs aus GTX460 oder gar noch kleineren Karten (z.B. HD5770) in den Rechner.
Ein strenges Binning, um (vollwertige, also unbeschnittene) GPUs mit möglichst niedriger Spannung bei leicht abgesenkten Taktraten betreiben zu können und Du bist da. Das sollte doch kein übergroßes Problem darstellen.
Was wäre wenn es Dual-Barts wäre?
Gipsel
2010-10-26, 15:30:32
Was wäre wenn es Dual-Barts wäre?
Ist es aber nicht. AMD hat schon gesagt, daß es Dual Cayman ist und die Treibereinträge sagen es auch.
AnarchX
2010-10-26, 15:32:40
235,ANTILLES PRO (671C),NI CAYMAN
236,ANTILLES XT (671D),NI CAYMAN
Ausserdem zeigt AMDs Schaubild zwei Cayman-große GPUs bei Antilles und alle HD 6900 haben den Gen8-Tessellator.
Insofern wird AMD hier wohl zwei Cayman zum "günstigen" Preis abgeben. Nett wäre natürlich, wenn gleich ein Wasserkühler beiliegt und das PCB 2x 8-Pin erlaubt. ;)
Hugo78
2010-10-26, 15:38:36
Ein strenges Binning, um (vollwertige, also unbeschnittene) GPUs mit möglichst niedriger Spannung bei leicht abgesenkten Taktraten betreiben zu können und Du bist da. Das sollte doch kein übergroßes Problem darstellen.
Oder die 6990 wird einfach ein Resteverwerter für Chips, die zwar nicht ganz 6950 Level erreichen, aber auch kein Totalausfall sind.
deekey777
2010-10-26, 15:45:36
Oder die 6990 wird einfach ein Resteverwerter für Chips, die zwar nicht ganz 6950 Level erreichen, aber auch kein Totalausfall sind.
Du meinst HD6970. Sonst steht das im Widerspruch zur HD5970, die keine teildeaktivierten RV870Pros hat, sondern niedriger getaktete RV870XT, um die TDP/erlaubten Verbrauch nicht zu sprengen.
Gipsel
2010-10-26, 15:47:54
Oder die 6990 wird einfach ein Resteverwerter für Chips, die zwar nicht ganz 6950 Level erreichen, aber auch kein Totalausfall sind.
Die könnte man auch als 6930 verticken, um die Lücke zu Barts nicht zu groß werden zu lassen, in die sonst eine (hypothetische?) GTX570 stoßen könnte.
Interessanterweise findet man beim Binning tendenziell die stromsparenden Chips (die wenig leaken) auch gleichzeitig als die, die nicht die allerhöchsten Takte erreichen (das tun oft nur die, bei denen die Gateoxidschicht etwas dünn geraten ist und die deswegen auch leaken wie nichts Gutes). Insofern ist die Kombination aus stromsparenden und nicht ganz so hoch taktenden Chips die für mich wahrscheinlichste Lösung.
AnarchX
2010-10-26, 15:54:04
AMD sollte ~650€ verlangen und eben gleich einen Wasserkühler beilegen. Wenn man diesen in Serie fertigt, sollte da wohl deutlich günstiger sein, als wenn jetzt andere Unternehmen diesen in Kleinserie fertigen.
Dazu noch die 375W Option auf dem PCB und man hat ein echtes Enthusiasten-Produkt.
Der 6Gbps GDDR5 sollte auch nicht fehlen.
Dural
2010-10-26, 15:54:30
weil der leistungs-unterschid zu 6970 sehr klein sein wird, ich rechne mit max. nur 40% wenn nicht sogar nur 30%!
Eine 6970 wird somit in jedemfall besser sein, keine AFR/Treiber/Micro Ruckler probleme zudem sicher auch deutlich güstiger!
So lange wir da die 300Watt grenze haben wird sich das sicher auch nicht ändern... aber seien wir mal ehrlich, wollen wir überhaupt mehr als 300Watt karten?!? ich denke eher NEIN
Hugo78
2010-10-26, 15:56:43
Du meinst HD6970. Sonst steht das im Widerspruch zur HD5970, die keine teildeaktivierten RV870Pros hat, sondern niedriger getaktete RV870XT, um die TDP/erlaubten Verbrauch nicht zu sprengen.
Ich mein schon 2x < 6950.
AMDs Grafiksparte muss die Verluste in anderen Bereichen ausgleichen, und da wäre es aus rein wirtschaftlicher Sicht doch falsch,
hier die guten Cayman XT Chips auf ein Produkt zu verschwenden, das kaum schneller sein darf, als ein einzelner Cayman XT, ebend weil man an die 300W Grenze stößt.
Von einer 6930, als Resteverwerter, hab ich bisher auch noch nichts gehört, also bietet sich doch so ein Szenario an.
Aber gut, eventuell läuft es wie bei der 4870 X2, die mit 286W TDP auf dem Papier, letztlich um die 370W geschluckt hatte.
Gipsel
2010-10-26, 15:57:50
weil der leistungs-unterschid zu 6970 sehr klein sein wird, ich rechne mit max. nur 40% wenn nicht sogar nur 30%!Gibt es einen speziellen Grund, warum der Leistungsunterschied kleiner sein sollte als z.B. bei der GTX295?
Ich behaupte jetzt mal einfach so, Antilles wird außerhalb von CPU-Limits mindestens 50% schneller als Cayman ;)
weil der leistungs-unterschid zu 6970 sehr klein sein wird, ich rechne mit max. nur 40% wenn nicht sogar nur 30%!
Eine 6970 wird somit in jedemfall besser sein, keine AFR/Treiber/Micro Ruckler probleme zudem sicher auch deutlich güstiger!
So lange wir da die 300Watt grenze haben wird sich das sicher auch nicht ändern... aber seien wir mal ehrlich, wollen wir überhaupt mehr als 300Watt karten?!? ich denke eher NEIN
Sehe ich ähnlich. Das Thermalbudget gibt ohne Shrink einfach zu wenig her. Die HD 6990 wird gewiss arschlaut, ohne sich wirklich nennenswert von der HD 6970 abzusetzen (welche weder mikroruckelt noch 300+ Watt saugt). Eine Wasserkühlung wäre natürlich sehr gut, aber das werden wir IMO nicht als Referenzdesign zu sehen bekommen.
MfG,
Raff
deekey777
2010-10-26, 15:59:26
weil der leistungs-unterschid zu 6970 sehr klein sein wird, ich rechne mit max. nur 40% wenn nicht sogar nur 30%!
...
Woraus ergibt sich deine "Rechnung"?
AnarchX
2010-10-26, 16:00:12
Gibt es einen speziellen Grund, warum der Leistungsunterschied kleiner sein sollte als z.B. bei der GTX295?
GTX 285 204W
GTX 295 289W
Cayman XT >=225W
Antilles ~290W
Gipsel
2010-10-26, 16:00:45
Ich mein schon 2x < 6950.
AMDs Grafiksparte muss die Verluste in anderen Bereichen ausgleichen, und da wäre es aus rein wirtschaftlicher Sicht doch falsch,
hier die guten Cayman XT Chips auf ein Produkt zu verschwenden, das kaum schneller sein darf, als ein einzelner Cayman XT, ebend weil man an die 300W Grenze stößt.Wieso darf Antilles kaum schneller sein als Cayman? Antilles ist ein typisches Halo-Produkt: sehr kleine Stückzahlen, hoher Preis und alleine kein Gewinn für AMD. Da kann man schon mal aus Prestigegründen ein paar tausend gute Chips verbraten, damit man in irgendwelchen Benchmarks ganz vorne landet. Das ist doch das Ziel von Antilles, nichts anderes.
zustand
2010-10-26, 16:01:20
Wird Antilles auf AFR-Crossfire basieren oder gibt es eine neue Technologie?
Was wurde eigentlich aus der verbesserten "Interconnection" zwischen den beiden Chips, die mit dem damaligen R700 kommen sollte? Die zugehörige Architektur wurde ja immer weiter nach hinten geschoben.
Gipsel
2010-10-26, 16:21:27
GTX 285 204W
GTX 295 289W
Cayman XT >=225W
Antilles ~290W
Die Angaben für Cayman und Antilles geben nur die Bestückung mit Steckern an. Wieviel die wirklich verbrauchen, wissen wir doch noch gar nicht.
Zudem hatte die GTX295 noch das Problem, daß man insgesamt 28 Speicherchips auf die Karte löten mußte, Antilles wird mit 16 auskommen. Somit schlägt eine Einsparung beim Chip (abgesenkter Takt und Spannung) wahrscheinlich etwas stärker auf den Gesamtverbrauch durch (da der Chip einen größeren Anteil am Gesamtverbrauch der Karte hat) als noch bei der GTX295 (wo man wohl auch deswegen am Speicherinterface gespart hat).
Milchmädchenrechnung:
Antilles läuft mit 85% des Taktes bei 90% der Spannung
=> 0,85*0,9² = 69% des Verbrauchs für den Chip
Speicher läuft mit 80% des Taktes mit von 1,6 auf 1,5V oder gar 1,4V abgesenkter Spannung (es gibt ja low power GDDR5. der mit sogar nur 1,3V spezifiziert ist)
=> gleiche Quote für den Speicher
zusätzliche Einsparung von ein paar Watt, da sich einige Sachen nicht verdoppeln (z.B. Displayausgänge) und Spannungsregler für höhere Lasten normalerweise auch eine etwas höhere Effizienz aufweisen
=>
Antilles hat Verbrauch von nur etwa 1,3-1,4 mal eines CaymanXT und man macht eine Punktlandung bei 300W, falls CaymanXT bei 225W liegen sollte. Alle Leistungsparameter liegen aber bei 2x85% = 170% (Speicherbandbreite bei 160%) eines einzelnen CaymanXT. Mit der bekannten Crossfireskalierung erreicht man damit mindestens 50% Vorsprung vor der HD6970 in GPU-limitierten Benchmarks.
Hugo78
2010-10-26, 16:28:49
Wieso darf Antilles kaum schneller sein als Cayman? Antilles ist ein typisches Halo-Produkt: sehr kleine Stückzahlen, hoher Preis und alleine kein Gewinn für AMD. Da kann man schon mal aus Prestigegründen ein paar tausend gute Chips verbraten, damit man in irgendwelchen Benchmarks ganz vorne landet. Das ist doch das Ziel von Antilles, nichts anderes.
Die Eingangsgrafik zeigt jetzt kein 400W Monster.
http://img834.imageshack.us/img834/2281/1287676020vd2xgydp4f14l.gif
Wenn man sieht das die 5970, 50% schneller ist als eine 5870 (zeigen die Tests), und die 6970 auf 40% schneller als eine 5870 geschätzt wird,
was auch die Grafik zeigt, dann wird die 6990 nicht Jenseits von "Gut und Böse".
10-20% schneller als eine 5970, oder 60-70% schneller im Vergleich zur 5870.
AMD würde sich ja selber in die Parade fahren, wenn sie einen "µRuckler-Thermi" bringen würden,
nachdem sie sich mit Clips wie "The Misunderstanding" selber auf den Sockel, der Stromspargurus gehoben haben. ;)
Dural
2010-10-26, 16:34:43
für die 6970 sind ja 250Watt TDP im gespräch, falls das stimmen sollte läst sich damit keine vernünftige mGPU daraus basteln :rolleyes:
die leistungs-differenz zur 6970 wird einfach viel zu klein sein um die ganzen nachteile plus mehr kosten zu rechtfertigen, klar käufer wird man auch für diese karte immer finden...
und die AMD folien bestätigen ja den geringen leistungs vorteil :)
beide (NV+AMD) könnten sich eigentlich auch gleich ihre mGPU Karten sparen, ich glaube nicht das es der Markt vermissen würde.
ich würde viel lieber eine art "6970 Extreme Edition" sehen, richtig gut selektierte GPU mit viel takt und von mir aus auch 100.- Euro teurer! wer dann immer noch CF haben möchte soll sich eine zweite davon kaufen und gut ist :)
eine ganz oberflächliche Rechung:
6970 / 1GB / 900/1500MHz / 1,10Volt / 250Watt
mit Selektion und weniger takt lässt sich max. 100Watt (und das ist schon extrem viel bei den werten von unten, eher nicht möglich!) einsparen, da wären wir bei den 2x150Watt, dafür wäre aber geschätzt notwendig:
6990 / 700/1200MHz / 1,00Volt / 300Watt
Einheiten 2x 1920SP / 120TMUs / 32ROPs
bei der 6990 haben wir dann noch das Speicher Problem, 2x2GB müssten es schon sein alles andere wäre schon das aus für die Karte... das bedeutet noch mal etwas mehr verbrauch... wie auch immer bei dieser "rechung" wäre man schon auf nur 50% mehr als 6970 und das ist wirklich extrem grosszügig "gerechnet"
Gipsel
2010-10-26, 17:15:05
für die 6970 sind ja 250Watt TDP im gespräch
Wenn ich sage würde, das werden genau 225W, sind die dann auch im Gespräch? :rolleyes:
und die AMD folien bestätigen ja den geringen leistungs vorteil :)Wo? Du meinst doch wohl hoffentlich nicht diese Folie mit der einheitenlosen "Performance"-Achse? Wenn ich daraus die wirkliche Performance ablesen wollte, könnte ich auch gleich ein Orakel befragen. Das ist PR.
beide (NV+AMD) könnten sich eigentlich auch gleich ihre mGPU Karten sparen, ich glaube nicht das es der Markt vermissen würde.Das sehe ich als potentieller Kunde ganz genauso. Ich habe doch oben schon geschrieben, daß es diese ganzen mGPU-Kram eigentlich nur aus einem mehr oder weniger wichtigen Grund gibt: um Benchmarks zu gewinnen.
eine ganz oberflächliche Rechung:
6970 / 1GB / 900/1500MHz / 1,10Volt / 250Watt
mit Selektion und weniger takt lässt sich max. 100Watt (und das ist schon extrem viel bei den werten von unten) einsparen, da wären wir bei den 2x150Watt, dafür wäre aber geschätzt notwendig:
6990 / 700/1200MHz / 1,00Volt / 300Watt
Nee, schon mal einen sogenannten Schmoo-Plot gesehen? Die erforderliche Spannung für eine bestimmte Taktfrequenz ist ziemlich nichtlinear. Solange man im oberen Spannungsbereich arbeitet (und das tut AMD im Gegensatz zu nvidia) kann man bei einer relativ geringen Frequenzabsenkung die Spannung stärker absenken. Die nominelle Spannung bei TSMCs 40G Prozess beträgt übrigens lediglich 0,9V (mit einem spezifiziertem Maximum von 1,1V, da geht AMD momentan sogar locker drüber).
Wenn CaymanXT also wie Du meinst mit 900MHz bei 1,1V laufen sollte (zum Vergleich: BartsXT läuft mit 1,2V bei 900MHz), kann man schon bei 800MHz bestimmt auf 1,0V runtergehen, bei nur 700MHz mit entsprechend gebinnten Chips sogar auf nur noch vermutlich 0,9V oder so. Mit Letzterem hätte man den Stromverbrauch schon mal fast halbiert.
Desweiteren schrieb ich ja schon mal, daß Cayman XT zwar 6GBps GDDR5 Chips bekommt (CaymanPro nur 5GBps), das aber nur heißt, daß Cayman pro mit <=1,25GHz, CaymanXT mit >=1.25GHz Speichertakt betrieben wird. Ich würde für die XT-Variante mit grob 1,4GHz rechnen, vielleicht sogar nur 1,35Ghz. Antilles bekommt dann vielleicht 1,05 oder 1,1GHz mit etwas niedrigeren Spannungen (AMD betreibt den Speicher momentan wohl mit 1,6V).
Gipsel
2010-10-26, 17:20:01
Die Eingangsgrafik zeigt jetzt kein 400W Monster.
http://img834.imageshack.us/img834/2281/1287676020vd2xgydp4f14l.gifWo siehst Du da irgendwelche Angaben zum Stromverbrauch?!?
aylano
2010-10-26, 18:29:53
Milchmädchenrechnung:
Antilles läuft mit 85% des Taktes bei 90% der Spannung
=> 0,85*0,9² = 69% des Verbrauchs für den Chip
Wobei da noch mehr Strom eingespart werden kann, wenn Cayman die selbe Spannung wie Barts mit 1,20 Volt hat.
Und noch mehr, wenn die HD 6990 dann auf NV-Niveau auf 1,00 Volt senken.
Gipsel
2010-10-26, 18:39:18
Wobei da noch mehr Strom eingespart werden kann, wenn Cayman die selbe Spannung wie Barts mit 1,20 Volt hat.
Und noch mehr, wenn die HD 6990 dann auf NV-Niveau auf 1,00 Volt senken.
Wie gesagt arbeitet AMD zwar am oberen Ende der durch den Prozeß erlaubten Spannungen, allerdings denke ich nicht, daß Cayman so ausgequetscht werden wird wie der BartsXT. Bei irgendwo oberhalb von 2,5 Mrd. Transistoren macht sich das irgendwann nicht mehr ganz so gut. Ich erwarte maximal 1.15V für CaymanXT, eher noch etwas weniger und entsprechend maximal 1.05V für Antilles, je nachdem wie weit man da runter muß.
AnarchX
2010-10-26, 19:32:06
Wieso darf Antilles kaum schneller sein als Cayman? Antilles ist ein typisches Halo-Produkt: sehr kleine Stückzahlen, hoher Preis und alleine kein Gewinn für AMD. Da kann man schon mal aus Prestigegründen ein paar tausend gute Chips verbraten, damit man in irgendwelchen Benchmarks ganz vorne landet. Das ist doch das Ziel von Antilles, nichts anderes.
Bei Steam sind wohl ~ 80.000 HD 5970 unterwegs, wenn die Aussage der Survey halbwegs realistisch ist (30 Mio. User * 0,0027 HD 5900-User).
Selbst wenn der Gesamtmarkt doppelt so groß ist, könnte da AMD wohl fast noch draufzahlen für ein solche Prestige-Objekt und eher geringere Verluste machen.
Insofern kann man sich hier eine geringe Marge leisten.
OgrEGT
2010-10-26, 19:58:04
GTX 285 204W
GTX 295 289W
Cayman XT >=225W
Antilles ~290W
So würde ich auch vermuten, sofern man für Antilles 2x Cayman Pro verwendet.
Nach meiner Schätzung (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8348814&postcount=40) liegt
Cayman XT bei ca 230W
Cayman Pro bei ca 190W
Da eine DualGPU Karte bekanntlich nie das exakt doppelte der entsprechenden SingleGPU Karte verbraucht, könnte Antilles durchaus auf 280-290W Spieleleistung kommen, vielleicht weniger.
Bei HD 5970 mit 2 x Cypress XT lag der Spieleverbrauch verglichen zu Cypress XT Crossfire bei ca. 216W vs 291W (1x Cypress XT bei ca. 158W) entsprechend.
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5970/index11.php
Das bedeutet, dass die zweite Cypresss GPU bei HD 5970 "nur" 37% des Verbrauchs einer einzelnen Cypress XT Karte zum Gesamtverbrauch beigetragen hatte.
OK, die Cypress XT GPUs sind bei Hemlock ca. 15% geringer getaktet, das könnte man bei Cayman Pro aber ebenfalls realisieren, wenn man bedenkt, dass man dann ggf. durch Absenken der Vcore / Selektion weiteres Einsparpotential hätte.
Edit:
Wenn wir bei Antilles (seien wir großzügig :)) 50% einer Cayman Pro Karte aufschlagen, hätten wir einen geschätzten Verbrauch von ca. 285W.
OgrEGT
2010-11-07, 09:48:21
http://fudzilla.com/graphics/item/20751-antilles-dual-card-packs-two-caymans
Zitat:
Still scheduled for Dec 2010
Good news for AMD fans, the Antilles dual chip card will end up with two Cayman chips, something that promises that the card can end up significantly faster than dual-chip Radeon HD 5970.
Two Barts (Radeon HD 6850 or 6870) class chips would not be enough to provide a sufficient performance lead for the new Radeon HD 6990 X2 card. This is why ATI is using two Cayman chips and we also learned that the chip looks more like the Radeon HD 6950.
The funny part is that we still don’t exactly know what is behind Cayman, but we are doing our best to find out before November 22nd, the alleged launch date.
We expect TDPs around 300W but this is something that can only be confirmed at a later date. It will be very fast, that is certain, but we still don’t know who will win this winter graphics update showdown.
Schlammsau
2010-11-08, 19:57:45
Ich frage mich ernsthaft, wie man eine Dual-Chip Variante auf Basis von Cayman mit einer TDP-Grenze von 300W realisieren will. Selbst Cayman Pro wird nen TDP von um die 200W haben.
Also ich denke, AMD wird die TDP-Grenze von 300W deutlich überschreiten und eher gen 400W gehen.
derguru
2010-11-08, 20:01:18
eine 5970 besteht auch aus 2*5870 karten die ein tdp von jeweils 188W haben und da wurde es auch unter 300W gehalten.das geht schon irgendwie aber bei 4gb wird es doch wieder eng. :|X-D
Schlammsau
2010-11-08, 20:02:40
eine 5970 besteht auch aus 2*5870 karten die ein tdp von jeweils 188W haben und da wurde es auch unter 300W gehalten.das geht schon irgendwie aber bei 4gb wird es doch wieder eng.X-D
Aus zwei abgespeckten 5870er ;), und wenn die 6990 deutlich schneller als die 5970 sein will, wird sie deutlich mehr Strom benötigen!
Alleine wegen den 2x2GB VRAM.
Ich glaube nicht, dass sie ne TDP von 300W hinbekommen....wohl eher >350W!
y33H@
2010-11-08, 20:06:12
Die HD 5970 kam schon auf bis zu 340 Watt, ingame bis zu 220W.
Schlammsau
2010-11-08, 20:07:58
Die 2x2GB Variante oder?
y33H@
2010-11-08, 20:09:31
Nein, die HD 5970 (1G). Das Referenzdesign.
Schlammsau
2010-11-08, 20:10:23
Nein, die HD 5970 (1G).
:|....mir war knapp unter 300W in Erinnerung im FURMark. Link?
y33H@
2010-11-08, 20:11:41
PCGH (http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/)und HT4U (http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index4.php).
Schlammsau
2010-11-08, 20:16:01
Bei HT4u seh ich 291W im FUR!
Ihr habt 337W gemessen.
Was stimmt den nu?
y33H@
2010-11-08, 20:17:40
Ich auch.
Und bei PCGH sehe ich 337 Watt, dafür in Race Driver Grid nur 164 Watt. Bei HT4U in "Spielen" aber 216 Watt.
Darlie
2010-11-08, 21:06:48
Wann soll Antilles kommen, ich bin Dec in HKK, Cayman Release ist ja noch im November ?
davidzo
2010-11-08, 22:57:39
Bei HT4u seh ich 291W im FUR!
Ihr habt 337W gemessen.
Was stimmt den nu?
Ich auch.
Und bei PCGH sehe ich 337 Watt, dafür in Race Driver Grid nur 164 Watt. Bei HT4U in "Spielen" aber 216 Watt.
sieht nach ziemlichem wirrwarr aus.
Vermutung: PCGH hat exe-renaming bei furmark verwendet, denn der atitreiber erkennt den burnin benchmark und insbesondere bei der x2 schließen dann diese "schutzmechanismen" eine volle belastung aus.
in anbetracht das vliw5 tatsächlich auslastungsprobleme real hat und das verhältnis bei amd zwischen furmark und realer aufnahme schon immer exorbitant war halte ich diese praxis auch für absolut gerechtfertigt, vor allem wenn man nur so den chip for einem möglichen früheren defekt bewahren kann.
y33H@
2010-11-08, 23:01:09
Ich bin der Ansicht, Wandler und Kühler sollten das abkönnen - wozu so viel Power, wenn die Karte verreckt, wenn sie mal Vollgas geben soll?. Hauptsache, Transistoren in einen "Control Power Unit" stecken, die in Echtzeit die Ampere prüft, statt gescheite Wandler ... pah. Naja, NV macht's ja nicht besser ... die haben alle Panik vor "Power Virus".
C.D.B.
2010-11-08, 23:19:32
Wobei da noch mehr Strom eingespart werden kann, wenn Cayman die selbe Spannung wie Barts mit 1,20 Volt hat.
Und noch mehr, wenn die HD 6990 dann auf NV-Niveau auf 1,00 Volt senken.
Barts_XT wird mit 1,175V betrieben, nicht 1,200V. ;)
davidzo
2010-11-08, 23:21:25
Ich bin der Ansicht, Wandler und Kühler sollten das abkönnen - wozu so viel Power, wenn die Karte verreckt, wenn sie mal Vollgas geben soll?. Hauptsache, Transistoren in einen "Control Power Unit" stecken, die in Echtzeit die Ampere prüft, statt gescheite Wandler ... pah. Naja, NV macht's ja nicht besser ... die haben alle Panik vor "Power Virus".
für diese diskussion gibt es einen extrathread. da überwiegen eindeutig die meinungen dass furmark kein praxisrelevantes tool ist und dass kühler und spawas praxistauglich sein müssen, aber nicht für modellsituationen konstruiert sein müssen.
ich denke nicht dass man einen entwickler bestrafen soll, der eine architektur baut die extrem viele einheiten in ein geringes transistorbudget quetscht, welche praktisch durch ihre konstruktion aber eine geringe durchschnittliche auslastung zeigen, gegenüber einer architektur die schon im praxisbetrieb nah an ihre theoretische maximale leistungsaufnahme stößt.
Auch was den preis, den stromverbrauch und die geräuschkulisse angeht profitiert der Kunde davon, wenn die Lösung praxisorientiert konstruiert ist und sich nicht nach theoretischen werten richtet.
Finde es also durchaus legitim wenn man einen benchmark wie furmark künstlich ausbremst. Den herstellern ist ja freigestellt das bei Spielen genauso zu machen (stichwort geometrieleistung fermi vs quadro), so eine drosselung bringt ja nur einen nachteil bei den eigenen benchmarkergebnissen.
Aßerdem glaube ich eben nicht dass in cypress transistoren für eine power control control unit gesteckt wurden, was aber imo langsam wirklich sinn machen würde. Das bereits seit rv7xx der furmark erkannt wird und die leistung gedrosselt wird und nun offenbar beid er 5970 durch exe-renaimng die volle power erreicht werden kann, deutet ja genau darauf hin dass es eben jene sicherheitsfunktion nicht in hardware gibt.
furmark mit voller leistung, das ist so als wenn du permanent mit NOS-Einspritzung fährst, es ist immer noch Sache der Hersteller selber was sie ihren Motoren zumuten. Klar hast du ein recht darauf deinen selbstgekauften motor durch überlastung kaputt zu machen, aber dann musst du auch die folgen tragen.
Für Antilles ergeben sich ganz andere Möglichkeiten, sollte er eine intels turbo ähnliche intelligente Power control unit besitzen.
So könnte man generell näher an die 300 bzw. 375Watt Grenze gehen, d.H. die Taktraten könnten relativ hoch ausfallen, würden wenn die Anwendung zu fordernd ist aber entsprechend abgesenkt werden, oder die power control unit könnte bewusst bestimmte einheiten stallen und für kurze zeit schlafenlegen um Strom zu sparen und unter der Verbrauchsgrenze zu bleiben.
Würde man zum beispiel nur die wohl am aktivsten am stromverbrauch beteiligten alus durch absichtliche stalls ausbremsen, so würde ein Antilles dieser art immer noch von den mit hoher taktrate laufenden tmus und rops profitieren können und trotz der Taktrate die Verbrauchsgrenze nicht sprengen (um nicht instabil mit einigen netzteilen/mobos zu werden und innerhalb der spezifikationen zu bleiben).
PulsarS
2010-11-08, 23:25:10
Ich bin der Ansicht, Wandler und Kühler sollten das abkönnen - wozu so viel Power, wenn die Karte verreckt, wenn sie mal Vollgas geben soll?.
Wie definierst du denn Vollgas?
Furmark?
Nein danke, da zocke ich doch lieber.
Vollgas bei Spielen ist kein Problem.
Hauptsache, Transistoren in einen "Control Power Unit" stecken, die in Echtzeit die Ampere prüft, statt gescheite Wandler ... pah. Naja,
Besser das, als wenn die Karte in Rauch aufgeht. :D
NV macht's ja nicht besser ... die haben alle Panik vor "Power Virus".
Die (IHVs) werden schon wissen warum.
Es ist einfach nicht praxisnah.
Screemer
2010-11-08, 23:36:20
passend zu eurer diskussion:
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/limit2_small.jpg
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/limit_small.jpg
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/3.html
PulsarS
2010-11-08, 23:45:16
Maxwerte im Furmark wie die GTX 480.
Aaaber... uninteressant, da die Verlustleistung bei Spielen entscheidet.
Iruwen
2010-11-08, 23:53:07
Beim GTX 480 Launch war Furmark noch total wichtig und das Überschreiten der TDP ein Skandal.
y33H@
2010-11-08, 23:55:28
NV throttelt auch per Hardware :ubash3:
Screemer
2010-11-08, 23:58:55
und das wusstest du bis eben nicht? sach mal dürft ihr euch in der redaktion nicht unterhalten? ;)
y33H@
2010-11-09, 00:00:09
Natürlich wusste ich es. Ich hatte ja angekündigt, meinen Unmut kund zu tun ;)
Screemer
2010-11-09, 00:00:46
ach ja da war doch was :D hab mir grad so vorgestellt, wie ihr mit pflaster auf dem mund in der redaktion hockt und bei jeder eingabe eines wortes auf der rotenliste, in ein nicht autorisiertes programm, eine alarmsirene los schrillt.
y33H@
2010-11-09, 00:17:52
Wenn man Tage vor den Launches sich Raff und meine Posts anschaut ;D
Screemer
2010-11-09, 00:41:56
hab mir bei deinem unmut post schon gedacht, dass es nicht ganz dem entspricht was ihr erwartet hatte und vor allem, dass da ein ganz dickes haar in der suppe sein muss. in deinem fall scheints ja die hardwaredrossel gewesen zu sein.
AffenJack
2010-11-09, 22:36:24
“Antilles”
Market: Discrete GPUs
What is it? AMD Radeon™ HD 6000 Series graphics card for ultra-enthusiasts that will feature two GPUs on one board.
Planned for introduction: Q1 2011
http://blogs.amd.com/work/fadcodenames/
Antilles damit für dieses Jahr eher vom Tisch würd ich sagen.
AnarchX
2010-11-09, 22:58:54
Sieht so aus:
http://img261.imageshack.us/img261/7634/gpuroadmapkopie.jpg
LovesuckZ
2010-11-10, 00:17:53
Da hat AMD wohl auf der Strecke seit dem Barts Launch wohl Leistung verloren. Jetzt wird Cayman deutlich niedriger eingestuft als Hemlock...
DrumDub
2010-11-10, 00:20:44
Da hat AMD wohl auf der Strecke seit dem Barts Launch wohl Leistung verloren. Jetzt wird Cayman deutlich niedriger eingestuft als Hemlock... :facepalm:
LovesuckZ
2010-11-10, 00:22:12
:facepalm:
Netter "Smiley". Nur solltest du den mal direkt zu AMD schicken:
http://img834.imageshack.us/img834/2281/1287676020vd2xgydp4f14l.gif
Bucklew
2010-11-10, 00:25:11
Scheint wohl was dran zu sein an den Gerüchten von Fudzilla bezüglich der Produktionsproblemen bei Cayman.
dildo4u
2010-11-10, 00:29:33
GTX580 wohl nicht in Reichweite der 6970 macht man wohl ein auf "Green" IT und senkt Takt und Spannung.
Schnitzl
2010-11-10, 07:06:24
Hallo. Ich hätte gerne Infos, weil es mich interessiert. Deshalb schaue ich auch in diesen Thread. Aber was lese ich statt dessen? Ständiges genöle über AMD. Zum 100.000stenden Mal. Immer wieder das Gleiche. Ich hab echt keinen Bock mehr. Ich bin diesen Posts sozusagen ÜBERDRÜSSIG! Und das trotz dem dass die GTX570 quasi fest auf meinen Einkaufszettel steht.
Also bitte bitte mit Zucker obendrauf hört endlich mit dieser Scheisse auf!!!
P.S.: nein, aus einem Marketing-Powerpoint kann man NICHT die Performance ablesen.
Oder nächstes Mal macht AMD den Pfeil direkt über die HD6970...
Kalmar
2010-11-10, 07:20:17
die folie belegt eindeutig das amd es mit der performance achse nicht genau nimmt sondern nur so pi mal daumen ...
ein problemkann auch sein das sie nicht genügen power im vergleich zum kroko unter der bedinung von ~300w auf die straße zaubern können und lieber noch etwas rumselektieren bzw. optimieren am board usw.
deekey777
2010-11-10, 08:22:29
:facepalm:
Hast du was anderes erwartet?
DrumDub
2010-11-10, 09:34:19
Netter "Smiley". Nur solltest du den mal direkt zu AMD schicken:
http://img834.imageshack.us/img834/2281/1287676020vd2xgydp4f14l.gif dann schau dir noch mal an, was diese marketingslides für einen unterschiedlichen zeitraum abdecken und was da bei dem neueren noch rein passen muss ...
LovesuckZ
2010-11-10, 10:50:16
dann schau dir noch mal an, was diese marketingslides für einen unterschiedlichen zeitraum abdecken und was da bei dem neueren noch rein passen muss ...
Und warum ist der Abstand zwischen Juniper <> Cypress <> Hemlock gleichgeblieben?
DrumDub
2010-11-10, 10:53:24
Und warum ist der Abstand zwischen Juniper <> Cypress <> Hemlock gleichgeblieben? damit du was zum nachdenken hast ... :rolleyes:
LovesuckZ
2010-11-10, 10:58:48
damit du was zum nachdenken hast ... :rolleyes:
Was ist los. Kommt noch was, oder trollen wie mal wieder fleißig für AMD durch's Forum?
Ich kann nichts dafür, dass AMD ihre Folien in dieser Art und Weise angepasst hat. Aber troll mich nicht an, nur weil dir das nicht passt.
Achja für dich: In der neuen Folie geht der Performance-Balken nicht mehr so weit wie in der alten. ;D
DrumDub
2010-11-10, 11:15:19
es geht darum, dass du an marketingfolien den beweis für eine zu erwartende absolute performance ablesen willst. und dazu sage ich nur: das ist quark, denn die folien haben einen anderes sinn.
Achja für dich: In der neuen Folie geht der Performance-Balken nicht mehr so weit wie in der alten. und wer trollt jetzt? :rolleyes:
LovesuckZ
2010-11-10, 11:19:44
es geht darum, dass du an marketingfolien den beweis für eine zu erwartende absolute performance ablesen willst. und dazu sage ich nur: das ist quark, denn die folien haben einen anderes sinn.
Ich habe überhaupt nichts in Bezug auf absolute Leistung geschrieben. Ich habe nur das Wiedergegeben, was AMD gemacht hat.
Und welchen Sinn sollen die Folien haben, wen sie nicht die Einteilung der Chips/Grafikkarten nach Leistung innehalb eines Zeitraums darstellen? Also bitte, der y-Balken ist eindeutig beschriftet.
und wer trollt jetzt? :rolleyes:
Immernoch du. Denn bis jetzt hast du überhaupt nichts gebracht, was meine Aussage entkräftigt, außer Smileys und Trollpostings.
deekey777
2010-11-10, 11:22:47
DrumDub, hör sofort auf, dem LS zu zeigen, dass er wegen seiner Blindheit nur Unsinn schreibt zu trollen! Ist ja nicht auszuhalten!
Bucklew
2010-11-10, 12:06:51
es geht darum, dass du an marketingfolien den beweis für eine zu erwartende absolute performance ablesen willst. und dazu sage ich nur: das ist quark, denn die folien haben einen anderes sinn.
Wenn die Marketingfolien keinen Hinweis auf die Performance geben sollen, warum steht dann an der Y-Achse fett "Performance" dran?
Anyway, mal schauen wer zuerst die Dualkarte draußen hat: ATI oder Nvidia. Ich tippe auf Nvidia.
deekey777
2010-11-10, 12:13:19
Wenn die Marketingfolien keinen Hinweis auf die Performance geben sollen, warum steht dann an der Y-Achse fett "Performance" dran?
Anyway, mal schauen wer zuerst die Dualkarte draußen hat: ATI oder Nvidia. Ich tippe auf Nvidia.
Da ist auch eine Fußnote. Hm... Wohin führt diese Fußnote...
So oder so: Warum wird ausgeblendet, dass in der dritten Spalte Caicos und Turks hinzugekommen sind? Oder dass es gerade Pfeile sind?
Dural
2010-11-10, 12:22:20
die diferenz zwischen Barts und RV870 sind aber bei beiden folien exakt gleich... ;)
aber ja man sollte sich nicht zu viel hineinreimen...
FAKT ist, laut AMD ersetzt die 6970 NICHT die 5970 und dazu gibt es nur einen logischen grund auch wenn es die roten (mal wider) nicht einsehen wollen...
selbst der barts hat die 5870 ersetzt, die karte taucht nirgends mehr auf obwohl barts nicht mal ganz so schnell wie 5870 ist...
Edit:
lol mir kamm gerade in den sinn das einer mit 100% mehr leistung zwischen Cayman und RV870 ausging, masaker ;D
deekey777
2010-11-10, 12:27:36
die diferenz zwischen Barts und RV870 sind aber bei beiden folien exakt gleich... ;)
aber ja man sollte sich nicht zu viel hineinreimen...
FAKT ist, laut AMD ersetzt die 6970 NICHT die 5970 und dazu gibt es nur einen logischen grund auch wenn es die roten (mal wider) nicht einsehen wollen...
selbst der barts hat die 5870 ersetzt, die karte taucht nirgends mehr auf obwohl barts nicht mal ganz so schnell wie 5870 ist...
Edit:
lol mir kamm gerade in den sinn das einer mit 100% mehr leistung zwischen Cayman und RV870 ausging ;D
Echt? Cayman ersetzt nicht den Hemlock? Ach du Scheiße, we're doomed.
Wie soll ein Cayman einen Hemlock ersetzen, wenn es seit Wochen klar ist, dass er langesamer als ein Hemlock ist? Wie kommt man überhaupt dazu?
"selbst der BartS hat die HD5870 ersetzt"... Wie denn das? Die Folien zeigen doch recht eindeutig, dass Cypress in zwei Segmente aufgeteilt wurde: BartS und Cayman. Also wo ersetzt Barts den Cypress?
Bucklew
2010-11-10, 13:55:54
Da ist auch eine Fußnote. Hm... Wohin führt diese Fußnote...
In die Fußnote führt die und da steht, dass die Performance eine Erwartung ist. Ergo scheint sich wohl die AMD-eigene Erwartung an die Performance für Antilles reduziert zu haben, warum sonst sollte man die HD6990 nach unten schieben? Nur aus Spaß ändert sicherlich keiner die Grafik.
So oder so: Warum wird ausgeblendet, dass in der dritten Spalte Caicos und Turks hinzugekommen sind? Oder dass es gerade Pfeile sind?
Da bitte:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495389
Da ist schonmal Turks das Thema, hier gehts um Antilles ;)
Ailuros
2010-11-10, 14:01:22
Weniger persoenliche Sticheleien und Aufregung und mehr Sachlichkeit wenn's nicht allzu schwer sein sollte. Danke.
Kalmar
2010-11-10, 14:24:38
ich wette irgendein Marketingpraktikant musste in 10 mins mal eben ein paar Folien schludern und die performanceachse ist einfach nur eine grobe Einteilung von früher zur zukunft, so wie es der platz hergibt ..
macht euch doch einfach die Bedeutung bzw. was sie aussagen soll klar, sie soll keine detaillierte aussage zur Performance treffen, sondern nur eine grobe Einordnung der Chips, wer wem folgt ..
und wenn ihr so haarspalterisch argumentiert mit performanceachse dann schaut mal bitte auf die ZEITACHSE, weil die ZEITACHSE stimmt ja auch mal gar nicht oder kam der 6870 ne ordentliche zeit nach dem 6850 ?
Darlie
2010-11-11, 10:26:44
Interessanter wäre wann es die Karte wirklich zu kaufen gibt, noch vor Weihnachten oder doch erst im neuen Jahr?
Gipsel
2010-11-11, 13:41:27
In die Fußnote führt die und da steht, dass die Performance eine Erwartung ist.
Da steht wörtlich
"Performance placements are estimates".
Insofern ist das doch wohl eher eine Einschätzung, wie man die Modelle am Markt plazieren will, immerhin sind das alles Folien von der Marketing-Abteilung.
Und da ja von einigen praktisch behauptet wird, an der Positionierung könne man die Performance ablesen und bei den anderen sei es ja auch korrekt, möchte ich mal darauf verweisen, daß sich die Positionierung der 6800er auf der etwas volleren Folie auch geändert hat. Sind die 6800er gegenüber den 5700ern etwa nach dem Launch langsamer geworden? Ich denke wohl eher nicht. Vielmehr plaziert man aufgrund der Preissenkungen bei nv die 6800er jetzt einfach etwas niedriger und damit dichter an den 5700ern.
Iruwen
2010-11-11, 13:45:17
@Darlie: nach letzten Informationen die ziemlich zuverlässig klangen Q1 2011.
LovesuckZ
2010-11-11, 13:48:47
Ich finde es erstaunlich, wie solch eine klare Folie vom AMD-Team so durch den Wolf gezogen werden kann.
Der Y-Balken ist mit "Performance" betitelt und der Pfeil zeigt, in welche Richtung der Position die Leistung höher oder niedriger ist. Unten steht "Performance Placement", was für "Leistungsplazierung" steht. Ergo wurden die Chips/Karten dort anhand ihrer eventuellen Leistung positioniert. Je höher, umso schneller.
Gipsel
2010-11-11, 15:05:00
Ja LovesuckZ, Du hast es wirklich drauf mit dem verwursten! :lol: ;D
Ich (aber auch andere) habe doch deutlich gemacht, welche Informationen Marketing-Folien, in denen von einer Plazierung (alte RS ;)) die Rede ist, enthalten. Und nebenbei habe ich am Beispiel der 5700/6800er-Realtion auch gleichmal das Argument entkräftet, die Folie zeige zuverlässig die wirkliche Performance (es ist wohl eher die Positionierung, nicht?). Wenn Du das nicht in Deinen Schädel bekommst, mir doch egal.
LovesuckZ
2010-11-11, 15:12:06
Ja LovesuckZ, Du hast es wirklich drauf mit dem verwursten! :lol: ;D
Willst du gerade sagen, dass du die Folie absichtlich falsch interpretiert hast? Kann ich akzeptieren. Finde ich genauso verkehrt, wie das absichtliche falsche Wiedergeben von Postingsinhalten.
Das du ab einem bestimmten Zeitpunkt anfängst zu spammen, fällt mir immer öfters auf. Nämlich genau dann, wenn du dich in der Ecke fühlst. Wie wäre es einfach, dass du aufhörst hier für AMD Marketing zu betreiben und einfach auf der technischen Ebene diskutierst, die du ziemlich gut erklären kannst? Macht mehr sinn als hier irgendwelche offiziellen Folien von AMD durch den Reizwolf zu ziehen und dann daraus alles nur nicht die eigentliche Intention lesen zu können.
Ich (aber auch andere) habe doch deutlich gemacht, welche Informationen Marketing-Folien, in denen von einer Plazierung (alte RS ;)) die Rede ist, enthalten. Und nebenbei habe ich am Beispiel der 5700/6800er-Realtion auch gleichmal das Argument entkräftet, die Folie zeige zuverlässig die wirkliche Performance (es ist wohl eher die Positionierung, nicht?). Wenn Du das nicht in Deinen Schädel bekommst, mir doch egal.
Vielleicht hast du es auch nicht gecheckt, dass ich genau das angesprochen habe. Denn es war offensichtlich, dass sich die Position auf der neuen Folie geändert hat, jedoch nicht die Bestriftung der y-Achse.
Wie gesagt: Das AMD ihr eigenes Marketing nun durch solche Leute wie dich in Internetforen gerade rücken muss, ist schon sehr absurd. :lol:
Gipsel
2010-11-11, 15:16:16
Willst du gerade sagen, dass du die Folie absichtlich falsch interpretiert hast? Kann ich akzeptieren.Aber offensichtlich kannst Du schlecht lesen und verstehen. Wie kommst Du denn darauf, ich hätte irgendwas falsch interpretiert und dann noch absichtlich. Ersteres kommt höchst selten vor, Letzteres sogar nie. Aber bei Dir mag das ja anders aussehen ;)
Gipsel
2010-11-11, 15:18:31
Vielleicht hast du es auch nicht gecheckt, dass ich genau das angesprochen habe. Denn es war offensichtlich, dass sich die Position auf der neuen Folie geändert hat, jedoch nicht die Bestriftung der y-Achse.Lies nochmal genau, was ich geschrieben habe und auf welche Positionierung ich mich (im Gegensatz zu anderen hier im Thread) bezogen habe ;)
Dural
2010-11-11, 15:19:48
naja Gipsel hat ja hoch und heilig einem Cayman Launch im November versprochen, von dem her ;)
ich sag euch leute, irgend was ist da faul, die ersten leaks mit fotos der karte kammen glaub schon so ca. august ins netz
vieleicht bekommen sie den verbrauch nicht in den griff (angebliche TDP 252Watt und 8-Phasen PCB...) mal abwarten, bleibt spannend!
LovesuckZ
2010-11-11, 15:22:26
Aber offensichtlich kannst Du schlecht lesen und verstehen. Wie kommst Du denn darauf, ich hätte irgendwas falsch interpretiert und dann noch absichtlich. Ersteres kommt höchst selten vor, Letzteres sogar nie. Aber bei Dir mag das ja anders aussehen ;)
Insofern ist das doch wohl eher eine Einschätzung, wie man die Modelle am Markt plazieren will, immerhin sind das alles Folien von der Marketing-Abteilung.
Die Y-Achse heißt "Performance" und nicht "Market Segment".*
Dazu kommt, dass sich nicht die Position der 69xx und 68xx sondern AMD die 5xxx Serie nach oben gezogen hat. Ja, die Folien sind Marketing. Jedoch sollten sie auch das wiedergeben, was man auf den Folien sehen kann. Wenn du mehr Insider-Informationen hast, dann kannst du sie gerne uns zur Verfügung stellen. Ansonsten bleibe ich bei dem, was die Folie zeigt und nicht bei dem, was jemand wie du gerne sehen will.
* Es gibt bei AMD noch eine andere, schöne Folie, die genau das zeigt, was du hier schreibst:
http://hw-lab.com/uploads/hardware/videocards/amd-barts/3-product-strategy_x500.jpg
http://hw-lab.com/amd-radeon-hd-6800-series.html
Gipsel
2010-11-11, 15:24:47
Nämlich genau dann, wenn du dich in der Ecke fühlst. Wie wäre es einfach, dass du aufhörst hier für AMD Marketing zu betreiben und einfach auf der technischen Ebene diskutierst, die du ziemlich gut erklären kannst?Das sagt der Richtige! ;D
Übrigens liegt meine Stärke nicht auf rein technischem Bereich, sondern jobbedingt auch darin logische Zusammenhänge zu erkennen, auch bei wenig verfügbaren Informationen und daraus logisch fundierte Argumentationen zu bauen. Und genau das läßt immer eine ganz große Alarmglocke schrillen, wenn Einige mit hanebüchenen Argumenten ankommen. Also laß es bitte mir vorschreiben zu wollen, was ich posten soll! Aber das Lob nehme ich mal zur Kenntnis. ;)
Eggcake
2010-11-11, 15:26:42
Vielleicht hast du es auch nicht gecheckt, dass ich genau das angesprochen habe. Denn es war offensichtlich, dass sich die Position auf der neuen Folie geändert hat, jedoch nicht die Bestriftung der y-Achse.
Wie gesagt: Das AMD ihr eigenes Marketing nun durch solche Leute wie dich in Internetforen gerade rücken muss, ist schon sehr absurd. :lol:
Sorry, aber wenn du dich jetzt ernsthaft auf die Veränderung beziehst, dann kann ich nur lachen. Vielleicht ist dir der Pfeil aufgefallen, der da noch rein musste.
Bei einer so groben Platzierung zu meinen, sie hätten absichtlich die Karten einen Millimeter nach unten geschoben, ist wirklich etwas lächerlich.
Dass sie wenig, aber deutlich unter der 5970 angesiedelt ist (auf beiden Folien), das stimmt. Was das genau zu bedeuten hat, wissen wir wenn die Karte da ist.
Edit: Aber können wir das langsam lassen? Es geht hier ja eigentlich um Antilles, nicht um Cayman.
Gipsel
2010-11-11, 15:27:34
naja Gipsel hat ja hoch und heilig einem Cayman Launch im November versprochen, von dem her ;)Wo?
Alles was ich (wiederholt) geschrieben habe war, daß die Board-Partner keine Chips benötigen, um MBA-Karten pünktlich zu verticken. Wenn Dir da der Unterschied nicht auffällt, kann ich auch nichts dafür.
Gipsel
2010-11-11, 15:32:29
Die Y-Achse heißt "Performance" und nicht "Market Segment".Wie gesagt, mit Fußnote heißt die Achse Performance placement. Über den Unterschied und die Bedeutung auf einer Marketing-Folie kannst Du ja gerne noch ein wenig meditieren.
LovesuckZ
2010-11-11, 15:34:14
Sorry, aber wenn du dich jetzt ernsthaft auf die Veränderung beziehst, dann kann ich nur lachen. Vielleicht ist dir der Pfeil aufgefallen, der da noch rein musste.
Bei einer so groben Platzierung zu meinen, sie hätten absichtlich die Karten einen Millimeter nach unten geschoben, ist wirklich etwas lächerlich.
Dass sie wenig, aber deutlich unter der 5970 angesiedelt ist (auf beiden Folien), das stimmt. Was das genau zu bedeuten hat, wissen wir wenn die Karte da ist.
Das Problem ist doch, dass es keine feine Veränderung ist, sondern schon eine sehr grobe auf Cypress/Hemlock-Seite. Normalerweise hätte man die Folie vergrößern bzw. die Symbole verkleinern müssen, um den selben Abstand einhalten zu können. Das ist nicht geschehen. Damit ist die Leistung natürlich verrutscht. Man zeigt sowas doch nicht denen, die in meine Firma investieren sollen. Da "faket" man doch zum positiven.
Edit: Aber können wir das langsam lassen? Es geht hier ja eigentlich um Antilles, nicht um Cayman.
Es geht auch um Antilles. Denn der Abstand zur 5970 ist ebenfalls gesunken. ;)
Nach der neuen Folie wäre Antilles nichtmal 20% schneller als Cayman XT...
Wie gesagt, mit Fußnote heißt die Achse Performance placement. Über den Unterschied und die Bedeutung auf einer Marketing-Folie kannst Du ja gerne noch ein wenig meditieren.
Die Bildunterschrift heißt: Performance placements are estimates.
Dass du absichtlich falsch zitierst, ist bekannt. Das du "performance placement" nicht als ein Wort siehst, sondern nur "placement" ist daher verständlich. Aber bitte "performance placement" als das nehmen, was es ist: Leistungsplatzierung/-einteilung - Die Platzierung bzw. Einteilung der einzelnen Chips/Karten anhand ihrer geschätzten Leistung im November. Es ist weder eine Platzierung/Einteilung nach Marktsegmenten, Stromverbrauch oder Lautstärke.
Bucklew
2010-11-11, 15:38:25
Da steht wörtlich
"Performance placements are estimates".
Insofern ist das doch wohl eher eine Einschätzung, wie man die Modelle am Markt plazieren will, immerhin sind das alles Folien von der Marketing-Abteilung.
Natürlich sind es Einschätzungen, solange man die finalen Taktraten noch nicht hat, was auch sonst? ;)
Ändert aber nichts daran, dass man solch eine Folie nicht ändert, wenn es dafür keinen trifftigen Grund gibt.
Eggcake
2010-11-11, 15:47:12
Das Problem ist doch, dass es keine feine Veränderung ist, sondern schon eine sehr grobe auf Cypress/Hemlock-Seite. Normalerweise hätte man die Folie vergrößern bzw. die Symbole verkleinern müssen, um den selben Abstand einhalten zu können. Das ist nicht geschehen. Damit ist die Leistung natürlich verrutscht. Man zeigt sowas doch nicht denen, die in meine Firma investieren sollen. Da "faket" man doch zum positiven.
Eben und genau darum ist es absolut sinnlos darüber zu diskutieren. Auch wenn sich plötzlich herausstellen würde, dass die Leistung so viel geringer wäre, würde AMD garantiert nicht hingehen und die Folie deswegen anpassen. Wären sie ja selten blöd.
Und nochmals: Egal wie klein die Symbole wären - ist sie auf (fast) gleicher Höhe wie Hemlock, geht kein Pfeil rein.
Aber nun wirklich, ist mir etwas zu blöd...
Gipsel
2010-11-11, 15:47:26
Natürlich sind es Einschätzungen, solange man die finalen Taktraten noch nicht hat, was auch sonst? ;)Und natürlich sind es auch Plazierungen ;)
Ändert aber nichts daran, dass man solch eine Folie nicht ändert, wenn es dafür keinen trifftigen Grund gibt.
Nun, einen triftigen Grund habe ich oben ja schon angegeben, nämlich die Marktsituation ;)
* Es gibt bei AMD noch eine andere, schöne Folie, die genau das zeigt, was du hier schreibst:
http://hw-lab.com/uploads/hardware/videocards/amd-barts/3-product-strategy_x500.jpg
http://hw-lab.com/amd-radeon-hd-6800-series.html
Soviel zum Thema die Einordnung ist nur so weil AMD der Optik wegen nur horizontale Balken einsetzt...
Gipsel
2010-11-11, 15:58:05
Die Bildunterschrift heißt: Performance placements are estimates.
Dass du absichtlich falsch zitierst, ist bekannt.
Ja? Wem ist das bekannt?
Da steht wörtlich "Performance placements are estimates".
Normalerweise hätte man die Folie vergrößern bzw. die Symbole verkleinern müssen, um den selben Abstand einhalten zu können. Das ist nicht geschehen. Damit ist die Leistung natürlich verrutscht. Man zeigt sowas doch nicht denen, die in meine Firma investieren sollen. Da "faket" man doch zum positiven.
Versuche mal die Projektionsfläche von einem Beamer zu vergrößern ;D
Oder versuche mal den Investoren klar zu machen, warum sie die Beschriftung der Symbole nicht mehr lesen können, weil Du die Performance-Werte exakt darstellen willst ;D
Deine Argumentation zeigt mir nur, daß Du nicht die geringste Ahnung hast, welchen Zweck diese Folien erfüllen und wie man die in der dazugehörigen Session präsentiert.
Eben und genau darum ist es absolut sinnlos darüber zu diskutieren.
[..]
Aber nun wirklich, ist mir etwas zu blöd...
Das unterschreibe ich mal. Sollen LS und Dural doch glauben was sie wollen.
Bucklew
2010-11-11, 17:44:39
Eben und genau darum ist es absolut sinnlos darüber zu diskutieren. Auch wenn sich plötzlich herausstellen würde, dass die Leistung so viel geringer wäre, würde AMD garantiert nicht hingehen und die Folie deswegen anpassen. Wären sie ja selten blöd.
Natürlich müssen sie das machen. Denn diese Präsentationen werden ja auch speziell in Hinblick auf Analysten gemacht, die anhand solcher Daten ihre Ranking erstellen. Jetzt darfst du gerne mal raten, was mit den Firmen passieren, die bei sowas schamlos rumlügen. Selbst wenn sie keine eigentliche Bestrafung erhalten, schon alleine so eine Untersuchung der amerikanischen Börsenaufsicht ist alles andere als lustig. Da ist eine Anfrage ala "Schickt uns bitte sämtliche Firmen E-Mails der letzten 2 Jahre" ja noch das harmloseste....
Und natürlich sind es auch Plazierungen ;)
Logisch, die man aber natürlich auch zu aufgrund der eigenen Leistung vergibt.
Nun, einen triftigen Grund habe ich oben ja schon angegeben, nämlich die Marktsituation ;)
Möglich, Lovesuckz Möglichkeit ist aber genauso realistisch. Die Verschiebung des Caymanlaunches und natürlich auch die Antilles-Verschiebung im Speziellen, sprechen dafür. Da hat die Marktsituation nämlich gar nichts mit zu tun.
Dural
2010-11-11, 17:48:51
was soll ich glauben?
ich meine die Fakten die wir haben und von AMD kommen sind eindeutig:
verschiebungs-grund lautet offiziell:
andere markt-situation (kann nur GTX580 sein, markt-situation hat sich sonst mit anderen produkte nicht geändert und man will freiwillig auf das weihnachts geschäft verzichten, ja bestimmt!) und das die nach frage nach 5800 produkten immer noch sehr hoch ist (ja klar...) und genügend 6800 an lager sind (nur an lager, wie wäre es mal mit verkaufen ;) )
AMD führt die 5970 nach der 6970 offiziell noch bis zur 6990 weiter, das bedeutet doch nur das die 6970 leistungs-technisch nicht an 5970 ran kommt... also von wegen deutlich schnell als GTX580 kann man getrost vergessen! leistungstechnisch wurde die 6970 vom AMD immer unter der 5970 eingeordnet!
charlie hat gegen die GTX580 nur was von einem paperlaunch geschriben, den es ganz offensichtlich so nicht gibt...
diverse quellen sprechen von 252Watt TDP und es gab schon bilder von angeblichen 6970 PCB mit 8-Phasen, es gab bis heute noch nie eine Referenz Karte mit 8-Phasen! AMD gibt immer nur max 300watt an, sparsam wird das teil sicher schon mal nicht!
wer noch mehr beweise benötig oder es immer noch nicht einsehen will sieht einfach nur rot, nicht mehr und nicht weniger...
aber glaubt ihr nur an euren wunder cayman, die entäuschung wird umso grösser sein...
schon traurig wenn man nicht mal halbwegs über den tellerand schauen kann!
Gipsel
2010-11-11, 19:28:01
Möglich, Lovesuckz Möglichkeit ist aber genauso realistisch. Die Verschiebung des Caymanlaunches und natürlich auch die Antilles-Verschiebung im Speziellen, sprechen dafür.Wie sprechen Verschiebungen dafür, daß sich jemand aus dem Marketing-Department für eine Präsentation vor Analysten stundelang hinsetzt um für einen Überblick über das Produktangebot und dessen Plazierung versucht, ein paar Symbole pixelgenau gemäß interner Benchmarks zu positionieren? Genau, gar nicht!
Die Chancen stehen nicht mal so schlecht, daß derjenige, der die Symbole plaziert hat, diese Benchmarkzahlen gar nicht im Einzelnen kennt ;)
Gipsel
2010-11-11, 19:35:23
aber glaubt ihr nur an euren wunder cayman, die entäuschung wird umso grösser sein...
schon traurig wenn man nicht mal halbwegs über den tellerand schauen kann!Ja, schon traurig, wenn man nicht differenzieren kann. Du darfst ja gerne mal meine Posts zum Cayman raussuchen. Von einer Revolution oder gar von "orgasmic change" oder sowas habe ich nirgendwo geschrieben ;)
Ich habe im Übrigen auch die Leute etwas gebremst, die sich zu viel von der VLIW4-Architektur erwarten. Andere Sachen sind da viel wichtiger. Aber das nur mal so am Rande.
Darlie
2010-11-12, 00:41:42
Wie wär`s denn ihr würdet euch per ICQ oder mit was auch immer unterhalten.
Bucklew
2010-11-12, 01:03:03
Wie sprechen Verschiebungen dafür, daß sich jemand aus dem Marketing-Department für eine Präsentation vor Analysten stundelang hinsetzt um für einen Überblick über das Produktangebot und dessen Plazierung versucht, ein paar Symbole pixelgenau gemäß interner Benchmarks zu positionieren? Genau, gar nicht!
Die Chancen stehen nicht mal so schlecht, daß derjenige, der die Symbole plaziert hat, diese Benchmarkzahlen gar nicht im Einzelnen kennt ;)
Ach so, ATI verschiebt den Launch nur aus Spaß. Wahrscheinlich überlegen die noch, wo sie die einzelnen Karten in ihren Präsos hinschieben ;D
Na dann ist ja alles klar. Die Cypress verkaufen sich eh zu gut, da kann man ruhig die schon fertigen Karten im Lager liegen lassen und warten, bis das Weihnachtsgeschäft vorbei ist. Das man den Launch der neuen Karten verschoben hat, hat natürlich überhaupt nichts zu bedeuten ;D
Screemer
2010-11-12, 01:43:11
ähh, wie war das noch mit dem markanteil bei dx11 hardware? 10-20% nach nem halben jahr, je nach dem wen du fragst. starke marke muss ich sagen, bei genau einem konkurenten. es ist hier ja kaum noch auszuhalten. wenigstens ist mit dem 580 endlich mal ne highend-karte da über die man nicht unbedingt geteilter meinung sein muss.
<- free for rant.
Gipsel
2010-11-12, 03:49:19
@Bucklew:
Am besten Du denkst mal darüber nach, wo Du einen Zusammenhang zwischen Deinem Text und dem Zitat von mir erkennst (außer daß ich schon dort nach genau so einem Zusammenhang gefragt habe) und falls Du da wider Erwarten doch einen sehen solltest, kannst Du mir das gerne per PM mitteilen. Okay? ;)
BTT Dual Cayman!
Malabolge
2010-11-13, 19:27:25
Natürlich müssen sie das machen. Denn diese Präsentationen werden ja auch speziell in Hinblick auf Analysten gemacht, die anhand solcher Daten ihre Ranking erstellen. Jetzt darfst du gerne mal raten, was mit den Firmen passieren, die bei sowas schamlos rumlügen. Selbst wenn sie keine eigentliche Bestrafung erhalten, schon alleine so eine Untersuchung der amerikanischen Börsenaufsicht ist alles andere als lustig. Da ist eine Anfrage ala "Schickt uns bitte sämtliche Firmen E-Mails der letzten 2 Jahre" ja noch das harmloseste....
Verdammt , jetzt ist es raus , der "wahre" Grund für die Verzögerung des Cayman-Launches.:eek:
Cayman kann nicht gelauncht werden, es müssen erst alle Präsentationsfolien und Powerpoints geschweige denn Werbemittel angepasst werden !;D
Das kann Wochen dauern. Deshalb hat man Cayman vorsichtshabler lieber nach hinten verschoben. :cool:
Cayman 0,5 - 1 mm zu hoch auf der Folie - SKANDAL ! Unvorstellbar !:D;D:biggrin:
Die "Anal"üsten werden durchdrehen. Die Pole der Erde sich verschieben.Eine neue Eiszeit !
Wir werden alle Störben !
Jetzt weiss ich warum 2012 das ende der Welt ist. Da werden die neuen Folien für die (über)nächste Genration gebracht !
und das alles wegen 1mm auf einer Präsentationsfolie
Meine Fresse es ist doch nur einen SCHEISS Werbefolie. Glaubts du denn tatsächlich dass die amerikanische Börsenaufsicht
wegen einer SCHEISS Werbefolie ,eine ganze Firma schliesst. Wie weit seid ihr eigentlich eurem WAHN verfallen ?:mad:
Naja , wenigstens scheint AMD es nicht nötig zu haben, eine "Laubsägen"arbeit upps "Vorserienmodelle" zu Präsentieren:D
Frage an die MODs :Warum lasst ihr es eigentlich zu das die AMD-Spekulationsthreads so zugespammt und verwurstet werden ?
Kann man das nicht Unterbinden ?
Vergesst es , Blöde Idee von mir. So kann Ich doch viel mehr lachen
Bucklew
2010-11-14, 20:33:51
Meine Fresse es ist doch nur einen SCHEISS Werbefolie. Glaubts du denn tatsächlich dass die amerikanische Börsenaufsicht
wegen einer SCHEISS Werbefolie ,eine ganze Firma schliesst. Wie weit seid ihr eigentlich eurem WAHN verfallen ?:mad:
Für die amerikanische Börsenaufsicht reichen selbst 5 gehandelte Aktien von einem ehemaligen Mitarbeiter aus, um solche Aktionen zu starten.
Wenn man keine Ahnung hat, dann sollte man einfach mal ruhig sein :rolleyes:
Kalmar
2010-11-14, 20:46:50
Für die amerikanische Börsenaufsicht reichen selbst 5 gehandelte Aktien von einem ehemaligen Mitarbeiter aus, um solche Aktionen zu starten.
Wenn man keine Ahnung hat, dann sollte man einfach mal ruhig sein :rolleyes:
hahaha .. des hat mir den abend gerettet ... lachen ist ja gesund he ..
über rings die fern-uni-spekulationshausen bietet nen neuen kurs an hab ich gehört, "marketing-papers, i want to believe in!"
so *lachtränen wegwisch* und btt ...
bei soner verspätung und wenn durch schlechte ausbeute ne starke Selektion notwendig ist, wird der preis doch astronomisch sein oder? wenn es wirklich die schnellste karte sein sollte und der singelkrok nicht die 580 umhaut wird sich an den preisen net viel tun oder ist es denkbar das amd versucht mit dem doppelkroko druck auf nv bezüglich des preises aufzubaun ?
nagus
2010-11-14, 20:55:23
Für die amerikanische Börsenaufsicht reichen selbst 5 gehandelte Aktien von einem ehemaligen Mitarbeiter aus, um solche Aktionen zu starten.
Wenn man keine Ahnung hat, dann sollte man einfach mal ruhig sein :rolleyes:
dann bitte tu uns den gefallen. danke.
Tarkin
2010-11-14, 21:20:41
Natürlich müssen sie das machen. Denn diese Präsentationen werden ja auch speziell in Hinblick auf Analysten gemacht, die anhand solcher Daten ihre Ranking erstellen. Jetzt darfst du gerne mal raten, was mit den Firmen passieren, die bei sowas schamlos rumlügen. Selbst wenn sie keine eigentliche Bestrafung erhalten, schon alleine so eine Untersuchung der amerikanischen Börsenaufsicht ist alles andere als lustig. Da ist eine Anfrage ala "Schickt uns bitte sämtliche Firmen E-Mails der letzten 2 Jahre" ja noch das harmloseste....
:facepalm: Analysten erstellen ihre Rankings aufgrund von Präsentationsfolien und die SEC jagt Unternehmen nach, deren Produkte sich etwas verzögern oder in den Folien nicht richtig "eingeordnet" wurden. FRAGE.... was macht die SEC mit CEOs die stolz gefakte Hardware in die Luft halten? Die kommen lebenslang hinter Gitter oder landen auf dem elektrischen Stuhl, oder?
Wenn es danach ginge, dann würde es in den USA kein einziges IT-Unternehmen mehr geben.
Möglich, Lovesuckz Möglichkeit ist aber genauso realistisch. Die Verschiebung des Caymanlaunches und natürlich auch die Antilles-Verschiebung im Speziellen, sprechen dafür. Da hat die Marktsituation nämlich gar nichts mit zu tun.
Schon mal die Möglichkeit in Betracht gezogen dass man Antilles vielleicht gar nicht mehr benötigt - oder nicht so bald? Nein, natürlich nicht. Davon abgesehen... Wie groß ist der Markt für solche ULTRA High End Karten? 1.000 Stück pro Monat? (wenns hoch kommt) Rein wirtschaftlich ist Antilles sowieso praktisch irrelevant - daher relativ egal wann/ob er kommt. Oder möchtest du dir eine kaufen? :eek: :rolleyes:
Bucklew
2010-11-14, 21:22:16
Und schon kommt die übliche Flamergarde ;D
Grad mal wieder nicht gebannt, ihr zwei? ;)
HarryHirsch
2010-11-14, 21:37:53
Und schon kommt die übliche Flamergarde ;D
Grad mal wieder nicht gebannt, ihr zwei? ;)
Das schreibt genau der richtige... :freak:
Ihr grünen seid doch viel schlimmer als die roten...
Bucklew
2010-11-14, 21:43:41
Das schreibt genau der richtige... :freak:
Ihr grünen seid doch viel schlimmer als die roten...
Ah und #3....
Warten auf Schlammsau ;D
Popeljoe
2010-11-14, 22:20:35
Ruhe oder ihr bekommt Alle zwangsweise einen Monat PoWi Zwangsaufenthalt! Kindergarten ist ja noch freundlich ausgedrückt!
http://img51.imageshack.us/img51/6277/amdradeonhd6900slide6.jpg
AnarchX
2010-11-21, 20:06:34
5 DP-FLOPs pro Watt. :up:
Nakai
2010-11-21, 20:06:34
Also das sieht mal richtig nicht nach Fake aus.
Achja das Ding taktet dann wohl mit ~780MHz.
mfg
€: 2 Tri pro Takt pro Chip bei 780Mhz machen 3100MTri/s
crux2005
2010-11-21, 20:07:42
Danke für den Leak.
tja, das ist das Positive, wenn auch Gäste posten dürfen :wink:
Botcruscher
2010-11-21, 20:17:20
Also das sieht mal richtig nicht nach Fake aus.
Achja das Ding taktet dann wohl mit ~780MHz.
mfg
Was bei 300W und so geringer Abspeckung durchaus beeindruckend ist. Aus der grünen Ecke kamen ja schon Buhrufe mit 300W für Cayman.:freak:
mboeller
2010-11-21, 20:18:14
Also das sieht mal richtig nicht nach Fake aus.
Achja das Ding taktet dann wohl mit ~780MHz.
mfg
€: 2 Tri pro Takt pro Chip bei 780Mhz machen 3100MTri/s
Eher nicht, oder?
Bei CF oder SLi verdoppelt sich der Polygondurchsatz doch nicht, oder?
Das wären dann IMHO 4 Tri pro Takt bei 775MHz. Bei Cayman wären es dann doch 3560 MTri's / s @ 890 MHz
Gipsel
2010-11-21, 20:21:12
5 DP-FLOPs pro Watt. :up:
Stand so ein Wert nicht für 2011/12 für Kepler auf einer nvidia Roadmap? :| :rolleyes:
Gipsel
2010-11-21, 20:22:48
Eher nicht, oder?
Bei CF oder SLi verdoppelt sich der Polygondurchsatz doch nicht, oder?
Das wären dann IMHO 4 Tri pro Takt bei 775MHz. Bei Cayman wären es dann doch 3560 MTri's / s @ 890 MHz
Doch, bei AFR verdoppelt sich der Polygondurchsatz. Deswegen sind es 775 MHz und 2 Tri/Takt.
mboeller
2010-11-21, 20:23:27
Was bei 300W und so geringer Abspeckung durchaus beeindruckend ist. Aus der grünen Ecke kamen ja schon Buhrufe mit 300W für Cayman.:freak:
Yep; Cayman dürfte dann nur ein paar Watt mehr verbrauchen als die HD 5870. Das Verhältnis zw. Cayman und Antilles ist mit 775/890 MHz sogar unwesentlich besser als zwischen HD5870 und HD5970; wenn die 890MHz Gerüchte richtig sind.
725/850 = 0,853
775/890 = 0,87!
=> Cayman könnte damit sogar sehr geringfügig weniger verbrauchen als eine HD5870. Wenn's stimmt ist es sehr erstaunlich!
mboeller
2010-11-21, 20:24:13
Doch, bei AFR verdoppelt sich der Polygondurchsatz. Deswegen sind es 775 MHz und 2 Tri/Takt.
OK, Danke.
Leonidas
2010-11-21, 20:59:28
780/2400 MHz Takt laut der vorstehenden Grafik. Ist beim Speichertakt klar niedriger als 6970 - aber gut, Speicherbandbreite hat das Ding genug.
Viel wichtiger ist, daß 6970 nun doch mit 1920 SE kommt und damit die Voraussetzungen hat, um die 580 anzugreifen.
Nur das mit den 300W bei der 6990 will ich gern sehen. Das ist möglicherweise gut schöngerechnet - wie üblich bei den DualChip-Varianten.
crux2005
2010-11-21, 21:08:54
775 MHz (3100 / 4)
fondness
2010-11-21, 21:17:57
Yep; Cayman dürfte dann nur ein paar Watt mehr verbrauchen als die HD 5870. Das Verhältnis zw. Cayman und Antilles ist mit 775/890 MHz sogar unwesentlich besser als zwischen HD5870 und HD5970; wenn die 890MHz Gerüchte richtig sind.
725/850 = 0,853
775/890 = 0,87!
=> Cayman könnte damit sogar sehr geringfügig weniger verbrauchen als eine HD5870. Wenn's stimmt ist es sehr erstaunlich!
Ich habe es ja schon ein paar mal erwähnt das ich bei Cayman ein Die deutlich <400mm² erwarte, wie man anhand der Rückansicht des Cayman-Prototypen gut abschätzen kann. Das neue Design scheint Perf/Watt und Perf/mm² weiter zu optimieren. Dann spricht natürlich auch nichts dagegen das Cayman weniger verbraucht als Cypress.
Anders kann man es eigentlich auch gar nicht erklären das sie Antilles höher takten können als Hemlock. Einzige Voraussetzung ist natürlich das die TDP der beiden Karten wirklich vergleichbar ist.
Stand so ein Wert nicht für 2011/12 für Kepler auf einer nvidia Roadmap? :| :rolleyes:
Ja, in 28nm. :ugly:
Gipsel
2010-11-21, 22:25:15
Ich habe es ja schon ein paar mal erwähnt das ich bei Cayman ein Die deutlich <400mm² erwarte, wie man anhand der Rückansicht des Cayman-Prototypen gut abschätzen kann.Da kannst Du m.M nach gar nichts abschätzen, da man da nur die Package-Größe sieht. Barts, Cypress und wohl auch Cayman werden aufgrund des identisch breiten 256 Bit-Interfaces auch recht ähnlich aussehen, Barts und Cypress sogar praktisch identisch (pinkompatibel) trotz unterschiedlicher Diegröße. Cayman unterscheidet sich wohl nur bei einer Handvoll Pins (eher Lotkügelchen ;)) für die Stromversorgung von Barts/Cypress.
davidzo
2010-11-21, 23:16:36
Für die amerikanische Börsenaufsicht reichen selbst 5 gehandelte Aktien von einem ehemaligen Mitarbeiter aus, um solche Aktionen zu starten.
Wenn man keine Ahnung hat, dann sollte man einfach mal ruhig sein :rolleyes:
benchmarkwerte sind ne statistik. und was gilt für statistiken?
richtig, es gibt garantiert eine anwendung oder auswahl von anwendungen wo die folie genau zutrifft, im zweifelsfalle schreibt man sie eben selbst. schon ist die statistik nicht gefälscht(oder eben nur so wie jede andere statistik auch) und schon gibt es kein problem!
Leonidas
2010-11-23, 16:09:13
Falls es noch nicht klar ist - die auf Seite 6 gezeigte Folie zur 6990 ist Fake, siehe auch hier:
http://www.3dcenter.org/blog/leonidas/die-leichtglaeubigkeit-gegenueber-praesentationsfolien
AnarchX
2010-12-16, 23:24:41
Eine mögliche Vorschau auf die Leistung von Antilles?
http://www.techpowerup.com/reviews/ASUS/Radeon_HD_6950_CrossFire/21.html
Dank PowerTune könnte man wohl sogar selektierte GPUs mit 1536SPs@~800MHz verbauen.
Oder ist PowerTune auf Antilles gar so intelligent, dass das Gesamt Power-Budget von 300W in Szenen, wo fast nur eine GPU rendern kann, in diese investiert werden kann. Also ein Leistung auf HD 6970 Niveau bzw. leicht darüber?
mboeller
2010-12-17, 07:22:07
Eine mögliche Vorschau auf die Leistung von Antilles?
http://www.techpowerup.com/reviews/ASUS/Radeon_HD_6950_CrossFire/21.html
Dank PowerTune könnte man wohl sogar selektierte GPUs mit 1536SPs@~800MHz verbauen.
Oder ist PowerTune auf Antilles gar so intelligent, dass das Gesamt Power-Budget von 300W in Szenen, wo fast nur eine GPU rendern kann, in diese investiert werden kann. Also ein Leistung auf HD 6970 Niveau bzw. leicht darüber?
Ich hatte jetzt keine Zeit mir die Reviews genau anzuschauen, aber wie sieht es eigentlich mit Microrucklern aus? Hat AMD da was gemacht?
Was ich eigentlich erstaunlich finde ist, das ein 6850 GF Gespann sogar schneller ist/sein kann als ein GTX580 SLi Gespann. Wie geht das? Soviel besser sollte GF ja auch nicht skalieren als SLi (sind ja beides Highend-GPUs)
[EDIT]:;:: Peinlich Peinlich.....ich habe natürlich 6950 CF gemeint. :redface: :redface:
Vento
2010-12-17, 07:49:11
Was ich eigentlich erstaunlich finde ist, das ein 6850 GF Gespann sogar schneller ist/sein kann als ein GTX580 SLi Gespann. Wie geht das? Soviel besser sollte GF ja auch nicht skalieren als SLi (sind ja beides Highend-GPUs)
Hier gibt es ein paar HD69xx Crossfire Benchmarks, in den Benchmarks dort liegt ein 580 SLI im Durchschnitt 42% vor einem 6850 CF, dazu schneiden beim Luxx die HD69xx noch mit am besten von allen deutschen Hardwareseiten ab die HD69xx getestet haben.
Wäre mal ein schönes Thema für PCGH, SLI versus Crossfire mit GTX580, 570, HD6970, 6950 und mit SGSSAA wofür man sich ja schließlich ein SLI oder Crossfire kauft.
Wenn du Benchmarks gesehen hast wo ein HD6950 Crossfire ein GTX580 SLI überflügelt, dann kannst du stark davon ausgehen das es Settings waren bei dem ein 580SLI voll in ein CPU Limit rennt.
Mit entsprechend hohen Auflösungen und AA Settings sieht ein HD6950 CF und auch ein HD6970 CF kein Land gegen ein 580er SLI und ein HD6850 CF schon mal gar nicht, mit Ausnahme von eventuell vereinzelten Benchmarks die den 69xxer deutlich besser liegen.
Wenn du dich auf das techpowerup Review mit den 6850 CF Benchmarks beziehst hast du das eventuell auch die Werte für die Single GTX580 mit einem 580 SLI verwechselt.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16815-test-amd-radeon-hd-6970-und-6950.html?start=33
Edit: Hab es mal ausgerechnet.
In der Summe der 7 Benchmarks beim Luxx liegt ein HD6950 CF bei einer Skalierung von 50,7%, nimmt man das sehr schlecht skalierende Anno1404 raus bleiben 56% Skalierung.
Wirklich überdurchschnittlich skaliert das HD6950 CF nur bei Metro 2033 mit 83,29%, alles andere skaliert sehr durchschnittlich.
Das GTX580 SLI skaliert dort in den selben 7 Benchmarks mit 70,02%, nimmt man dort ebenfalls das schlecht skalierende Anno1404 heraus kommt man auf >76% Skalierung beim 580er SLI.
In 6 Anwendungen liegt die Skalierung des 580er SLI zwischen 73,76% und 78,4%, nur bei Anno1404 sind es magere 32,82%.
Beim 6950 CF skaliert nur Metro 2033 mit 83,29% überdurchschnittlich, bei allen anderen Benchmarks dümpelt die Skalierung zwischen 30% bis 63% und bei Anno1404 grottige 18% Skalierung.
580 SLI skaliert im Luxx Review also im Schnitt 20% besser als ein 6950 CF.
y33H@
2010-12-17, 10:22:11
Was habt ihr immer nur mit der Skalierung? Sofern die GPUs voll ausgelastet sind und es nicht stallt (durch vollen VRAM, lahme CPU, Streaming ect.), dann erreicht AFR idR nahe 100% - einfach mal mit 4x SGSSAA zocken und man hat seine Balken-Verdopplung. Egal ob CF oder SLI.
Hugo78
2010-12-17, 10:23:25
Was ich eigentlich erstaunlich finde ist, das ein 6850 GF Gespann sogar schneller ist/sein kann als ein GTX580 SLi Gespann. Wie geht das?
Solang du dazu keinen Link bringst, wird die Frage keiner beantworten können, weil das Spiel und Settings nicht bekannt sind.
Vento
2010-12-17, 10:37:57
Was habt ihr immer nur mit der Skalierung? Sofern die GPUs voll ausgelastet sind und es nicht stallt (durch vollen VRAM, lahme CPU, Streaming ect.), dann erreicht AFR idR nahe 100% - einfach mal mit 4x SGSSAA zocken und man hat seine Balken-Verdopplung. Egal ob CF oder SLI.
Die Spiele die man beim Luxx Review im Benchparcour hatte lassen allerdings nahezu durch die Bank keinen Spielraum mehr für SGSSAA bei einem 6950 CF.
Das ist dann für die Skalierung fein, aber auch nicht mehr praxisorientiert, jedenfalls bei 95% der dort gebenchten Spieletitel.
Von daher ist 2560x1600 8xAA / 4xAA in dem Review schon die richtige Wahl um auch noch halbwegs Praxisrelevanz zu besitzen und selbst dort geht es bei den Härtefällen wie Warhead und Metro mit einem 6950 CF unter die 30FPS Marke und selbst in Spielen wie Mafia 2 oder Anno1404 liegt man in Bereichen wo man mit Multi-GPU nicht noch tiefer runter möchte.
Was haltet ihr von Diskussion im 69er Pre/Re-Thread über das Phänomen, das in höheren Auflösung scheinbar eine höhere Speicherbandbreite brutal durchschlägt?
Könnte interessant sein für Antilles immerhin könnte man so am Chip kompromisse eingehen (und Stromsparen), sollange man nur dem Speicher ordentlich Dampf macht.
y33H@
2010-12-17, 10:55:45
@ Vento
Man koppelt auf keine Midrange-Karten ... CF/SLI ist imo nur dann sinnvoll, wenn einem die schnellste Single-GPU-Karte zu lahm ist. Und selbst in diesem Fall gibt's Massen an Problemen.
on daher ist 2560x1600 8xAA / 4xAA in dem Review schon die richtige Wahl um auch noch halbwegs Praxisrelevanz zu besitzen ...Genau das meine ich: Einen 30er für über 1000€ und dann sinnbefreites 8x MSAA und zwei Midrange-Karten koppeln. Das ist Bullshit² in meinen Augen.
Duplex
2010-12-17, 11:06:14
Was ich eigentlich erstaunlich finde ist, das ein 6850 GF Gespann sogar schneller ist/sein kann als ein GTX580 SLi Gespann. Wie geht das? Soviel besser sollte GF ja auch nicht skalieren als SLi (sind ja beides Highend-GPUs)du meint ein 6950 CF Gespann, aber das geht nicht, ein 580 SLI gespann ist immer deutlich stärker, wie kommst du darauf das die ATI schneller ist?
Palpatin
2010-12-17, 11:07:18
Was habt ihr immer nur mit der Skalierung? Sofern die GPUs voll ausgelastet sind und es nicht stallt (durch vollen VRAM, lahme CPU, Streaming ect.), dann erreicht AFR idR nahe 100% - einfach mal mit 4x SGSSAA zocken und man hat seine Balken-Verdopplung. Egal ob CF oder SLI.
Warum dann 6870 CF durch die Bank schneller als 5870 CF , aber 5870 durch die Bank schneller als 6870?
mboeller
2010-12-17, 11:23:21
EDIT: ::: Peinlich Peinlich.....ich habe natürlich 6950 CF gemeint. :redface: :redface:
Und ich beziehe mich auf so was:
http://www.hardware.fr/articles/813-14/dossier-amd-radeon-hd-6970-6950-seules-crossfire-x.html
HD6950 CF ist hier nur geringfügig langsamer als GTX580 SLi (HD6970 CF geringfügig schneller)
Je nach Spiel ist einmal GTX 580 SLi vorne, einmal HD6950/6970 CF
y33H@
2010-12-17, 11:24:54
Warum dann 6870 CF durch die Bank schneller als 5870 CF , aber 5870 durch die Bank schneller als 6870?Treiber, doppelter Rasterizer, verbessertes VRAM-Management, etc.? Wie gesagt, nimm entsprechende Settings (25x16 mit 8x MSAA killt vermutlich 1G).
Vento
2010-12-17, 11:44:30
@ Vento
Man koppelt auf keine Midrange-Karten ... CF/SLI ist imo nur dann sinnvoll, wenn einem die schnellste Single-GPU-Karte zu lahm ist. Und selbst in diesem Fall gibt's Massen an Problemen.
Genau das meine ich: Einen 30er für über 1000€ und dann sinnbefreites 8x MSAA und zwei Midrange-Karten koppeln. Das ist Bullshit² in meinen Augen.
Natürlich ist das Bullshit, ging mir jetzt auch in erster Linie darum das Märchen vom Über-Crossfire zu entkräften.
Die Aussage das ein 6950 CF ein 580 SLI auseinander nimmt und um Längen besser skaliert geistert ja nicht nur in diesem Forum herum.
y33H@
2010-12-17, 11:48:59
Die Aussage das ein 6850 CF ein 580 SLI auseinander nimmt und um Längen besser skaliert geistert ja nicht nur in diesem Forum herum. Es gibt tatsächlich Leute, die so einen Müll glauben?! :ulol:
ZWEI HD 6850 können froh sein, wenn sie die nominelle Framerate EINER GTX 580 erreichen ... von µRucklern und Co. ganz zu schweigen.
Eggcake
2010-12-17, 12:00:11
@Vento
Wer hat das behauptet? Das Missverständnis wurde hier ja bereits geklärt, er meinte die 6950.
y33H@
2010-12-17, 12:03:34
Selbst bei einer HD 6950 als CF vs. GTX 580 als SLI ist das kompletter Bullshit.
Vento
2010-12-17, 12:04:31
Ich hab den gleichen Fehler gemacht, das Luxx Review bezieht sich schon auf HD6950 CF vs. GTX 580 SLI und die Werte die ich gepostet habe stammen alle von einem HD6950 CF.
Habe versehentlich überall HD6850 CF geschrieben, gemeint war aber ein HD6950 CF.
Also beim Luxx hat ein HD6950 CF keine Chance gegen ein 580 SLI, Unterschied liegt bei 42%, also noch ein gutes Stück über der Differenz einer Single 580 versus einer Single 6950, Skalierung liegt beim 580 SLI ebenfalls 20% über der Skalierung eines HD6950 CF in 2560x1600 8xAA / 4xAA.
derguru
2010-12-17, 12:08:07
zeig mal den link bei luxx,im normalfall unterliegt die 6950 cf kombi schon gegen eine 570sli sys.
versteh auch nicht was es da zu diskutieren gibt ,sli und cf skalieren so gut wie identisch.
Vento
2010-12-17, 12:09:22
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16815-test-amd-radeon-hd-6970-und-6950.html?start=33
Duplex
2010-12-17, 12:49:11
was hat jetzt der ganze bullshit hier mit Antilles gemeinsam? nichts...
die bisherigen Dual Karten hatten immer den schnellsten Chip auf dem PCB, lediglich die Taktraten wurden wegen der TDP abgesenkt.
2x CaymanXT Chips, je 1536 Shader @700-750 MHz bei 300w TDP sollte die HD6990 sein.
Undertaker
2010-12-17, 12:52:45
Durch die bereits recht hohe TDP und die recht geringe Skalierung von 1408 auf 1536 SPs muss dies bei Antilles nicht zwinged der Fall sein. So wie es scheint, ist vor allem der Speichertakt der bestimmende Leistungsfaktor.
Was haltet ihr von Diskussion im 69er Pre/Re-Thread über das Phänomen, das in höheren Auflösung scheinbar eine höhere Speicherbandbreite brutal durchschlägt?
Könnte interessant sein man nimmt teildeaktiverte Chips und Taktraten irgendwo um oder zwischen 50 und 70 ( Fett = hab ich scheinbar unagsichtlich gelöscht :confused:) für Antilles immerhin könnte man so am Chip kompromisse eingehen (und Stromsparen), sollange man nur dem Speicher ordentlich Dampf macht.
+
Durch die bereits recht hohe TDP und die recht geringe Skalierung von 1408 auf 1536 SPs muss dies bei Antilles nicht zwinged der Fall sein. So wie es scheint, ist vor allem der Speichertakt der bestimmende Leistungsfaktor.
= ?:deal:
mboeller
2010-12-17, 17:28:53
Selbst bei einer HD 6950 als CF vs. GTX 580 als SLI ist das kompletter Bullshit.
soso...
http://www.hardware.fr/medias/photos_news/00/30/IMG0030379.gif
y33H@
2010-12-17, 17:36:30
Wie sollen zwei HD 6950 zwei GTX 580 überholen, hmmm? Richtig - überhaupt nicht [außer es gibt ein CF- aber kein SLI-Profil].
sklave_gottes
2010-12-17, 17:51:26
Durch die bereits recht hohe TDP und die recht geringe Skalierung von 1408 auf 1536 SPs muss dies bei Antilles nicht zwinged der Fall sein. So wie es scheint, ist vor allem der Speichertakt der bestimmende Leistungsfaktor.
Das war noch nie so und wird auch nie so sein. Man nimmt bei den Max dual Karten immer volle Chips und skalliert solange mit der Volt Zahl und dem GPU Takt runter bis es von der Verlustleistung her passt. Alles andere ist schwachsin.
Und es scheint auch nicht der Speichertakt der bestimmende Leistungsfaktor zu sein bei den HD59xx Karten.
mfg martin
Undertaker
2010-12-17, 18:17:22
Das war noch nie so und wird auch nie so sein. Man nimmt bei den Max dual Karten immer volle Chips und skalliert solange mit der Volt Zahl und dem GPU Takt runter bis es von der Verlustleistung her passt. Alles andere ist schwachsin.
Im Normalfall ist dies auch immer der effizientere Weg. Bei Cayman scheint es - mögliche Treiberprobleme außen vor - allerdings ein Skalierungsproblem mit der Zahl der Shadercluster zu geben, so dass in diesem Fall etwas höhere Taktraten, insbesondere beim Speicher, eine bessere Investition in Bezug auf das verfügbare TDP-Budget sein könnten. Zudem: Wir hatten bisher auch noch keine Dualchipkarte, deren GPUs im Vollausbau ähnlich viel verbraucht haben. Deutlich stärkere Einschnitte als in der Vergangenheit wird es also wohl oder übel geben müssen.
Und es scheint auch nicht der Speichertakt der bestimmende Leistungsfaktor zu sein bei den HD59xx Karten.
Argument? Begründung? :confused:
Ich stütze mich vor allem hierauf:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8454377&postcount=502
sklave_gottes
2010-12-17, 18:56:18
Argument? Begründung? :confused:
Ich stütze mich vor allem hierauf:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8454377&postcount=502
Das die GPU schlecht mit den Shadercluster skalliert ist auch meine Meinung.(Alus und TMUs) Was hier limitiert sind ganz klar die ROPs, da Cayman-Pro und XT die selbe anzahl haben(32) und der GPU Takt hier in diesem fall nur knapp über 1% auseinnander liegen würden die Karten mit dem selben Ram Takt quasi gleichauf sein. Jetzt kommt der fast 7% höhere Ram Takt vom Pro Chip dazu und er liegt minimal vorne. Sobald ich einen Cyman in die finger Kriege werde ich es Testen. Aber hier bringen die knapp 7% Ram Takt vieleicht gerade mal 1-2% mehr Leistung.
Den einzigen indirekten "beweis" den ich habe ist das hier:
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/23/#abschnitt_stalker__call_of_pripyat
Hier scheinen die Neuen verbesserungen der ROPs mit aa im vergleich zum Cypress durchzuschlagen. Cypress bräuchte einfach mehr oder stärkere ROPs.
Noch paar weitere Überlegungen:
Da Cayman kaum schneller ist als Cypress, b.z.w. sich das verhältnis von Leistung zur Speicherbandbreite sogar verschlechtert hat, kann Cayman garnicht an der Speicherbandbreite hängen ausser er geht schlechter mit dieser um! Was ich mir beim besten willen nicht vorstellen kann.
Zwischen Cayman und Cypress hat sich nichts weltbewegendes getan, ganz im gegenteil und Cypress ist alles andere als Speicherlastig.
Auch Cypress hing meiner Meinung nach schon an den ROPs
mfg martin
Spasstiger
2010-12-17, 23:25:37
2x CaymanXT Chips, je 1536 Shader @700-750 MHz bei 300w TDP sollte die HD6990 sein.
Wenn man TGP = TDP setzt, sind auch 750-800 MHz bei Vollausbau denkbar. Ein Anheben der Powertune-Stufe wäre dann natürlich mit Garantieverlust verbunden.
Undertaker
2010-12-18, 00:08:38
Auch Cypress hing meiner Meinung nach schon an den ROPs
Nun, und die ROPs hängen doch am Speichertakt (oder lieg ich hier gerade daneben)? Ich schrieb ja auch Speichertakt, nicht Bandbreite. ;)
airbag
2010-12-18, 00:31:35
Wie sollen zwei HD 6950 zwei GTX 580 überholen, hmmm? Richtig - überhaupt nicht [außer es gibt ein CF- aber kein SLI-Profil].
Ganz klar. Wundertreiber ;D
Wenn man TGP = TDP setzt, sind auch 750-800 MHz bei Vollausbau denkbar. Ein Anheben der Powertune-Stufe wäre dann natürlich mit Garantieverlust verbunden
Man kann natürlich auch für eine kleine Auflage der HD6990 Selektieren, was dann nciht zwangläufig zu einer Anhebung der Powertunestufe führen muss.
sklave_gottes
2010-12-18, 01:05:18
Nun, und die ROPs hängen doch am Speichertakt (oder lieg ich hier gerade daneben)? Ich schrieb ja auch Speichertakt, nicht Bandbreite. ;)
Die ROPs Takten bei ATI/AMD immer genau so hoch wie der rest der GPU. Das heist im Fall der HD6950(non OC) bei 800mhz. Also hängen die am GPU Takt.
Der Speichercontroller soll wohl am Speichertakt hängen.
mfg martin
Undertaker
2010-12-18, 09:34:12
OK, danke für die Aufklärung. ;) Irgendwie hatte ich das anders in Erinnerung. ;)
Spasstiger
2010-12-18, 11:48:37
Man kann natürlich auch für eine kleine Auflage der HD6990 Selektieren, was dann nciht zwangläufig zu einer Anhebung der Powertunestufe führen muss.
Jo, mal abwarten. Die HD 6950 schluckt ja auch nur max. 140 Watt bei Spielen und läuft mit 800 MHz. Und die zusätzlichen 2 SIMDs erhöhen den Verbrauch pro GPU um schlimmstenfalls 10 Watt, in der Spielepraxis eher weniger.
Die HD 5970 verbraucht mit den Taktraten einer HD 5850, aber 2 SIMDs mehr, bei guter CF-Skalierung ca. 90% mehr in Spielen als eine HD 5850. Ergo sollte man die HD 6990 mit HD-6950-Taktraten und vollen 24 SIMDs bei rund 270 Watt TGP ansiedeln können. Und mit etwas Selektion vielleicht sogar bei 250 Watt, so dass noch Reserven für Powertune gegeben wären.
Ist halt die Frage, ob AMD die HD 6990 preislich und leistungsmäßig so weit oben ansiedelt, dass man sich diese Selektion leisten kann.
An und für sich ist der Cayman ja schon energieeffizient wie man an der HD 6950 sieht (vergleichbare oder bessere Perf. pro Watt wie/als bei der HD 6870). Eine vernünftige Basis für die HD 6990 ist also gegeben.
NV wird es da deutlich schwerer haben, wenn sie innerhalb von 300 Watt bleiben wollen. Es ist ja trotz der recht ineffizienten HD 6970 noch so, dass AMDs energieineffizienteste Karte (HD 6970) genauso effizient arbeitet wie NVs effizienteste Karte (GTX 460/GTX 570).
Mein Tipp für die HD 6990: Performance einer Asus Ares mit 250 Watt TGP für 500€.
airbag
2010-12-18, 13:04:14
Die 2SIMD machen ansich ja wirklich keinen Unterschied. Mal sehen wie sie PCB und Kühler auslegen werden.
Bucklew
2010-12-18, 14:33:24
Es ist ja trotz der recht ineffizienten HD 6970 noch so, dass AMDs energieineffizienteste Karte (HD 6970) genauso effizient arbeitet wie NVs effizienteste Karte (GTX 460/GTX 570).
Nur komisch, dass die beiden Karten bei ähnlicher Effizenz auch ähnliche Performance bieten. Eine 6970 auf (Performance-)Niveau der GTX580 hochgeknüppelt wäre Effizenzmäßig auch nicht viel besser. Leistungsaufnahme ist seltens eine lineare Funktion.
airbag
2010-12-18, 14:35:17
Nur komisch, dass die beiden Karten bei ähnlicher Effizenz auch ähnliche Performance bieten. Eine 6970 auf (Performance-)Niveau der GTX580 hochgeknüppelt wäre Effizenzmäßig auch nicht viel besser. Leistungsaufnahme ist seltens eine lineare Funktion.
Deswegen kosten AMD-karten in der Regel auch weniger.
davidzo
2010-12-19, 12:01:38
Nur komisch, dass die beiden Karten bei ähnlicher Effizenz auch ähnliche Performance bieten. Eine 6970 auf (Performance-)Niveau der GTX580 hochgeknüppelt wäre Effizenzmäßig auch nicht viel besser. Leistungsaufnahme ist seltens eine lineare Funktion.
Eben, meistens steigt sie exponentiell, unter anderem weil für eine Takterhöhung meist auch die Spannung erhöht werden muss, aber auch wegen steigender wandlertemperaturen.
Ich bin ganz froh das AMD uns so eine "kranke" Karte erspart hat. Es gibt noch andere Werte außer FPS, insbesondere in jüngster Zeit.
das spricht aber alles dafür dass die 6970 sehr gut nach unten skaliert. Bei GF110 ist erst noch zu beweisen, dass man eine SKU viel sparsamer als die GTX570 machen kann mit einer so guten performance/watt wie die 6950.
ich vermute aber dass AMD einfach die Reserve von powertune stark verringert. dann würde die karte in einigen sehr Shaderintensiven Anwendungen zwar regelmäßig drosseln sein, im Großteil der Anwendungen könnte man aber das Taktpotential voll ausspielen. Das Anheben der powertune TDP würde dann klar Overclocking sein und nur mit einem Kühlerwechsel bzw. bei boardherstellern vormontierten alternativkühlern ala arctic extreme möglich sein.
Darlie
2011-01-01, 15:47:07
Gibts noch nix neues? Irgendwie kommt es mir komisch vor wenn 2 Wochen lang nix Neues geleakt wird. Die Ruhe vor dem Sturm? ;D
Iruwen
2011-01-01, 17:45:27
Die Ernüchterung nach dem 6900er Launch, das Ding ist von vornherein uninteressant.
Ilendir
2011-01-10, 13:58:31
http://www.fudzilla.com/graphics/item/21487-amd-to-have-hd-6990-dual-cards-in-february
AnarchX
2011-01-21, 16:32:29
http://it.oc.com.tw/ocitview.asp?gitid=1554722
Der Lüfter sitzt wohl in der Mitte der Karte.
Ilendir
2011-01-22, 14:40:16
wahrscheinlich ist es ihnen jetzt doch zu Still geworden um die Graka und sie dachten, sie müssten da mal etwas die Spekulationen anheizen.
ich hatte irgendwo gelesen, dass man die Produktbezeichnung auf den screenshots irgendwo lesen kann, nur seh ichs nirgends oO sicher, dass das eine 6990 ist?
Darlie
2011-01-22, 15:05:08
Welche aktuelle DualGPU Karte von AMD soll es sonst sein ?
Wer ist denn der Typ eigentlich, kennt den jemand?
http://www.abload.de/thumb/2011630441211947326304vza2.jpg (http://www.abload.de/image.php?img=2011630441211947326304vza2.jpg)
Triskaine
2011-01-22, 15:39:48
Wer ist denn der Typ eigentlich, kennt den jemand?]
Das ist Rick Bergman.
Darlie
2011-01-23, 12:23:51
Danke, dem nehm ich ab das da keine Spaxschrauben drin sind. :biggrin:
Na dann gibt es ja bald erste Leaks von den Chinesen bin mal gespannt wie hoch die Leistungsaufnahme ist.
AnarchX
2011-01-26, 09:42:17
Mehr Bilder: http://forums.vr-zone.com/showthread.php?p=9126014#post9126014
AnarchX
2011-01-26, 10:45:21
Noch mehr Bilder: http://www.4gamer.net/games/122/G012292/20110126021/
Leider nur 8+6-Pin, eine Option auf 2x 8-Pin wäre für Enthusiasten besser gewesen.
fondness
2011-01-26, 11:15:16
Noch mehr Bilder: http://www.4gamer.net/games/122/G012292/20110126021/
Leider nur 8+6-Pin, eine Option auf 2x 8-Pin wäre für Enthusiasten besser gewesen.
PCIe-Specs. Für mehr sind die Partner verantwortlich. Man sieht aber schon die Option beim 6-Pin-Anschluss auf 8-Pin zu gehen.
y33H@
2011-01-26, 11:17:19
Die Lötstelle für einen 2ten 8P ist ja vorhanden. 2x 8P aber ist gegen die PCI-E-Sig, das wird AMD nicht machen (beim Referenzmodell).
EDIT
Too late ...
Hugo78
2011-01-26, 11:33:58
AMD wird auf jedenfall mal wieder den Längsten haben.
Sowohl den Balken auf'm Screen, als auch den Klotz im Rechner.
y33H@
2011-01-26, 11:40:33
Mehr halt nicht, siehe u.a. aktueller CB-Test mit CF (http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/).Während AMD-Kunden mit CrossFire in vielen Spielen mit Mikrorucklern zu kämpfen haben, sieht es für die Nvidia-Käufer mit SLI zwar etwas besser aus, Mikroruckler gibt es dort aber genauso – sie sind meistens (nicht immer) jedoch weniger stark ausgeprägt.
[...]
Mafia 2 zeigt dann, dass die Mikroruckler in ungünstigen Spielszenen derart immens sein können, dass Multi-GPU überhaupt keinen Sinn mehr hat. Denn während zum Beispiel Innenräume noch gut mit zwei GPUs laufen, werden Außenszenen mit Vegetation zur reinsten Ruckelorgie, sodass trotz höherer Frameraten eine einzelne Grafikkarte klar sinnvoller ist – unabhängig davon, ob es sich um CrossFire oder SLI handelt.
[...]
Nvidia ist mit SLI unserer Meinung nach unterm Strich dennoch weiterhin etwas besser aufgestellt als AMD mit CrossFire und das liegt an einem altbekannten Problem: Den Mikrorucklern. Diese wurden von AMD unverständlicherweise immer noch nicht angegangen, während Nvidia das Problem zwar nicht behoben, aber immerhin stark vermindert hat.
Duplex
2011-01-26, 11:44:16
Nvidia wird mit sicherheit eine bessere Karte als die 6990 bringen, die 6970 ist mit 4AA, gerademal 15% schneller als die 5870 ;) mehr als 20% Speedup gegenüber der 5970 ist unmöglich, es werden eher 10-15% für Antilles sein.
fondness
2011-01-26, 11:49:25
Nvidia wird mit sicherheit eine bessere Karte als die 6990 bringen, die 6970 ist mit 4AA, gerademal 15% schneller als die 5870 ;) mehr als 20% Speedup gegenüber der 5970 ist unmöglich, es werden eher 10-15% für Antilles sein.
Entscheidend ist aber die Leistung bei 150W, nicht die absolute Leistung. Dazu kommt der doppelte VRAM ggü. der 5970.
y33H@
2011-01-26, 12:12:04
Also Cayman XT mit niedrigem Takt, das erscheint mir am plausibelsten.
AnarchX
2011-01-26, 12:41:49
Am sinnvollsten wäre ein kooperatives Power-Limit für beide GPUs, sodass im Fall von Szenarien wo AFR nicht greifen kann und eine GPU nur rendert, diese entsprechend höher takten kann.
Tarkin
2011-01-26, 12:57:12
Das ist Rick Bergman.
nö, der Typ heißt Matt Skynner ;)
HarryHirsch
2011-01-31, 13:13:19
Noch mehr Bilder: http://www.4gamer.net/games/122/G012292/20110126021/
Leider nur 8+6-Pin, eine Option auf 2x 8-Pin wäre für Enthusiasten besser gewesen.
für mich sieht das eher nach ares-like 2x8 und 1x6 pin aus.
http://www.abload.de/img/005vgud.jpg (http://www.abload.de/image.php?img=005vgud.jpg)
ein bild vom pcb wäre nicht schlecht.
y33H@
2011-01-31, 13:18:06
Wo seht ihr hier 2x8P + 6P? Ich 8+6, wobei der 6er zu einem 8er werden kann, also 8P. Wobei das Firlefanz ist, denn wer einen 6+2P ohne die beiden Masse-Pins dranhängt, gibt der Karte dank 3x 12V ohnehin auch über den 6P 150W.
Schaffe89
2011-01-31, 20:54:57
So wie ich das einschätze wird Nvidia bei der effizienz der HD6950 die etwas langsamere Karte bringen, außer sie sprengen die Specs.
airbag
2011-01-31, 20:56:58
Specs sprengen, sollte seit Fermi eh kein Problem mehr sein. Zumal AMD es mit der HD4870x2 und HD5970 bei den MGPU Karten bereits getan hat.
Knuddelbearli
2011-01-31, 23:16:43
ich denke er meinte eher offiziel also 2x8 pin inoffiziel hat NV ja auch bei der 295 die specs gesprengt
LovesuckZ
2011-02-25, 22:58:16
Laut DigiTimes würde die 6990 erst im April auf den Markt kommen:
http://www.digitimes.com/news/a20110225PD207.html
Duplex
2011-02-25, 23:01:42
Nvidia hat also wie bei GF110 aka 580/570 weiterhin einen Vorsprung
aylano
2011-02-26, 15:07:51
Nvidia hat also wie bei GF110 aka 580/570 weiterhin einen Vorsprung
In Sachen Stromverbrauch, ja.
AMD hat mit zu wenigen 40nm-Wafer für Ontario ganz andere Probleme. Die werden jetzt kaum einen Preiskampf im High-End-Markt sowie noch schnellere Grafikkarten @ X2 mit noch einer ineffizienten Performance-pro-mm² eilig & PreisLeistungsmäßig-gut rausbringen.
fondness
2011-02-26, 15:17:48
Nvidia hat also wie bei GF110 aka 580/570 weiterhin einen Vorsprung
Logischerweise will keiner der erste sein. Vor wenigen Wochen hieß es noch NV wartet auf AMD, jetzt wartet AMD wieder auf NV. Wer nachlegt kann die Specs eben noch so weit anpassen das man knapp vorne ist, denn beide werden ihre Chips nicht so schnell takten können wie es möglich wäre. Ob man dabei die 300W etwas überbietet ist sekundär, wie man schon in der Vergangenheit gesehen hatte. Wird interessant. :D
Duplex
2011-02-26, 15:30:57
möglich wäre das ein überarbeiteter GF110 (GF110²) mit weniger Stromverbrauch kommt, evtl. auch eine GTX585? Die Preise fangen an langsam zu fallen http://www.schottenland.de/preisvergleich/preise/proid_20609568/POINT-OF-VIEW-GeForce-GTX-580-Mini-HDMI-2x-DVI-VGA-580-A2
Mancko
2011-02-26, 15:36:04
In Sachen Stromverbrauch, ja.
Ganz klar in Sachen Bildqualität, Features und auch Performance.
AMD ist im High End klar geschlagen.
aylano
2011-02-26, 16:58:23
möglich wäre das ein überarbeiteter GF110 (GF110²) mit weniger Stromverbrauch kommt, evtl. auch eine GTX585?
Wie oft soll man den GF100 den noch überarbeiten.
Ganz klar in Sachen Bildqualität, Features und auch Performance.
AMD ist im High End klar geschlagen.
Klar, wenn man den HD 5970 ignoriert, stimme ich dir auch mit der Performance zu.
Es hat eben seinen Grund, warum es damals AMD einen HD 5970 und Nvidia keinen GTX490 schaffte.
Es ist eben nicht alles so klar, wie sie sich vorstellen.
=Floi=
2011-02-26, 17:05:50
der GF110 ist schon ein überarbeiteter chip!
Klar, wenn man den HD 5970 ignoriert, stimme ich dir auch mit der Performance zu.
Es hat eben seinen Grund, warum es damals AMD einen HD 5970 und Nvidia keinen GTX490 schaffte.
Es ist eben nicht alles so klar, wie sie sich vorstellen.
Klar ist, dass die HD 5970 oft auf den Deckel bekommt, wenn's um die Wurst geht (2.560x1.600 mit mindestens 4x MSAA). Stichwort: "Speicherkrüppel". Abzüglich aller Multi-GPU-Restriktionen ist die GTX 580 klar die bessere Karte. Die HD 6970 übrigens auch. Wie man's dreht und wendet, das ist einfach nicht vergleichbar. Ganz anders sieht's aus, wenn die beiden ihre neuen MGPU-Klötze herausbringen – dann gibt's ein faires Duell am Rande der 300 Watt.
MfG,
Raff
aylano
2011-02-26, 18:30:31
Klar ist, dass die HD 5970 oft auf den Deckel bekommt, wenn's um die Wurst geht (2.560x1.600 mit mindestens 4x MSAA). Stichwort: "Speicherkrüppel". Abzüglich aller Multi-GPU-Restriktionen ist die GTX 580 klar die bessere Karte. Die HD 6970 übrigens auch
Das ist das Problem, wenn man die Vorteile igoriert und die Nachteile berücksichtigt, ist jedes Produkt wie man will besser.
Und das mit besser ist so eine Sache. Sie ist besser für dich & andere, aber nicht jeder hat die selben Gewichtungen wie du & andere, sonst hätte die HD 5970 laut Steam nicht einen halb so hohen Marktanteil wie GTX480 und das obwohl die HD 5870 AFAIK 50% mehr kostete.
Außerdem ist der Vergleich mit überarbeiteten GPUs mit non-überarbeiteten MGPUs auch noch lächerlich.
Und wie die Multi-GPUs werden, muss man noch abwarten. I wollte nur manchen den Wind aus den Segeln nehmen, weil sie eigentlich per GTX480 wissen sollten, dass eine Multi-GPU nicht immer so einfach & gut zu machen ist, wie es vorher scheint.
Das ist das Problem, wenn man die Vorteile igoriert und die Nachteile berücksichtigt, ist jedes Produkt wie man will besser.
Der einzige Vorteil ist, dass man Grenzen verschiebt: Mit zwei GPUs kriegt man nun mal mehr Fps als mit einer GPU, auch wenn die am Rande des Machbaren gefertigt ist. Aufgrund der bekannten Probleme (*Gebetsmühle*) bleibt es aber Blödfug, zwei schwache GPUs im Duett einer einzelnen, mächtigeren GPU vorzuziehen. Der Stromverbrauch zählt bei der HD 5970 übrigens auch nicht, weil der auf dem Niveau der GTX 480/580 ist.
MfG,
Raff
aylano
2011-02-26, 19:34:06
Der einzige Vorteil ist, dass man Grenzen verschiebt: Mit zwei GPUs kriegt man nun mal mehr Fps als mit einer GPU, auch wenn die am Rande des Machbaren gefertigt ist.
Interessant, dass Mehr-Performance aufeinmal keine Bedeutung mehr hat.
Übrigens, kleinere GPUs haben die Vorteil früher und unproblematischer zu fertigen. Anscheinend hat man die Probleme des GTX480 eben noch immer nicht voll erkannt.
Aufgrund der bekannten Probleme (*Gebetsmühle*) bleibt es aber Blödfug, zwei schwache GPUs im Duett einer einzelnen, mächtigeren GPU vorzuziehen.
Seit wann ist es Blödfug 2%-Marktanteile im Gamer-Bereich zu ignorieren.
Und ist GTX480 mit 4% eben auch Blödfug, oder liegt die Blödfug-Grenze eben zufällig zwischen 2 und 4% ??
Und du weißt, dass die bekannten MGPU-Probleme für immer so gelten oder es keine Verbesserungen gibt?
Der Stromverbrauch zählt bei der HD 5970 übrigens auch nicht, weil der auf dem Niveau der GTX 480/580 ist.
Der Stromverbrauch war aber der Entscheidene Faktor bzw. das KO-Kriterium, warum es keinen GTX490 gab.
Da kann man nicht so einfach GTX580*2 rechnen, wenn GTX580 AFAIK schon 250W unter Spiele hat.
Deshalb wird es so interessant, wie Nvidia eine GTX590 hinbekommt. Wenn sie es mit 2*GF110 hinbekommen, wie es momentan aussieht, würde ich das schon beachtlich finden.
Nvidia hat mit GTX580 leisere Kühllösungen im sehr hohen Stromverbrauch gezeigt. Also, es tut sich was und alle MGPU-Probleme werden nicht ewig bestehen.
Wobei am Schluss bleibt, ihn welchen Stückzahlen überhaupt geliefert werden kann. Ein theoretischer Sieger bringt am Schluss auch nicht so viel, wenn sie damit kein Geld machen können.
C.D.B.
2011-02-26, 20:21:08
... Ganz anders sieht's aus, wenn die beiden ihre neuen GPU-Klötze herausbringen – dann gibt's ein faires Duell am Rande der 300 Watt.
Das ist doch nicht Dein erst? AMD respektiert die PCIe-Specs (bleibt bei max. 300W) - NVidia sprengt die Specs mit 375W ... und das soll ein "faires" Duell sein? :rolleyes:
Hugo78
2011-02-26, 20:26:13
Das ist doch nicht Dein erst? AMD respektiert die PCIe-Specs (bleibt bei max. 300W) - NVidia sprengt die Specs mit 375W ... und das soll ein "faires" Duell sein? :rolleyes:
Das ist überhaupt noch nicht raus, weder das eine noch das andere.
y33H@
2011-02-26, 20:32:01
@ C.D.B.
Weder NV noch AMD werden offiziell die Specs sprengen. Entweder wird nur 6+8-Pin verbaute (auf dem Papier dann 300W max) oder per "Powertune"/"Power Containment" bei 300W abriegeln.
LovesuckZ
2011-02-26, 20:37:25
Übrigens, kleinere GPUs haben die Vorteil früher und unproblematischer zu fertigen. Anscheinend hat man die Probleme des GTX480 eben noch immer nicht voll erkannt.
Du hast schon mitbekommen, dass GF110 vor Cayman auf dem Markt kam? Und angeblich nVidia vor AMD eine x2 Karte in den Markt bringen will?
Ich frage nur so, weil manchmal entsteht unsinn auch nur aus Unwissenheit...
/edit: Oder auch nicht: AMD Radeon HD 6990 "Antilles" Sneek Peek (http://www.hardocp.com/article/2011/02/26/amd_radeon_hd_6990_antilles_sneek_peek)
aylano
2011-02-26, 21:11:17
Du hast schon mitbekommen, dass GF110 vor Cayman auf dem Markt kam? Und angeblich nVidia vor AMD eine x2 Karte in den Markt bringen will?
Ich frage nur so, weil manchmal entsteht unsinn auch nur aus Unwissenheit...
Gut das du nachfragst, da es bei dir nicht manchmal sondern oft passiert.
Es ging um Big-Dies vs Performance-Dies die dann früher am Markt kommen können als der BIG-Die und nicht um GTX590 vs. HD 6990
Die HD 5970 war übrigens 4-5 Monate vor GTX480 am Markt (=früher und unproblematischer) bzw. eine X2 gibts schon seit über einem Jahr
Also, AMD konnte schon Monate Lang Geld mit einer Die verdienen, die im Gegensatz zu GTX480 nicht extra entwickelt worden ist, weil sie eigentlich als HD 5870 (Single-Die-GPU) entwickelt wurde und somit einige Entwicklungskosten sparte.
Und dass eine HD 6990 noch immer nicht kommt, könnte eben mehrere Gründe haben.
Eine könnte ein Respin der RV970 für höhere Yield sein, damit AMD die ersparten 40nm-Wafer für Ontario nutzen kann.
AMD muss nicht vorpreschen, da sie mit der jetzigen Situation alias Apple-Versorgung & Ontario-Produktion und non-GTX590 auch gut leben können.
Weder NV noch AMD werden offiziell die Specs sprengen. Entweder wird nur 6+8-Pin verbaute (auf dem Papier dann 300W max) oder per "Powertune"/"Power Containment" bei 300W abriegeln.
So ist es, oder so ähnlich.
Der MGPU-Markt wird sich weiterentwickeln
Von HD 4870 X2 --> HD 5970 war die Entwicklung, dass HD 5970 die 300W-TDP einhielt.
Bei GTX295 waren die ersten eine Sandwicht-Bauweise und später 2-Dies auf einer Platine.
Wobei ich jetzt bei Nvidia nur diese Zähle, da sie eben am Limit war und die Vorgänger nicht.
Und wenn man am Limit ist, muss mit neuen Techniken (Power Containment & Versbesserte Kühler & Co) die Schwäche gemildert werden um noch schneller/besser als die Konkurrenz zu werden.
LovesuckZ
2011-02-26, 21:17:57
Es ging um Big-Dies vs Performance-Dies die dann früher am Markt kommen können als der BIG-Die und nicht um GTX590 vs. HD 6990
Jap. Klappte für AMD einmal in den letzten 3 Jahren. Was für eine Ausbeute.
Die HD 5970 war übrigens 4-5 Monate vor GTX480 am Markt (=früher und unproblematischer) bzw. eine X2 gibts schon seit über einem Jahr
Also, AMD konnte schon Monate Lang Geld mit einer Die verdienen, die im Gegensatz zu GTX480 nicht extra entwickelt worden ist, weil sie eigentlich als HD 5870 (Single-Die-GPU) entwickelt wurde und somit einige Entwicklungskosten sparte.
Und das hat ironischerweise nichts mit "Big-Die" zu tun gehabt. :freak:
Man sollte nicht Dinge miteinander verknüpfen, die in keinem Zusammenhang stehen. Wobei: Die GTX295 war über 11 Monate die schnellste Karte auf dem Markt. AMD konnte dagegen keinen rv790 auf eine x2 verbauen. Hm.
AMD muss nicht vorpreschen, da sie mit der jetzigen Situation alias Apple-Versorgung & Ontario-Produktion und non-GTX590 auch gut leben können.
Interessante Aussage. Komischerweise sagt DEIN Steam was vollkommen anderes aus. Aber dann wird Steam ignoriert. Passt ja nicht ins Weltbild.
Nur für dich: Nach 4 Monaten Barts hat man immer noch nicht GF100 eingeholt. Die GTX580 ist öfters vertreten als die 6850(!). Ja, damit kann AMD gut leben...
aylano
2011-02-26, 21:50:13
Jap. Klappte für AMD einmal in den letzten 3 Jahren. Was für eine Ausbeute.
Schon 2 mal, da GT200 auch nicht den Zieltakt erreichte und die HD 4870 X2 bis GTX295 deutlich absetzte.
Und das hat ironischerweise nichts mit "Big-Die" zu tun gehabt. :freak:
Man sollte nicht Dinge miteinander verknüpfen, die in keinem Zusammenhang stehen.
Natürlich nicht, weil nachdem sie die ersten 40nm-DX10-Dies am Markt brachten, dann völlig vergessen haben wie das so ein Die auf eine Fertigung bringen.
Wobei: Die GTX295 war über 11 Monate die schnellste Karte auf dem Markt.
Das war nicht das Thema. Aber ich kann eben nicht jedesmal auf den Sinn des Textes hinweisen.
AMD konnte dagegen keinen rv790 auf eine x2 verbauen. Hm.
Die Aussage ist doch nicht dein Ernst?
5000er-Serie kam eh bald. Nur ein Tipp.
Interessante Aussage. Komischerweise sagt DEIN Steam was vollkommen anderes aus. Aber dann wird Steam ignoriert. Passt ja nicht ins Weltbild.
Nur für dich: Nach 4 Monaten Barts hat man immer noch nicht GF100 eingeholt. Die GTX580 ist öfters vertreten als die 6850(!). Ja, damit kann AMD gut leben...
Typischer Rosinen-Vergleich. Wie immer.
Ja, AMD kann damit leben, weil sie die Restlichen Karten auch gut/noch besser verkaufen ließen und so AMD ein Rekord-GPU-Gewinn-Quartal hatte.
LovesuckZ
2011-02-27, 00:04:44
Schon 2 mal, da GT200 auch nicht den Zieltakt erreichte und die HD 4870 X2 bis GTX295 deutlich absetzte.
Hallo? Hallo? Sieh mal hier:
Gut das du nachfragst, da es bei dir nicht manchmal sondern oft passiert.
Es ging um Big-Dies vs Performance-Dies die dann früher am Markt kommen können als der BIG-Die und nicht um GTX590 vs. HD 6990
.
Hoppla. Was macht denn der aylano da? :freak:
Natürlich nicht, weil nachdem sie die ersten 40nm-DX10-Dies am Markt brachten, dann völlig vergessen haben wie das so ein Die auf eine Fertigung bringen.
Ich habe es schonmal geschrieben: Informiere dich, bevor du anfängst irgendwas zu behaupten.
Leonidas
2011-02-27, 16:27:56
Radeon HD 6990 am 8. März
http://www.3dcenter.org/news/2011-02-27
Die versammelte (deutsche) Presse ist auf der Cebit und AMD launcht das Ding nur ein paar Tage danach. Bloß keine Zeit zum Testen lassen, man könnte ja Grund zur Kritik finden. :ulol: Die US-Leute werden eher nich nach Hannover pilgern.
MfG,
Raff
Black-Scorpion
2011-02-27, 17:17:13
Ihr werden auch so jedes kleine Haar finden und es groß raus bringen. ;)
Sofern's berechtigt ist: klar.
MfG,
Raff
Black-Scorpion
2011-02-27, 17:22:08
Dein Beitrag oben zeigt eher das ihr schon mit dem Vorsatz dieses Haar zu finden an die Sache geht. Als Magazin sollte man unvoreingenommen an einen Teste gehen. Aber das ist bei euch, auch wenn ihr es immer sagt, nicht der Fall.
boxleitnerb
2011-02-27, 17:23:22
Ach komm, Mikroruckler und immenser Stromhunger sind garantiert, das weiß man schon vorher. :rolleyes:
Dein Beitrag oben zeigt eher das ihr schon mit dem Vorsatz dieses Haar zu finden an die Sache geht. Als Magazin sollte man unvoreingenommen an einen Teste gehen. Aber das ist bei euch, auch wenn ihr es immer sagt, nicht der Fall.
Nein, ich gehe natürlich davon aus, dass Antilles mit allen seit einem halben Jahrzehnt bestehenden MGPU-Problemen aufräumen wird. Ganz bestimmt.
:ulol:
MfG,
Raff
Black-Scorpion
2011-02-27, 17:29:00
Mal sehen ob du dich genauso im entsprechenden Nvidia verhältst. Ansonsten wurde schon genug darüber diskutiert wie neutral ihr seid.
Ich denke, dass die meisten mittlerweile verstanden haben, dass nicht die PCGH markenfixiert ist, sondern die, die das der Redaktion immer wieder vorwerfen.
MfG,
Raff
Knuddelbearli
2011-02-27, 17:36:03
Ach komm, Mikroruckler und immenser Stromhunger sind garantiert, das weiß man schon vorher. :rolleyes:
zumindest den stromverbrauch will ja NV um 25% topen ^^
boxleitnerb
2011-02-27, 17:44:45
Und? Das ist beides Scheiße :freak:
Wer in der Größenordnung kauft, schert sich nicht um 25%. Außerdem haben GTX570 und HD6970 etwa denselben Verbrauch, wo sollen da die 25% herkommen, wenn man beide Chips etwas herunterskaliert, niedriger Taktet und zwei davon auf ein PCB packt?
Black-Scorpion
2011-02-27, 17:48:08
Ich denke, dass die meisten mittlerweile verstanden haben, dass nicht die PCGH markenfixiert ist, sondern die, die das der Redaktion immer wieder vorwerfen.
MfG,
Raff
Wie ihr schon oft genug bewiesen habt. Nein Marken fixiert ward ihr nie. Beim lesen eures Heftes sah das nur ganz anders aus. Aber lassen wir das. Hauptsache du glaubst es.
dildo4u
2011-02-27, 17:48:34
Und? Das ist beides Scheiße :freak:
Wer in der Größenordnung kauft, schert sich nicht um 25%. Außerdem haben GTX570 und HD6970 etwa denselben Verbrauch, wo sollen da die 25% herkommen, wenn man beide Chips etwas herunterskaliert, niedriger Taktet und zwei davon auf ein PCB packt?
Die GTX590 wird vollwertige 580 Chips nutzen,die 25% sind OK weil die Karte auch um 20-25%schneller sein wird.
LovesuckZ
2011-02-27, 17:52:45
Wer sich bei diesen Karten wegen dem Stromverbrauch aufregt, ist sowieso ein Heuchler.
Hier geht es einzig und allein um Bildqualität. Niemand kauft sich solch eine
Karte, weil sie gegenüber der Konkurrenz weniger verbraucht.
y33H@
2011-02-27, 17:56:32
zumindest den stromverbrauch will ja NV um 25% topen ^^Das Modell mit 2x 8P ist 3rd-Party und von EVGA :rolleyes: Wie bereits erwähnt werden die HD 6990 und die GTX 590 zu 99% nur 6+8P nutzen und per "Powertune"/"Power Containment" bei 300W abriegeln.
@ Black-Scorpion
Lass doch einfach den Bullshit, immer und immer wieder postet dein gebiastes Gebashe. Das ist vollkommen unnötig.
Wie ihr schon oft genug bewiesen habt. Nein Marken fixiert ward ihr nie. Beim lesen eures Heftes sah das nur ganz anders aus. Aber lassen wir das. Hauptsache du glaubst es.
Du hast das Heft nie ernsthaft gelesen, sonst kämen nicht ständig so kuriose Diskussionen zustande. Warum wird das hier eigentlich geduldet? Es wäre schön, wenn du deine Verbitterung zur Abwechslung mal in eine andere Richtung pumpen könntest. Wie wäre es mit Intel? Nvidia? Andere Todfeinde.
MfG,
Raff
Black-Scorpion
2011-02-27, 18:09:41
Dafür das ich 5 Jahre Abonnent war habe ich es natürlich nicht gelesen. Schon ok. Mehr schreibe ich dazu auch nicht.
Dann ergibt dein Verhalten gleich mehrfach keinen Sinn.
MfG,
Raff
derpinguin
2011-02-27, 18:12:18
Hier gehts um AMD, nicht um PCGH.
anddill
2011-02-27, 18:15:32
Dafür das ich 5 Jahre Abonnent war habe ich es natürlich nicht gelesen. Schon ok. Mehr schreibe ich dazu auch nicht.
Sehr gut. Sonst würde es hier nämlich Karten hageln.
Dieses ständige BIAS-Geschrei nervt. Jeder der seine Lieblingshardware irgendwo kritisiert sieht heult sofort "BIAS!! BIAS!!" egal ob nun die Roten, die Blauen oder die Grünen.
Leonidas
2011-02-27, 18:32:16
Die versammelte (deutsche) Presse ist auf der Cebit und AMD launcht das Ding nur ein paar Tage danach. Bloß keine Zeit zum Testen lassen, man könnte ja Grund zur Kritik finden. :ulol: Die US-Leute werden eher nich nach Hannover pilgern.
Diejenigen, die daraus AMD-Bashing ableiten, sei gesagt, daß es hierbei nicht um AMD geht, sondern nur darum, daß der Launchtermin alle Terminplanungen deutscher HW-Redaktionen maßlos durcheinanderbringt. Völlig egal, wer das macht, wird das nicht gutgefunden.
Knuddelbearli
2011-02-27, 18:48:52
und die 3 tage später von NV machens dann aus ? ...
y33H@
2011-02-27, 18:51:48
3T sind in Sachen GraKa-Test verdammt viel zusätzliche Zeit (soviel blieb bei der HD 6870 einigen Redaktionen nicht mal, sondern nur 1T oder 2T). Also ja.
Knuddelbearli
2011-02-27, 19:06:09
dann weiss ich nicht was ihr habt ihr habt ja nach der cebit 3 tage zeit für den test
öffentlichkeits am wirksamsten wäre ja zumindest für europa während der cebit gewesen also seit doch froh ^^
und ich meine nicht +3T den davor muss ja erstmal die AMD karte getestet werden also habt ihr für die NV auch 3 tage zeit
y33H@
2011-02-27, 19:12:00
Ach ja, 4T Messe - nach denen es freilich auch nicht mehr von der Cebit nachzuarbeiten gibt und man auch nicht völlig im Eimer ist - und dann in 3T die Karte durchballern, sofern sie denn rechtzeitig da ist. Und wenn zeitgleich die Geforce kommt, doppelter Zeitaufwand. In 3T sind zwei High-End-Karte selbst mit mehreren Leuten ein verdammt hartes Stück Arbeit. Ihr stellt euch das (fast) alle so easy vor ;(
Knuddelbearli
2011-02-27, 19:16:42
wer sagt den das sie erst zum ende der cebit kommt ?
wenn man pech hat wirds wohl so kommen ( und irgenwie hat man bei solchen sachen immer pechg ^^ ) aber als faktum würde ich das nicht dastellen, habe das einige zeit ja selber gemacht
Ich als Kunde habe es aber natürlich leiber wenn beide ca gleichzeitig kommen, wenn amd auf den GTX 590 reagierne möchte würde der 5990 frühestens in 1 monat kommen das kann doch auch nicht der sinn dahinter sein
AnarchX
2011-02-28, 08:57:46
Bilder der finalen Karte: http://www.hexus.net/content/item.php?item=29248
jaw-dropping 3,000-plus shaders, 4GB of onboard memory and 300GB/s of combined memory bandwidth
Wenn das stimmt, ist's erwartungsgemäß Cayman XT im Doppelpack. Die Frage ist, ob die beiden deutlich über 700 MHz hinauskommen.
MfG,
Raff
deekey777
2011-02-28, 12:05:14
Wenn das stimmt, ist's erwartungsgemäß Cayman XT im Doppelpack. Die Frage ist, ob die beiden deutlich über 700 MHz hinauskommen.
MfG,
Raff
Der Standardtakt wird der sein, mit dem man nicht über 300 W hinauskommt. Für mehr wird AMD - wie schon bei früheren X2 - mit guter Übertaktbarkeit bzw. Power-Dings werben.
Eine Radeon HD 6950 (Cayman Pro) nutzt 1.408 Shader-Einheiten, damit wären mehr als 3.000 Shader-Einheiten nicht zu erreichen.
X-D
Davor (http://www.pcgameshardware.de/aid,813789/AMD-Radeon-HD-6990-Erste-Pressebilder-veroeffentlicht-Info-Update/Grafikkarte/News/) steht noch mehr Text, der diesen Satz nicht so sinnlos "out of context" stehen lässt. ;)
MfG,
Raff
fondness
2011-02-28, 12:28:28
Die versammelte (deutsche) Presse ist auf der Cebit und AMD launcht das Ding nur ein paar Tage danach. Bloß keine Zeit zum Testen lassen, man könnte ja Grund zur Kritik finden. :ulol: Die US-Leute werden eher nich nach Hannover pilgern.
MfG,
Raff
Man muss aber auch nicht überall eine Verschwörung sehen.
Ja, aber eine suboptimale Planung. Ein gescheiter Test braucht mehr als 2-3 Tage.
MfG,
Raff
fondness
2011-02-28, 12:41:17
Ja, aber eine suboptimale Planung. Ein gescheiter Test braucht mehr als 2-3 Tage.
MfG,
Raff
Dann sollte man eben früher mit dem testen beginnen, oder, wenn da wirklich absolut niemand Zeit hat den Test später bringen. Was anderes wäre es wenn man die Karten nicht früher bekommen würde.
Edgecrusher86
2011-02-28, 14:04:20
Weitere Bilder (2 x 8 Pin PCI-E, also wie schon vermutet 2 x Cayman XT, aber wohl mit gesenkten Taktraten).
Die Bilder zeigen den Gigabyte-Stand und kommen von CB.
Die entsprechende News:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2011/februar/gigabyte-und-sapphire-zeigen-radeon-hd-6990/
MfG
Edge
Knuddelbearli
2011-02-28, 18:31:30
hoffentlich kann man power tune bei der x2 komplett deaktivieren sonst sehr ich schwarz
Dural
2011-02-28, 19:48:39
juhu AMD sprengt mal wider als erster die Leitungsaufnahme Grenzen ;)
Ich würde mir wünschen das wenigstens NV solche Dual Monster nicht mehr raus bringen, bei AMD verstehe ich es ja noch, wenn man keine vernüftigen Chips Entwickeln kann braucht man halt zwei auf einer Karte...
Aber das sind einfach Karten die die Welt nicht braucht und man gut auch ohne sie leben könnte, heute hat eh so gut wie jedes MB min. zwei PCI-E steckplätze drauf und die Dual GPU Karten sind längst nicht mehr so wichtig wie früher :rolleyes:
deekey777
2011-02-28, 19:55:58
juhu AMD sprengt mal wider als erster die Leitungsaufnahme Grenzen ;)
Ich würde mir wünschen das wenigstens NV solche Dual Monster nicht mehr raus bringen, bei AMD verstehe ich es ja noch, wenn man keine vernüftigen Chips Entwickeln kann braucht man halt zwei auf einer Karte...
Aber das sind einfach Karten die die Welt nicht braucht und man gut auch ohne sie leben könnte, heute hat eh so gut wie jedes MB min. zwei PCI-E steckplätze drauf und die Dual GPU Karten sind längst nicht mehr so wichtig wie früher :rolleyes:
Wo sprengen die was?
Knuddelbearli
2011-02-28, 20:00:33
typisch dural
375Watt ;D
das wird Garantiert 512SP mit 600MHz + bedeuten
Der Kühler sieht aber nicht nach Rev. NV aus, eher was eigenes von EVGA
die NV "GTX590" referenz karte die schon lange durchs www umhergeister hat ganz klar GF110 mit 2x 384Bit
zudem würde NV nie eine GX2 high end karte auf den markt werfen die im schlimmsten fall so schnell wie eine GTX580 in der tesselation (2x8@8xxMHz vs 1x16@783MHz) ist... das würde auch komplett nicht ins aktuelle marketing passen und gerade in diesem punkt kann NV AMD auch um welten übertrupfen...
zu guter letzt dürfte ein GF110 bei der benötigten leistung x die die GTX590 haben sollte sogar effizienter arbeiten als der GF114
GF110 benötigt für die selbe Leistung wie GF114 ca. 650MHz anstelle ca. 875MHz, aber auch in diesem verhältnis dürfte GF110 sogar noch vorteile haben!
was ich mir vorstellen könnte wäre das NV beides auf den markt bringt, retabel wäre dies aber sicher nie! eine GF114 GX2 300Watt gegen die 6990, würde für NV sicher deutlich kostensparen und hätte preislich sicher ein sehr aktraktives angebot mit der karte, dann noch eine GF110 GX2 375Watt als pures High-End...
wäre wirtschaftlich aber sicher der wahnsinn...
als es aussah als ob das NV bringt fand er es noch klasse
nagus
2011-02-28, 20:06:31
typisch dural
als es aussah als ob das NV bringt fand er es noch klasse
war ja klar, oder? egal was amd macht... ist immer alles KACKE. und egal was nvidia macht... immer PRIIIMA :hammer:
hat von dural jemand etwas anderes erwartet? einen konstruktiven beitrag? realismuss? einsicht? da kann man warten bis die hölle zufriert
Tarkin
2011-02-28, 20:13:25
juhu AMD sprengt mal wider als erster die Leitungsaufnahme Grenzen ;)
Ich würde mir wünschen das wenigstens NV solche Dual Monster nicht mehr raus bringen, bei AMD verstehe ich es ja noch, wenn man keine vernüftigen Chips Entwickeln kann braucht man halt zwei auf einer Karte...
Aber das sind einfach Karten die die Welt nicht braucht und man gut auch ohne sie leben könnte, heute hat eh so gut wie jedes MB min. zwei PCI-E steckplätze drauf und die Dual GPU Karten sind längst nicht mehr so wichtig wie früher :rolleyes:
äh okay... hast du dir vielleicht heute schon mal die Startseite von 3dcenter angesehen? 480 + 580 GTX beide an die 250W (Gaming)
... weißt du was mir das sagt? Dass nVidia Leistungsaufnahme am A. vorbei geht und sie einfach um jeden Preis die schnellste single-GPU Karte haben MÜSSEN.
"juhu AMD sprengt mal wider als erster die Leitungsaufnahme Grenzen"
gehts vielleicht noch polemischer?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.