Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
11
12
13
14
15
16
17
Duplex
2010-09-28, 20:32:50
in 2 Wochen wird die Größe vom Mainstream DIE bestimmt bekannt sein, dann kann man abschätzen ob ein 640 4D Chip möglich ist, wenn z.b. Barts 200mm² Fläche bei 320 4D Einheiten benötigt kann man sich 90% sicher sein das Cayman die doppelte Anzahl an Shader besitzen wird, 400-450mm² sind nicht viel für einen High End Chip, selbst wenn die Chips dadurch teurer werden, der Preis wird dann halt höher ausfallen und trotzdem seine Kundschaft finden ;) (evtl. stimmen die Spekus mit 256 Bit SI für Barts & 512 Bit SI für Cayman)
@Southern Islands
wenn die 640 4D bei NI @40nm stimmen, bekommt SI in 28nm vielleicht mehr als das doppelte an einheiten, es wird sehr spannend.
Tja Charlie redet mittlerweile von ~200mm^2 oder sogar etwas darunter für Barts. Ob das möglich ist und was das dann für Cayman heißt, maße ich mir nicht an zu sagen, aber irgendwas im Bereich von 500mm^2 oder mehr für Cayman wird AMD bestimmt nicht bringen.
Duplex
2010-09-28, 20:47:51
Tja Charlie redet mittlerweile von ~200mm^2 oder sogar etwas darunter für Barts.wieviel Streamprozessoren stecken hinter den 200mm² laut charlie ? 240-4D oder 320-4D ?
Edit: also der Juniper 5770 Chip hat 180mm² Chipfläche, das sind nichtmal 10% mehr als die hälfte von Cypress, angenommen Barts hat 320-4D einheiten bei 200mm² Fläche, dann würde ein Cayman max. 450mm² Chipfläche haben, das ist nicht viel, hoffen wir das Barts wirklich 320 4D einheiten hat, dann kommt was dickes von AMD im GPU Markt, bei 640 4D einheiten ist man 50% vor einer GTX480 & 70% vor einer 5870
wie gesagt erstmal muss Barts 320 4D haben und die Chipfläche darf nicht mehr als 200mm² haben, sonst ist Cayman doch nicht das was es eig. sein sollte...
Das hat er natürlich nicht gesagt. Noch ein interessanter Ansatz warum Barts HD68xx sein könnte.
http://www.semiaccurate.com/forums/showpost.php?p=71908&postcount=676
Ob es stimmt sei mal dahingestellt, aber wie ich schon vorhin schrieb, könnte ich mir speziell bei Juniper vorstellen, dass diese GPU auch nach dem HD6k Launch weiter eine wichtige Rolle spielen könnte. Das deck sich auch mit anderen Leaks die auch davon sprachen, dass es keine HD67xx geben wird.
Duplex
2010-09-28, 21:20:28
Barts kann kein Cypress Nachfolger sein, das wäre ein Rückschritt, AMD hat falschinformationen verbreitet!
Das sagt ja auch keiner, aber es geht darum, dass AMD vielleicht Juniper (wahrscheinlich mit kleineren Änderungen um einen neuen Namen zu rechtfertigen) unbedingt weiter im Portfolio haben will. Wenn das so wäre müsste man natürlich irgendwo Platz im Namensspektrum für diesen überarbeiteten Juniper schaffen und deshalb Barts eine Stufe höher schieben.
Es gibt aber einfach zu viele Möglichkeiten und wir wissen immer noch nicht viel, so das man das einfach nicht abschließend sagen kann. Man könnte dann ja auch einfach die HD57xx paralell zu den HD6k-Karten weiterlaufen lassen (obwohl andererseits die OEMs natürlich auch gerne einen neuen werbeträchtigen Namen hätten) und es gibt ja auch noch Turks usw., usw..
LovesuckZ
2010-09-29, 00:15:57
Tja Charlie redet mittlerweile von ~200mm^2 oder sogar etwas darunter für Barts. Ob das möglich ist und was das dann für Cayman heißt, maße ich mir nicht an zu sagen, aber irgendwas im Bereich von 500mm^2 oder mehr für Cayman wird AMD bestimmt nicht bringen.
Tja, Charlie erzählt viel, wenn der Tag lang ist und seine Informationslage gegen Null geht.
Bei <= 200mm^2 hätte Barts ein 128bit Speicherinterface. Die Frage lautet: Gibt es genug High-Speed GDDR5 Speicher für <200€ Karten und wäre man in der Lage bei 4x32bit Controller jeweils 8 ROPs anzubinden.
Sorkalm
2010-09-29, 00:57:54
Das sagt ja auch keiner, aber es geht darum, dass AMD vielleicht Juniper (wahrscheinlich mit kleineren Änderungen um einen neuen Namen zu rechtfertigen) unbedingt weiter im Portfolio haben will. Wenn das so wäre müsste man natürlich irgendwo Platz im Namensspektrum für diesen überarbeiteten Juniper schaffen und deshalb Barts eine Stufe höher schieben.
Man könnte Juniper auch (evtl. mit veränderten Spezifikationen, siehe oben) also HD 66xx ins Rennen schicken, wenn man Barts mit HD 6700 ins Rennen bringt. Ist doch kein Widerspruch. ;)
Das erklärts für mich nicht. Wenn AMD Barts HD 6800 nennt, werden sie schon einen Grund dafür liefern, sonst werden sie doch dadurch von den Medien für die bescheurte Namensgebung kritisiert.
Leonidas
2010-09-29, 04:35:05
Angeblich stimmen laut dem obrovsky Typen beide zusammen irgendwie:
Sie widersprechen sich aber in entscheidenden und nicht mehr kittbaren Punkten. Es können unmöglich beide stimmen.
Ailuros
2010-09-29, 09:06:16
Sie widersprechen sich aber in entscheidenden und nicht mehr kittbaren Punkten. Es können unmöglich beide stimmen.
Da es sich so oder so um einen refresh handelt sollte man keine zu grosse Aenderungen erwarten. Ob das Paket der Aenderungen jetzt doch 4D beinhaltet oder nicht haengt wohl eher davon ab wie einfach es war dieses in relativ kurzer Zeit umzukrempeln.
Worueber ich mir sicher bin, ist dass sie bis zu einem Grad (nichts grossartiges natuerlich) etwas Redundanz entfernt haben (was am Ende etwas an die area spart) und den Stromverbrauch besser kontrollieren laesst.
PCGH hat neuestens ja Cypress bei 349mm2 abgemessen welches ein Stueck ueber den von AMD angegebenen 334mm2 liegt. Da ich die Cayman die Groesse nicht von AMD zugesteckt bekam kann es sein dass sie doch real ist und es handelt sich in dem Fall dann um eine reale Steigerung von knapp unter 10%.
Sie widersprechen sich aber in entscheidenden und nicht mehr kittbaren Punkten. Es können unmöglich beide stimmen.
Er behauptet er ja nicht, dass beide für sich richtig wären, er sprach von "combine", sprich man müßte sich "nur" die jeweils die richtigen Parameter aus den Folien pflücken - nur weiss halt keiner welche das sind ^^
Ailuros
2010-09-29, 09:30:26
Er behauptet er ja nicht, dass beide für sich richtig wären, er sprach von "combine", sprich man müßte sich "nur" die jeweils die richtigen Parameter aus den Folien pflücken - nur weiss halt keiner welche das sind ^^
Es muss also ziemlich wurscht sein ob ein Design X A oder B Anzahl an TMUs hat oder wie soll ich das verstehen?
Zwar nicht an Dich gerichtet aber ich hab das Gefuehl dass manche zu viel Wert auf den ganzen Shader-krampf legen und Fuell-rate bzw. TMUs als Neben-geige ansehen. Es handelt sich aber um GPUs und hierbei sind TMUs ein Anteil von ff hw der noch eine geraume Zeit in GPUs vorhanden sein wird, oder anders ein sehr wichtiger Teil der selbst zukuenftige GPUs von einer CPU auf ersten Blick differenzieren koennte.
Es muss also ziemlich wurscht sein ob ein Design X A oder B Anzahl an TMUs hat oder wie soll ich das verstehen?
Du meinst also, dass das "combine" keinen Sinn macht ?
Ok, dann ists natürlich Käse ... ;-)
Ailuros
2010-09-29, 09:58:03
Du meinst also, dass das "combine" keinen Sinn macht ?
Ok, dann ists natürlich Käse ... ;-)
Ich hab im einen slide 960SPs/5D 48TMUs@850MHz und im anderen 1280SPs/4D 64TMUs@900MHz.
48*850MHz = 45.6 GTexels/s
64*900MHz = 57.6 GTexels/s
Ich koennte eventuell wieder auf 64TMUs kommen wenn ich auf 1280/5D gehe.
Wenn Du Dir Gipsel's Unterschrift ansiehst zitiert er mich dass ich AMD's Aussagen ueber NV's zukuenftige Produkte mehr vertraue als NV's selber. Kein Sarkasmus und natuerlich gilt es auch umgekehrt.
Ausser NV hat sich radikal so kurz vor dem launch verzettelt (was mir unwahrscheinlich klingt) ist nach ihnen Barts = Juniper + 2 cluster und Cayman = Cypress + 4 cluster oder anders:
Cayman:
1920SPs
96 TMUs
Barts:
960SPs
48 TMUs
Und dieses klaert erstmal nicht ob es sich um 5D oder 4D Einheiten handelt, denn:
24*20*4 = 1920
24*16*5 = 1920
deekey777
2010-09-29, 10:11:42
Irgendwie erinnert mich die Spekulation über den Aufbau der kommenden Radeons an die Spekulationen über den Aufbau des RV770, wo das vorherige R600-Schema nicht aufgehen wollte.
Ailuros
2010-09-29, 10:24:15
Irgendwie erinnert mich die Spekulation über den Aufbau der kommenden Radeons an die Spekulationen über den Aufbau des RV770, wo das vorherige R600-Schema nicht aufgehen wollte.
Der eigentliche "RV770" der DX11 Familie wird wohl eher unter 28nm erscheinen. Wenn man's aufs laecherlichste Nivaeu vereinfachen will: mach aus hw shader resolve, Z/stencil (RV770) dann einfach Tessellation-pipeline (NI).
Irgendwie erinnert mich die Spekulation über den Aufbau der kommenden Radeons an die Spekulationen über den Aufbau des RV770, wo das vorherige R600-Schema nicht aufgehen wollte.
Wo ging es nicht auf?
Das Problem bei RV770 war, dass mangels Interpolatoren nur 32 TMUs über die MT-Füllrate messbar waren, sodass man erst dachte es sind 32 TMUs + 800SPs (in 5 "ALU-SIMDs").
deekey777
2010-09-29, 10:41:23
Wo ging es nicht auf?
Das Problem bei RV770 war, dass mangels Interpolatoren nur 32 TMUs über die MT-Füllrate messbar waren, sodass man erst dachte es sind 32 TMUs + 800SPs (in 5 "ALU-SIMDs").
Irgendwie erinnert mich die Spekulation über den Aufbau der kommenden Radeons an die Spekulationen über den Aufbau des RV770, wo das vorherige R600-Schema nicht aufgehen wollte.
Das mit den Interpolatoren wurde eh nach dem Launch festgestellt, als der neue Grundaufbau längst bekannt war.
Damit du verstehst, worauf ich hinaus will: 800 SPs und 40 TMUs waren nach dem R600-Schema genau so undenkbar wie 320x4 und 64 TMUs.
Das Problem ist, dass AMD wohl tatsächlich eine Menge Fehlinfos selber streut und damit eine derartige Verwirrung geschaffen hat, dass man nichts mehr was geleaked wird glauben kann. Ich bin mir sehr sicher, dass wir die korrekten Specs von Barts schon gesehen haben, aber leider kann niemand genau verifizieren welche das nun waren. Echt grausam sowas, denn ich bin gespannt wie son kleines Kind an Weihnachten.
deekey777
2010-09-29, 11:01:31
Mal wieder was Neues:
http://www.xtremesystems.org/forums/showpost.php?p=4567603&postcount=691
http://bbs.expreview.com/viewthread.php?tid=37063&from=recommend_f
Kein DX11.1?
Das Problem ist, dass AMD wohl tatsächlich eine Menge Fehlinfos selber streut und damit eine derartige Verwirrung geschaffen hat, dass man nichts mehr was geleaked wird glauben kann. Ich bin mir sehr sicher, dass wir die korrekten Specs von Barts schon gesehen haben, aber leider kann niemand genau verifizieren welche das nun waren. Echt grausam sowas, denn ich bin gespannt wie son kleines Kind an Weihnachten.
Die eigentlichen Specs sind egal. Nur hat irgendjemand bewußt mit "4D/5D" und "Barts: 6700 oder 6800" angefangen. Wenn Barts mit alten 5-Slot-VLIW-Einheiten und als 6800 kommt, wird einiges los sein.
Sorkalm
2010-09-29, 11:15:46
Die eigentlichen Specs sind egal. Nur hat irgendjemand bewußt mit "4D/5D" und "Barts: 6700 oder 6800" angefangen. Wenn Barts mit alten 5-Slot-VLIW-Einheiten und als 6800 kommt, wird einiges los sein.
Solang die Performance stimmt, wird glaub ich wenig los sein - vll. von diesem Forum hier mal abgesehen...
Solang die Performance stimmt, wird glaub ich wenig los sein - vll. von diesem Forum hier mal abgesehen...
Ich erwarte in 40 nm keine Glanzleistungen. Erst recht nicht ohne Stromverbrauchssteigerungen. Man kann ein paar Flaschenhälse beseitigen, ein paar zusätzliche Einheiten dranpappen, die Auslastung von Einheiten verbessern und vor allem für die Tessellationsleistung, die erheblicher Verbesserungen bedarf, dürften viele Transistoren draufgehen. Also mehr als 25 Mehrleistung gegenüber der HD 5870 bei 225 Watt TDP erwarte ich einfach nicht.
Also mehr als 25 Mehrleistung gegenüber der HD 5870 bei 225 Watt TDP erwarte ich einfach nicht.
Du meinst also nach einem Jahr schafft AMD mit dem Cayman durch Erhöhung der TDP um 20%, lediglich eine 25%ige Mehrleistung?
Soso.
Wenn die Tesselationsperformance deutlich erhöht wurde, dann kann man imo mit 25% im Mittel sehr gut leben. Unter DX9 und 10 ist die 5870 ja sowieso bärenstark aufgestellt.
Sicher wären 25% ausreichend, wenn die Tesselation Performance gefixt wurde. Aber ich wüsste nicht warum dies fast 1 zu 1 zu lasten der Verlustleistung gehen sollte.
Was den Stromverbrauch angeht:
Wenn AMD die Einheiten umbaut, um eine höhere Auslastung zu erzeugen, dann schalten auch mehr Transistoren gleichzeitig. Dieser Aspekt der Leistungsaufnahme geht also schonmal nach oben, wenn die neuen Chips nicht deutlich weniger Einheiten haben als die älteren.
Beim Rest müsste dann halt gegengesteuert werden, um die Leistungsaufnahme insgesamt zu senken.
-carsten
mironicus
2010-09-29, 12:33:32
Launchtermin: Und wieder spricht man davon, dass Barts als 6850 und 6870 erscheinen soll und jeweils schneller als die 5830 und 5850 sein werden. Zumindest passt dann auch die Ausrichtung auf die GTX 460.
http://www.nordichardware.com/news/71-graphics/41251-amd-radeon-hd-6870-and-6850-launches-on-october-18th.html
milamber!
2010-09-29, 13:24:07
Launchtermin: Und wieder spricht man davon, dass Barts als 6850 und 6870 erscheinen soll und jeweils schneller als die 5830 und 5850 sein werden. Zumindest passt dann auch die Ausrichtung auf die GTX 460.
http://www.nordichardware.com/news/71-graphics/41251-amd-radeon-hd-6870-and-6850-launches-on-october-18th.html
Die News ist so alt, die hat schon nen Bart(s).
mmhmwraahaha
Du meinst also nach einem Jahr schafft AMD mit dem Cayman durch Erhöhung der TDP um 20%, lediglich eine 25%ige Mehrleistung?
Soso.
Bei 40 nm in etwa ja. 25 % mehr Leistung als eine HD 5870 hieße ca. 10 % über GTX 480 und das mit (realistischen) 225 Watt TDP bei gleicher Strukturgröße (40 nm) wäre ja auch hervorragend. Was erwartest du denn sonst? 45 % mehr? Da wäre man schon auf HD 5970-Niveau und das halte ich unmöglich in 40 nm für eine Single-Karte, es sei denn, man geht den nVidia-Brute-Force-Weg und toleriert bis zu 310 Watt.
Ich meine, die HD 5870 hat auch "nur" 50 % gegenüber der HD 4890 zugelegt, obwohl die Einheiten alle verdoppelt wurden und der Prozess von 55 auf 40 nm geschrumpft ist. Dito nVidia. Die GTX 480 leistet lediglich 50 % mehr als eine GTX 285 (55 nm -> 40 nm). Von daher halte ich es fast für ausgeschlossen, dass in 40 nm AMD irgendetwas rausbringt, dass 40 bis 50 % schneller als die HD 5870 ist. Bei Investition in die Geometrieleistung sowieso nicht. Daher halte ich 25 %, maximal 30 % für realistisch. Und da immer noch in 40 nm, verbunden mit Verbrauchssteigerung.
Ailuros
2010-09-29, 14:38:48
Von daher halte ich es fast für ausgeschlossen, dass in 40 nm AMD irgendetwas rausbringt, dass 40 bis 50 % schneller als die HD 5870 ist.
Haettest Du irgend etwas in "single chip" gesagt haette ich auch keinen Anlass herumzuulken :D Natuerlich wird AMD irgend etwas heraus bringen dass sogar ueber 50% schneller sein wird als eine 5870: Antilles :P
AMD hat mMn aber wesentlich mehr Optimierungsmöglichkeiten als NV. Da ist nach wie vor an verschiedenen Stellen die Handbremse angezogen bzw. sind Flaschenhälse vorhanden. Alleine die vielleicht erfolgte Umstellung von 5d auf 4d könnte einiges an Perfomance/mm^2 gebracht haben. Man stelle sich mal vor, dass AMD einfach mal sagt "wir sch... auf Die-Größe und hauen mal alles an Performance raus was unter 40nm geht". Natürlich weiß ich, dass AMD das nicht tun wird, aber ich schätze ihre Möglichkeiten mehr Performance zu generieren als NV deutlich besser ein.
Ich erwarte auch beim Topmodell (Was ja im November laut Charlie erscheinen soll) Name gerade entfallen bei dem Namenschaos, 10% über 480 Niveau. Preis wird auch deftig sein und Stromverbrauch mindestens 200TDP. Soweit meine Meinung:)
Die beiden "kleinen" die jetzt kommen werden wohl gegen die 460 antreten;)
Haettest Du irgend etwas in "single chip" gesagt haette ich auch keinen Anlass herumzuulken :D Natuerlich wird AMD irgend etwas heraus bringen dass sogar ueber 50% schneller sein wird als eine 5870: Antilles :P
X-D Dann hast du nicht richtig gelesen, ein Posting davor: Da wäre man schon auf HD 5970-Niveau und das halte ich unmöglich in 40 nm für eine Single-Karte, es sei denn, man geht den nVidia-Brute-Force-Weg und toleriert bis zu 310 Watt. Ätsch. :tongue:
Bei 40 nm in etwa ja. 25 % mehr Leistung als eine HD 5870 hieße ca. 10 % über GTX 480 und das mit (realistischen) 225 Watt TDP bei gleicher Strukturgröße (40 nm) wäre ja auch hervorragend. Was erwartest du denn sonst? 45 % mehr? Da wäre man schon auf HD 5970-Niveau und das halte ich unmöglich in 40 nm für eine Single-Karte, es sei denn, man geht den nVidia-Brute-Force-Weg und toleriert bis zu 310 Watt.
Nein, um 45% oder 50% mehr Leistung ging es nicht.
Doch ich bezweifele es, das die Mehrleistung nur durch bloßes hochtreiben der TDP aufgrund Erhöhung der Recheneinheiten erreicht wurde.
Zumal ja anscheinend mehr gemacht wurde, als nur ein paar SIMD mehr auf die GPU zu kleben.
Gasti
2010-09-29, 15:37:51
Nein, um 45% oder 50% mehr Leistung ging es nicht.
Doch ich bezweifele es, das die Mehrleistung nur durch bloßes hochtreiben der TDP aufgrund Erhöhung der Recheneinheiten erreicht wurde.
Zumal ja anscheinend mehr gemacht wurde, als nur ein paar SIMD mehr auf die GPU zu kleben.
Wenn die Auslastung verbessert wurde erhöht sich ebenfalls der Energiebedarf.
Ich glaube nach wie vor an 50 % Singlechip Mehrleistung gegenüber einer HD5870. Das hat folgende Gründe:
1.) Habe ich seit RV770 vollstes Vertrauen und eine Hochachtung von deren Ingenieuren. Die scheinen immer aus weniger mehr zu machen. Wenn die Treiberpolitik denen mal nachkommen würde .... träum :)
2.) Als der RV870 neu erschien hieß es zunächst der Chip sei gegenüber RV770 ineffizient und extrem redundant. Diese Argumente hörte man dann nach Aufkommen der GF100 seltenst aber sie blieben berechtigt.
3.) Alleine das der Performancechip in HD58XX Regionen wildern soll bestätigt diese Annahme.
Leonidas
2010-09-29, 15:57:29
Er behauptet er ja nicht, dass beide für sich richtig wären, er sprach von "combine", sprich man müßte sich "nur" die jeweils die richtigen Parameter aus den Folien pflücken - nur weiss halt keiner welche das sind ^^
Sofern eine der beiden Folien korrekt ist, dann ist sie auch zu 100% korrekt. Und wenn beide falsch sind, dann sind wie sowieso genauso schlau wie vorher.
Nakai
2010-09-29, 15:58:23
http://www.youtube.com/watch?v=cd2QRjEtddo
So was sin etz die richtigen Folien? Wird da die Nummer 3 gezeigt?
mfg
€: Und wieder HD67xx...
Nur weil da jemand auf YT auftritt, macht dass das Wiedergeben von Fake-Folien auch nicht glaubwürdiger. ;)
derguru
2010-09-29, 17:05:36
frag mich wann amd sich zum launchtermin meldet,letztes jahr zum launch wusste man es längere zeit vorher (inkl.flugzeugträger bla,bla).
wenn es angeblich mitte oktober sein soll wird es aber zeit.
dildo4u
2010-09-29, 17:23:12
Lieferbarkeit ist doch eh erst November vieleicht will man erst starten wenns genug Karten gibt,nicht das man wie bei der 5800 im Oktober ein paar hat die aber schnell weg sind.
Dieses Event Mitte Oktober ist aber nicht der Launchtermin (12.10. ist wohl falsch), sondern eine reines Fachpresse-Event zur allg. Vorstellung der HD6k. Der eigentliche Launch soll dann Ende Oktober stattfinden (angeblich 25.10.).
dildo4u
2010-09-29, 17:31:22
Dieses Event Mitte Oktober ist aber nicht der Launchtermin (12.10. ist wohl falsch), sondern eine reines Fachpresse-Event zur allg. Vorstellung der HD6k. Der eigentliche Launch soll dann Ende Oktober stattfinden (angeblich 25.10.).
Neu im Geschäft?Wenn man beim PR Termin die Specs veröffentlicht und zeigt was die Karte kann nennt sich das Paperlaunch,der nur dazu da ist das man keine anderen Karten kauft bis die 6K erscheint.
Neu im Geschäft?Wenn man beim PR Termin die Specs veröffentlicht und zeigt was die Karte kann nennt sich das Paperlaunch,der nur dazu da ist das man keine anderen Karten kauft bis die 6K erscheint.
Muss nicht unbedingt zutreffen.
Wenn man die Karte im kleinen Kreise nur ausgewählten Personen vorstellt, dann ist dies kein richtiger Launch (offiziell).
Wenn aber die Karten offiziell vorgestellt werden, und nicht lieferbar sind, dann ist dies ein Paperlaunch.
Wobei AMD zur Zeit keinen Druck hat, also auch mit einem Paperlaunch gut leben könnte.
Sorkalm
2010-09-29, 17:59:57
Neu im Geschäft?Wenn man beim PR Termin die Specs veröffentlicht und zeigt was die Karte kann nennt sich das Paperlaunch,der nur dazu da ist das man keine anderen Karten kauft bis die 6K erscheint.
Reines Fachpresse-Event mit NDA ist aber nicht so unüblich, gabs früher auch schon. Die Presse muss man eh vorher einweihen, wenns mit Tests losgehen soll.
Mit Fachpresse-Event meinte ich, dass es an diesem Tage keine Reviews geben wird, sondern erst an dem Tag des offiziellen Launches (25.10?). Bei diesem Event werden dann z.B. auch Testsamples an die Anwesenden verteilt, wie es auch schon beim Flugzeugträger-Event der HD5k war.
mironicus
2010-09-29, 18:16:08
Huch! Bei Geizhals sind die ersten HD 6770 im Preisvergleich aufgetaucht!
.... kleiner Scherz. :biggrin:
Ne, die letzten GPU-Starts von AMD waren kein Paper-Launch. Die waren am Tag wo die NDA fiel gleich schon lieferbar. Meine 5770 erhielt ich damals sogar schon 3 Tage vor dem NDA-Fall (vor dem 12. Oktober).
Wäre auch etwas zu früh;-)
Ich kann mich noch an der Evergreen Launch erinnern....Damals sagte AMD (glaube Baumann) daß Evergreen nur ein aufgebohrter RV770 mit aufgesetztem DX11 sei und die Nachfolgegeneration der eigentlich richtige DX11 Chips sein soll. Was auch immer das bedeutet :-) NI, SI oder in Bezug auf Tesselation...wer weiß
Spacedust
2010-09-29, 21:18:28
Meine Informationen waren bis heute immer dass die High End 6xxx erst zur CES 2011 kommen. Laut Info von heute kommt bereits die 68xx Serie im Oktober und die High End 69xx Serie gleichzeitig oder kurz danach. Sorry für damalige Fehlinfo.
Hayab
2010-09-29, 21:18:58
AMD wird die Tessalationleistung bestimmt stark verbessern 50 Proz. vielleicht auch mehr um die Luft aus den Tessalationspropaganda von NV zu nehmen.
DX9 50+ Proz. mehr Rechenleistung gleube ich aber nicht. 15-25 Proz. sind realistisch. Mehr als 30 Proz. waeren Strategisch suboptimal, weil man sich die Huerde unnostig selbst zu hoch fuer das Nachfolgeprojekt setzen wuerde.
Vorallem weil jetzt die Karten nicht unter den Namen ATI sondern AMD verkauft werden, bin mir sicher, dass AMD da ein ordemtlich potentes GPU Produkt unter seinen Namen anbieten will. Zumal NV da keinen grossen Marketingdruck mit ihren GF100 Produkten erschaffen konnte.
AMD sollte endlich mehr in die Software investieren sollte, ich meine damit die ganze Stream geschichte. Momentan bis auf die schwache StreamSDK und brook.dll fuer paar DC Projekte ist da nicht viel drinn.
Ich glaube irgendwo eine Dokument gesehen zu haben, mit AMD Logo wo die Roadmap des ganzen GPGU Projekts drauf stand, und irgendeine Physik engine in Oktober 2010 auf Basis von Stream 2.3 vorgestellt werden sollte.
Vielleicht mit den neuen HD6xxx Karten?
http://img3.imagebanana.com/img/067u3pjw/confidential237549.jpg
http://forum.beyond3d.com/showpost.php?p=1477439&postcount=2419
Hoffentlich echt. Vor allem die RPEs könnten einen deutlichen Sprung bedeuten.
crux2005
2010-09-29, 21:21:43
Laut meinen Infos sollen die Barts Karten als HD 6800 in Oktober kommen. Die Cayman cca. 1 Monat später.
btw: bis vor kurzem gab es noch keine Finalen Taktraten für die 6800-er...
Also Cayman 480x4 SPs,96 TMUs,48 ROPs und 3 RPEs.
OgrEGT
2010-09-29, 21:33:40
Bei Beyond3D ist eine neue Folie aufgetaucht
http://forum.beyond3d.com/showpost.php?p=1477440&postcount=2420
Barts:
320 (x4) SPs
64 TMUs
32 ROPs
Cayman:
480 (x4)
?? TMUs
?? ROPs
Too late :)
http://img3.imagebanana.com/img/067u3pjw/confidential237549.jpg
http://forum.beyond3d.com/showpost.php?p=1477439&postcount=2419
Hoffentlich echt. Vor allem die RPEs könnten einen deutlichen Sprung bedeuten.
Sorry, aber die Folie sieht doch völlig billig und überhaupt nicht professionell aus. Für mich ein klarer Fake, eine solche Folie würde AMD nicht heraus geben.
deekey777
2010-09-29, 21:38:32
Sorry, aber die Folie sieht doch völlig billig und überhaupt nicht professionell aus. Für mich ein klarer Fake, eine solche Folie würde AMD nicht heraus geben.
Das ist eine echte Seite aus einem PDF-Dokument:
http://www.abload.de/img/echtj6kg.jpg
Schön, oder?
http://img3.imagebanana.com/img/067u3pjw/confidential237549.jpg
http://forum.beyond3d.com/showpost.php?p=1477439&postcount=2419
Hoffentlich echt. Vor allem die RPEs könnten einen deutlichen Sprung bedeuten.
Was sind RPEs?
Siehe mein Bild: Cypress hat 2 RPEs.
Die eigentliche Frage ist: Wie ist ein RPE aufgebaut. Denn 160x4 plus 32 TMUs (also ein RPE) passen nach dem RV770-Schema nicht zusammen.
Der Codename ganz links ist definitiv Caicos und das sollte doch eigentlich die LowEnd-Lösung sein, zumindest nach allen was wir bisher wissen. Es gab ja auch schon die 100% echten Fotos einer solchen Karte zu sehen. Nach dieser Folie ist Caicos aber genau ein halber Barts und damit ganz sicher kein LowEnd. Wenn da jetzt Turks statt Caicos gestanden hätte, wäre die Folie deutlich glaubwürdiger.
LovesuckZ
2010-09-29, 21:44:43
Warum blurrt man sowieso alles bis auf Barts aus? Sieht nach Fake aus.
Wieso sollte sie nicht echt sein...muß doch nicht alles gefakt sein.
Caicos mit 32 TMUs und 16 ROPs, 1RPE kann man wohl erkennen, wie auch bei beyond3d steht. Bei Cayman dagegen siehts düster aus. 480 (x4) und 3RPEs....
"One RPE is one "ultra threaded dispatch processor" and one rasterizer (and one Shader/TMU block).. " hehe, wir werden sehen....
Cayman 480x4 SPs,96 TMUs,48 ROPs und 3 RPEs.
480x4 ist langweilig für cayman
deekey777
2010-09-29, 21:57:40
480x4 ist langweilig für cayman
Ist es nicht. Cypress ist 320x5. 480x4 >>>>>>>> 320x5. Schon Barts sollte mit 320x4 schneller sein, auch wenn er weniger TMUs haben soll.
w0mbat
2010-09-29, 22:00:45
Sorry, aber die Folie sieht doch völlig billig und überhaupt nicht professionell aus. Für mich ein klarer Fake, eine solche Folie würde AMD nicht heraus geben.
hm, ich denke dass die echt ist.
480x4 in Verbindung mit RPEs 3 klingen sehr interessant:-)
hm, ich denke dass die echt ist.
Warum sind die Daten jetzt auf einmal korrekt? Genau dasselbe hatten wir schon bei der letzten Folie wo gerade Leute wie deekey777 sofort FAKE geschrien haben.
deekey777
2010-09-29, 22:06:26
Warum sind die Daten jetzt auf einmal korrekt? Genau dasselbe hatten wir schon bei der letzten Folie wo gerade Leute wie deekey777 sofort FAKE geschrien haben.
Wo denn das?
Ich habe die Daten nur deswegen als falsch bewertet, weil sie nicht zum RV770-Schema gepasst haben. Auch diese Folie passt nicht zum RV770-Schema, aber man kann mit dem R600-Schema diese Folie zurechtbiegen.
Immer vorsichtig.
Ich glaube eher an den 1280SP Barts-XT als den mit 960SPs, obwohl eigentlich die gesamte Fachpresse das anders sieht, weil Barts damit natürlich unerwartet mächtig sein würde. Das Einzigste was mich an dieser Folie stört, ist wie gesagt, die Einordnung der Caicos-GPU als exakt halber Barts. Bisher war doch überall unstrittig das Caicos LowEnd ist.
LovesuckZ
2010-09-29, 22:16:10
Mit 320 ALUs, 64TMUs, 256bit und 32 ROPs wäre man auch schon sehr nah an 300mm^2 mit Barts.
Da Caymann anscheinend nur 50% mehr Einheiten sein werde, müsste man hier schon sehr nah in Richtung 400mm^2 gehen.
Mit 320 ALUs, 64TMUs, 256bit und 32 ROPs wäre man auch schon sehr nah an 300mm^2 mit Barts.
Da Caymann anscheinend nur 50% mehr Einheiten sein werde, müsste man hier schon sehr nah in Richtung 400mm^2 gehen.
Das Problem ist das du von Evergreen ausgehst, AMD kennt den Prozess aber mittlerweile deutlich besser und konnte hier wohl deutlich Redundanz heraus nehmen, VIAs einsparen, etc.
Aha und das weißt du bitte woher? Also ich maße mir nicht an zu sagen wie groß ein Barts-XT mit 320x4 SPs wäre.
Ich meinte natürlich LovesuckZ.
Warum sind die Daten jetzt auf einmal korrekt? Genau dasselbe hatten wir schon bei der letzten Folie wo gerade Leute wie deekey777 sofort FAKE geschrien haben.
Also für mich macht das durchaus Sinn. Es gibt ja schon länger Gerüchte das die kleinen Evergreen-Chip dank ihrer ausgezeichneten konkurrenzfähigkeit weiter laufen werden. Könnte dann so aussehen.
HD6900 -> Cayman - 1920SP
HD6800 -> Barts - 1280SP
HD6700 -> Juniper 800SP
HD6600 - Caicos 640SP
HD6500 -> Redwood 400SP
HD6400 -> Cedar 80SP
Die alten und die neuen Chips ergänzen sich perfekt!
deekey777
2010-09-29, 22:23:28
Dass Cayman über 400 mm² landen würde, ist viel weniger unwahrscheinlich, als er darunter bleibt.
Also für mich macht das durchaus Sinn. Es gibt ja schon länger Gerüchte das die kleinen Evergreen-Chip dank ihrer ausgezeichneten konkurrenzfähigkeit weiter laufen werden. Könnte dann so aussehen.
HD6900 -> Cayman - 1920SP
HD6800 -> Barts - 1280SP
HD6700 -> Juniper 800SP
HD6600 - Caicos 640SP
HD6500 -> Redwood 400SP
HD6400 -> Cedar 80SP
Die alten und die neuen Chips ergänzen sich perfekt!
Sorry, wollte natürlich das zitieren:
Ich glaube eher an den 1280SP Barts-XT als den mit 960SPs, obwohl eigentlich die gesamte Fachpresse das anders sieht, weil Barts damit natürlich unerwartet mächtig sein würde. Das Einzigste was mich an dieser Folie stört, ist wie gesagt, die Einordnung der Caicos-GPU als exakt halber Barts. Bisher war doch überall unstrittig das Caicos LowEnd ist.
It could , however , it is more logical that a RPE is like a GPC , because it scales perfectly with core count :
Caicos : 1 RPE = 640 SPs
Barts : 2 RPE = 1280 SPs (640x2)
Cayman : 3 RPE = 1920 SPs (640x3)
dildo4u
2010-09-29, 22:32:12
Dass Cayman über 400 mm² landen würde, ist viel weniger unwahrscheinlich, als er darunter bleibt.
Minimum 450mm²(Und da bin ich noch großzügig) PCGH hat Cypress er neu mit 350mm² vermessen.
http://www.pcgameshardware.de/aid,775643/Der-GF100-ohne-Heatspreader-Nackte-Tatsachen-der-Riesen-GPU/Grafikkarte/Wissen/
deekey777
2010-09-29, 22:33:22
Minimum 450(Und da bin ich noch großzügig) PCGH hat Cypress er neu mit 350mm vermessen.
http://www.pcgameshardware.de/aid,775643/Der-GF100-ohne-Heatspreader-Nackte-Tatsachen-der-Riesen-GPU/Grafikkarte/Wissen/
Dein Wissen überrascht mich immer wieder. Aber ich verlasse mich da lieber auf meine Diskussion mit Gipsel.
Das von den HD5k-GPUs evt. etwas recyclet wird, geistert mir ja schon eine ganze Weile durch den Kopf. Nur glaube ich nicht, dass es so viele betreffen wird, sondern ich denke da vorallendingen an Juniper.
Vielleicht ist Turks nicht anderes als Juniper+UVD3+ein paar mehr SPs und ein paar andere Kleinigkeiten.
dildo4u
2010-09-29, 22:42:43
Dein Wissen überrascht mich immer wieder. Aber ich verlasse mich da lieber auf meine Diskussion mit Gipsel.
AMD kann auch nicht zaubern zumindest keine Tesslationsleistung aus dem Nicht's gegenüber der 5800.Selbst wenn AMD das selbe mit weniger Transistoren erreicht wird das vermutlich mehr als wieder aufgefüllt mit den Einheiten die die Geometrieleistung erhöhen.
aylano
2010-09-29, 23:12:30
AMD kann auch nicht zaubern zumindest keine Tesslationsleistung aus dem Nicht's gegenüber der 5800.Selbst wenn AMD das selbe mit weniger Transistoren erreicht wird das vermutlich mehr als wieder aufgefüllt mit den Einheiten die die Geometrieleistung erhöhen.
Jetzt wäre es umso-interessanter, warum der HD 5800 (2x800) mit 350mm² umsoviel größer ist als der RV840 (166mm²) mit 1x800 Shaders & Co.
Jetzt wäre es umso-interessanter, warum der HD 5800 (2x800) mit 350mm² umsoviel größer ist als der RV840 (166mm²) mit 1x800 Shaders & Co.
Der Rv870 ist offiziell 330mm² und der GF100 ist offiziell 530mm² groß.
Die 350mm² hat PCGH gemessen (beim GF100 waren es laut PCGH 550)
Würde man den RV840 vermessen, würde man vermutlich auf etwa die Hälfte von RV870 kommen.
Psychopat
2010-09-29, 23:35:46
Wenn Caicos die 640 4D Shader haben wird, braucht man Juniper nicht mehr da annähernd gleiche Leistung. Das Caicos 66xx und Juniper 67xx wird wäre somit Blödsinn.
davidzo
2010-09-30, 01:46:53
Der Rv870 ist offiziell 330mm² und der GF100 ist offiziell 530mm² groß.
Die 350mm² hat PCGH gemessen (beim GF100 waren es laut PCGH 550)
Würde man den RV840 vermessen, würde man vermutlich auf etwa die Hälfte von RV870 kommen.
richtig, die dies haben wirklich ein bisschen logikfreie fläche an den kante. diese leicht höheren messwerte als angaben haben wir auch bei CPUs schon lange. die pads werden aber vermutlich bis zum rand gehen weil das DIE dort ja eingebettet ist.
rv840 wäre vermutlich 175mm² würde man ihn messen. trotzdem ist er verdammt gut gepackt, wenn man bedenkt dass der uncore bei rv840 ja eigentlich ähnlich viel space wie cypress verbrauchen müsste. rv840 müsste also eigentlich rund ~60% der cypress diesize haben, nicht unter 50% wie es der Fall ist.
irgendwas verbraucht bei juniper weniger platz als bei cypress, bzw. irgendwas schlummert in cypress was nicht richtig funktioniert oder zum tragen kommt, aber fläche verbraucht.
deekey777
2010-09-30, 10:29:42
Cypress hat eigentlich alles doppelt (bis auf das GDS vielleicht und TU und UVD sowieso). Hinzu kommt, dass er wohl über mehr redunante Einheiten verfügt (es gibt ja immernoch keinen Screenshot des nackten Dies).
Fudzilla mal wieder. Kernaussage Barts ersetzt HD58xx und soll/muss damit schneller sein, als HD5870/HD5850. Ich meine ich rechne ja schon mit dem 1280SP Barts-XT, aber das der dann auch noch die HD5870 schlagen soll, wäre wirklich richtig heftig.
http://www.fudzilla.com/graphics/item/20358-barts-xt-and-pro-to-replace-5800-series
Man wird wohl die deutlich gesteigerte D3D11-Leistung propagieren und dass man "800er"-Performance zu einem niedrigeren Preis für die Massen bieten kann.
Bei D3D9-10.x-Games würde ich keine (spürbare) Leistungssteigerung erwarten.
Für HD 6700 wären wohl die Karten einfach zu schnell und vor allem zu teuer (4770 $99, 5770 $159, "HD 6770" >=$199).
Ok wenn man von einer deutlich gesteigerten DX11-Performance ausgeht, kann Barts-XT dann durchschnittlich natürlich schneller als die HD5870 werden.
Chris2CB
2010-09-30, 12:21:57
Eine AMD Karte braucht längere Balken als eine Nvidia Karte. Das sind die neuen AMD Karten AAAAAA MMMMMM DDDDDD. Die alten ATI!!!! Karten so wie deren Namen sind uninteressant.
Vielleicht filtern die (neuen) TMUs perfekt trilinear, sodass die Pro-Takt-Leistung hier gegenüber Evergreen bei >2 liegt? ;D
mironicus
2010-09-30, 12:35:28
Das wird ja immer besser. Ist Cayman dann wohl 40-50% schneller als die 5870...? :D
Anhand der möglichen Eckdaten und Effizienzverbesserungen sind ~40% nicht ausgeschlossen.
Damit einhergehen wird aber wohl auch der Preis, der dann deutlich über $400 liegen sollte. Deshalb vielleicht auch die Bezeichnung als HD 6970.
RoNsOn Xs
2010-09-30, 13:42:52
Anhand der möglichen Eckdaten und Effizienzverbesserungen sind ~40% nicht ausgeschlossen.
Damit einhergehen wird aber wohl auch der Preis, der dann deutlich über $400 liegen sollte. Deshalb vielleicht auch die Bezeichnung als HD 6970.
`wenn die bezeichnung so kommen sollte, dann wohl eher doch keine dual-karte
`wenn die bezeichnung so kommen sollte, dann wohl eher doch keine dual-karte
Naja oder für 600€.
ICh denke ma, dass die HD 6970 so 425€ kosten wird.
mironicus
2010-09-30, 13:45:25
Das wird doch einige freuen. Die 6970 so schnell oder schneller als eine 5970 und keine Mikroruckler. :)
Nakai
2010-09-30, 13:52:40
HD6970 wird gewiss an die HD5970 rankommen.
Wenn die neue Folie korrekt ist, dann hat ein RPE für Barts und Cayman 640 SPs und 32 TMUs.
Nachteil der Folie ist, dass wieder nichts über die SIMDs gesagt wurde.:freak:
Naja 30 bis 50% höhere Leistung. Bei Tesselation könnte doch nocht mehr rauskommen.
mfg
RoNsOn Xs
2010-09-30, 14:02:05
Naja oder für 600€.
ICh denke ma, dass die HD 6970 so 425€ kosten wird.
was für ne bezeichnung sollte die dann haben? das meinte ich ja.
6990 wird wohl nicht gehen, da man in der selben family steckt. denke nicht das man sowas machen würde.
was für ne bezeichnung sollte die dann haben? das meinte ich ja.
6990 wird wohl nicht gehen, da man in der selben family steckt. denke nicht das man sowas machen würde.
6990 war aber der name, der im zuge der umbenennungsspekulationen auf diversen hardwareseiten immer genannt wurde.
Man könnte sie natürlich auch HD 6970X2 nennen, aber 2mal Cayman XT dürfte wohl locker 400Watt TDP haben, das kann ich mir nicht vorstellen.
Also wenn eine Dual-Karte kommt, wird sie wohl auch HD6990 heißen.
Gluckstaler
2010-09-30, 16:09:10
@ Nakai
Beide Folien sind ganz eindeutig: Ein SIMD hat 80 Shader Processors. Die neuere Folie sagt 4-VLIW und 80, das heisst die Wavefront-Spitze wurde wie hier schon spekuliert, verschoben. Früher bestand ein SIMD aus 16x5 und jetzt aus 20x4. Dies ist aus dem Vergleich zwischen Barts Pro und XT ersichtlich.
Meines Erachtens ist es schon erstaunlich, dass das Folien-Leak von Barts (zu detailliert um nicht absichtlich zu sein) zum gleichen Zeitpunkt geschah wie die Meldung, dass sich der Launch von Cayman wahrscheinlich um einen Monat verzögert und auf Ende November / Anfang Dezember anzusetzen ist.
Cayman ist hochinteressant, Barts vom Performance-Aspekt eher nicht, denn Barts wird etwa gleich leistungsfähig sein wie Cypress.
Spannend finde ich jedoch, dass aufgrund der Codenamen (Cayman liegt in den Greater Antilles und Barts in den Lesser Antilles, Turks & Caicos im Bahamas-Archipel) davon auszugehen ist, dass es sowohl eine Dual-Chip Karte (Antilles) auf Barts wie auch auf Cayman-Basis geben könnte.
Dies könnte darauf hindeuten, dass Cayman einen um mehr als 50% höheren Energieverbrauch haben könnte als Barts...
Wenn man wieder dem R600-Design folgt, kann ein SIMD auch 32x4 ALUs bestehen.
Pro RPE eben 5 ALU-SIMDs und eine TU-SIMD mit 32 TMUs (8 Quads).
Spannend finde ich jedoch, dass aufgrund der Codenamen (Cayman liegt in den Greater Antilles und Barts in den Lesser Antilles, Turks & Caicos im Bahamas-Archipel) davon auszugehen ist, dass es sowohl eine Dual-Chip Karte (Antilles) auf Barts wie auch auf Cayman-Basis geben könnte.
Die zwei Antilles die im Treiber genannt wurden, waren beide Cayman-basierend.
Gluckstaler
2010-09-30, 16:19:11
Im Treiber waren nur zwei Antilles verzeichnet.
Ich spekuliere über den dritten gerüchteweisen erwähnten 6900er...
Nennen wir ihn mal Antilles LE...
Beide Folien sind ganz eindeutig: Ein SIMD hat 80 Shader Processors. Die neuere Folie sagt 4-VLIW und 80, das heisst die Wavefront-Spitze wurde wie hier schon spekuliert, verschoben. Früher bestand ein SIMD aus 16x5 und jetzt aus 20x4. Dies ist aus dem Vergleich zwischen Barts Pro und XT ersichtlich.
Ich bin da immer noch skeptisch und glaube das erst wenn ich den Chip sehe. Das Problem ist, dass das ziemliche Performanceimplikationen mit alter Software hat, die ihre Branching etc. an 64er Wavefronts ausgerichtet hat.
Bei Compute Shadern und OpenCL programmieren zur Zeit alle für eine 64er Group-Size, da das sowohl für NVIDIA (32) und AMD funktioniert.
Außerdem ist 80 eine ekelige Zahl. Man muss überall ein Bit mehr durch den Chip durchschleifen, obwohl man es eigentlich fast nie braucht.
Gluckstaler
2010-09-30, 16:37:30
Ich bin da immer noch skeptisch und glaube das erst wenn ich den Chip sehe. Das Problem ist, dass das ziemliche Performanceimplikationen mit alter Software hat, die ihre Branching etc. an 64er Wavefronts ausgerichtet hat.
Bei Compute Shadern und OpenCL programmieren zur Zeit alle für eine 64er Group-Size, da das sowohl für NVIDIA (32) und AMD funktioniert.
Außerdem ist 80 eine ekelige Zahl. Man muss überall ein Bit mehr durch den Chip durchschleifen, obwohl man es eigentlich fast nie braucht.
Eigentlich könnte ich dem nur zustimmen.
Was wäre denn das Argument es (80er SIMD) doch zu machen?
Was wäre denn das Argument es (80er SIMD) doch zu machen?
Man könnte die nötige Crossbar zwischen TMUs und ALUs einsparen.
Ich weiß nicht, ob es schon bekannt ist, aber wohl KW42 soll es soweit sein.
Nakai
2010-09-30, 20:55:51
Meines Erachtens ist es schon erstaunlich, dass das Folien-Leak von Barts (zu detailliert um nicht absichtlich zu sein)
Naja, so detailliert waren beide Folien(die mit den Barts-Infos) nicht. Es ist nur erstaunlich, wie auf einmal alle auf den Folien-Trip kommen. Ich denke die Leute wollen glauben, was sie eben glauben wollen...muss aber nicht der Wahrheit entsprechen.
:confused:
mfg
Man könnte die nötige Crossbar zwischen TMUs und ALUs einsparen.
Was bekommt man dafür, wenn man diese Crossbar nicht mehr im Chip braucht? Bessere Taktbarkeit und Die-Flächen Einsparung?
Angeblich entweder mit GTX490?(GF104x2 - Vollausbau?) oder GF110 (GTX485? - HighEnd-Single-GPU), aber es gibt dazu keinerlei Infos. Das Ganze kam nur aufgrund einer schwammigen Äußerung von Jen-Hsun Huang auf der GTC ins rollen. Wenn die HD6k so werden wie ich mittlerweile vermute, kann NV erstmal nur über den Preis reagieren, aber der ist ja bei einigen Modellen schon soweit unten, dass sie vielleicht jetzt schon nur noch einen minimalen Gewinn machen (vielleicht sogar schon Verluste).
MadManniMan
2010-10-01, 00:45:00
Wir haben also verschiedene Theorien für Nvidias Reaktion auf die HD6000er:
- reine Preissenkungen
- GF104 im Vollausbau, optional x 2
- Ankündigung eines GF110, um Wind aus den Segeln zu nehmen
Die erste allein erscheint mir ein wenig kraftlos - ich rechne mit der zweiten in Kombination.
http://img215.imageshack.us/img215/8467/amdgpuz.jpg
Schlammsau
2010-10-01, 09:28:46
Wir haben also verschiedene Theorien für Nvidias Reaktion auf die HD6000er:
- reine Preissenkungen
- GF104 im Vollausbau, optional x 2
- Ankündigung eines GF110, um Wind aus den Segeln zu nehmen
Die erste allein erscheint mir ein wenig kraftlos - ich rechne mit der zweiten in Kombination.
-noch weiter runter? Wie wäre das finanzierbar?
-würde nVidia praktisch noch schlechter dastehen lassen. Auch der GF104 ist zu gross für die erbrachte Leistung. Wenn Barts, wie spekuliert, die HD5800 Serie beerben soll, wirds ganz übel für nVidia!
-Das wird am ehesten eintreten, mit Versprechungen wie "das warten wird sich lohnen" und und und.
http://img215.imageshack.us/img215/8467/amdgpuz.jpg
Immer noch kein OpenCL? :tongue:
Ja, ich weiß, dass das ein (billiger) Fake ist. ;)
MfG,
Raff
svenw
2010-10-01, 11:29:47
Wir haben also verschiedene Theorien für Nvidias Reaktion auf die HD6000er:
- reine Preissenkungen
- GF104 im Vollausbau, optional x 2
- Ankündigung eines GF110, um Wind aus den Segeln zu nehmen
Beim ersten hat Schlammsau recht: Wohin sollten denn die Preise sinken? Die reinen Chippreise sind ja nicht so hoch im Vergleich zum Endkundenpreis.
Auch an 2 glaub ich nicht so Recht: Wieso denn bisher nicht? Die 470 ist eh tot, da gibt es nichts zu kanibalisieren, also wieso zum Henker bringt NV den 104er nicht im Vollausbau? Der einzige Grund der mir einfällt wäre, das sie da die gleichen Probleme wie mit dem GF100 haben und aus irgendeinem Grund einen Teil deaktivieren müssen.
Den GF110 halte ich für ein Phantom. Auch der GF104 schluckt zuviel für seine Leistung. In dem Bereich ist das nicht so kritisch, aber bei einem High-End Chip geht das nicht. Ne Elektroheizung mit angeschlossener Grafikkarte wird NV nicht bringen und um das zu vermeiden müßten sie zuviel vom GF100 Design ändern.
2x 104 halte ich da für den einzig gangbaren Weg.
MadManniMan
2010-10-01, 11:35:29
-noch weiter runter? Wie wäre das finanzierbar?
Was fragst Du mich das? Hab ich diese Theorie in die Welt gesetzt? Und überhaupt: was wissen wir über die konkreten Kosten für die Karten?
-würde nVidia praktisch noch schlechter dastehen lassen. Auch der GF104 ist zu gross für die erbrachte Leistung. Wenn Barts, wie spekuliert, die HD5800 Serie beerben soll, wirds ganz übel für nVidia!
Es wird für Nvidia nur ganz übel, wenn Barts beim selben Fertigungsprozess und höherer Effizienz weniger Verbraucht (da müssen sie schon viel am Prozess eintreten), für uns Freaks die Option auf vernünftige Filter anbietet (wird nicht eintreten, denke ich) und für ein paar andere Freaks 3D Vision die Stirn bietet (ist möglich). Ansonsten sehe ich nicht, warum Nvidia zwingend taumeln sollte.
Letztlich sind das reine Bauchgefühle, aber ob der GF104 zu groß für die Leistung ist, wage ich zu bezweifeln. Ja, er verbraucht mehr, als ähnlich performante AMD-Karten, aber: bei selber Geschwindigkeit ist die "Performance" immer noch höher, weil Performance nunmal nicht nur FPS, sondern auch BQ bedeutet. Aber das führt hier zu weit.
-Das wird am ehesten eintreten, mit Versprechungen wie "das warten wird sich lohnen" und und und.
Hossa! Was denn mit Dir los?
Fällt Dir eigentlich auf, dass Du die ganze Zeit auf die selbe Art und Weise die Werbetrommel für AMD rührst?
Nebenher: was spricht dafür? Insiderwissen? Bauchgefühl?
deekey777
2010-10-01, 11:44:43
Immer noch kein OpenCL? :tongue:
Ja, ich weiß, dass das ein (billiger) Fake ist. ;)
MfG,
Raff
Fühlst du dich jetzt besser? Wollen wir darüber im Sozi-Forum reden?
Ich befürchte, es wird keine vollaktivierten GF100/GF104 geben (auch keine B-Steppings), sondern gleich neue Chips, die von Anfang an vollaktiviert sind (abgesehen von redunanten Teilen).
(abgesehen von redunanten Teilen).Begriffsfrage: Sind die akuellen dektivierten Shader nicht auch redundante Teile ?
Wenn nicht, was könnten dann "redundante Teile" für Dich im "neuen Chip" sein ?
svenw
2010-10-01, 11:50:51
Ja, er verbraucht mehr, als ähnlich performante AMD-Karten, aber: bei selber Geschwindigkeit ist die "Performance" immer noch höher, weil Performance nunmal nicht nur FPS, sondern auch BQ bedeutet. Aber das führt hier zu weit.
Das Problem ist doch, das die BQ Unterschiede da sind, aber 99% der Käufer bei normalem Spiel nicht auffallen. Ich vermute auch, das bei einem Blindtest mit Spielen kaum einer sagen kann wo nun eine ATI oder NV drin ist.
Hossa! Was denn mit Dir los?
Fällt Dir eigentlich auf, dass Du die ganze Zeit auf die selbe Art und Weise die Werbetrommel für AMD rührst?
Sorry, aber NV hat diese Grafikkartengeneration verbockt! Die Chips verbrauchen zuviel für ihre Leistung, sind zu groß und somit zu teuer. Die 104er ist eine gute KArte, aber ob sie NV den dringend benötigten Gewinn bringt ist zu bezweifeln angesichts des beispiellosen Sinkflugs der Preise. IMHO kann NV das GF100 Desaster nur aussitzen und zum frühest möglichen Zeitpunkt mit einem neuen Design kommen. Dann werden die Karten neu gemischt, denn ob AMD die neuen Karten so gut gelungen sind wie die alten muß sich erst zeigen. Und wenn 28nm kommt haben beide einen frischen Start. Mal sehen was GF gegen TSMC auf die Beine stellen kann.
Botcruscher
2010-10-01, 11:54:09
Redundanz ist aber etwas zusätzliches zum vollen Produkt und nicht Teile des eigentlichen Designs. Was man jetzt hat ist eher eine Kapitulation des Designs vor dem Prozess.
PS: Und zur "Umfrage" wie NV regieren wird... Die Antwort war/ist doch seit Fermi bekannt. Man wird mit Marketingbullshit nur so umher werfen. *Der kleiner kerl hier ist GF110* GRINS***
Redundanz ist aber etwas zusätzliches zum vollen Produkt und nicht Teile des eigentlichen Designs. Was man jetzt hat ist eher eine Kapitulation des Designs vor dem Prozess.
Wie willst Du bei den Shadern als Kernkomponenten unterscheiden, ob die zusätzlich sind, oder zum eigentlichen Design gehören ?
Ich behaupte jetzt mal frech, dass nVidia die aktuell dekativierten Shader "zusätzlich, als Redundanz" eingeplant hat.
Gibts irgendwelche Indizien, die das widerlegen würden ?
deekey777
2010-10-01, 12:08:03
Begriffsfrage: Sind die akuellen deaktivierten Shader nicht auch redundante Teile ?
Wenn nicht, was könnten dann "redundante Teile" für Dich im "neuen Chip" sein ?
Für mich: Redunante Einheiten sind die, von denen man nicht spricht.
Für mich: Redunante Einheiten sind die, von denen man nicht spricht.
Ok, das wär dann klar, d.h. nach Deiner Definition dürfte es dann überhaupt keine PDFs, Marketingmaterial oder sonstwas von nV mit den Shadervollausbau geben ?
Interessante Sichtweise, mehr praktisch, weniger technisch - und praktisch ist immer gut :) So hab ich das noch gar nicht betrachtet ^^
Die Frage ist damit geklärt, Thx
Alex
LovesuckZ
2010-10-01, 12:38:31
Hä, Redundanz steht für doppelte Auslegung, die entweder gleichzeitig arbeitet - selbe Tätigkeit - oder im Notfall einspringt.
Wenn man nun keinen unsinn reden will, dann würde man erkennen, dass ein SM keine redundante Einheit sein kann.
Wie willst Du bei den Shadern als Kernkomponenten unterscheiden, ob die zusätzlich sind, oder zum eigentlichen Design gehören ?
Ich behaupte jetzt mal frech, dass nVidia die aktuell dekativierten Shader "zusätzlich, als Redundanz" eingeplant hat.
Gibts irgendwelche Indizien, die das widerlegen würden ?
Ja, die Tradition und Symmetrie.
Nvidia hat bisher immer Redundanz durch Abschalten ganzer Funktionsblöcke erzeugt. Das hat den Vorteil, dass mit steigender Prozessausbeute auch die Gewinn für Nvidia steigen. Nachteil: Man verschenkt oft einen ganzen Batzen Leistung - das ist heute bei 1/16 oder 2/16 nicht mehr so schlimm wie früher bei 4/24 oder 4/16.
AMD hat dagegen oft feinkörnige Redundanz genutzt. Die erlaubt zwar mehr "Full ASICS" (gut für den ASP), aber verbessert die Gewinnspanne nicht bei steigender Prozessreife.
-carsten
SamLombardo
2010-10-01, 13:12:13
Sorry, aber NV hat diese Grafikkartengeneration verbockt! Die Chips verbrauchen zuviel für ihre Leistung, sind zu groß und somit zu teuer...
Schon lustig wie sich die Fanboys immer auf ihr Totschlagsargument einschießen. Der Stromverbrauch ist ein Nachteil von GF100. Aber es ist der einzige. Die Liste der Vorteile ist dagegen lang. Es soll User geben, speziell im HighEnd Bereich, für die Leistung und Bildqualität zählen und für die es zweitrangig ist ob sie mit ihrer Karte Strom sparen.
y33H@
2010-10-01, 13:19:13
Die paar Watt machen es eh nicht fett, sofern die Kiste nicht 24/7 läuft.
AwesomeSauce
2010-10-01, 13:53:26
3. die für sept. 2009 angefündigten fermies und die präsi von jhh hat ja noch jeder im kopf, das glaubt denen jetzt eh niemand mehr, abgesehen von denen, die prinzipiell nur nvidia kaufen
Wenn du glaubst, dass Fabric nochmals die gleichen Fehler macht wie bei Fermi (fehlerhafte Interconnects), dann ist dir nicht mehr zu helfen, oder du kaufst aus Prinzip nur AMD.
GF110 hat das Tapeout bereits hinter sich. Das dürfte dann definitiv die Antwort von Nvidia sein, wie auch immer die ausfallen mag.
Dural
2010-10-01, 13:59:22
ist eh müll, der "GeForce" Fermi wurde NIE im September 2009 angekündigt
das war damals only Tesla es wurde kein wort über die "Gaming Eigenschaften" von Fermi gesagt
http://img215.imageshack.us/img215/8467/amdgpuz.jpg
48Rops und 256Bit!!
Was soll der Mist denn?
Triskaine
2010-10-01, 15:10:01
Die Anzahl der ROPs ist bei bei AMD's Architektur nicht von der Breite des Speicherinterfaces abhängig!
Die Anzahl der ROPs ist bei bei AMD's Architektur nicht von der Breite des Speicherinterfaces abhängig!
Schon klar, dass bei 256 Bit 32 Rops, aber auch zum Beispiel 16 Rops gehen, aber 48 passen nur zu 384Bit (oder 192Bit oder 768 Bit etc.)
Zwischen ROPs uns Speicherinterface ist wohl schon jetzt eine Crossbar und bei NI könnten die ROPs wohl noch mehr in die RPEs wandern, sodass eben 3 RPEs 48 ROPs nach sich ziehen.
Chris2CB
2010-10-01, 19:37:56
48Rops und 256Bit!!
Was soll der Mist denn?
ATI.......sicher sind das die Daten der ATI!!!!!! HD 6800er.....die es nie geben wird :D
Speku schön und gut wenn man in leichtem Nebel steht.....aber hier ist das absolute Finsternis.
Was ist den die billigste Variante eine HD 5870 schneller zu bekommen als eine GTX480?
Schlammsau
2010-10-02, 11:20:14
^^Aber echt, so kurz vor dem Release und es noch nichts wirklich bekannt.
Echt krass, wie das ATi so lang geheimhalten kann.
deekey777
2010-10-02, 12:46:16
Das Presseevent kommt ja noch in etwa zwei Wochen, oder so. Zum G80-Start war es auch so: Es gab Fotos (mehrere Wochen vor dem Launch), aber kaum Infos (oder Infos, mit denen man wenig anzufangen hatte).
Keine PDFs - keine vernünftigen Infos.
john carmack
2010-10-02, 12:49:18
...nur noch ein paar Wochen...
*freu*
AMD to debut Radeon HD 6000-series in October 19th
Facing the upcoming Nvidia's Fermi-series GPUs and its entry-level GeForce GT 430, aiming for an October launch, AMD has decided to announce its latest generation Radeon HD 6000-series GPU globally on October 19. As the company has successfully spun off its foundry division and received the US$1.25 billion settlement penalty from Intel, AMD decided to increase its promotion budget and will host its AMD Technical Forum and Exhibition 2010 show along with its Radeon HD 6000-series debut conference in Taiwan. For the event, AMD will send several top executives to visit Taiwan and meet its local partners, as well as explain the company's fourth-quarter product roadmap to the Asia Pacific media.
http://www.digitimes.com/news/a20101001PD208.html
svenw
2010-10-02, 18:17:39
Schon lustig wie sich die Fanboys immer auf ihr Totschlagsargument einschießen. Der Stromverbrauch ist ein Nachteil von GF100. Aber es ist der einzige. Die Liste der Vorteile ist dagegen lang. Es soll User geben, speziell im HighEnd Bereich, für die Leistung und Bildqualität zählen und für die es zweitrangig ist ob sie mit ihrer Karte Strom sparen.
Erstens ist das nur ein Teil der Probleme: Es dürfte gute Gründe haben warum wir bisher keinen GF100/104 im Vollausbau gesehen haben.
Zweitens halte ich den Stromverbrauch des GF100 nicht für ein so großes Problem sondern die mangelnde Effizienz. Hätte der Chip 50% mehr Effizienz würde keiner außer Greenpeace darüber meckern wenn das Ding 500Watt verbrät.
Drittens sind die NV Chips wesentlich größer als die ATI Chips was einfach mehr Kosten bedeutet, aber bisher konnte NV eben wegen der BQ und Treibervorteile einen Premium Aufschlag nehmen. Nur stimmt bei der aktuellen Serie die Grundlage nicht.
NV ist in einer prekären Situation, denn mit den kommenden integrierten GPUs fallen die Low-End Karten praktisch weg. Mainboard-Chips haben sie auch schon verloren. Damit haben sie nur noch Profikarten als großen Vorteil und damit kann es schnell eng für NV werden, denn sie haben nicht wie AMD noch etwas im Rücken. Ich hoffe auf die nächste NV Generation denn nur durch die gleichwertige Konkurrenz von NV und ATI sind wir da wo wir heute sind.
Fetza
2010-10-02, 18:24:06
Erstens ist das nur ein Teil der Probleme: Es dürfte gute Gründe haben warum wir bisher keinen GF100/104 im Vollausbau gesehen haben.
Zweitens halte ich den Stromverbrauch des GF100 nicht für ein so großes Problem sondern die mangelnde Effizienz. Hätte der Chip 50% mehr Effizienz würde keiner außer Greenpeace darüber meckern wenn das Ding 500Watt verbrät.
Drittens sind die NV Chips wesentlich größer als die ATI Chips was einfach mehr Kosten bedeutet, aber bisher konnte NV eben wegen der BQ und Treibervorteile einen Premium Aufschlag nehmen. Nur stimmt bei der aktuellen Serie die Grundlage nicht.
NV ist in einer prekären Situation, denn mit den kommenden integrierten GPUs fallen die Low-End Karten praktisch weg. Mainboard-Chips haben sie auch schon verloren. Damit haben sie nur noch Profikarten als großen Vorteil und damit kann es schnell eng für NV werden, denn sie haben nicht wie AMD noch etwas im Rücken. Ich hoffe auf die nächste NV Generation denn nur durch die gleichwertige Konkurrenz von NV und ATI sind wir da wo wir heute sind.
Komisch, ich sehe aber deutliche performancegewinne bei vielen spielen zwischen gtx 470 und gtx 285... mit AA liegen teilweise welten zwischen den karten. Die effizienz der tmus wurde massiv gesteigert, die 1d einheiten sollen - so wie ich hier immer lesen konnte - an effizienz kaum zu steigern sein.
Deswegen finde ich deine behauptung absolut haltlos. Dazu kommt noch, das der gf100 mit custom kühlerdesigns auch sehr kühl bleibt.
Der_Korken
2010-10-02, 19:06:45
Komisch, ich sehe aber deutliche performancegewinne bei vielen spielen zwischen gtx 470 und gtx 285... mit AA liegen teilweise welten zwischen den karten. Die effizienz der tmus wurde massiv gesteigert, die 1d einheiten sollen - so wie ich hier immer lesen konnte - an effizienz kaum zu steigern sein.
Deswegen finde ich deine behauptung absolut haltlos. Dazu kommt noch, das der gf100 mit custom kühlerdesigns auch sehr kühl bleibt.
Ich denke mal, svenw hat Performance/Watt mit Effizienz gemeint und da hintk Nvidia zur Zeit eben etwas hinterher. Klar im Vergleich mit den GT200-Karten stehen die 400er noch ganz gut dar, aber man sollte nicht vergessen, dass da mal eben ein ganzer Full-Node in der Fertigung zwischensteht. ATI konnte mit der HD5k die Performance bei etwa gleichbleibenden Verbrauch um gut 60% steigern.
Dural
2010-10-02, 21:02:36
Weder ist der GF104 deutlich grösser noch verbraucht er deutlich mehr Strom als ein RV870... und Leistungsmässig liegt nicht viel zwischen den beiden Chips...
und hört entlich mit dem blödsinn auf das NV keine vollen GF104 liefern könnte, das mag wohl auf GF100 zustimmen aber nicht auf GF104, dazu gibt es überhaupt keine anzeichen, der Chip ist recht "klein" und wird wohl Milionenfach auf der GTX460 verbaut da müsste die Ausbeute unter aller "sau" sein wenn da keine ganzen übrig bliben würden... zudem der Preis der GTX460 768MB Karte ganz klar zeigt das die Chip Ausbeute ganz OK sein muss!
Der GF100 verbraucht zu viel, das sieht man auch schön am GF104 vergleich!
das "glück" von NV ist eigentlich der das der RV870 brutal ineffizient ist, auch im vergleich zum RV840! NV könnte derzeit viel schlechter da stehen als es jetzt noch der fall ist!
Hugo78
2010-10-02, 21:42:49
Ich denke mal, svenw hat Performance/Watt mit Effizienz gemeint und da hintk Nvidia zur Zeit eben etwas hinterher. Klar im Vergleich mit den GT200-Karten stehen die 400er noch ganz gut dar, aber man sollte nicht vergessen, dass da mal eben ein ganzer Full-Node in der Fertigung zwischensteht.
Die Performance/Watt der GF100 ist im Gamingbereich sicherlich schlecht, und die der GF104 im Gamingbereich, sicherlich besser, aber nicht ganz so toll wie die der Cypress oder Juniper.
Aber das "erkauft" sich AMD auch mit einer 100%igen Ausrichtung auf die Bedürfnisse des Gamingsektors.
Nur dafür wurde der GF100 nicht gebaut und das weiß auch jeder.
Die Zukunft von Nvidia liegt, (für uns) leider nicht im Mainstream Gaminggeschäft.
Dafür bräuchte NV schon eine Lizenz für x86+ die ganzen SSE ect. Patente, um eine eigene "x86 Fusion Plattform" auf zubauen.
Denn irgendwann werden die low cost Lösungen von Intel und AMD, alle Grafik Bedürfnisse des Alltags befriedigen können.
Besser gesagt, sie können es heute schon.
Ich hab grad einen Celeron E3300 + G41 Chipsatz verbaut (GMA x4500) und das Ding ist schnell genug für alle Anwendungen die man an einen HTPC stellt.
Verbraucht keine 30W, ist leise (mit zumindest mit dem Boxed Kühlers meines Q9550) und packt HD Videos, egal welcher Quelle.
Und solang nicht irgendwelche Gerichtsurteile AMD und Intel dazu zwingen, ihre "All in One" Lösungen zuöffnen, solange wird sich NV auch weiter eher am HPC Sektor orientieren (müssen).
Denn dort ist sogar ein Fermi, doppelt so energieeffizient, wie eine Intel oder AMD CPU, was die Flops angeht.
@SI
Das Thema müsste umbenannt werden in Northern Islands.
Wenn auch die Specs noch nicht klar sind, so doch der Codename, denn NI tauchte im letzten Treiber auf.
Aber das "erkauft" sich AMD auch mit einer 100%igen Ausrichtung auf die Bedürfnisse des Gamingsektors.
Das stimmt ja nicht. Juniper natürlich, wie auch alle kleineren GF10x-Chips, aber Cypress hat gehörig Transistorcount für den Profi-Markt intus. GF100 hat ein, zwei Vorteile, kam aber auch ein halbes Jahr später. Aber so zu tun als ob sich nur NV darauf fokussieren würde ist einfach falsch.
Hugo78
2010-10-02, 22:38:29
Selbst wenn das stimmen würde, wo ist denn der ECC RAM bei den aktuellen FirePro?
Gasti
2010-10-02, 22:43:45
Selbst wenn das stimmen würde, wo ist denn es ECC RAM bei den aktuellen FirePro?
Kindergarten anyone?
Hugo78
2010-10-02, 22:47:14
Ah keine Antwort ist auch eine Antwort.
deekey777
2010-10-02, 23:07:33
Selbst wenn das stimmen würde, wo ist denn der ECC RAM bei den aktuellen FirePro?
Wozu brauchst du ECC bei einer FirePro?
Hugo78
2010-10-02, 23:24:01
Für korrekte Ergebnisse.
Gasti
2010-10-02, 23:25:14
Ah keine Antwort ist auch eine Antwort.
Ist auch nicht notwendig bei dem OT-getrolle.
Cypress hat jede Menge Funktionen, die wesentlich mehr Transistoren kosten dürften als ECC und für 3D nutzlos sind.
Bucklew
2010-10-02, 23:39:44
Für korrekte Ergebnisse.
Bei Grafik schlicht egal. Als ob du die paar Bitkipper (rechnerisch ist in jedem gezeigten Frame mindestens ein Bitkipper vorhanden) sehen würdest.
Ist auch nicht notwendig bei dem OT-getrolle.
Cypress hat jede Menge Funktionen, die wesentlich mehr Transistoren kosten dürften als ECC und für 3D nutzlos sind.
z.B.?
Mancko
2010-10-02, 23:40:14
Für korrekte Ergebnisse.
Also im Profibereich werden die AMD Produkte völlig geownt von den Nvidia Teilen. Da gibts gar keine Diskussion und ECC ist ein Muss im Profisegment. Deswegen spielt AMD dort auch keine Rolle.
Gasti
2010-10-03, 00:19:28
Bei Grafik schlicht egal. Als ob du die paar Bitkipper (rechnerisch ist in jedem gezeigten Frame mindestens ein Bitkipper vorhanden) sehen würdest.
z.B.?
DP, FMA etc.
Die Behauptung dass GF100 wegen ECC so ein schlechtes Perf/w Verhältnis hat ist lächerlich
davidzo
2010-10-03, 02:06:47
Aber das "erkauft" sich AMD auch mit einer 100%igen Ausrichtung auf die Bedürfnisse des Gamingsektors.
Unsinn, die auf R600 aufbauende Architektur hatte schon immer eine starke DP-Leistung. G80 hatte das gar nícht und GT200 nur durch zusätzlich aufgepflanzte Einheiten. GF100 schließt da eher zu AMD auf was die hardware angeht.
Im Softwaresektor müsste AMD was tun, dann wäre die Architektur ebenso HPC geeignet wie Fermi.
Selbst wenn das stimmen würde, wo ist denn der ECC RAM bei den aktuellen FirePro?
Bei der Firepro hä?
"Profibereich" und GPGPU sind zwei völlig verschiedene Märkte!
Junge das sind Karten für den CAD bereich und höchstens nochmal medical imaging.
Für die Grafiksdarstellung braucht man kein ECC und das ist der Bereich auf den die FirePro gerichtet ist.
ECC ist erst ein feature wenn man von GPGPU spricht, bei grafik spielt es keine Rolle.Sprich die FireStream leidet unter fehlendem Ecc support, nicht aber die Firepro, in dem Bereich ist das ein völlig irrelevantes feature.
Also im Profibereich werden die AMD Produkte völlig geownt von den Nvidia Teilen. Da gibts gar keine Diskussion und ECC ist ein Muss im Profisegment. Deswegen spielt AMD dort auch keine Rolle.
Nicht ganz richtig. Im profibereich ownt der nvidiatreiber den AMDtreiber. das hat mit der hardware nichts zutun.
AMD fehlt eben nicht nur die Erfahrung gute OpenGL Treiber zu machen, sondern auch der Wille dazu, denn machen könnte man das mit einem gewissen budget sicherlich. Es sieht aber nicht so aus als wenn sich diese Einstellung zur thematik bei AMD kurzfristig ändern würde. Die OGLtreiber sind vielleicht für spiele geradeso geeignet aber für die Entwicklung völliger mist, solange sich da nichts tut wird AMD im profibereich auch zweite wahl bleiben.
Sprich, das einzige woran es für den profibereich mangelt ist ein guter OpenGl treiber. Die hardware ist fit.
Für den GPGPUbereich ein spannendes feature wäre allerdings der ECC support.
Bitte zukünftig Profibereich/CAD/medical imaging von GPU processing/GPGPU, HPC trennen, das hat beides nichts miteinander zutun!
Bei beiden IHVs gibt es auch völlig unterschiedliche Produkte dafür. Quadro vs TEsla bei nvidia und Firepro vs FireStream bei AMD.
Selbst wenn das stimmen würde, wo ist denn der ECC RAM bei den aktuellen FirePro?
Ich habe gesagt Fermi hat ein, zwei Vorteile. ECC ist einer davon, kann NV aber auch erst seit Fermi. Und für die FirePRO ist das natürlich vollkommen irrelevant, Quadros können auch kein ECC. Das ist rein bei Tesla/Firestream wichtig.
Bucklew
2010-10-03, 09:50:37
DP, FMA etc.
Die Behauptung dass GF100 wegen ECC so ein schlechtes Perf/w Verhältnis hat ist lächerlich
Naja, ein Cypress hat ein SP : DP-Verhältnis von ~ 5:1. Das ist was völlig anderes als die 2:1 eines Fermi. Und ja, das kostet sehr viele Transistoren.
Ich habe gesagt Fermi hat ein, zwei Vorteile. ECC ist einer davon, kann NV aber auch erst seit Fermi. Und für die FirePRO ist das natürlich vollkommen irrelevant, Quadros können auch kein ECC. Das ist rein bei Tesla/Firestream wichtig.
Quatsch, Quadro 5000 und 6000 können sehr wohl ECC.
http://www.nvidia.de/object/product-quadro-5000-de.html
http://www.nvidia.de/object/product-quadro-6000-de.html
Vom Featureset her gilt: GeForce < Tesla < Quadro.
Quadro kann alles und mehr als Tesla.
Und was soll jetzt ECC den Quadros bringen?
Natürlich haben Sie es, weil es GF100 ist.
Dural
2010-10-03, 12:32:14
R600 hat kein DP, kam erst mit dem RV670
deekey777
2010-10-03, 12:37:34
Weder ist der GF104 deutlich grösser noch verbraucht er deutlich mehr Strom als ein RV870... und Leistungsmässig liegt nicht viel zwischen den beiden Chips...
und hört entlich mit dem blödsinn auf das NV keine vollen GF104 liefern könnte, das mag wohl auf GF100 zustimmen aber nicht auf GF104, dazu gibt es überhaupt keine anzeichen, der Chip ist recht "klein" und wird wohl Milionenfach auf der GTX460 verbaut da müsste die Ausbeute unter aller "sau" sein wenn da keine ganzen übrig bliben würden... zudem der Preis der GTX460 768MB Karte ganz klar zeigt das die Chip Ausbeute ganz OK sein muss!
Der GF100 verbraucht zu viel, das sieht man auch schön am GF104 vergleich!
das "glück" von NV ist eigentlich der das der RV870 brutal ineffizient ist, auch im vergleich zum RV840! NV könnte derzeit viel schlechter da stehen als es jetzt noch der fall ist!
Und wenn Nvidia einen vollen GF104 liefern kann, wo bleibt er denn?
Es ist erstaunlich, dass sich manche hier mit Nvidia gleichsetzen, indem sie behaupten, dass sie der Verbrauch nicht interessiert und sie die Karten so hoch takten können, bis ein neues Netzteil fällig ist. Nvidia interessiert der Verbrauch sehr wohl. Nvidia interessiert gar nicht, dass durch höheren Verbrauch die Stromrechnung steigt. Sie interessiert nur, dass sie ein Produkt mit vernünftigem Aufwand angeboten werden kann.
Ein voller GF104 wird definitiv nicht mit 500 MHz kommen, sondern mindestens mit dem Takt der GTX460 oder höher, damit de Leistungsvorspruch nicht in einstelligen Prozentbereich liegt. Umgekehrt bedeutet da höherer Verbrauch, höhere Wärmeabgabe, Folge: aufwendigere Stromversorgung, aufwendigere Kühlung.
Und Nvidia scheint diesen Aufwand zu scheuen. Und nicht, weil sie ihre anderen Produkte nicht gefährden wollen oder etwas in Hinterhand haben möchten.
Dieses "Nvidia kann" gehört ins Land der Märchen, bis es halbwegs harte Fakten gibt, dass solche Produkte kommen. Und diese Fakten gibt es nicht.
Gipsel
2010-10-03, 12:41:49
rechnerisch ist in jedem gezeigten Frame mindestens ein Bitkipper vorhandenDas kannst Du aber vergessen! Das ist viel viel viel seltener, zumindest bei einer ordnungsgemäß laufenden Karte. Und ich kann das sagen, da sonst einige GPGPU-Sachen auf Consumerkarten überhaupt nicht funktionieren würden. Du kannst z.B. locker auf einem Cypress mit 100 GB/s aus dem Speicher lesen, drauf rumrechnen und wieder in den Speicher schreiben, das Ganze 5 Minuten (oder auch länger, die Aufgabe ist dann bloß fertig) machen und in der Zeit (das waren dann immerhin 30 TB an Speicherzugriffen) gibt es normalerweise nicht ein einziges gekipptes Bit irgendwo. Geht mit nv-Karten natürlich auch, die sind bloß langsamer bei sowas (es dauert aber nur länger, die bewegten Datenmengen sind die gleichen).
Über 90% der Consumerkarten können sowas tagelang ununterbrochen machen, ohne einen einzigen Fehler (das wird jeweils per Doppelberechnung auf einem anderen System überprüft). Bei den anderen ist dann typischerweise ein Speicherchip oder Spannungswandler defekt, die Karte überhitzt oder schlicht zu weit übertaktet.
Botcruscher
2010-10-03, 13:11:37
Zu ECC auf Servern gabs doch mal eine Studie bei heise. Nach Abzug von Hardwarefehlern fallen pro Jahr 2 bis 4 falsche Bits an.
davidzo
2010-10-03, 13:29:32
Naja, ein Cypress hat ein SP : DP-Verhältnis von ~ 5:1. Das ist was völlig anderes als die 2:1 eines Fermi. Und ja, das kostet sehr viele Transistoren.
Das war auch bitter nötig, GT200 hatte nur eine double precison einheit pro SM also 30 mit insgesamt 78Gflops. Ein update dieser veralteten methode war also dringend nötig.
AMD erreicht mit seinen vier zusammengelegten shadern schon seit rv670 bequem eine hohe DP-Leistung. rv870 liegt absolut gesehen bei 528Gflops, da interessiert dann auch überhaupt nicht ob das mit 1:2 oder 1:5 erreicht wurde, wenn der absolute Wert mit Fermi vergleichbar ist (Tesla C2050 515.5Gflop/s).
In der branche rechnet man übrigens weder in gflops pro chip, noch in geflops pro dollar, sondenr in gflops pro watt! wenn die dinger zwei jahre lang unter vollast laufen übersteigen die stromkosten bereits locker die anschaffungskosten. Bei gflops pro watt liegt nvidia trotz 1:2 dp deutlich hinten.
Der Softwarevorteil ist derzeit was die teslaverkäufe ankurbelt, nicht die Hardware...
Vom Featureset her gilt: GeForce < Tesla < Quadro.
Quadro kann alles und mehr als Tesla.
Na und? geforces können auch GPGPU! Trotzdem sind Geforce und Quadro nicht für GPGPU gedacht! Das sind die Teslakarten.
Für Geforce und Quadro spielt das keine Rolle ob es ECC gibt oder nicht. Das ist ein reines marketingargument mit denen man unerfahrene zu locken versucht. In solchen rechnern stecken nicht selten xeons mit ecc, sicher klingt es dann gut wenn die gpu auch ecc hat. Trotzdem ist das feature für den profibereich völlig unwichtig. Bei geforces könnte man schließlich mit demselben eccsupport werben, weil das die kunden eber eher verunsichern würde lässt man es.
R600 hat kein DP, kam erst mit dem RV670
das bestätigt doch eher den punkt dass die AMD architektur es schon sehr lange hat. seit rv670 ist nvidias hardware was DP angeht nicht konkurrenzfähig. diese lage hat sich erst mit gf100 entspannt.
Dural
2010-10-04, 13:05:19
AMD lässt ihre Einheiten ja auch nur loopen, NV geht da den deutlich komplexeren weg...
Und ECC ist sicher nicht wegen möglichen 2-4 Bits im Jahr wichtig, sondern weil mit Tesla auch Wissenschaftliche und Medizinische Berechnungen durch geführt werden und somit das best mögliche und korekte Ergebnis verlangt wird und es komplett egal ist wie oft es zu einem Fehler kommen kann... somit führt auch kein weg an ECC vorbei!
Und wenn Nvidia einen vollen GF104 liefern kann, wo bleibt er denn?
Es ist erstaunlich, dass sich manche hier mit Nvidia gleichsetzen, indem sie behaupten, dass sie der Verbrauch nicht interessiert und sie die Karten so hoch takten können, bis ein neues Netzteil fällig ist. Nvidia interessiert der Verbrauch sehr wohl. Nvidia interessiert gar nicht, dass durch höheren Verbrauch die Stromrechnung steigt. Sie interessiert nur, dass sie ein Produkt mit vernünftigem Aufwand angeboten werden kann.
Ein voller GF104 wird definitiv nicht mit 500 MHz kommen, sondern mindestens mit dem Takt der GTX460 oder höher, damit de Leistungsvorspruch nicht in einstelligen Prozentbereich liegt. Umgekehrt bedeutet da höherer Verbrauch, höhere Wärmeabgabe, Folge: aufwendigere Stromversorgung, aufwendigere Kühlung.
teil deaktivierte Chips verbrauchen kaum weniger storm als vollaktive Chips, das sollte eigentlich längstens bekannt sein! es gibt x beispiele wie zb. 5850 / 5870... das entscheidende für den Verbrauch ist Takt und Spannung
wo er bleibt? wie ich schon einigemale geschriben habe kann ich mir nicht vorstellen das NV den GF104 im vollausbau derzeit will...
ich könnte jetzt auch sagen wie so bringt NV keine "GTX460" mit 800MHz es machen ja eh alle GF104 den takt mit...
GF100 ist High-End und es ist Wirtschaftlich das dümmste wenn man sein eigenes High-End mit den unteren Produkten egaliesiert und man sehr sehr Wahrscheinlich auch auf den Absatz der GTX470 noch angewissen ist. Zudem NV auf einen GTX470 ersatz noch nicht angewissen ist, das könnte sich sicher bald ändern...
AMD lässt ihre Einheiten ja auch nur loopen, NV geht da den deutlich komplexeren weg...
Den deutlich schlechteren Weg. Intel und AMD lassen bei den CPUs auch "nur" loopen. Macht auch Sinn. NV muss separate DP-Einheiten verbauen, kann aber trotzdem die SP-Einheiten während DP-Berechnungen nicht verwenden.
Und wenn Nvidia einen vollen GF104 liefern kann, wo bleibt er denn?
Es ist erstaunlich, dass sich manche hier mit Nvidia gleichsetzen, indem sie behaupten, dass sie der Verbrauch nicht interessiert und sie die Karten so hoch takten können, bis ein neues Netzteil fällig ist. Nvidia interessiert der Verbrauch sehr wohl. Nvidia interessiert gar nicht, dass durch höheren Verbrauch die Stromrechnung steigt. Sie interessiert nur, dass sie ein Produkt mit vernünftigem Aufwand angeboten werden kann.
Ein voller GF104 wird definitiv nicht mit 500 MHz kommen, sondern mindestens mit dem Takt der GTX460 oder höher, damit de Leistungsvorspruch nicht in einstelligen Prozentbereich liegt. Umgekehrt bedeutet da höherer Verbrauch, höhere Wärmeabgabe, Folge: aufwendigere Stromversorgung, aufwendigere Kühlung.
Und Nvidia scheint diesen Aufwand zu scheuen. Und nicht, weil sie ihre anderen Produkte nicht gefährden wollen oder etwas in Hinterhand haben möchten.
Dieses "Nvidia kann" gehört ins Land der Märchen, bis es halbwegs harte Fakten gibt, dass solche Produkte kommen. Und diese Fakten gibt es nicht.
Die Frage ist wo er aktuell fehlt. Auch NV dürfte von den SI gehört haben und wenn man die volle Version braucht um Barths XT zu schlagen, dann wird man ihn dann auch raus lassen.
Und ECC ist sicher nicht wegen möglichen 2-4 Bits im Jahr wichtig, sondern weil mit Tesla auch Wissenschaftliche und Medizinische Berechnungen durch geführt werden und somit das best mögliche und korekte Ergebnis verlangt wird und es komplett egal ist wie oft es zu einem Fehler kommen kann... somit führt auch kein weg an ECC vorbei!
Nicht zwangsläufig, da ja Consumerkarten schon in HPC verbaut wurden, siehe Tianhe-1 rechner in China der 4870X2 Karten einsetzt.
Nicht alle wissenschaftlichen berechnungen sind für die tonne wenn ein paar bitfehler pro jahr auftauchen.
Ailuros
2010-10-04, 13:30:28
Und wenn Nvidia einen vollen GF104 liefern kann, wo bleibt er denn?
Es ist erstaunlich, dass sich manche hier mit Nvidia gleichsetzen, indem sie behaupten, dass sie der Verbrauch nicht interessiert und sie die Karten so hoch takten können, bis ein neues Netzteil fällig ist. Nvidia interessiert der Verbrauch sehr wohl. Nvidia interessiert gar nicht, dass durch höheren Verbrauch die Stromrechnung steigt. Sie interessiert nur, dass sie ein Produkt mit vernünftigem Aufwand angeboten werden kann.
Ein voller GF104 wird definitiv nicht mit 500 MHz kommen, sondern mindestens mit dem Takt der GTX460 oder höher, damit de Leistungsvorspruch nicht in einstelligen Prozentbereich liegt. Umgekehrt bedeutet da höherer Verbrauch, höhere Wärmeabgabe, Folge: aufwendigere Stromversorgung, aufwendigere Kühlung.
Und Nvidia scheint diesen Aufwand zu scheuen. Und nicht, weil sie ihre anderen Produkte nicht gefährden wollen oder etwas in Hinterhand haben möchten.
Dieses "Nvidia kann" gehört ins Land der Märchen, bis es halbwegs harte Fakten gibt, dass solche Produkte kommen. Und diese Fakten gibt es nicht.
Na dann frag mal lieber zumindest einen vendor wie viele GTX470-er dieser vielleicht herumliegen haben koennte und dann hast Du erstmal die ersten zuverlaessigen "Fakten" zum Thema.
Ein voller GF104 bei >750MHz gibt Dir ungefaehr einen TDP von 175-180W insgesamt und das ist immer noch besser als die 215W einer GTX470. Das es um zich Male billiger ist einen GF104 herzustellen kann man gerne noch in den Brei dazufuegen.
Ich weiss zwar nicht was das Ganze in diesem Thread genau verloren hat, aber nach den neuesten Geruechten hat NV die 104/GX2 storniert. Wohl aber nicht wegen irgend einer merkwuerdigen These der in irgend ein verkorkstes Bild passen koennte.
Wenn man eine gute Single GPU Karte kann man auf die GX verzichten.
Ailuros
2010-10-04, 13:43:02
Wenn man eine gute Single GPU Karte kann man auf die GX verzichten.
Ich hab's auch nur notiert weil es eben noch keine anstaendige Indizie bis jetzt gibt die auf irgendwelche Probleme mit den GF104 chips deuten koennte.
Ich denek es sagt mehr über "yet unreleased products" als über GF104.
davidzo
2010-10-05, 02:16:19
hallo leute, seid ihr nicht ein bisschen OT?
Im GF10x thread geht es um barts und cayman und hier geht es um den vollen gf104 und gf110 oder was?
ich guck hier rein im das neueste gerücht zu southern islands zu erfahren, also verschont ich mit dem gf10x gesülze, dafür gucke ich doch schon in den gf100 thread!
Iruwen
2010-10-05, 11:10:12
http://www.nordichardware.com/news/71-graphics/41251-amd-radeon-hd-6870-and-6850-launches-on-october-18th.html
http://www.nordichardware.com/news/71-graphics/41251-amd-radeon-hd-6870-and-6850-launches-on-october-18th.html
Wenn Das stimmen würde(glaube ich nicht):
Warum soll die 6870 mehr verbrauchen als die 5850(ja ich weiß 151W sind auch mehr als 150W;))
Henroldus
2010-10-05, 11:24:52
http://www.nordichardware.com/news/71-graphics/41251-amd-radeon-hd-6870-and-6850-launches-on-october-18th.html
tolle Benamsung, glaube nicht, dass AMD das durchzieht:
eine HD6870 mit 960SP@850Mhz soll schnelelr als eine HD5870 mit 1440SP@725MHz sein?
816000 vs 1044000 oder macht 5D vs $D hier den Unterschied?
und Mainstream vor Highend vorstellen ist auch nicht realistisch
tolle Benamsung, glaube nicht, dass AMD das durchzieht:
eine HD6870 mit 960SP@850Mhz soll schnelelr als eine HD5870 mit 1440SP@725MHz sein?
816000 vs 1044000 oder macht 5D vs $D hier den Unterschied?
Woher weißt du dass es nicht da Frontend etc ist?
mironicus
2010-10-05, 11:45:26
http://www.nordichardware.com/news/71-graphics/41251-amd-radeon-hd-6870-and-6850-launches-on-october-18th.html
Die News ist schon recht alt (28.09.2010).
Henroldus
2010-10-05, 13:51:07
Die News ist schon recht alt (28.09.2010).
jepp, auch bemerkt, da hag ich mich wohl von der Meldung bei Hartware.de irritieren lassen
deekey777
2010-10-05, 13:57:39
Everyone still believing that Barts is 6750/6750, please leave the topic!
http://forum.beyond3d.com/showpost.php?p=1479166&postcount=2591
Sh*t.. what happened to the time people believed what I said?.. or at least took it as somewhat credible.
okay.. there's more things that separate the 6850 and 6870 than just clocks etc.
Heck, you have to get the whole N.I. = Evergreen .. out of your head..
Da musste ich wirklich schmunzeln.
AwesomeSauce
2010-10-05, 14:27:34
Everyone still believing that Barts is 6750/6750, please leave the topic!
I think you should decouple Barts and HD6800 in your brain.
http://forum.beyond3d.com/showpost.php?p=1478576&postcount=2506
Barts ist also weder HD67xx noch HD68xx?:confused:
Ailuros
2010-10-05, 14:30:25
Ich darf wohl lachen, den Kopf schuetteln und nichts weiteres zum Thema beitragen oder? :freak:
AwesomeSauce
2010-10-05, 14:32:33
Du könntest mich wenigstens auf den Fehler hinweisen=)
Iruwen
2010-10-05, 14:33:01
jepp, auch bemerkt, da hag ich mich wohl von der Meldung bei Hartware.de irritieren lassen
dito ;)
Ailuros
2010-10-05, 14:37:04
Du könntest mich wenigstens auf den Fehler hinweisen=)
Es war auch nicht auf Dich gezielt sonder wie neliz sich selber verwurschtelt hat LOL. Ich dachte sonst dass es klar ist dass Cayman 69xx sein wird und Barts 68xx.
deekey777
2010-10-05, 14:50:23
Ein Bart XT als HD6870 für 200-250 EUR wäre aus taktischen Gründen doch genial. Ich meine, eine x870 für 200 EUR!
derguru
2010-10-05, 15:02:20
aus welchen taktischen gründen genial?wohl eher notgedrungen wenn man bedenkt das eine 470 dasselbe kostet.
MadManniMan
2010-10-05, 15:05:13
Ich bin der Meinung, dass AMD nicht gut damit beraten ist, plötzlich die 8er durch die 9er zu ersetzen - zumindest wird unter uns Freaks gewiss nicht der Ruf einer konsistenten Namensgebung erhalten bleiben.
Ailuros
2010-10-05, 15:17:38
Ich bin der Meinung, dass AMD nicht gut damit beraten ist, plötzlich die 8er durch die 9er zu ersetzen - zumindest wird unter uns Freaks gewiss nicht der Ruf einer konsistenten Namensgebung erhalten bleiben.
http://forum.beyond3d.com/showpost.php?p=1479155&postcount=2588
Yes they do, because at this end of the spectrum the market is paying for relative performance, not a straight BOM with no margin. The name indicates a relative positioning within AMD's own stack, not a pricing model.
Wenn Ihr dafuer immer noch eine Uebersetzung braucht, kann ich nicht weiterhelfen.
MadManniMan
2010-10-05, 15:40:30
Wenn Ihr dafuer immer noch eine Uebersetzung braucht, kann ich nicht weiterhelfen.
Neenee, geht schon :D
Es besteht hier ein Unterschied zwischen Wahrnehmung in der Hardwarefreak-Gemeinde (*870 = Top-Modell, *850 = Top-Modell leicht abgespeckt, *700 = Performance-Abwandlung, *600 = Mainstream-Abwandlung , <*600 = Lowcost/Massenmarkt) und AMDs grundlegendem Prinzip. Mir ist schon klar, dass das nicht böswillig ist, aber so haben sich die Dinge nunmal entwickelt.
Ailuros
2010-10-05, 15:52:49
Zwar OT aber es gibt bestimmt einige hier die CJ kannten:
http://forum.beyond3d.com/showthread.php?t=58766
RIP und ja das Leben ist eben oefters verdammt unfair; nach Chris jetzt noch das. Ich wusste zwar dass er wirklich schwer kaempfen musste, aber gleich das schlimmste haette ich nicht erwartet..... :frown:
So wies aussieht wird die 6870 langsamer als die 5870. Ich bin gespannt wieviele Leute sich beim Mediamarkt über den Tisch ziehen lassen nach dem Motto: "Hey die Zahl ist höher als die 5870 also automatisch schneller." Hier sieht man ganz klar das AMD den Nvidia Weg geht. Verwirrung durch Zahlen schaffen:(
Für mich wird klar sein ich kaufe die nicht:)
Ist mir sowas von egal, wie die Karten heißen. Und wenn der Nachfolger der HD 5870 HD 0815 hieße. Preis und Leistung sind für mich entscheidend und wenn eine HD 6870 die Leistung einer HD 5850 bringt und 200 € kostet, ist das ein verdammt gutes Angebot.
"Ich bin gespannt wieviele Leute sich beim Mediamarkt über den Tisch ziehen lassen nach dem Motto: "Hey die Zahl ist höher als die 5870 also automatisch schneller.""
Als ob ein "Mediamarkt-Käufer" wissen würde, wie schnell eine 5870 ist. Wenn sich jemand mit der Materie nicht auskennt, erwartet er wahrscheinlich auch, dass eine HD 5450 schneller als eine HD 4890 ist. Der Name spielt doch nun wirklich keine Rolle. Schlimm wird es erst, wenn eine langsamere 6870 teurer als die 5870 wäre.
Mal davon abgesehen, dass ich es nur positiv werten kann, wenn bereits der Mainstream-Chip (Barts) schneller als eine HD 5850 sein soll. Was wird dann wohl das Top-Produkt leisten?
PS: Der Threadtitel kann doch eigentlich wieder geändert werden, oder? SI war doch offensichtlich eine Ente. neliz spricht ja auch nur von NI.
"Ich bin gespannt wieviele Leute sich beim Mediamarkt über den Tisch ziehen lassen nach dem Motto: "Hey die Zahl ist höher als die 5870 also automatisch schneller.""
Als ob ein "Mediamarkt-Käufer" wissen würde, wie schnell eine 5870 ist. Wenn sich jemand mit der Materie nicht auskennt, erwartet er wahrscheinlich auch, dass eine HD 5450 schneller als eine HD 4890 ist. Der Name spielt doch nun wirklich keine Rolle. Schlimm wird es erst, wenn eine langsamere 6870 teurer als die 5870 wäre.
Es kann aber passieren gerade bei Handelsketten ala Saturn, Mediablödmarkt etc das hier und da eine 6870 gleich teuer/teurer als eine 5870 ist und von den "netten" Mitarbeitern eben sowas kommt wie "Hey die ist ganz neu schauen Sie sich nur die Zahlen an." Hier wird der falsche Weg gegangen, ich finds nicht gut:(
john carmack
2010-10-05, 17:00:42
...ganz schön ruhig die Woche :-(...
john carmack
2010-10-05, 17:01:50
So wies aussieht wird die 6870 langsamer als die 5870. Ich bin gespannt wieviele Leute sich beim Mediamarkt über den Tisch ziehen lassen nach dem Motto: "Hey die Zahl ist höher als die 5870 also automatisch schneller." Hier sieht man ganz klar das AMD den Nvidia Weg geht. Verwirrung durch Zahlen schaffen:(
Für mich wird klar sein ich kaufe die nicht:)
was kaufst du nicht?
Die 6870 kaufe ich nicht. Hier geht wie ich schon schrieb AMD den falschen Weg. Aber man sieht deutlich: AMD ist keinen Deut besser als NVidia. Das sollten sich mal die ATI-Fanatiker eingestehen:)
john carmack
2010-10-05, 17:24:36
Hast du einen Grund warum du die nicht kaufen willst?
Gasti
2010-10-05, 17:26:03
Er ist NV-FB?
Hast du einen Grund warum du die nicht kaufen willst?
Ja. Die Folie die bei PCGH gezeigt wird. Schau sie dir mal an. Eine 6870 ist stärker als ne 5850 und die 6850 ist stärker als ne 5830. Verstehst du jetzt was ich meine?
Hier der Link: http://www.pcgameshardware.de/aid,776826/Kommt-AMDs-Barts-als-Radeon-HD-6850/6870-in-zwei-Wochen/Grafikkarte/News/
Er ist NV-FB?
Nö bin nicht markenfixiert. Habe nur gedacht ich könnte meine 470 durch eine 6870 eretzen. Das fällt aber leider jetzt ins Wasser:(
Ja. Die Folie die bei PCGH gezeigt wird. Schau sie dir mal an. Eine 6870 ist stärker als ne 5850 und die 6850 ist stärker als ne 5830. Verstehst du jetzt was ich meine?
Hier der Link: http://www.pcgameshardware.de/aid,776826/Kommt-AMDs-Barts-als-Radeon-HD-6850/6870-in-zwei-Wochen/Grafikkarte/News/
Und was macht dieses Gerücht glaubhafter als die Anderen?
Gasti
2010-10-05, 17:35:21
Nö bin nicht markenfixiert. Habe nur gedacht ich könnte meine 470 durch eine 6870 eretzen. Das fällt aber leider jetzt ins Wasser:(
Dann bist du trotzdem extrem komisch drauf;)
Dann bist du trotzdem extrem komisch drauf;)
Soso. Ich bin komisch drauf weil ich erwarte das eine 6870 stärker als eine 5870 ist. Wie dem auch sei, hab hier schon alles beschrieben wieso, weshalb, warum.
AwesomeSauce
2010-10-05, 17:39:10
Und was macht dieses Gerücht glaubhafter als die Anderen?
neliz' Aussagen im B3D-Forum. Barts ist HD68xx und Unterschied HD6870/HD6850 ist nicht nur Takt... Passt schon mal zu dieser Folie...
dildo4u
2010-10-05, 17:41:14
Ja. Die Folie die bei PCGH gezeigt wird. Schau sie dir mal an. Eine 6870 ist stärker als ne 5850 und die 6850 ist stärker als ne 5830. Verstehst du jetzt was ich meine?
Hier der Link: http://www.pcgameshardware.de/aid,776826/Kommt-AMDs-Barts-als-Radeon-HD-6850/6870-in-zwei-Wochen/Grafikkarte/News/
Sher interesante kleiner Chip dafür den Takt im Vergleich zur 5850 ordentlich erhöt(6870) und wohl auch den Stromverbrauch.Das ist ja schon bei der 5830 ordentlich in die Hose gegangen.
Gasti
2010-10-05, 17:42:09
Soso. Ich bin komisch drauf weil ich erwarte das eine 6870 stärker als eine 5870 ist. Wie dem auch sei, hab hier schon alles beschrieben wieso, weshalb, warum.
Nein weil du eine GTX470 kaufst und die nach ein paar Monaten ersetzen willst.
Der zitierte Satz + der Glaube, dass Barts so ist wie die negativsten Gerüchte es prophezeien (stimmt eh nicht) rückt dich in die FB-Ecke;)
Nein weil du eine GTX470 kaufst und die nach ein paar Monaten ersetzen willst.
Der zitierte Satz + der Glaube, dass Barts so ist wie die negativsten Gerüchte es prophezeien (stimmt eh nicht) rückt dich in die FB-Ecke;)
Ach. Darf ich eine 470 nicht durch eine 6870 (Der Name suggeriert bessere Leistung als ne 5870) ersetzen? Ich glaube ich darf selbst entscheiden was ich mache:) Und ja, ich glaube jetzt mal der negativen Folie.
Und deshalb finde ich das nicht so schön was AMD da macht.
Gasti
2010-10-05, 17:50:16
Ach. Darf ich eine 470 nicht durch eine 6870 (Der Name suggeriert bessere Leistung als ne 5870) ersetzen? Ich glaube ich darf selbst entscheiden was ich mache:) Und ja, ich glaube jetzt mal der negativen Folie.
Und deshalb finde ich das nicht so schön was AMD da macht.
Klar glauben kann man was man will.
Und wenn es Zahlen in einer Tabelle sind fällt es auch gleich viel leichter:)
AwesomeSauce
2010-10-05, 17:50:38
dass Barts so ist wie die negativsten Gerüchte es prophezeien (stimmt eh nicht) rückt dich in die FB-Ecke;)
Soso, Barts XT mit 960 SPs zwischen HD5850 und HD5870 (1440 resp. 1600 SPs) ist also das "negativste", was bisher herumspinnte. Ich denke, es ist an der Zeit, auf den Boden der Tatsachen zurückzukehren. Barts XT mit diesen Specs und der Perfomance einer HD5850+x% ist schon eine ziemlich gute Steigerung bei gleich bleibendem Fertigungsprozess...
Gasti
2010-10-05, 17:58:48
Soso, Barts XT mit 960 SPs zwischen HD5850 und HD5870 (1440 resp. 1600 SPs) ist also das "negativste", was bisher herumspinnte. Ich denke, es ist an der Zeit, auf den Boden der Tatsachen zurückzukehren. Barts XT mit diesen Specs und der Perfomance einer HD5850+x% ist schon eine ziemlich gute Steigerung bei gleich bleibendem Fertigungsprozess...
Das kommt ganz darauf an, wie der Chip darüber aussieht und welchen Markt er besetzen soll und nicht zuletzt wann er erscheint.
Und ja das ist die "negativste Folie" die bis jetzt erschienen ist, ob sich richtig ist oder nicht weiß/sagt keiner.
Aber Hauptsache man kann "diskutieren"
Schlammsau
2010-10-05, 17:59:17
Also irgendwie kann ich den Stromverbrauch und die dazu spekulierte Leistung, nicht so wirklich glauben.
Wenn die 6870 wirklich nur etwas schneller als eine 5850, aber langsamer als eine 5870 sein sollte, muss doch zumindest der Stromverbrauch niedriger als bei einer 5850 sein.
Welchen Wert hat den diese Grafikkartengeneration sonst? Wofür sollten sie das Ding dann Releasen?
Ich denke diese Folie ist eine weitere Fehlinformation seitens ATi!
Ach. Darf ich eine 470 nicht durch eine 6870 (Der Name suggeriert bessere Leistung als ne 5870) ersetzen? Ich glaube ich darf selbst entscheiden was ich mache:) Und ja, ich glaube jetzt mal der negativen Folie.
Und deshalb finde ich das nicht so schön was AMD da macht.
Och Leute... Is schon schwer so mit Brille und so?
Für dich wird's dann den Cayman geben und Barts überhaupt keine Rolle spielen. Is noch früh, oder?
Soso, Barts XT mit 960 SPs zwischen HD5850 und HD5870 (1440 resp. 1600 SPs) ist also das "negativste", was bisher herumspinnte. Ich denke, es ist an der Zeit, auf den Boden der Tatsachen zurückzukehren. Barts XT mit diesen Specs und der Perfomance einer HD5850+x% ist schon eine ziemlich gute Steigerung bei gleich bleibendem Fertigungsprozess...
Dann sollen die das Ding was weiss ich 5860 nennen und nicht 6870. So wird es einige Käufer geben die halt denken die Performance liegt über 5870 Niveau. Naja, muss ich mit meiner 470 wohl erstmal weiter auskommen bis wirklich was bahnbrechendes von AMD kommt. Die stärkeren Karten sollen ja im November kommen:)
dildo4u
2010-10-05, 18:00:50
Also irgendwie kann ich den Stromverbrauch und die dazu spekulierte Leistung, nicht so wirklich glauben.
Wenn die 6870 wirklich nur etwas schneller als eine 5850, aber langsamer als eine 5870 sein sollte, muss doch zumindest der Stromverbrauch niedriger als bei einer 5850 sein.
Welchen Wert hat den diese Grafikkartengeneration sonst? Wofür sollten sie das Ding dann Releasen?
Ich denke diese Folie ist eine weitere Fehlinformation seitens ATi!
Tesslationsleistung und AMD verdient mehr weil die Chips kleiner sind ganz einfach Grund genug die 5850 zu ersetzen.
Schlammsau
2010-10-05, 18:23:11
Wie können sie eigentlich die GPU, signifikant verkleinern und dabei die Tesselationleistung deutlich erhöhen? Ein
Cypress ist 334mm² gross, genauso wie der Cypress XT. Noch dazu ist es der gleiche Fertigungsprozess....
:nono: ich glaube diese Namensgebung erst wenn ich sie sehe.
Und wenn es wirklich so eintrifft, wird auch von mir kräftig gescholten......
aylano
2010-10-05, 18:38:50
Ja. Die Folie die bei PCGH gezeigt wird. Schau sie dir mal an. Eine 6870 ist stärker als ne 5850 und die 6850 ist stärker als ne 5830. Verstehst du jetzt was ich meine?
Hier der Link: http://www.pcgameshardware.de/aid,776826/Kommt-AMDs-Barts-als-Radeon-HD-6850/6870-in-zwei-Wochen/Grafikkarte/News/
Und was ist, wenn eine HD 6870 nicht nur stärker als eine HD 5850 ist, sondern auch stärker als eine HD 5870 ist.?
dildo4u
2010-10-05, 18:41:17
Und was ist, wenn eine HD 6870 nicht nur stärker als eine HD 5850 ist, sondern auch stärker als eine HD 5870 ist.?
Kommt drauf an was man testet wenn Tesslation eine Rolle spielt wird die 6870 vorn sein wenn nicht die 5870.
CrazyIvan
2010-10-05, 18:42:59
Wie können sie eigentlich die GPU, signifikant verkleinern und dabei die Tesselationleistung deutlich erhöhen? Ein
Cypress ist 334mm² gross, genauso wie der Cypress XT. Noch dazu ist es der gleiche Fertigungsprozess....
Möglich wäre das, indem der Umstieg von 5D auf 4D-Shader mehr Die-Space spart, als durch die Steigerung der Tesselationsleistung benötigt wird. Abgesehen davon stimme ich Dir aber zu, dass mir die Änderungen bisher nicht als signifikant genug erscheinen, um gleich eine neue Generation zu rechtfertigen.
Glaub ich nicht. Dann müsste es ja auch heissen: 6850 stärker als 5850:) Nene, ich glaube hier versucht AMD die Kunden zu verwirren.
Glaub ich nicht. Dann müsste es ja auch heissen: 6850 stärker als 5850:) Nene, ich glaube hier versucht AMD die Kunden zu verwirren.
Das war ich und ich meinte aylano. Wie gesagt, sehr unlustig diese Namensgestaltung.
PingpiN
2010-10-05, 19:00:56
Wartet doch lieber erst ab was amd am chip noch so verändert hat.Vielleicht wurde ja die effizienz erheblich erhöht.Kann doch sein das bart xt auch mit den schlechteren daten eine 5870 schlagen kann.
aylano
2010-10-05, 19:51:25
Glaub ich nicht. Dann müsste es ja auch heissen: 6850 stärker als 5850:) Nene, ich glaube hier versucht AMD die Kunden zu verwirren.
Muss es nicht, da der erstere Vergleich dann nicht falsch wäre.
Was hätte es für einen Sinn den Kunden zu verwirren, wenn man davor mit attraktiven Preisen das Image verbessert hat bzw. den Kunden gekötert hat?
Bei den wenigen Stückzahlen am Anfang der HD 5870-Ära hätte man einen deutlich höheren Preis verlangen können.
y33H@
2010-10-05, 19:58:38
Here we go ... (http://bbs.expreview.com/viewthread.php?tid=37063&from=recommend_f)
Muss es nicht, da der erstere Vergleich dann nicht falsch wäre.
Was hätte es für einen Sinn den Kunden zu verwirren, wenn man davor mit attraktiven Preisen das Image verbessert hat bzw. den Kunden gekötert hat?
Bei den wenigen Stückzahlen am Anfang der HD 5870-Ära hätte man einen deutlich höheren Preis verlangen können.
Zu dem Preis den die 5870 am Anfang hatte: Da hat sich AMD verspekuliert. Die dachten die 480 wird der Oberhammer also haben die den Preis zu tief angesetzt. Übrigens sind die AMD Preise heute immer noch zu hoch (bezogen auf die 5850 z.B.). Und bei der Namensgebung orientiert man sich jetzt bei NV. Also beide versuchen den Kunden so zu täuschen (Meine Meinung).
Here we go ... (http://bbs.expreview.com/viewthread.php?tid=37063&from=recommend_f)
Sehr schön. Kann einer chinesisch? :)
y33H@
2010-10-05, 20:02:57
Google Translate ... oder lernen, so schwer ist's nicht :ulol:
deekey777
2010-10-05, 20:03:40
Möglich wäre das, indem der Umstieg von 5D auf 4D-Shader mehr Die-Space spart, als durch die Steigerung der Tesselationsleistung benötigt wird. Abgesehen davon stimme ich Dir aber zu, dass mir die Änderungen bisher nicht als signifikant genug erscheinen, um gleich eine neue Generation zu rechtfertigen.
Ohne zu wissen, wie die SIMDs genau aufgebaut sind, ist es schwer abzuschätzen, ob die Die-Fläche zwangsläufig kleiner geworden ist. Durch die Wegreduzierung der fetten T-Unit müssten andere vier SPs fetter geworden sein.
Der Kernpunkt ist: Wenn die Tessellationsleistung steigt, dann sehr wahrscheinlich deswegen, weil die bisherigen Flaschenhälse entfernt wurden.
Here we go ... (http://bbs.expreview.com/viewthread.php?tid=37063&from=recommend_f)
Irgendwie uralt. Man sieht es an den arabischen Zahlen, da muss man kein Chinesisch lernen.
y33H@
2010-10-05, 20:05:48
Kluger Esel ;)
Sorry fürs Offtopic. Aber arabische Zahlen? Das sieht mir aber doch nach chinesisch aus. Und da kommen wir schon zum springenden Punkt: Ich glaube das ist Fake:)
y33H@
2010-10-05, 20:10:15
deekey777 spricht vom Datum des Posts.
Ahso. OK;) Lassen wir uns mal überraschen. Ich glaube jetzt mal an das was bei PCGH steht. Was bezüglich der Namensgestaltung sehr kundenunfreundlich ist.
LovesuckZ
2010-10-05, 21:39:27
AMD Radeon HD 6000 Series in trouble?: http://vr-zone.com/articles/amd-radeon-hd-6000-series-in-trouble-/9999-1.html
boxleitnerb
2010-10-05, 22:05:23
Das mit der Verfügbarkeit kommt einem doch irgendwie bekannt vor...sehr sehr schwach wenns stimmen sollte.
Schlammsau
2010-10-05, 22:08:40
Es wird doch schon seit nem halben Jahr gesagt, dass die Karten erst relativ spät verfügbar sein werden.
boxleitnerb
2010-10-05, 22:11:42
Das ändert nichts daran, dass sowas scheiße ist - egal wer es macht. Sollen sie die Karten vorstellen, wenn sie genügend verkaufen können. Sowas kotzt mich echt an.
Nakai
2010-10-05, 22:27:08
Das ändert nichts daran, dass sowas scheiße ist - egal wer es macht. Sollen sie die Karten vorstellen, wenn sie genügend verkaufen können. Sowas kotzt mich echt an.
Ich packs auch nemmer. Sowas is leida nicht wirklich nachzuvollziehen.
Tja, ATI hatte einen sehr guten Lehrmeister.;)
Naja dann kennen sich nur noch die "Profis" mit den Kartennamen und den Chips aus. Schade für die normalen User...auf jeden Fall muss sowas kritisiert werden, vor allem von den führenden Magazinen.
mfg
Nicht mal die Daten sind bekannt und hier wird rumgeheult weil sie "anscheinend" später kommen....Ich liebe es*g*
Iruwen
2010-10-05, 23:19:25
Tja, ATI hatte einen sehr guten Lehrmeister.;)
Hm? Also GTX 400 Karten waren kurz nach Launch auch zeitnah flächendeckend verfügbar, die HD 5800er nur kurz und dann erstmal laaange nicht mehr...
LadyWhirlwind
2010-10-05, 23:44:18
so wie ich das von einigen Händlern gehört habe, gabs schlicht zu wenige von den 5870er Karten um die Nachfrage zu befriedigen.
Für alle die sagen, warten bis genügend Chips verfügbar sind, denkt daran, dass die Produktion auch kostet und die Rechnungen dafür recht bald zu zahlen sind, wenn sie das Geld nicht sogar vorschiessen müssen. Da ist nix mit für den Vorrat Produzieren. Ein zwei Wochen, vielleicht jah, mehr als einen Monat kaum. Dafür hat AMD nicht genügend bares auf Reserve...
Und noch was zur Konferenz: bei solchen Untergangen kann es immer verschiebungen von ein paar Tagen/Wochen geben, und die Konferenz ist einfach die beste möglichkeit um die Karten vorzustellen. Soviel aufmerksamkeit versammelt man nicht so schnell einfach wieder (ohne das es viel Geld kostet). Das muss AMD nützen.
Womit ich nicht sagen will, dass es nicht wünschenswert wäre das die Karten in guten Mengen sofort nach launch verfügbar sind.
Vento
2010-10-05, 23:49:22
Und noch was zur Konferenz: bei solchen Untergangen kann es immer verschiebungen von ein paar Tagen/Wochen geben, und die Konferenz ist einfach die beste möglichkeit um die Karten vorzustellen. Soviel aufmerksamkeit versammelt man nicht so schnell einfach wieder (ohne das es viel Geld kostet). Das muss AMD nützen.
Ist auch in anderen Produktbereichen und Branchen absolut üblich und wird als Marketinginstrument genutzt.
Man will halt das die Nachfrage zum Hard-Launch direkt einen Peak erreicht.
Schlammsau
2010-10-06, 09:18:45
Hm? Also GTX 400 Karten waren kurz nach Launch auch zeitnah flächendeckend verfügbar, die HD 5800er nur kurz und dann erstmal laaange nicht mehr...
Die GTX470 und 480 waren mindestens 2 Wochen lang nach der Vorstellung, flächendeckend 0 verfügbar! Und mit 0, meine ich 0! Kein einziger Shop hatte weltweit nur eine dieser Karten. CB hatte dazu sogar ne eigene News veröffentlicht.
Das nur mal so nebenbei. ;)
Aber egal, ist nicht schön wenn ATi hier nen astreinen Paperlaunch hinlegen würde. Aber im Moment ist es noch zu früh, irgendwas zu sagen. Es sind ja noch nichtmal Pic´s oder die echten Spezifikationen, der 6800 Serie durchgesickert. Im Grunde wissen wir noch gar nichts. :freak:
Also ruhig bleiben und Tee trinken!
Ailuros
2010-10-06, 10:36:09
Dieser unendliche Druck fuer konstant mehr Leistung fuer die IHVs generell macht ihnen das Leben alle andere als leicht. Wenn sich das Ganze insgesamt etwas entspannen wuerde waere es eventuell auch moeglich dass die Preise von Anfang etwas gemessener sind.
Und wenn manche von Euch schon nach einem Suendenbock suchen wollt dann ist TSMC ein sehr guter Kandidat und dieses gilt dann fuer beide IHVs. 40G ist im Bereich Kapazitaet immer noch nicht wo es sein koennte und 32nm wurde storniert. Und nein natuerlich ist TSMC nicht wirklich an allem schuld, aber unter solchen Bedingungen sind die IHVs leider immer noch viel zu viel abhaengig von TSMC's eigentlicher Herstellungs-Leistung bzw. Kapazitaet.
MadManniMan
2010-10-06, 11:00:08
Dann sehe ich aber auch keine zwingende Notwendigkeit, eine HD 6000 aufzulegen - sollen sie lieber alle Kraft in die Enwicklung des Nachfolgers stecken ;(
Eine HD 5000einhalb nur um der jährlichen Neuauflage Willen braucht niemand.
Dural
2010-10-06, 11:03:30
NV hat wohl für einige zeit einen grossteil der Kapazität von TSMC für GF104 ausgebucht, die GTX460 ist billig und in Massen Lieferbar ;)
Iruwen
2010-10-06, 11:50:24
Die GTX470 und 480 waren mindestens 2 Wochen lang nach der Vorstellung, flächendeckend 0 verfügbar! Und mit 0, meine ich 0! Kein einziger Shop hatte weltweit nur eine dieser Karten. CB hatte dazu sogar ne eigene News veröffentlicht.
Deshalb sagte ich zeitnah.
Ailuros
2010-10-06, 12:29:31
Dann sehe ich aber auch keine zwingende Notwendigkeit, eine HD 6000 aufzulegen - sollen sie lieber alle Kraft in die Enwicklung des Nachfolgers stecken ;(
Eine HD 5000einhalb nur um der jährlichen Neuauflage Willen braucht niemand.
Dann muessten aber beide IHVs bis zur 28nm Generation (ca. ab Q3 2011) auf dem gleichen heutigen Zeug hocken und dann wird natuerlich wieder gemeckert. Man kann es einfach nicht allen recht machen.
NV hat wohl für einige zeit einen grossteil der Kapazität von TSMC für GF104 ausgebucht, die GTX460 ist billig und in Massen Lieferbar ;)
Wenn Du wirklich glaubst dass eine Bumsfallera SKU egal wie gut sich diese verkauft der Grund sein koennte dass sich eine gesamte Produkt-Familie von AMD verspaetet dann kann ich Dir wirklich nicht weiterhelfen.
svenw
2010-10-06, 12:38:27
Dann sehe ich aber auch keine zwingende Notwendigkeit, eine HD 6000 aufzulegen - sollen sie lieber alle Kraft in die Enwicklung des Nachfolgers stecken ;(
Eine HD 5000einhalb nur um der jährlichen Neuauflage Willen braucht niemand.
Wenn sie wirklich auf 4d Einheiten gehen dann macht das Ganze ne Menge Sinn ala Intels Tick-Tock Strategie. Massive Änderungen am Chipdesign + neuer Prozeß ist riskant wie NV schmerzhaft erfahren mußte. Der Cayman wird wohl noch mal ne ordentliche Schippe draufpacken und da Barts nen ganzes Stück kleiner als Cypress ein sollte ist hoffentlich die Leistung einer 5870 bald billiger zu haben. Außerdem macht sich eine neue Chipgeneration zum Weihnachtsfest immer besonders gut. :biggrin: Da könnte AMD auch versuchen in die Verträge von NV für Komplett-PCs einzusteigen, denn da ist NV immer noch besser aufgestellt als AMD. Wahrscheinlich auch als Kombi CPU + GPU, aber nur wenn TSMC es schafft genügend Chips zu produzieren. Schlimmstenfalls fällt das retail Geschäft hinten runter.
deekey777
2010-10-06, 12:39:34
Was heißt eigentlich "verspätet"? Ungewollt-verspätet oder gewollt-unverspätet?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.