PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17]

fondness
2010-10-22, 11:49:30
ICH kann solche Produkte nicht ausstehen, für mich ist ein gutes OC potetial etwas vom wichtigsten was es bei Grafikkarten und CPUs gibt.

Aber ich hatte schon die befürchtung, da AMD wohl die dichte beim Barts noch weiter reduziert hat und somit auch schlechter beim takt da steht.

Schade!

Statt einem gutem OC-Potential das dir keiner garantiert habe ich lieber garantiert hohe Taktraten. NV kann sich das nicht erlauben weil der Stromverbrauch sonst durch die Decke geht oder die Yields zu schlecht sind das ist alles.

So ein verhalten wird die Ausbeute drastisch reduzieren, da soll noch einer mal mit fläche = preis kommen ;)

Wird es nicht mal im geringsten, Chips welche den Takt nicht schaffen verkauft man als 6850. Würde es nicht genug Chips geben welche die 900Mhz erreichen könnte man die 6870 auch nicht anbieten.

fondness
2010-10-22, 12:26:43
Nicht ohne Grund war Gen7 nur HD 6800:
http://img831.imageshack.us/img831/7658/tesssmall.png (http://img831.imageshack.us/i/tesssmall.png/)
http://forum.beyond3d.com/showpost.php?p=1485393&postcount=3922

Hm, interessant. Damit bestätigt sich das Cayman im Gegensatz zu Barts nicht nur eine leichte Weiterentwicklung der Evergreen-Chips ist sondern wohl tatsächlich umfassendere Änderungen enthält. Das macht dann auch die 4D ALUs wieder wahrscheinlicher. Aber Schade das sich AMD zu Cayman heute noch weitgehend bedeckt hält.

Dural
2010-10-22, 13:18:25
Statt einem gutem OC-Potential das dir keiner garantiert habe ich lieber garantiert hohe Taktraten. NV kann sich das nicht erlauben weil der Stromverbrauch sonst durch die Decke geht oder die Yields zu schlecht sind das ist alles.


Blödsinn, meine GTX460 @ 800MHz verbraucht gerade mal 10Watt mehr als mit 675MHz und zeig mir erst mal eine GTX460 die keine 800MHz macht ;) hatte schon 6 stück hier und alle gingen über 800MHz das ist eine ziemlich gute "garantie"

Im gegensatz zur 6870 wo man ganz offensichtlich zwingend die Spannung erhöhen muss um zu übertakten dürfte die 6870 somit ganz schnell über dem verbrauch der GTX460 liegen!

Übrigens hast du dich gleich selber aus dem rennen gekickt: GTX460 mit bis zu 850MHz (+26%) kann man so im laden kaufen ;) aber OC Karten kauf man eh nicht wenn man das selbe auch einfach so haben kann, zudem OC Karten generell eine zu hohe Spannung haben, es gibt sehr sehr wenige Hersteller die wirklich gut und richtig selektieren.


Wird es nicht mal im geringsten, Chips welche den Takt nicht schaffen verkauft man als 6850. Würde es nicht genug Chips geben welche die 900Mhz erreichen könnte man die 6870 auch nicht anbieten.

Was der Preis logischerweise ganz schnell runter nimmt = Ausbeute pro Wafer wird schlechter ohne wenn und aber, da muss man gar nicht drüber diskutieren... Übrigens ist sogar die 6850 kein OC wunder, das sagt schon viel aus...

Wenn wir jetzt noch annehmen das der RV940 @ 1120SP keine deaktivierten einheiten hat dürfte die ausbeute pro wafer an 6870 chips sehr schlecht sein.

Wie so AMD die chips so laufen lässt ist ja klar, sie wollten einfach um jeden Preis unter dem Verbrauch der GTX460 sein, mussten aber trotzdem einen hohen takt in kauf nehmen da man sonst zu langsam ist.

infinity
2010-10-22, 14:24:39
ICH kann solche Produkte nicht ausstehen, für mich ist ein gutes OC potetial etwas vom wichtigsten was es bei Grafikkarten und CPUs gibt.

Aber ich hatte schon die befürchtung, da AMD wohl die dichte beim Barts noch weiter reduziert hat und somit auch schlechter beim takt da steht.

Schade!

Ich verstehe das irgendwie nicht ganz... wo steht der barts chip mit seinen 900Mhz taktmäßig schlecht dar? Gibt es etwa schon andere grafikkarten, die serienmäßig mit 900mhz auf dem markt sind? Warum vergleichst du eine grafikkarte wie die 460 mit ihrem relativ niedrigen Takt und taktreserven mit einem chip, der einen hohen takt und fast am anschlag ist? Sinnvoller wäre es doch erstmal eine 6850 mit ihrem nidrigeren Takt und ähnlichem leistungsniveau mit der 460 zu vergleichen. Und dann erst kommt die 460 OC verglichen mit der 6870. Das ist das einzig sinnvolle. Und ich sehe es als gar nicht mal so wild, dass die 6850 momentan noch nicht so viel spielraum hat. Ist ja schließlich ein brand neuer chip, der wohl noch teilweise als abfallprodukt daherkommt und erst in einem monat ca. soweit eingespielt ist, dass da mehr geht. Gleiches wird übrigens vllt. in maßen auf die taktbarkeit der 6870 übertragbar sein.

Irgendwie fetzen hier einige leute wie du bspw. son bisschen an karten herum, als ob sie sie kaufen MÜSSTEN...

Gipsel
2010-10-22, 14:42:53
Blödsinn, meine GTX460 @ 800MHz verbraucht gerade mal 10Watt mehr als mit 675MHz und zeig mir erst mal eine GTX460 die keine 800MHz macht ;) hatte schon 6 stück hier und alle gingen über 800MHz das ist eine ziemlich gute "garantie"

Im gegensatz zur 6870 wo man ganz offensichtlich zwingend die Spannung erhöhen muss um zu übertakten dürfte die 6870 somit ganz schnell über dem verbrauch der GTX460 liegen!Mal eine kurze Frage zwischendurch, wie weit kann man eigentlich die 800MHz GTX460 (mit denen Du die 6870 ja auch preis- und performancemäßig vergleichen willst) dann noch ohne Spannungserhöhung übertakten? Arbeiten nicht die GTX460 mit 800+MHz auch mit Spannungserhöhung?

PulsarS
2010-10-22, 14:48:25
Mal eine kurze Frage zwischendurch, wie weit kann man eigentlich die 800MHz GTX460 (mit denen Du die 6870 ja auch preis- und performancemäßig vergleichen willst) dann noch ohne Spannungserhöhung übertakten?
So bis 850-880 Mhz, also nicht viel.
Was die Spannung angeht -> kein Plan. :D

davidzo
2010-10-22, 15:01:47
aber wider mal typisch AMD, Takt bis zum anschlag rauf, mit etwas mehr spannung wäre man wohl im verbrauch über der GTX460 gelandet...


ja mit wie viel spannung... ;) hatte mit einem RV670 schon 1200MHz unter WaKü @ 1,65Volt :D

Über was beschwerst du dich eigentlich? Dass AMD die Spannung auf ein Minimum senkt und dadurch weniger verbraucht als ne langsamere GTX460?
Klar hat eine Karte die großzügig mit Energie umgeht wie die GTX460 dann ein eher größeres taktpotential.
Ich bin sicher du hättest dich auch beschwert wenn AMD die defaultspannung höher gewählt hätte, bei guter übertaktbarkeit und damit der Verbrauchsvorteil gegenüber GTX460 nicht mehr vorhanden gewesen wäre.

Letzendlich ist es ein Zeichen einer sehr homogenen Ausbeute, wenn die Spannung so minimal gewählt wird dass sie geradeeben für den gewählten takt reicht. Die GTX460 hat eben eine so hohe Varianz dass man aus Sicherheitsgründen eine höhere Standardspannung nehmen muss als für den Durchschnitt der Chips erforderlich wäre. Das bringt bei vielen Chips ein sehr gutes OCpotential, bei einigen eher weniger.
Ist die Abweichung vom Median durchgängig gering, so wie bei Barts, kann man es sich durchaus leisten eine sehr knappe Standardspannung bei einem hohen Standardtakt zu nehmen.

Es reicht also nicht, wenn man das ganze nur als schlechtes OCpotential bezeichnet, in erster Linie wird nämlich durch die Bank erheblich an Energie gespart. Die Sandardspannung zu erhöhen bleibt schließlichjedem selbst überlassen, kaum jemand würde aber die standardspannung aus verbrauchsgründen senken.

MR2
2010-10-22, 15:26:43
Computerbase hat die 6850 mit dem Bios der 70iger getestet:-)

http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/

hmx
2010-10-22, 15:45:53
Die GTX460 hat eben eine so hohe Varianz dass man aus Sicherheitsgründen eine höhere Standardspannung nehmen muss als für den Durchschnitt der Chips erforderlich wäre. Das bringt bei vielen Chips ein sehr gutes OCpotential, bei einigen eher weniger.
Ist die Abweichung vom Median durchgängig gering, so wie bei Barts, kann man es sich durchaus leisten eine sehr knappe Standardspannung bei einem hohen Standardtakt zu nehmen.



Viel Bla und wenig gehaltsvolles. Bisher hat jede GTX 460 800MHz ohne Spannungserhöhung mitgemacht. Also nichts mit hoher Varianz, die OC-Werte schwanken kaum.
Es ist wohl eher so, dass NVidia es den Herstellern überlassen hat wie hoch sie ihre Karten takten, so wie bei den Laptop Chips. Wahrscheinlich wollte man der GTX470 nicht direkt das Wasser abgraben und gleichzeitig aber flexibel sein.

Fetter Fettsack
2010-10-22, 16:11:58
Computerbase hat die 6850 mit dem Bios der 70iger getestet:-)

Was die Sache insofern interessant macht, als dass anscheinend ein anderes BIOS alleine ausreicht, um mehr Leistung zu lukrieren.

ColdColt
2010-10-22, 16:13:29
http://www.pcgameshardware.de/aid,795198/Sapphire-Radeon-HD-6850-Modelle-mit-1120-Shader-ALUs-im-Handel/Grafikkarte/News/

Dural
2010-10-22, 17:21:11
Mal eine kurze Frage zwischendurch, wie weit kann man eigentlich die 800MHz GTX460 (mit denen Du die 6870 ja auch preis- und performancemäßig vergleichen willst) dann noch ohne Spannungserhöhung übertakten? Arbeiten nicht die GTX460 mit 800+MHz auch mit Spannungserhöhung?

es geht ja auch nicht um GTX460 vs 6870 sondern allgemein um das OC potential. das war nur ein vergleich, klar hat die stock 6870 etwas mehr Leistung als eine stock GTX460 / GF104 336SP

Die entleistung ist aber im endeffekt egal! Es geht darum das man OC vs OC die beiden Karten sehr wahrscheinlich Leistungs gleich sind, die GTX460 aber sogar etwas billiger angeboten wird. Deswegen übertaktet man ja auch, um "kostenlos" etwas mehr Leistung mit zu nehmen.

Da ich noch keine erfahrung in sachen OC mit dem RV940 habe, werde ich mich noch zurück halten, aber werde ich sicher bald haben ;)


Meine GTX460 SLI läuft übrigens ohne spannugns erhöhung mit 825MHz @ referenz karte/kühler, mit etwas mehr spannung 900MHz @ referenz karte/kühler

Über was beschwerst du dich eigentlich? Dass AMD die Spannung auf ein Minimum senkt und dadurch weniger verbraucht als ne langsamere GTX460?
Klar hat eine Karte die großzügig mit Energie umgeht wie die GTX460 dann ein eher größeres taktpotential.
Ich bin sicher du hättest dich auch beschwert wenn AMD die defaultspannung höher gewählt hätte, bei guter übertaktbarkeit und damit der Verbrauchsvorteil gegenüber GTX460 nicht mehr vorhanden gewesen wäre.

Letzendlich ist es ein Zeichen einer sehr homogenen Ausbeute, wenn die Spannung so minimal gewählt wird dass sie geradeeben für den gewählten takt reicht. Die GTX460 hat eben eine so hohe Varianz dass man aus Sicherheitsgründen eine höhere Standardspannung nehmen muss als für den Durchschnitt der Chips erforderlich wäre. Das bringt bei vielen Chips ein sehr gutes OCpotential, bei einigen eher weniger.
Ist die Abweichung vom Median durchgängig gering, so wie bei Barts, kann man es sich durchaus leisten eine sehr knappe Standardspannung bei einem hohen Standardtakt zu nehmen.

Es reicht also nicht, wenn man das ganze nur als schlechtes OCpotential bezeichnet, in erster Linie wird nämlich durch die Bank erheblich an Energie gespart. Die Sandardspannung zu erhöhen bleibt schließlichjedem selbst überlassen, kaum jemand würde aber die standardspannung aus verbrauchsgründen senken.

Ich denke nicht das die spannung bei der 6870 wirklich tief ist... weis da einer irgend was genaueres?

Das dumme ist halt auch das man die Spannung zwischen NV und AMD neben der komplett anderen architektur nicht vergleichen kann, da erstens NV in der regel immer deutlich tiefere Spannung hat und zweitens NV seit der 400 Serie veriable VID haben, das kann bei einer GTX460 zwischen ca. 0,950 bis 1,050 Volt alles bedeuten, wohl gemerkt bei stock Karten! Die unterschidlichen GF104 DIEs reagieren zum teil auch komplett anders, unter 1,00Volt wird aber in der regel kaum wenniger verbraucht als eben mit 1Volt

Gipsel
2010-10-22, 18:03:35
es geht ja auch nicht um GTX460 vs 6870 sondern allgemein um das OC potential. das war nur ein vergleich, klar hat die stock 6870 etwas mehr Leistung als eine stock GTX460 / GF104 336SPWarst nicht (auch) Du es, der angemahnt hat, man solle doch auch mit den OC-Versionen der GTX460 vergleichen?
Die entleistung ist aber im endeffekt egal!
Was?!?
Es geht darum das man OC vs OC die beiden Karten sehr wahrscheinlich Leistungs gleich sind, die GTX460 aber sogar etwas billiger angeboten wird. Deswegen übertaktet man ja auch, um "kostenlos" etwas mehr Leistung mit zu nehmen.Garantiert bekommt man es aber nur bei den OC-Versionen (die sich dann auch nicht mehr ohne Spannungserhöhung großartig übertakten lassen). Und da die HD6870 wohl schon jetzt für unter 200€ angeboten wird, sehe ich da kaum eine große Preisdifferenz. Mal sehen, wie sich das noch entwickelt.
Meine GTX460 SLI läuft übrigens ohne spannugns erhöhung mit 825MHzWas benötigt eine GTX460, um mit einer HD6870 so in etwa gleichzuziehen (ich sage jetzt mal bei Standard-Treibereinstellungen)? So grob um die 800MHz dürften das wohl sein. Und genau mit diesen 800MHz wollten LovesuckZ und Du die GTX460 doch gestern noch mit den HD6800ern verglichen haben, oder irre ich mich da? Wie sieht jetzt der OC-Spielraum unter diesen Bedingungen dann im Vergleich aus?
und zweitens NV seit der 400 Serie veriable VID haben, das kann bei einer GTX460 zwischen ca. 0,950 bis 1,050 Volt alles bedeuten, wohl gemerkt bei stock Karten!(Mindestens) die HD5800er Reihe hat auch variable VIDs.

Flatterball77
2010-10-22, 18:36:23
Naja, genau das was ich erwartet hatte:smile: Schlechtere Filterung als der Vorgänger und dadurch zwischen 5850 und 5870. Der Preis geht in Ordnung, werde mir aber jetzt die Gigabyte 470 SOC ordern:tongue:

Menace
2010-10-22, 18:52:05
Schlechtere Filterung als der Vorgänger und dadurch zwischen 5850 und 5870.

Wie kommt man jetzt auf schlechtere Filterung als der Vorgänger? PCGH sagt doch etwas anderes?

Flatterball77
2010-10-22, 18:56:46
Ja, Banding ist weg, dafür flimmerts schlimmer als vorher. Pest oder Cholera, ich brauche weder das eine, noch das andere:D

Gauß
2010-10-22, 19:06:51
doch nicht

Black-Scorpion
2010-10-22, 19:11:44
Ja, Banding ist weg, dafür flimmerts schlimmer als vorher. Pest oder Cholera, ich brauche weder das eine, noch das andere:D
Keine Ahnung was du gelesen hast, ich lese was anderes.

Menace
2010-10-22, 19:11:47
Acha, das "Flimmern". Da bin ich dann ja doch beruhigt, da meine Augen (bzw. mein Gehirn) das zum Glück bei Spielen bisher nicht ohne entsprechenden Hinweis wahrgenommen haben. Wichtig ist mir weniger Stromverbrauch, endlich 3 Monitor (statt bisher 2) und möglichst Spielbarkeit von 1920 x 1200 und da sieht es ja bei AMD nicht schlecht aus. Aber trotzdem noch Cayman abwarten.

Flatterball77
2010-10-22, 19:30:13
Keine Ahnung was du gelesen hast, ich lese was anderes.

Ja, was man doch so einiges im WWW lesen kann:D. Ich lese ganz ganz viele Tests und dann bleibt bei mir schonmal hängen das einem Tester sofort auffällt das die 68er Reihe stärker als die 58er Reihe flimmert.

@Menace

Schön das du nichts merkst, mir viel es früher bei NV auf (lang isses her, glaube zu G70 Zeiten) und bei ATI seit der 4800er Generation;)

OgrEGT
2010-10-22, 20:28:51
Über was beschwerst du dich eigentlich? Dass AMD die Spannung auf ein Minimum senkt und dadurch weniger verbraucht als ne langsamere GTX460?
Klar hat eine Karte die großzügig mit Energie umgeht wie die GTX460 dann ein eher größeres taktpotential.
Ich bin sicher du hättest dich auch beschwert wenn AMD die defaultspannung höher gewählt hätte, bei guter übertaktbarkeit und damit der Verbrauchsvorteil gegenüber GTX460 nicht mehr vorhanden gewesen wäre.

Letzendlich ist es ein Zeichen einer sehr homogenen Ausbeute, wenn die Spannung so minimal gewählt wird dass sie geradeeben für den gewählten takt reicht. Die GTX460 hat eben eine so hohe Varianz dass man aus Sicherheitsgründen eine höhere Standardspannung nehmen muss als für den Durchschnitt der Chips erforderlich wäre. Das bringt bei vielen Chips ein sehr gutes OCpotential, bei einigen eher weniger.
Ist die Abweichung vom Median durchgängig gering, so wie bei Barts, kann man es sich durchaus leisten eine sehr knappe Standardspannung bei einem hohen Standardtakt zu nehmen.

Es reicht also nicht, wenn man das ganze nur als schlechtes OCpotential bezeichnet, in erster Linie wird nämlich durch die Bank erheblich an Energie gespart. Die Sandardspannung zu erhöhen bleibt schließlichjedem selbst überlassen, kaum jemand würde aber die standardspannung aus verbrauchsgründen senken.

Zudem gibt es überhaupt keinen Grund, die HD 6870 mit 900 MHz weiter zu übertakten. Die Karte ist in ihrem Segment deutlich am Schnellsten. Wem das nicht reicht, der kann dann auch zur HD 6950 / 6970 greifen. In diesen Bereich wird die HD 6870 sehr wahrscheinlich mit OC unter LuKü nicht kommen können.

Ailuros
2010-10-22, 20:32:21
edit: redundancy LOL

Uebrigens die Pufferei bei Cayman (4D) ist uebrigens afaik hauptsaechlich fuer Tessellations-Schnickschnack. Je nach Fall legt hier Cayman gegenueber Cypress 1.5x-2.0x mal dazu. Was ich noch nicht lesen konnte ist eine Art CSAA die auf Cayman noch stecken sollte. Das mit dem AF-Optimierungs Killer duerfte uebrigens auch stimmen.

Errr und erwartet mir bloss nicht einen >256bit Bus auf Cayman.

Screemer
2010-10-22, 21:13:17
bin mal gespannt, ob in den läden 6850er mit 1120 shadern auflschagen. sollte das so sein bzw. sollten sich die karten einfach flashen lassen, dann ist eine auf jeden fall mein.

was meint ihr wie hoch die wahrscheinlichkeit ist?

aylano
2010-10-22, 21:14:50
Das mit dem AF-Optimierungs Killer duerfte uebrigens auch stimmen.

Was für ein AF-Optimierungs-Killer?

Willst du etwa andeuten, dass AMD beim Cayman das Flimmern beseitigt haben wird?

Das wäre nicht unlogisch, da ja Cayman ja die neue Architektur sein soll, wenn die mit 4D statt 5D kommt.
Bart sieht ja eher wie ein optimierter Evergreen (Optimales Verhältnis von Front-End bzw. RPE und Shader & TMUs) sowie neuen Features (3D, UVD 3.0, usw) auf neusten Stand der Fertigung alias Hybrid.

Die gelbe Eule
2010-10-22, 21:17:01
Habe heute von XFX die 6870 und die 6850 in der Hand gehabt. Die 900M ist die 6870 und kommt wohl mit 900Mhz Takt und 1GB DDR5 daher. Verpackung nicht spektakulär, auch kein Goodie wie Spiele usw. Die 775M ist die 6850, auch mit 1GB DDR5. Verpackung ist genauso aufgebaut und groß wie bei der 6870.
Fotos konnte ich keine machen, da ich noch keine Key Chain Kamera habe und bei uns Handyverbot (Telefonie, nicht Bilder machen) herrscht. Die Karten sind also seit heute morgen 10 Uhr lagernd (A*el*o, zwei Buchstaben einsetzen, man weiß ja nie wer mitliest) in Stückzahl 60 für jede Karte. Und bisher konnte auch nur XFX liefern, kein HIS, MSI, Club3D oder Sapphire dabei.

Im übrigen bekomme ich täglich jede Hardwareneuerscheinung in Zukunft mit, welche dann lagernd (Zentrallager kommisionierbar) zu haben wäre. Wer also wissen möchte, welches Spiel z.B. einer VGA Karte beiliegt (Beispiel MSI 5850 Twin Frozr mit AC2 und nicht nackt neurdings), schreibt mir ne PN.

Ailuros
2010-10-22, 21:19:17
Was für ein AF-Optimierungs-Killer?

Willst du etwa andeuten, dass AMD beim Cayman das Flimmern beseitigt haben wird?

Man soll diesmal die AF Optimierungen unabhaengig abschalten koennen.

Das wäre nicht unlogisch, da ja Cayman ja die neue Architektur sein soll, wenn die mit 4D statt 5D kommt.
Bart sieht ja eher wie ein optimierter Evergreen (Optimales Verhältnis von Front-End bzw. RPE und Shader & TMUs) sowie neuen Features (3D, UVD 3.0, usw) auf neusten Stand der Fertigung alias Hybrid.

Ich bezweifle dass ein einfacher Schalter im Treiber eine grandiose Aenderung in der Architektur braucht. Es ist wohl eher ein Gedanke ab Cayman weil wohl dort dank effizienteren TMUs das Ausschalten der Optimierungen wohl nicht mehr so viel in Leistung kostet wie bis jetzt.

aylano
2010-10-22, 21:29:06
Man soll diesmal die AF Optimierungen unabhaengig abschalten koennen.

Öhm, das hatte ich etwas falsch verstanden.
Ich dachte, es geht ums generelle AF-Flimmern.

Was sind jetzt AF-Optimierungen?


Ich bezweifle dass ein einfacher Schalter im Treiber eine grandiose Aenderung in der Architektur braucht. Es ist wohl eher ein Gedanke ab Cayman weil wohl dort dank effizienteren TMUs das Ausschalten der Optimierungen wohl nicht mehr so viel in Leistung kostet wie bis jetzt.
Das "meinte/dachte" ich im Grunde.
Das Problem ist ja nicht der Schalter, sondern möglich werden die AF-Verbesserungen durch verbesserte TMUs, was meistens nur bei der "neuen" Architektur gemacht sein könnte.

Wenn das so (Cayman & Co) kommen wird, dann müsste MLAA & AF-Banding-Lösung doch "in der alten" Architektur relativ einfach zu lösen gewesen sein?!

boxleitnerb
2010-10-22, 21:34:37
Ob das Abschalten der Optimierungen nur dann möglich wird, wenn eine Cayman-Karte vom Treiber erkannt wird? Und vor allem: endlich flimmer- und bandingfrei? Das wäre ein Traum! Und ein Schlag ins Gesicht aller Barts-Käufer...

Iruwen
2010-10-22, 21:38:01
Ist doch voraussichtlich eine ganz andere Preis- und Leistungsklasse, wer sich jetzt Barts kauft ist in der Regel kein Cayman Kandidat.

/e: ach so, richtig lesen. Ja hast recht :D

OgrEGT
2010-10-22, 21:48:00
Ob das Abschalten der Optimierungen dann nur möglich wird, wenn eine Cayman-Karte vom Treiber erkannt wird? Und vor allem: endlich flimmer- und bandingfrei? Das wäre ein Traum! Und ein Schlag ins Gesicht aller Barts-Käufer...

Würde ich nicht so sagen.

1. Es ist schon bei Erscheinen von Barts bekannt gewesen, dass eine neue Architektur kommt.
2. Diese wird in nur einem Monat erscheinen.
3. Es wird/wurde niemand gezwungen Barts sofort zu kaufen.
4. Gibt es reichlich Reviews zu lesen, so dass es für jeden transparent ist, wie gut die BQ von Barts ist.

Wer sich eine Barts Karte kauft, wägt die Vorteile und Nachteile ab, und entscheidet sich bewusst dafür oder dagegen. Man sollte die Leute für mündig genug halten.

Habs auch gerade erst gesehen worauf er hinaus wollte.

Deinorius
2010-10-22, 22:17:26
Bis auf PCGH ist mir aktuell kein Review bekannt wo das neue HQ der HD6850/HD6870 versus Nvida's Quality inklusive Trilinearer Optimierung gebencht wird und das wirkt sich bei den Benchmarks in der Summe auch merklich aus.
Bei allen anderen Reviews die ich gesehen habe werden die HD6850/HD6870 mit leistungsoptimiertem AF gebencht.


In den Kommentaren des HT4U-Reviews steht, dass sie mit HQ getestet haben, auch wenns im Test selber nicht erwähnt wird. Zweiter Kommentar von Peter (http://ht4u.net/forum/index.php/topic,53212)

derguru
2010-10-22, 22:27:31
In den Kommentaren des HT4U-Reviews steht, dass sie mit HQ getestet haben, auch wenns im Test selber nicht erwähnt wird. Zweiter Kommentar von Peter (http://ht4u.net/forum/index.php/topic,53212)
um genau zu sein haben HT4U ati-HQ vs nv-HQ gebencht.

Armaq
2010-10-22, 22:32:26
Diesen Treiber-Schwindel empfinde ich, wie auch die Namensgebung, als äußerst zweifelhaft. Suggeriert wird etwas, was so nicht vorhanden ist. Und stärkere Flimmerneigung bei ATI bekommt ja selbst ich TN-Panel-User noch mit.

SamLombardo
2010-10-22, 22:39:21
edit: redundancy LOL

Uebrigens die Pufferei bei Cayman (4D) ist uebrigens afaik hauptsaechlich fuer Tessellations-Schnickschnack. Je nach Fall legt hier Cayman gegenueber Cypress 1.5x-2.0x mal dazu. Was ich noch nicht lesen konnte ist eine Art CSAA die auf Cayman noch stecken sollte. Das mit dem AF-Optimierungs Killer duerfte uebrigens auch stimmen.

Errr und erwartet mir bloss nicht einen >256bit Bus auf Cayman.
Woher weißt Du denn das alles;)?
Hast Du schon irgendwelche weiterführenden Informationen?

Fetza
2010-10-22, 23:33:06
Woher weißt Du denn das alles;)?
Hast Du schon irgendwelche weiterführenden Informationen?

Sonst würde er das wohl kaum so postulieren. ;)

Deinorius
2010-10-22, 23:40:27
um genau zu sein haben HT4U ati-HQ vs nv-HQ gebencht.


Ups. Also back to topic. :(

Flatterball77
2010-10-23, 00:23:02
Ach Leute. Hört auf zu träumen. Warum sollte Cayman jetzt soviel besser in AF sein? Die Richtung ist vorgegeben es wird auf Balken optimiert. Traurig aber wahr:mad:


Ich hoffe doch hier wird weiterhin auf BQ und nicht Balkenlänge ohne BQ geachtet=)

Aquaschaf
2010-10-23, 00:31:10
Ach Leute. Hört auf zu träumen. Warum sollte Cayman jetzt soviel besser in AF sein? Die Richtung ist vorgegeben es wird auf Balken optimiert. Traurig aber wahr:mad:

Weil Cayman im Gegensatz zu Barts aller Wahrscheinlichkeit eine überarbeitete Architektur ist, und nicht RV870 in einer anderen Konfiguration mit ein paar Detailverbesserungen. Wir werden sehen.

Flatterball77
2010-10-23, 00:33:58
Weil Cayman im Gegensatz zu Barts aller Wahrscheinlichkeit eine überarbeitete Architektur ist, und nicht RV870 in einer anderen Konfiguration mit ein paar Detailverbesserungen. Wir werden sehen.

Im Refresh 28nm vielleicht. Wie lange soll man warten? bis man einen grauen Bart (welch ironie;D) hat?

Ne, jetzt hab ich gekauft, und das gut=) (Gigabyte 470 SOC) Dank Mindfactory 250 Euro. Habe keine Lust mehr auf Hinhaltetaktik.

samm
2010-10-23, 01:26:47
Hihi, die Anzahl ATi-6800-kritischer nividia-Käufer User mit Postcounter <= 20 ist mit der Barts-Veröffentlichung explodiert, ein Schelm, wer virales Marketing wittert... :D

Dennoch, ich wart auf Cayman, Ailuros weckt mit den neuen Infos schon etwas zusätzliches Interesse, und sobald HQ so funktioniert, wie es soll (d.h. nicht plötzlich Qualitätsverschlechterungen auftreten, wie es z.Zt. noch der Fall zu sein scheint) und immerhin nVidia Q-Qualität erreicht wird, wäre eigentlich auch Barts spannend. Wie man ein Stromverbrauchsmonster wie die 470 vorziehen kann, ist mir schleierhaft...

Iruwen
2010-10-23, 01:31:02
Deutlich angenehmer als die Schwemme von Gästen die zum GF100 Launch den Review Thread haben explodieren lassen.

Flatterball77
2010-10-23, 01:31:47
Hihi, die Anzahl ATi-6800-kritischer nividia-Käufer User mit Postcounter <= 20 ist mit der Barts-Veröffentlichung explodiert, ein Schelm, wer virales Marketing wittert... :D

Dennoch, ich wart auf Cayman, Ailuros weckt mit den neuen Infos schon etwas zusätzliches Interesse, und sobald HQ so funktioniert, wie es soll (d.h. nicht plötzlich Qualitätsverschlechterungen auftreten, wie es z.Zt. noch der Fall zu sein scheint) und immerhin nVidia Q-Qualität erreicht wird, wäre eigentlich auch Barts spannend. Wie man ein Stromverbrauchsmonster wie die 470 vorziehen kann, ist mir schleierhaft...

Nicht hihi, direkt nach vielen getesteten Reviews habe ich gleich bei der Konkurrenz geordert:) Cayman wird genauso schrottig wie Bart, das sage ich dir mal so aus Erfahrung.:wink:


Bin 77 geboren und sag dir ganz deutlich ich weiss wie der Hase hüppt.

Bei C16 fings an bis jetzt. Das virale Marketing durchbricht zur Zeit alle Grenzen. Wer aber bei den Preisen anstatt zu einer 470 eine 6870 abgreift ist blöde (Meine bescheidene Meinung).

Wie sich immer mehr herausstellt, Fermi ist nicht so bad in DX11;)

Und jetzt hab ich über 20 Posts Gott sei Dank wurde auch Zeit;D

samm
2010-10-23, 01:40:36
Deutlich angenehmer als die Schwemme von Gästen die zum GF100 Launch den Review Thread haben explodieren lassen.Stimmt, das war übel... nVidia hatte schon immer das bessere Marketing als ATi, betrifft wohl auch das virale ;)

Flatterball, vielleicht bin ich auch so "alt" wie du oder älter, was soll mir das jetzt sagen? Habe jedenfalls alle relevanten 3D-Grafikkarten mitgekriegt^^ Ich glaube, wie dieser Thread im grossen Ganzen auch zeigt, dass der Cayman eine deutlicher geänderte Architektur aufweist, und wenn schon mit dem Barts Fehler im AF ausgebügelt wurden, wieso soll Cayman nicht noch mehr richtiger machen? Ailuros ist der weit vertrauenswürdigere Spekulant (;)) als ein Foren-newb wie du (oder ich, was das angeht).

Flatterball77
2010-10-23, 01:44:46
Stimmt, das war übel... nVidia hatte schon immer das bessere Marketing als ATi, betrifft wohl auch das virale ;)

Flatterball, vielleicht bin ich auch so "alt" wie du oder älter, was soll mir das jetzt sagen? Habe jedenfalls alle relevanten 3D-Grafikkarten mitgekriegt^^ Ich glaube, wie dieser Thread im grossen Ganzen auch zeigt, dass der Cayman eine deutlicher geänderte Architektur aufweist, und wenn schon mit dem Barts Fehler im AF ausgebügelt wurden, wieso soll Cayman nicht noch mehr richtiger machen? Ailuros ist der weit vertrauenswürdigere Spekulant (;)) als ein Foren-newb wie du (oder ich, was das angeht).

Samm. Ich hab mir jetzt einfach mal so eine 470 geordert. ich glaube meine Entscheidung war auch zukunftsmässig korrekt.:) Cayman wird nicht besser in der BQ werden. Warte es ab.

LovesuckZ
2010-10-23, 01:49:30
Wenn Cayman eine bessere BQ erreichen würde, dann ist die ganze 6xxx Generation von AMD für'n Arsch. Solche Bereiche müssen übergreifend auf allen Karten zur Verfügung stehen. Ob die Leistung dann reicht, muss jeder selbst wissen.
Aber eine bessere Filterung auf Cayman, erweckt Erwartungen an Barts, die nicht vorhanden sind...

Flatterball77
2010-10-23, 01:55:17
Es wird keine bessere Filterung geben, das wurde heute ersichtlich. Man muss auch Gespür haben. Und DX11 hängt die neueste AMD Generation leider immer noch hinterher.


Und schlag im Wörterbuch nach, Flimmern steht AMD drinne. Schade.


Und ich bin kein Fanboy, hatte vielleicht 60:40 Karten hier. 3DFX auch noch. Ich glaube es wird nix bei AMD die nächste Zeit.

zustand
2010-10-23, 01:56:18
Das ganze wäre doch auch so gekommen, wenn TSMC nicht den Prozess storniert hätte. Ist jetzt eben blöd für den Kunden gelaufen.

OgrEGT
2010-10-23, 07:30:32
Ich glaube der heutige (bald kommende) Cayman ist der ursprünglich geplante 32 nm Chip mit neuer Architektur, der für 40 nm nur ein wenig an SP's beschnitten wurde, damit sich der Stromverbrauch in diesem Fertigungsprozess in Grenzen hält. Ob der Barts so wie wir ihn heute kennen damals auch schon in 32 nm in dieser Form geplant war, glaube ich fast nicht.

Deshalb ist es durchaus möglich, dass die neue Architektur mit neuen, überarbeiteten und leistungsfähigeren TMUs antreten wird, die dann so hoffe ich endlich das identische BQ Niveau von NV erreichen.

Fetza
2010-10-23, 08:00:17
Ich glaube der heutige (bald kommende) Cayman ist der ursprünglich geplante 32 nm Chip mit neuer Architektur, der für 40 nm nur ein wenig an SP's beschnitten wurde, damit sich der Stromverbrauch in diesem Fertigungsprozess in Grenzen hält. Ob der Barts so wie wir ihn heute kennen damals auch schon in 32 nm in dieser Form geplant war, glaube ich fast nicht.

Deshalb ist es durchaus möglich, dass die neue Architektur mit neuen, überarbeiteten und leistungsfähigeren TMUs antreten wird, die dann so hoffe ich endlich das identische BQ Niveau von NV erreichen.

Ich denke eher, das amd einfach den selben chip nur auf 40nm fertigen läßt. Deswegen ist cayman dann auch größer als man bisher von amd (ati) gewohnt war.

OgrEGT
2010-10-23, 08:10:49
Könnte auch sein. Vielleicht hätte es in 32 nm nach ursprünglicher Planung aber auch noch einen größeren Chip gegeben, der jetzt erst mit 28 nm später kommen wird.

AnarchX
2010-10-23, 09:36:16
Hier gibt es ein paar Infos zum gecancelten 32nm Prozess: http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market/2

Mit 32nm wäre wohl Barts wirklich bei knapp 200mm² gelandet, dazu passt Charlies Aussage und eben die Aussage mit dem doppelten Redwood-SI (~100mm²). Man wird wohl dann Ende 2009 einfach das Design auf 40nm zurück übertragen haben, da 32nm und 40nm offenbar kompatibel gewesen sein sollen.

Cayman der nun bei wohl >400mm² liegt, wäre unter 32nm in einer AMD üblicheren Größe erschienen.

AwesomeSauce
2010-10-23, 12:07:04
Barts war immer für 40nm geplant, siehe Dave Baumanns Aussagen in B3D. Northern Islands war immer Northern Islands. Southern Islands war eine Erfindung des Internets.

AnarchX
2010-10-23, 12:43:22
Natürlich hieß der zu Barts vergleichbare 32nm Chip nichts Barts.

Ibiza, Cozumel und Kauai waren laut Treiber wohl die 32nm GPUs.

derguru
2010-10-23, 18:07:33
wenn die grafikkarten weiter beim preis fallen sehe ich den cayman vielleicht sogar zum launch unter 350€,wäre zu begrüßen:smile:

Fetza
2010-10-23, 19:42:57
wenn die grafikkarten weiter beim preis fallen sehe ich den cayman vielleicht sogar zum launch unter 350€,wäre zu begrüßen:smile:

Was zu folge hätte, das die aktuell bei 350 euro liegende gtx 480 ordentlich im preis gedrückt wird. Dann braucht man nur noch abzuwarten, ob amd sich nach wie vor unverschämtheiten beim filtern leistet, wenn ja gibts eine gtx 480 für 250 euro, wenn nein einen cayman. :)

Fetter Fettsack
2010-10-23, 20:53:28
Ich fände es nebenbei gut, wenn man mit dem Cayman Launch auch gleich SSAA für alle APIs möglich machen würde. Unmöglich scheint es ja von der Machbarkeit her nicht zu sein.

OgrEGT
2010-10-23, 23:19:33
Ich fände es nebenbei gut, wenn man mit dem Cayman Launch auch gleich SSAA für alle APIs möglich machen würde. Unmöglich scheint es ja von der Machbarkeit her nicht zu sein.

Bleibt es eigentlich bei den bislang spekulierten 1920 4D-VLIW SP's? Es wurden mal 3 RPEs spekuliert mit 96 TMUs?

AwesomeSauce
2010-10-23, 23:22:39
Auch die RPEs sind Erfindungen. Es gibt sie nicht.

puntarenas
2010-10-24, 09:27:00
Sowohl die neue AF-Qualität, als auch die Begebenheiten rund um den Launch der HD6800er und die Einschätzungen "Nvidia vs AMD bei vergleichbarem Preis" werden im Diskussionsforum lebhaft diskutiert. Das weiß auch jeder hier, denn ich treffe dort auf die selben Nasen, die dennoch hier im Spekulationsthread Off-Topic- Ausflüge starten.

Bitte helft mit, das Forum für uns Alle ein wenig übersichtlicher und angenehmer zu gestalten, indem ihr auch ohne moderative Keule einfach ein wenig darauf achtet, in welchem Thread ihr gerade seid. Wer Beiträge vermisst, findet diese vielleicht auf der Spielwiese wieder: AMD - "Southern Islands" GPUs (wohl 40 nm, 2010) - Off-Topic und Spam (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494329)

Die Erste Verschieberunde war gratis.

Thema hier: Spekulation - AMD - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands

Ailuros
2010-10-24, 10:03:09
Woher weißt Du denn das alles;)?


Von einem IHV dessen Namen mit "N" anfaengt :biggrin:

***edit: laut guru3d soll man schon auf Barts im AI die AF Optimierungen abschalten koennen. Kann mich jemand aufklaeren ob dieses auch wirklich einen Unterschied macht qualitaetsmaessig?