PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF110 - GTX 5xx - 2011


Seiten : 1 2 [3] 4 5 6

aths
2010-11-05, 10:44:47
Da werden sich die jetzigen Besitzer der GTX4xx aber ärgern, wenn das alles stimmt. So kurz nach Release bereits eine neue Generation, von unnötigem Ballast befreiten und gefixten Karten auf den Markt zu werfen.So kurz ist das gar nicht. Die FX 5900, die kam recht kurz nach der 5800. Es gibt immer Fortschritt, ich erinnere an die zweite Version des G70, welche wesentlich besser taktbar war.

dargo
2010-11-05, 11:04:12
Da werden sich die jetzigen Besitzer der GTX4xx aber ärgern, wenn das alles stimmt. So kurz nach Release bereits eine neue Generation, von unnötigem Ballast befreiten und gefixten Karten auf den Markt zu werfen.
Ja, ich ärgere mich, dass die GTX580 keine GTX470*2 ist. :P

BigKid
2010-11-05, 12:00:01
Also wer sich heute noch wundert, wenn ein halbes Jahr nachdem er etwas gekauft hat was neueres erscheint (im Bereich Multimedia/IT gleich 2 mal) - der hat die letzten 20 Jahre in einem Erdloch verbracht :)

Wer will dass seine Hardware ein 3/4 Jahr State of the Art ist der muss sofort bei erscheinen zuschlagen - wer sich also gleich bei Erscheinen eine GTX480 gekauft hat, der konnte sich so lange in der Gewissheit Sonnen die schnellste NVIDIA Karte zu haben - bzw. kann das vermutlich noch bis Montag tun...

Der erste Wurf war zu heiss, zu laut und ineffizient - der zweite wird vermutlich besser - und dass der keine 24 Monate auf sich warten lassen wird war doch klar - oder ? Das Beispiel mit der FX5800 drängt sich da eben auf und wurde ja schon gebracht...

LovesuckZ
2010-11-05, 12:02:21
Und zwischen FX 5800 und FX 5900 lagen auch nur 2 1/2 Monate. :D
Ich seh hier keine Probleme. Meine GTX480 wird auch weiterhin verdammt flott sein und dank unterstütztem Undervolting auch "sparsam" und leise. Ist ja nicht so, dass ich 150€ nach dem Verkauf zusätzlich ausgeben würde, um 30€ pro Jahr an Strom zu sparen...

/edit: Benchmarkergebnisse: http://forum.beyond3d.com/showpost.php?p=1490458&postcount=7230

svenw
2010-11-05, 13:22:14
NV macht wenigstens für ihre Kunden etwas nicht so wie AMD die nur ihre FPS hin werfen und sagen halt die klappe mehr gibt es nicht. Die AMD typen könnten ja mal ihre faulen ärsche bewegen und auch mal was in die richtung tun... wäre mal höchste zeit... AMD wird mit ihren billigen Marketing und ihrem nichts tun (Physx......) immer wie mehr unsympatischer.
Ähhh...... bis wann war dir denn ATI sympatisch? :tongue:

Spielentwickler sollten sich an Standarts orientieren und nicht die Graka entwickler hinter jedem AA Titel hinterherwischen. Hier ein bißchen mehr Performance, da ein bißchen mehr PhysX etc. : Schwachsinn! IMHO macht ATI das richtig so, denn das NV einen AAA Titel pusht ist nett, nur was sollen dann die Ganzen kleineren Titel machen? Findest du es gut das den Großen das Geld in den A... geblasen wird und den Kleinen sagt mach: Pech gehabt!

mapel110
2010-11-05, 13:39:14
Ähhh...... bis wann war dir denn ATI sympatisch? :tongue:

Spielentwickler sollten sich an Standarts orientieren und nicht die Graka entwickler hinter jedem AA Titel hinterherwischen. Hier ein bißchen mehr Performance, da ein bißchen mehr PhysX etc. : Schwachsinn! IMHO macht ATI das richtig so, denn das NV einen AAA Titel pusht ist nett, nur was sollen dann die Ganzen kleineren Titel machen? Findest du es gut das den Großen das Geld in den A... geblasen wird und den Kleinen sagt mach: Pech gehabt!
Mit den großen AAA-Titeln pusht man nunmal den Absatz von Hardware. ATI macht das ja nur über den Preis. Und wie viel dabei in den letzten Jahren rumgekommen ist, sieht man ja an den Marktanteilen und Quartalszahlen. nvidia scheint mit ihrer Strategie erfolgreicher zu sein.
Nicht umsonst hat ATI ja mal wieder ein neues Programm für dev-relation gestartet. Ist nur schon wieder in Vergessenheit geraten, weil mal wieder nix bei rauskommt.

Tarkin
2010-11-05, 13:42:21
http://img168.imageshack.us/img168/5994/77038850.jpg

http://img43.imageshack.us/img43/6281/16793563.jpg

http://img823.imageshack.us/img823/9083/88922881.jpg

http://img825.imageshack.us/img825/4223/74261532.jpg

10-15% über 480 - das ist etwas mager!

MorPheuZ
2010-11-05, 13:43:49
Das ist nun wieder ein sehr dehnbare Aussage. Ist das einsetzen von PhysX z.B. jetzt Geld in den A... blasen ala Mafia2? Creative Productions seh ich jetz nicht so als ein "Grosser" an... 2K natürlich schon;)

Ich glauber das ist eine Sache der Sichtweise. Aber eines stimmt immer: nv User haben IMMER einen Mehrwert...

Dural
2010-11-05, 13:49:10
wie kommst du auf 10-15%? hast du vergleich benchmarks mit einem 1090T und GTX480?

die 83°C furmark sehen doch schon mal gut aus :)

dildo4u
2010-11-05, 13:50:21
10-15% über 480 - das ist etwas mager!
CPU ist etwas Mager.

Dural
2010-11-05, 13:55:33
Spielentwickler sollten sich an Standarts orientieren und nicht die Graka entwickler hinter jedem AA Titel hinterherwischen. Hier ein bißchen mehr Performance, da ein bißchen mehr PhysX etc. : Schwachsinn! IMHO macht ATI das richtig so, denn das NV einen AAA Titel pusht ist nett, nur was sollen dann die Ganzen kleineren Titel machen? Findest du es gut das den Großen das Geld in den A... geblasen wird und den Kleinen sagt mach: Pech gehabt!


NEIN sie machen genau das falsche, der PC stirbt dank Konsolen im Gaming bereich immer wie mehr, AMD müsste das PC Gaming viel mehr puschen und es wird aller höchste zeit das sich da was tut!!!

Das kommt am ende allen PC Gamer zugute, egal ob NVIDIA oder AMD GPU! Nur mit PC Games die die Hardware vordern (überfordern) kann man schlisslich auch teure neu anschaffungen rechtfertigen...

Was denkt ihr eigentlich wie so PhysX und Tesselation usw. von NV so intensiv beworben wird, man kann mit solchen sachen die der Kunde auf dem Monitor gut sieht (deswegen meistens auch so völlig übertriben, das man ja den unterschid sieht) den verkauf von neuer Hardware ankurbeln und von AMD kommt von dieser richtung genau nichts, ganz im gegenteil meistens nur leere versprechungen aber die AMD chefs sollten langsam einsehen das sowas ihnen erst recht zu gute kommen würden, den an Konsolen hardware verdient man so gut wie nichts

Fetza
2010-11-05, 13:56:41
NEIN sie machen genau das falsche, der PC stirbt dank Konsolen im Gaming bereich immer wie mehr, AMD müsste das PC Gaming viel mehr puschen und es wird aller höchste zeit das sich da was tut!!!

Das kommt am ende allen PC Gamer zugute, egal ob NVIDIA oder AMD GPU!

Das dieses alberne gerücht immer wieder hier hochgehalten wird. Pc gaming ist lebending wie eh und je.

Iruwen
2010-11-05, 13:58:29
die 83°C furmark sehen doch schon mal gut aus :)

Ohne den Aufbau und die Karte zu sehen ist der Wert relativ wertlos (höhö), die GTX 480 hatte unter Furmark bei Anandtech (http://www.anandtech.com/show/2977/nvidia-s-geforce-gtx-480-and-gtx-470-6-months-late-was-it-worth-the-wait-/19) auch "nur" 92°C. Die Lautstärke ist dabei eh interessanter.

Das dieses alberne gerücht immer wieder hier hochgehalten wird. Pc gaming ist lebending wie eh und je.
Er meint wohl dass "wir" nur noch halbherzige Konsolenportierungen ohne Mehrwert bekommen die die Fähigkeiten des PCs kaum nutzen. Und wenn die neuen Konsolen kommen wäre es schön wenn z.B. GPU-Physik standarddisiert wäre und einen gewissen Verbreitungsgrad erreicht hätte, sonst wird das eh keiner nutzen. Mit den Features der nächsten Konsolengeneration müssen wir dann ja erstmal wieder ein paar Jahre auskommen.

Dural
2010-11-05, 14:06:07
das sind immerhin 10°C weniger, das sagt schon einiges aus den lauter ist der lüfter bestimmt nicht ;)


@Fetza
bei den ganzen billigen Konsolen umsetztungen und den verkaufzahlen Konsolen vs PC games eher nicht wirklich...

tombman
2010-11-05, 14:09:18
Da werden sich die jetzigen Besitzer der GTX4xx aber ärgern, wenn das alles stimmt. So kurz nach Release bereits eine neue Generation, von unnötigem Ballast befreiten und gefixten Karten auf den Markt zu werfen.
Kurz? 6 Monate sind das immerhin schon- jaja, Zeit vergeht schnell :ulol:

@Werte: der Vantage X spricht mich schon an, Temps scheinen auch besser zu sein. Leider haben sie Crysis nicht getestet.
Naja, große Quantensprünge wird es nicht geben- ich schätze, auch bei AMD nicht.
(und ja, ich weiß, daß ein Quant klein ist ....)

Palpatin
2010-11-05, 14:15:53
Ich glauber das ist eine Sache der Sichtweise. Aber eines stimmt immer: nv User haben IMMER einen Mehrwert...
Bei der aktuellen Generation leider auch immer einen Mehrverbrauch....

Duplex
2010-11-05, 14:17:23
die balken sollten bestimmt später ähnlich sein.

nur in Tesselation kann Nvidia später punkten

http://s10.directupload.net/images/101105/4ok5wpeh.jpg (http://www.directupload.net)

wenn Cayman 50% schneller als Barts wird, dann ist er automatisch schon min 25% schneller als die GTX480 in der Realität ;)

puntarenas
2010-11-05, 14:20:45
Ohne den Aufbau und die Karte zu sehen ist der Wert relativ wertlos (höhö), die GTX 480 hatte unter Furmark bei Anandtech (http://www.anandtech.com/show/2977/nvidia-s-geforce-gtx-480-and-gtx-470-6-months-late-was-it-worth-the-wait-/19) auch "nur" 92°C. Die Lautstärke ist dabei eh interessanter.

Die Lautstärke und Verlustleistung sind nicht nur interessanter, sie sind auch das einzig Vergleichbare. Man kann nicht ernsthaft von unterschiedlichen und andernorts (in Bezug auf Hotspots) positionierten Temperatursensoren ermittelte Werte über Herstellergrenzen hinweg vergleichen. Ein Sensorwertvergleich ergibt bestenfalls innerhalb ein und derselben Kartenfamilie einen Sinn.

mapel110
2010-11-05, 14:22:00
wenn Cayman 50% schneller als Barts wird, dann ist er automatisch schon min 25% schneller als die GTX480 in der Realität ;)
Aber auch nur mit Q und nicht mit HQ. :ugly:

Ich bin schon gespannt, wie sich ATI verhalten wird bei ihrem Launch und der Gewissheit, dass manche Review-Seiten mit HQ benchen werden. Wird sehr interessant.

Kalmar
2010-11-05, 14:23:16
http://img825.imageshack.us/img825/4223/74261532.jpg

hmm wieviel macht 4xaa aus und 16x statt 4x af

klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8357436&postcount=168)

dildo4u
2010-11-05, 14:24:33
hmm schaut wesentlich weniger aus bei dem alten screen ...

klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8357436&postcount=168)

Werte ohne AA.

mironicus
2010-11-05, 14:25:47
Von der GTX 580 wird es dann bestimmt auch schnell wieder übertaktete Versionen geben, die es mit der Radeon 6970 aufnehmen können.

Kalmar
2010-11-05, 14:27:36
Werte ohne AA.

joa danke, hab schon editiert .. schade kann man wohl schwerlich vergleichen ..

Mancko
2010-11-05, 14:29:58
NEIN sie machen genau das falsche, der PC stirbt dank Konsolen im Gaming bereich immer wie mehr, AMD müsste das PC Gaming viel mehr puschen und es wird aller höchste zeit das sich da was tut!!!

Das kommt am ende allen PC Gamer zugute, egal ob NVIDIA oder AMD GPU! Nur mit PC Games die die Hardware vordern (überfordern) kann man schlisslich auch teure neu anschaffungen rechtfertigen...

Was denkt ihr eigentlich wie so PhysX und Tesselation usw. von NV so intensiv beworben wird, man kann mit solchen sachen die der Kunde auf dem Monitor gut sieht (deswegen meistens auch so völlig übertriben, das man ja den unterschid sieht) den verkauf von neuer Hardware ankurbeln und von AMD kommt von dieser richtung genau nichts, ganz im gegenteil meistens nur leere versprechungen aber die AMD chefs sollten langsam einsehen das sowas ihnen erst recht zu gute kommen würden, den an Konsolen hardware verdient man so gut wie nichts

Die stürzen sich lieber auf Fusion. Bringt zwar auch kein Geld aber den PC der Konsole noch ein Stück näher. AMD denke ich ist in dieser Hinsicht einfach ein hoffnungsloser Fall. Wenn man mal von Dirk Meyer absieht haben dort seit Jahren schon längst die BWL Experten die Kontrolle übernommen. Die fühlen sich in der Billigheimerecke wohl. Selten sieht man dort mal wirkliche Enthusiast Produkte, für die man auch mal Risiko gehen muss. Das gefällt mir an Nvidia auch so gut. Deren Top Leute sind selber Enthusiasten und zocken selber gern. Desweiteren herrscht dort zwischen Top Management und Firma eine ganz andere Beziehung, da es die eigene Firma ist. Das geht auch mal schief aber in Summe sind die für PC Gaming deutlich wertvoller als AMD.

Gipsel
2010-11-05, 14:30:00
klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8357436&postcount=168)
edit:
Kalmar hat's schon bemerkt.

SamLombardo
2010-11-05, 14:31:01
Von der GTX 580 wird es dann bestimmt auch schnell wieder übertaktete Versionen geben, die es mit der Radeon 6970 aufnehmen können.
Woher weißt Du, dass sie es im default Zustand nicht können soll?
Genauso wie die so genannte "Rangliste" von Duplex, die irgend ein Pfiffikus aus den gefakten(?) Vantage/Heaven Werten sowie vermuteten Prozentabständen zwischen pro und xt gebastelt hat.
Tatsache ist, man weiß noch gar nichts...

igg
2010-11-05, 14:34:37
Wow, dann hätte AMD seit Jahren mal die schnellste Single GPU am Start.

Duplex
2010-11-05, 14:42:25
Ich bin schon gespannt, wie sich ATI verhalten wird bei ihrem LaunchWer ist ATI ? du meinst doch wohl AMD ;)

Henroldus
2010-11-05, 15:12:28
http://vr-zone.com/articles/nvidia-geforce-gtx-580-benchmark-charts-leaked/10238.html
hatten wir schon?
http://resources.vr-zone.com//uploads/10238/gtx580A_copia.jpg

http://resources.vr-zone.com//uploads/10238/gtx580B.jpg

LovesuckZ
2010-11-05, 15:14:28
Ja, seit gestern. ;)
Könnten aber genauso auch gefakt sein, wie die anderen Bildern mit Werten. :(

Henroldus
2010-11-05, 15:19:48
Ja, seit gestern. ;)
Könnten aber genauso auch gefakt sein, wie die anderen Bildern mit Werten. :(
naja, die Ordinatenaufteilung ist mal wieder :freak:
und auf ne GTX480 skaliert sehe es wesentlich unspektakulärer aus.
Zudem der Vergleich mit ner Karte, die seit über nem Jahr auf dem Markt ist :freak:

Grindcore
2010-11-05, 15:20:51
Wow, dann hätte AMD seit Jahren mal die schnellste Single GPU am Start.

Die 5870 war ebenfalls monatelang die schnellste GPU, oder die X800 oder die 9700... etc. blahbleh.

Iruwen
2010-11-05, 15:24:43
naja, die Ordinatenaufteilung ist mal wieder :freak:
und auf ne GTX480 skaliert sehe es wesentlich unspektakulärer aus.
Zudem der Vergleich mit ner Karte, die seit über nem Jahr auf dem Markt ist :freak:
Mit was denn sonst, AMD wird NV wohl kaum ein Cayman Sample für ihre Folien schicken :D

igg
2010-11-05, 15:44:26
Die 5870 war ebenfalls monatelang die schnellste GPU, oder die X800 oder die 9700... etc. blahbleh.
Ich denke es war offensichtlich, dass das auf die Generation bezogen war. Und dort sahs seit der 8800GTX zappenduster aus.

Ein bisschen erinnert das auch an den GTX280 Launch: Nvidia relativ 2 Wochen, mit horrenden Preisen. Letztendlich hatte die GTX280 zwar die Nase vorn, aber angesichts P/L kamen sich viele Käufer verarscht vor.

LovesuckZ
2010-11-05, 15:49:59
Naja, das kann immer passieren, wenn man als erster veröffentlicht. Siehe auch, wenn nicht ganz vergleichbar, AMD und Barts. Die <150€ und <200€ Preise waren nur kurzzeitige "Konter", um der Preissenkung von nVidia den Wind aus den Segel zu nehmen.
Ich glaube aber nicht, dass dies nochmal passiert. In Amerika verkauft AMD Barts XT für ca. $250. Die GTX580 wird wohl $499 kosten. Dazwischen wird irgendwo Cayman liegen.

Kalmar
2010-11-05, 16:03:58
Naja, das kann immer passieren, wenn man als erster veröffentlicht. Siehe auch, wenn nicht ganz vergleichbar, AMD und Barts. Die <150€ und <200€ Preise waren nur kurzzeitige "Konter", um der Preissenkung von nVidia den Wind aus den Segel zu nehmen.
Ich glaube aber nicht, dass dies nochmal passiert. In Amerika verkauft AMD Barts XT für ca. $250. Die GTX580 wird wohl $499 kosten. Dazwischen wird irgendwo Cayman liegen.


oder drüber wenn besser :P

ChaosTM
2010-11-05, 16:04:13
http://vr-zone.com/articles/nvidia-geforce-gtx-580-benchmark-charts-leaked/10238.html
hatten wir schon?
http://resources.vr-zone.com//uploads/10238/gtx580A_copia.jpg

http://resources.vr-zone.com//uploads/10238/gtx580B.jpg

Benchmarks, die nicht bei Null beginnen, sind dumm und manipulativ.

:facepalm:

Ansonsten sind die Ergebnisse so wie erwartet.
Ungefähr gleich schnell, also innerhalb von +- 10%.

Dural
2010-11-05, 16:18:49
Benchmarks, die nicht bei Null beginnen, sind dumm und manipulativ.


nö eigenltich nicht, den ich habe in der schule gelehrnt ein diagramm genau so zu gestallten, den alles unter 0,8 intressierte keine sau weils immer das selbe ist und man so platz sparen kann.


Ansonsten sind die Ergebnisse so wie erwartet.
Ungefähr gleich schnell, also innerhalb von +- 10%.


Was für +- 10% bitte schön???

ChaosTM
2010-11-05, 16:23:15
nö eigenltich nicht, den ich habe in der schule gelehrnt ein diagramm genau so zu gestallten, den alles unter 0,8 intressierte keine sau weils immer das selbe ist und man so platz sparen kann.



Was für +- 10% bitte schön???

Bezog sich auf Tombman`s Umfrage, welche der neuen Karten schneller sein wird.

Und Benchmarks, die bei 80% beginnen, suggerieren dem Betrachter, dass die eine Karte um ein vielfaches schneller ist als der Gegner,was natürlich totaler Schwachsinn ist.

Blaire
2010-11-05, 16:24:01
10-15% über 480 - das ist etwas mager!

Ein Pferd springt auch nur so hoch, wie es muss. ;)

LovesuckZ
2010-11-05, 16:26:32
Besser nur 15% schneller und ca. 10% weniger Stromverbrauch als gleichschnell, gleichviel verbrauchen bei schlechterer BQ.
Keine Ahnung, was die Kritik soll. Aber das ist wesentlich mehr als AMD mit Barts erreicht hat.

fondness
2010-11-05, 16:29:13
Ein Pferd springt auch nur so hoch, wie es muss. ;)

Oder so hoch wie es kann, je nach dem. ;)
Ein komfortabler Vorsprung sieht jedenfalls anders aus, denn das Cayman ebenfalls schneller wird als eine GTX480 wurde bereits von AMD bestätigt.

ChaosTM
2010-11-05, 16:34:48
Besser nur 15% schneller und ca. 10% weniger Stromverbrauch als gleichschnell, gleichviel verbrauchen bei schlechterer BQ.
Keine Ahnung, was die Kritik soll. Aber das ist wesentlich mehr als AMD mit Barts erreicht hat.

Hm, jetzt ist auf einmal wieder der Stromverbrauch relevant.
Beim 480er Launch hat sich das noch anders angehört. :wink:

Wir sollten wirklich auf echte Reviews warten, bevor wir urteilen aber dein Urteil steht ja schon fest - egal wies ausgeht.
Selbst wenn AMD überlegenes Aniso bringen sollte (unwahrscheinlich), schneller ist UND weniger verbraucht, würdest du Nvidia zum Sieger küren..

Botcruscher
2010-11-05, 16:42:30
Keine Ahnung, was die Kritik soll. Aber das ist wesentlich mehr als AMD mit Barts erreicht hat.
???
Messlatte für Barts ist Juniper. Dessen Platz im Mainstream nimmt er nämlich ein. Hauptaugenmerk bei Barts war günstige und massenhaft herstellbar. Cayman wird für Cypres das Gegenstück. Wie man sich da schlägt muss sich noch zeigen.

Für den Rest gilt abwarten.

Jake Dunn
2010-11-05, 16:48:16
Siehe auch, wenn nicht ganz vergleichbar, AMD und Barts. Die <150€ und <200€ Preise waren nur kurzzeitige "Konter", um der Preissenkung von nVidia den Wind aus den Segel zu nehmen.


Kurzzeitige Konter?

http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=132_1024~1440_HD%206850&sort=p

LovesuckZ
2010-11-05, 16:53:05
Kurzzeitige Konter?

http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=132_1024~1440_HD%206850&sort=p

Nachdem gibt es die Karte für <150€ bei nur "einem" Laden. Ich dachte der UVP soll bei 149€ liegen?
Die GTX460 Karten gibt es jetzt seit 3 Wochen dauerhaft für den gesenkten Preis.
Rate doch mal, wieso AMD noch vor dem Launch verlauten ließ, dass es bei nVidia nur um eine temporäre Preissenkung handeln würde? Weil AMD damit nicht gerechnet und die ersten Lieferungen wesentlich teurer an die AIBs verkauft hat.

fondness
2010-11-05, 16:55:02
Nachdem gibt es die Karte für <150€ bei nur "einem" Laden. Ich dachte der UVP soll bei 149€ liegen?
Die GTX460 Karten gibt es jetzt seit 3 Wochen dauerhaft für den gesenkten Preis.
Rate doch mal, wieso AMD noch vor dem Launch verlauten ließ, dass es bei nVidia nur um eine temporäre Preissenkung handeln würde? Weil AMD damit nicht gerechnet und die ersten Lieferungen wesentlich teurer an die AIBs verkauft hat.

Du weißt ganz genau das es die Karten noch nicht lange gibt und sich der Preis erst bei ausreichender Verfügbarkeit einordnen wird. Also was soll das?

LovesuckZ
2010-11-05, 17:00:09
Ich habe ja keine Ahnung, was du in den letzten Wochen für Informationen aufgenommen hast, aber:
Die Barts Karten gab es in den ersten 1 1/2 Wochen für <150€, <200€ bei sehr vielen Läden. Seitdem haben diese Läden den Preis erhöht.
Alternate von heute auf morgen um fast 20€. Seitdem befindet sich auch keine Barts Karte mehr in den Top Ten...
Der UVP von 149€ und 199€ war einfach nur zeitlich auf die ersten Wochen beschränkt. Seitdem muss man von 159€, 219€ ausgehen, wodurch die Karten wesentlich unattraktiver geworden sind.

GTX460 karten dagegen waren spätesten durchgehend nach der ersten Woche flächendeckend für UVP oder weniger zu kaufen. Und sie haben sich wesentlich besser verkauft. Verrückte Welt, nicht?

fondness
2010-11-05, 17:08:27
Ich habe ja keine Ahnung, was du in den letzten Wochen für Informationen aufgenommen hast, aber:
Die Barts Karten gab es in den ersten 1 1/2 Wochen für <150€, <200€ bei sehr vielen Läden. Seitdem haben diese Läden den Preis erhöht.
Alternate von heute auf morgen um fast 20€. Seitdem befindet sich auch keine Barts Karte mehr in den Top Ten...
Der UVP von 149€ und 199€ war einfach nur zeitlich auf die ersten Wochen beschränkt. Seitdem muss man von 159€, 219€ ausgehen, wodurch die Karten wesentlich unattraktiver geworden sind.

GTX460 karten dagegen waren spätesten durchgehend nach der ersten Woche flächendeckend für UVP oder weniger zu kaufen. Und sie haben sich wesentlich besser verkauft. Verrückte Welt, nicht?

Alles was ich sehe ist das viele Shops keine Karten bekommen haben und die anderen nur deutlich weniger Stückzahlen als geordert. Und da die Shops nicht blöd sind wird der Preis erhöht.

Bei der GTX460, die in deutlich größeren Stückzahlen ausgeliefert wurde und es deshalb nicht zu dieser Marktreaktion kam passt ja hier mal gar nicht als Vergleich.

Wenn der Markt gesättigt ist kann man Aussagen machen, aktuell ist das vollkommen sinnlos. Das solltest du wissen.

ChaosTM
2010-11-05, 17:11:25
Ich habe ja keine Ahnung, was du in den letzten Wochen für Informationen aufgenommen hast, aber:
Die Barts Karten gab es in den ersten 1 1/2 Wochen für <150€, <200€ bei sehr vielen Läden. Seitdem haben diese Läden den Preis erhöht.
Alternate von heute auf morgen um fast 20€. Seitdem befindet sich auch keine Barts Karte mehr in den Top Ten...
Der UVP von 149€ und 199€ war einfach nur zeitlich auf die ersten Wochen beschränkt. Seitdem muss man von 159€, 219€ ausgehen, wodurch die Karten wesentlich unattraktiver geworden sind.

GTX460 karten dagegen waren spätesten durchgehend nach der ersten Woche flächendeckend für UVP oder weniger zu kaufen. Und sie haben sich wesentlich besser verkauft. Verrückte Welt, nicht?

Das ist der GTX 580 / 570 und nicht der Barts Verkaufszahlen Thread.

Und die Preiserhöhung ist simple Marktwirtschaft. Übersteigt die Nachfrage das Angebot, steigen die Preise.
Das solltest du als Marketing-Mensch eigentlich wissen. :)

Und auf der Startseite von geizhals.at finden sich 2 AMD Karten und genau keine von Nvidia!

LovesuckZ
2010-11-05, 17:13:38
Alles was ich sehe ist das viele Shops keine Karten bekommen haben und die anderen nur deutlich weniger Stückzahlen als geordert. Und da die Shops nicht blöd sind wird der Preis erhöht.

Bei der GTX460, die in deutlich größeren Stückzahlen ausgeliefert wurde und es deshalb nicht zu dieser Marktreaktion kam passt ja hier mal gar nicht als Vergleich.

Das ist eine interessante These. AMD ist also nicht in der Lage 3 Wochen nach den Launch genügend Karten zu liefern, um den UVP aufrecht zu erhalten. Ich dachte, dass wäre so ein Vorteil eines kleineren Dies: Mehr Output und somit ein günstiger Preis. Da scheint wohl eine Firma massive Yield-Probleme zu haben. :eek:

Iruwen
2010-11-05, 17:16:12
Oder so hoch wie es kann, je nach dem. ;)
Ein komfortabler Vorsprung sieht jedenfalls anders aus, denn das Cayman ebenfalls schneller wird als eine GTX480 wurde bereits von AMD bestätigt.
Witzig wie du jedes Statement von AMD als gottgegebene Wahrheit hinnimmst und bei NV fleißig rumkritisierst. Hatte Dural schon recht.

fondness
2010-11-05, 17:16:54
Das ist eine interessante These. AMD ist also nicht in der Lage 3 Wochen nach den Launch genügend Karten zu liefern, um den UVP aufrecht zu erhalten. Ich dachte, dass wäre so ein Vorteil eines kleineren Dies: Mehr Output und somit ein günstiger Preis. Da scheint wohl eine Firma massive Yield-Probleme zu haben. :eek:

Sag mal kannst du auch ernsthaft sein oder wirklich nur trollen?

Das ist keine These, das sieht man schlicht wenn man sich die Liefersituation ansieht. Die Lieferprobleme von TSMC sind bekannt, AMD beschwert sich jedes mal beim Quartalsbericht darüber. Ebenso ist es klar das man die Produktion nicht von null auf hundert hochziehen kann.

fondness
2010-11-05, 17:20:26
Witzig wie du jedes Statement von AMD als gottgegebene Wahrheit hinnimmst und bei NV fleißig rumkritisierst. Hatte Dural schon recht.

Hast du was zu sagen oder willst du mich nur anmachen? Soll ich das das nächste mal auch machen wenn du etwas positives über NV sagst?

Andere Daten gibt es nicht. Und es ergibt auch keinen Sinn das sie falsche Angaben machen, da die Karten in kürze kommen. Im übrigen habe ich auch NVs Aussagen nirgends als unwahr bezeichnet, und herum kritisiert habe ich auch nicht. So what?

LovesuckZ
2010-11-05, 17:21:09
Sag mal kannst du auch ernsthaft sein oder wirklich nur trollen?

Das ist keine These, das sieht man schlicht wenn man sich die Liefersituation ansieht. Die Lieferprobleme von TSMC sind bekannt, AMD beschwert sich jedes mal beim Quartalsbericht darüber. Ebenso ist es klar das man die Produktion nicht von null auf hundert hochziehen kann.

Hm, was hat TSMC damit zu tun, dass AMD's Design zuviele Probleme mit der Ausbeute hat?
Die Versorgung mit GTX460 Karten war eine Woche nach dem Launch gottgegeben (inkl. zich Custom Designs)! nVidia beschwert sich z.B. nicht mehr über TSMC. Die sagen sogar, dass die Yields von Fermi (und den GT2xx Chip) deutlich besser seien als erwartet und man deswegen ein Überangebot habe, weil man zuviele Wafer bestellt habe.

Aber es ist AMD. Da sind immer die anderen Schuld. Und bei nVidia - naja - da ist es nVidia. ;D

fondness
2010-11-05, 17:24:11
Hm, was hat TSMC damit zu tun, dass AMD's Design zuviele Probleme mit der Ausbeute hat?
Die Versorgung mit GTX460 Karten war eine Woche nach dem Launch gottgegeben (inkl. zich Custom Designs)! nVidia beschwert sich z.B. nicht mehr über TSMC. Die sagen sogar, dass die Yields von Fermi (und den GT2xx Chip) deutlich besser seien als erwartet und man deswegen ein Überangebot habe, weil man zuviele Wafer bestellt habe.

Aber es ist AMD. Da sind immer die anderen Schuld. Und bei nVidia - naja - da ist es nVidia. ;D

Okay, du kannst wirklich nur trollen. /Ignore.

Gestrandet
2010-11-05, 17:30:12
Sag mal kannst du auch ernsthaft sein oder wirklich nur trollen?
Er kann nur trollen, deshalb schmeißen ihn ernsthafte Foren ja auch raus :wink:

Iruwen
2010-11-05, 17:34:11
Ich freu mich auf den GF110 Launch, die Roten versammeln sich ja schonmal präventiv.

Gipsel
2010-11-05, 17:38:34
Nachdem gibt es die Karte für <150€ bei nur "einem" Laden.Ich glaube, Du mußt wirklich mal lernen, wie man die Angaben bei Geizhals interpretiert :rolleyes:

Ich sehe da vier Shops, bei denen es die 6850 lagernd für 149,90€ gibt. Kurzfristig lieferbar gibt es die bei einem fünften auch noch einen Euro billiger.

PS: Warum hast Du "einem" oben eigentlich in Anführungszeichen gesetzt?

fondness
2010-11-05, 17:39:14
Ich freu mich auf den GF110 Launch, die Roten versammeln sich ja schonmal präventiv.

Seltsam das dich LovesuckZ nicht stört. Aber wer andere ohne Grund als rot bezeichnet kann selbst eh nur tiefgrün sein. ;)

igg
2010-11-05, 17:41:03
die Roten versammeln sich ja schonmal präventiv.
Ich sage immer: Lieber tot als rot ;)

LovesuckZ
2010-11-05, 17:42:48
Okay, du kannst wirklich nur trollen. /Ignore.

Hm, ich warte auf belegbare Fakten, warum sich Barts anders verhalten sollte als GF104 drei Wochen nach Markteintritt.
Es ist einfach zu trollen - siehe auch Gestrandet - aber wenn du es anderen vorwirfst, solltest du wenigsten etwas mehr aufbringen als nur Pro-AMD-Worthülsen ala "verkaufen sich besser" oder "TSMC ist schuld".

Bei der GTX580 wird dagegen kompromisslos angenommen, dass es sie kaum zu kaufen gäbe im Jahr 2010 - und natürlich auch kritisiert. Bei Barts ist es vollkommen in Ordnung, wenn die Lieferbarkeit nach 3 Wochen enttäuschend ist und deswegen die Karten für >UVP verkauft werden müssen, da man nichtmal richtig die normalverhaltende Nachfrage decken könnte.

Jaja, immer dieses zweierlei Maß.

Ich glaube, Du mußt wirklich mal lernen, wie man die Angaben bei Geizhals interpretiert :rolleyes:

Ich sehe da vier Shops, bei denen es die 6850 lagernd für 149,90€ gibt. Kurzfristig lieferbar gibt es die bei einem fünften auch noch einen Euro billiger.

PS: Warum hast Du "einem" oben eigentlich in Anführungszeichen gesetzt?

1. stammt dieser Link nicht von mir, sondern wurde als Argument gepostet. Und 2. verwenden die vier Shops das selbe Lager und/oder gehören zur selben Firma/Holding/Whatever.
Da der Rest der Welt für >150€ verkauft, kann der UVP nicht mehr bei 149€ für die 6850 liegen.

Gipsel
2010-11-05, 17:46:45
@LS:
Ich würde Dir ein klein wenig Recherche über Marktmechanismen empfehlen. ;)

mboeller
2010-11-05, 17:49:01
rot????.......von was sprecht ihr?????

Grün ist die Zukunft! ;)


AMD ist grün; Nvidia ist grün... :)

fondness
2010-11-05, 17:50:15
@LS:
Ich würde Dir ein klein wenig Recherche über Marktmechanismen empfehlen. ;)

Das weiß er doch alles, so viele Beiträge wie er hier hat. Das ist doch nur trolling, einfach ignorieren. Die Moderation wird das schon regeln.

Gipsel
2010-11-05, 17:53:12
Und 2. verwenden die vier Shops das selbe Lager und/oder gehören zur selben Firma/Holding/Whatever.
Da der Rest der Welt für >150€ verkauft, kann der UVP nicht mehr bei 149€ für die 6850 liegen.
Den von mir erwähnten fünften Laden ignorierst Du natürlich, oder? :rolleyes:

LovesuckZ
2010-11-05, 17:53:26
@LS:
Ich würde Dir ein klein wenig Recherche über Marktmechanismen empfehlen. ;)

Ich weiß, wie ein Markt funktioniert. Und ich weiß auch, dass ansteigende Preise nicht bedeuten, dass Produkte sich gut verkaufen und sinkende Preise kein Faktor für schlechte Verkaufszahlen sein müssen.
Ich weiß auch, dass aufgrund polistischer Einstellungen solche "Statistiken" gerne missbraucht werden.

Ich mach's ganz einfach: Wenn die Karten sich so gut in Deutschland verkaufen sollten, dann müssten Ende November mehr Leute eine Barts als eine GTX460 Karte haben. Nachzuweisen kann man es durch Umfragen in PCGH.de Forum und hier. Liegen voll in der Zielgruppe als Gamer.

Gipsel
2010-11-05, 17:55:17
Die Moderation wird das schon regeln.Die Moderatoren können hier wohl auch nicht immer so wie sie wahrscheinlich gerne würden ;)

Ronny145
2010-11-05, 17:55:52
Ich sehe da vier Shops, bei denen es die 6850 lagernd für 149,90€ gibt. Kurzfristig lieferbar gibt es die bei einem fünften auch noch einen Euro billiger.



In Wirklichkeit 1 Laden. Die 4 shops gehören zusammen, sieht man doch schon an der gleichen Artikelnummer. Wenn mindfactory keine mehr lagernd hat, zwangsweise auch die anderen 3.

Gipsel
2010-11-05, 17:58:22
ich weiß auch, dass ansteigende Preise nicht bedeuten, dass Produkte sich gut verkaufen und sinkende Preise kein Faktor für schlechte Verkaufszahlen sein müssen.Weswegen Du natürlich in speziellen Fällen immer von der alternativen Erklärungsmöglichkeit ausgehst :rolleyes:
Ich weiß auch, dass aufgrund polistischer Einstellungen solche "Statistiken" gerne missbraucht werden.Mit dem Punkt hast Du Dich ja wahrscheinlich schon ausführlich beschäftigt. ;)

Gipsel
2010-11-05, 18:00:24
Die 4 shops gehören zusammen, sieht man doch schon an der gleichen Artikelnummer. Wenn mindfactory keine mehr lagernd hat, zwangsweise auch die anderen 3.
Dann für Dich auch noch einmal die wichtige Passage:
Kurzfristig lieferbar gibt es die bei einem fünften auch noch einen Euro billiger.
Aber das ist hier sowieso komplett OT. Also mach ich mal einen auf Mod und sage:
Back to Topic!

LovesuckZ
2010-11-05, 18:02:37
Mit dem Punkt hast Du Dich ja wahrscheinlich schon ausführlich beschäftigt. ;)

Ich gehe von garnichts aus, sondern habe ursprünglich nur geschrieben, dass der Launch-UVP von Barts zeitlich angesetzt war. Das Leute wie fondness und du daraus natürlich gleich mit irgendwelchen Marktgesetzen kommen, ist nicht mein Problem.
3 Wochen sind seit dem Launch vergangen. Nach 6 Wochen müssten die Karten mindesten auf GTX460 Niveau liegen, um ein Prädikat "besser verkaufen" erhalten zu können. Wir werden sehen.

crux2005
2010-11-05, 18:02:50
Laut OBR verbraucht die GTX 580 bis zu 180W weniger im FurMark als eine GTX 480. (gemessen wurde das Komplette System)

LovesuckZ
2010-11-05, 18:03:39
Laut OBR verbraucht die GTX 580 bis zu 180W weniger im FurMark als eine GTX 480. (gemessen wurde das Komplettes System)

Endlich wird Furmark gedrosselt. :freak:

Gipsel
2010-11-05, 18:10:29
Ich gehe von garnichts aus, sondern habe ursprünglich nur geschrieben, dass der Launch-UVP von Barts zeitlich angesetzt war.Wieso gehst Du denn von einer zeitlichen Begrenzung aus(*)? Ist das vielleicht schon kompletter Blödsinn Deinerseits?

Aber wie schon gesagt glaube ich nicht, daß Dein AMD-Gebashe hier das Thema im Thread sein sollte.

(*):
Btw., widersprichst Du Dir da eigentlich selbst in einem einzigen Satz?

LovesuckZ
2010-11-05, 18:25:05
Wieso gehst Du denn von einer zeitlichen Begrenzung aus(*)? Ist das vielleicht schon kompletter Blödsinn Deinerseits?

(*):
Btw., widersprichst Du Dir da eigentlich selbst in einem einzigen Satz?

Mir ist bewusst, dass du Postings für deine Zwecke zusammenhangslos zitierst und verwendest, daher nochmal mein Ausgangspostings, dass sich auf die GT200 Preissituation bezog:
Naja, das kann immer passieren, wenn man als erster veröffentlicht. Siehe auch, wenn nicht ganz vergleichbar, AMD und Barts. Die <150€ und <200€ Preise waren nur kurzzeitige "Konter", um der Preissenkung von nVidia den Wind aus den Segel zu nehmen.[...]

Wie du siehst, habe ich hier nur die letzten drei Wochen wiedergegeben. Das dir die Wirklichkeit nicht passt, kann und darf auch nicht mein Problem sein.

Kalmar
2010-11-05, 18:33:40
... 180W weniger wäre echt ne hausnummer aber des würde ja net so richtig zu der folie passen oder ?

ps. LS auf ignore, irgendwann ist echt genug ..

y33H@
2010-11-05, 18:36:56
Endlich wird Furmark gedrosselt.Man lernt eben bei der Konkurrenz *SCNR*

AMD throttelt Furmark - NV throttelt Furmark. NV renamt Karten - AMD renamt Karten. NV senkte die Filterqualität - AMD senkt die Filterqualität. Ach halt, NV hat sie ja wieder gesteigert ... Ich weiß, ich bin böse :P

Gipsel
2010-11-05, 18:45:31
Mir ist bewusst, dass du Postings für deine Zwecke zusammenhangslos zitierst und verwendest,Wo? Und für welche ominösen Zwecke, außer um den Bezug klar zu machen?
Nur weil Dir manchmal später nicht mehr paßt, was Du mal unbedacht irgendwann mal geschrieben hast? :rolleyes:
Das dir die Wirklichkeit nicht passt, kann und darf auch nicht mein Problem sein.Das mit der verzerrten Realität ist ja mal wirklich lustig. Warten wir doch einfach mal ein paar Wochen ab und sehen dann, ob es dann keine HD6850 mehr für 150€ gibt!
Der von Dir angeblich beobachtete "kurzzeitige Konter", dauert jetzt so grob zwei Wochen an und die Preisentwicklung ist momentan so flach wie die norddeutsche Tiefebene.

Gipsel
2010-11-05, 18:47:45
Man lernt eben bei der Konkurrenz *SCNR*

AMD throttelt Furmark - NV throttelt Furmark.Ich glaube ich hatte das schon ein paar mal gefragt (und nie eine befriedigende Antwort erhalten), aber gibt es eigentlich einen schlagkräftigen Beweis, daß ab den HD5000er Furmark wirklich noch gedrosselt wurde? Es gibt nämlich auch gegenteilige Aussagen.

LovesuckZ
2010-11-05, 18:48:22
Man lernt eben bei der Konkurrenz *SCNR*

AMD throttelt Furmark - NV throttelt Furmark. NV renamt Karten - AMD renamt Karten. NV senkte die Filterqualität - AMD senkt die Filterqualität. Ach halt, NV hat sie ja wieder gesteigert ... Ich weiß, ich bin böse :P

Sollte es stimmen, hoffe ich wenigsten, dass nVidia darauf hinweißt. Es wäre schon ziemlich erbärmlich, wenn man dies als "Verbesserung" verkauft...

Hugo78
2010-11-05, 19:05:27
CB testet ja Crysis Warhead in 1920x1200 für den Lastverbrauch.
Also Crysis WH als Max.Last und a la PCGH, ein Spiel wie Battlefield: Bad Company 2 als typischer Lastbenchmark, würde ich eh besser finden als ständig diese Schadsoftware, die eh keiner spielt.

Bei diesen Spielen kommt dann auch kein Hersteller in den Verdacht per Treiber die Anwendung auszubremsen. ;)

y33H@
2010-11-05, 19:15:19
@ Gipsel

Die TDP der HD 5870 entspricht der Furmark-Leistungsaufnahme, der Fps-Vorsprung vor einer ungethrottelten HD 4890/HD 4870 ist sehr gering und AMD spricht von "Power Virus". Ein Beweis lässt sich bei einer Hardware-Implementierung wohl kaum führen, da man dem Throtteln per BIOS etc. sicher nicht bei kommt. NV throttelt per Treiber ebenfalls, AMD hat's ja vorgemacht. Versuche via App-Detection sind jedoch lächerlich und werden schnell entlarvt, daher hat AMD offenbar den Hardware-Weg via Monitoring-Chip gewählt, was offenbar immer noch billiger ist als bessere Wandler und ein aufwendigeres PCB. Im Falle der Fire GL 9270 liegt die TDP übrigens bei 220W (http://www.amd.com/us/products/workstation/firestream/firestream-9270/Pages/firestream-9270.aspx), bei der Radeon HD 4870/1G bei nur 160 (!) Watt und es wird eine 600W-PSU statt eine mit 500W empfohlen [2G statt 1G machen keine +60 Watt aus!] - ein Schelm, wer böses denkt, wenn man sich nun über die "Power Control Unit" des Cypress und TDP = Furmark Gedanken macht. Zu der GTX 580 sage ich an dieser Stelle nichts und werde zur gegebenen Zeit meinen Unmut kommunizieren.

@ Hugo78

Crysis oder BF BC2 ist aber eben nicht "max." - sondern Furmark oder gegebenenfalls GGPU.
SchadsoftwareDer Furmark ist ein Benchmark ...

airbag
2010-11-05, 19:18:40
und werde zur gegeben Zeit meinen Unmut kommunizieren.

Oh ha, dass mag ja schon was heißen. :)

LovesuckZ
2010-11-05, 19:22:41
Bei Amazon.com kann man GTX580 für $519 vorbestellen: http://www.amazon.com/GeForce-Graphics-ENGTX580-2DI-1536MD5/dp/B004AP9IJ0/

Wird wohl der UVP bei $499 liegen bzw. bei ca. 450€ in Deutschland.

AwesomeSauce
2010-11-05, 19:24:16
@airbag

Bei (gemunkelten) 180W weniger Leistungsaufnahme sollten alle (geistigen) Zeiger und Glühbirnen auf soft- oder hardwareseitige Drosselung stehen. Solch eine Vorgehensweise gehört nicht unterstützt oder toleriert. Sollte dann noch mit dem Furmarkverbrauch geworben werden - naja, den Rest kannst du dir ja denken;) Sehr fragwürdige "Verbesserungen"...

Kalmar
2010-11-05, 19:29:19
Zu der GTX 580 sage ich an dieser Stelle nichts und werde zur gegebenen Zeit meinen Unmut kommunizieren.


klingt so als seit ihr mit testen schon ziemlich weit ... da kein unmut über die leistung kommt spekuliere ich mal ganz wild und sage die liegt ungefähr bei dem was erwartet wird ...

Hugo78
2010-11-05, 19:31:51
Der Furmark ist ein Benchmark ...

Furmark ist auch ein Mindfuck, wenn ich mir so anschaue, dass kaum noch jemand zwischen Leistungsaufnahme in Spielen und dieser unter Furmark unterscheiden kann / will.

Und in Spielen bin ich noch nie auf diese Werte gekommen wie Furmark sie erzeugt.
Furmark ist im Schnitt 15-20°C heißer als alles was ich so zocke.
Und meine Lukü sollte so das max. sein was mit Lukü bei Grakas möglich ist.

Wenn es irgendeine Anwendung gibt, die an Furmark rankommt, bitte dann nehm ich das sofort zurück, aber bis dahin, seh ich das Teil als Schadsoftware. :naughty:

airbag
2010-11-05, 19:33:39
@airbag

Bei (gemunkelten) 180W weniger Leistungsaufnahme sollten alle (geistigen) Zeiger und Glühbirnen auf soft- oder hardwareseitige Drosselung stehen. Solch eine Vorgehensweise gehört nicht unterstützt oder toleriert. Sollte dann noch mit dem Furmarkverbrauch geworben werden - naja, den Rest kannst du dir ja denken;) Sehr fragwürdige "Verbesserungen"...

Naja ist sehe es eher als Schutzmechanismus. Ansich ist ja nichts Tolles an dem Pelzring, der einem die Stromrechnung in die Höhe treibt und sonst keinen Nutzen hat.
Der von mit gequotete Teil von y33H@ Aussage, war auch eher so eine Teilinterpretation auf die eventuell Leistung. .....Naja obwohl wahrscheinlich auch schon 5% gegenüber einer GTX480 reichen würden, dass sich y33H@ das TEil für 200Euro Aufpreis kaufen würde. ^^

LovesuckZ
2010-11-05, 19:36:45
Ich verstehe nicht, wo das Problem mit Furmark sein soll. Wenn die Hersteller GPUs bauen, die soviel Strom im schlimmsten Fall aufnehmen, sollten sie nicht die Software bestrafen. Liebers ehrliche Werte als gefakte.

airbag
2010-11-05, 19:42:31
Aber was bringen dir den ehrliche Werte, wenn sie nur unter Extrembedingungen erreicht werden, die sonst nie vorkommen?
Dementsprechend müsste man auch Netzteile ausweisen, dass sie unter 10% Überlast auch noch problemlos laufen. ;)

LovesuckZ
2010-11-05, 19:44:27
Wer sagt mir, dass diese Werte nie erreicht werden? Das ist wie mit AMD's Filterung: Es gibt keine 100% Garantie, dass die angeblichen Worst Case Szenarien nicht auch woanders auftreten können.

airbag
2010-11-05, 19:51:14
Wer sagt mir, dass diese Werte nie erreicht werden?
Ein Messgerät?:)

LovesuckZ
2010-11-05, 19:52:35
Ein Messgerät sagt mir nicht die Zukunft voraus. ;)

Gipsel
2010-11-05, 19:53:02
der Fps-Vorsprung vor einer ungethrottelten HD 4890/HD 4870 ist sehr geringNa das ist doch schon mal eine Auskunft und zeigt ja schon die Richtung (falls Furmark nicht an der Speicherbandbreite hängen sollte). Wenn ich bisher danach gefragt habe, kam irgendwie gar nichts Sachdienliches (und fps-Werte von FurMark sind irgendwie selten aufzutreiben, so daß das für mich nicht offensichtlich war).

AwesomeSauce
2010-11-05, 19:53:55
Einmal Furmark zu vermessen ist sehr viel effizienter als bei jedem Spieletest das ganze Messprozedere zu wiederholen. Zeit ist kostbar bei solchen Tests.

airbag
2010-11-05, 19:56:26
Ein Messgerät sagt mir nicht die Zukunft voraus. ;)
Die TDP doch auch nicht.;) Und das Ferminutzer eher weniger auf die Leistungsaufnahme achten sollte klar sein. (obwohl das Argument für die Leistungsaufnahme der Hd5k auch nur reine Heuchlerei war )

LovesuckZ
2010-11-05, 19:59:05
Die TDP doch auch nicht.;) Und das Ferminutzer eher weniger auf die Leistungsaufnahme achten sollte klar sein. (obwohl das Argument für die Leistungsaufnahme der Hd5k auch nur reine Heuchlerei war )

Ich will eine maximale Angabe haben. Ob man die TDP oder Max. oder Furmark-approved nennt, ist egal. Denn anhand der maximalen Angabe sollte man die Infrastruktur ausrichten.
Deswegen gibt es bei Dingen, die etwas tragen müssen, auch eine maximale Tragelast und keine durchschnittliche... - ...

900MHz mit Standard-Vcore? (http://www.xtremesystems.org/forums/showpost.php?p=4613972&postcount=716)

airbag
2010-11-05, 20:03:40
Dafür gibt es ja wenigsten die NT Empfehlung. Aber ich verstehe dich durchaus. :)

y33H@
2010-11-05, 20:04:10
@ Gipsel

Furmark skaliert 1:1 mit dem Core/ALU-Takt, daher haben AMD/NV eine ALU:TEX-Detection für HD4k und GTX 200 im Treiber drin; so erkennt man einen "Power Virus" recht easy.

PCGH_Carsten
2010-11-05, 20:09:30
Ich glaube ich hatte das schon ein paar mal gefragt (und nie eine befriedigende Antwort erhalten), aber gibt es eigentlich einen schlagkräftigen Beweis, daß ab den HD5000er Furmark wirklich noch gedrosselt wurde? Es gibt nämlich auch gegenteilige Aussagen.
Einen schlagkräftigen Beweis kann dir nur AMD liefern (oder jemand, der sich die Mühe macht, den Treiber auseinanderzunehmen. y33h@ (meine Güte, wie umständlich zu schreiben… Wie spricht man das eigentlich aus? Why-three-three-hat? ;)) hat ja schon von Fps-Werten gesprochen, die sehr starke Indizien in dieser Richtung sind. Ich habe mal vor einiger Zeit ziemlich umfangreiche Skalierungen mit Taktraten usw. beim Furmark gemacht. Mal sehen, ob ich das Excel noch finde.

Hugo78
2010-11-05, 20:14:13
900MHz mit Standard-Vcore? (http://www.xtremesystems.org/forums/showpost.php?p=4613972&postcount=716)

Klingt Sexy. =)
Auch die 1800Mhz Shaderdomain...

y33H@
2010-11-05, 20:17:29
@ PCGH_Carsten

Jiiiiiiiiiiiiiiiiiiiiiiiiiiha! ;D

Gipsel
2010-11-05, 20:19:17
@ Gipsel

Furmark skaliert 1:1 mit dem Core/ALU-Takt, daher haben AMD/NV eine ALU:TEX- Detection für HD4k und GTX 200 im Treiber drin; so erkennt man einen "Power Virus" recht easy.
Das ist aber in der Realität komplizierter, als es sich anhört. Denn für einen maximalen Stromverbrauch will man ja ALUs und TMUs möglichst voll auslasten, was bei den unterschiedlichen ALU-Tex-Verhältnissen bei nv/AMD etwas schwierig wird, wenn man nicht (mindestens) zwei Versionen strickt.
Den Shadercore bei ATIs wärmer als mit FurMark zu kriegen, ist übrigens gar nicht mal so schwer (zumindest bei den HD4800ern, die 5800er ziehen bei den gleichen Instruktionsequenzen irgendwie nicht so viel [und werden auch nicht gethrottelt]).

Außerdem hängt der Stromverbrauch meiner Erfahrung nach auch von der Art der benutzten Instruktionen ab, einfach nur auslasten ist nicht genug. Also nur am ALU:TEX-Verhältnis kann man einen Power-Virus m.M. nach nicht erkennen.

tombman
2010-11-05, 20:19:20
Oh Mann, 900Mhz mit default vcore...da gehen dann 1GHz mit mehr vcore :eek:

Legger ;)

airbag
2010-11-05, 20:21:49
Du kannst sie ja schon vorbestellen. ;)

igg
2010-11-05, 20:23:17
Hm, da könnte noch eine Überraschung drin sein?

Gipsel
2010-11-05, 20:24:05
Einen schlagkräftigen Beweis kann dir nur AMD liefern (oder jemand, der sich die Mühe macht, den Treiber auseinanderzunehmen.Problem ist, AMD hat m.W. ausdrücklich gesagt, daß man bei den HD5000ern im Gegensatz zu den 4000ern keine Sperre im Treiber hat. Wenn gethrottelt wird, also nur mit der verbauten Hardware-Monitoring Geschichte, die die Stromaufnahme in etwa bei der TDP begrenzt. Der Punkt wäre also, wann spricht das genau an? Ist das z.B. auch temperaturabhängig (weil Stromaufnahme ja damit skaliert)? Das wären die für mich interessanten Fragen in diesem Zusammenhang.

PCGH_Carsten
2010-11-05, 20:27:08
Im Falle des Furmark spricht es „sofort” an. Es ist also nicht so, dass man anfangs höhere Fps hätte, die dann im Laufe der Zeit mit heisser werdendem und dadurch eine höhere Leistungsaufnahme habendem Chip sinken.

y33H@
2010-11-05, 20:31:52
Die reinen Ampere, die durch fließen, steigen iirc auch zumindest laut Tool und Ampere-Zange bei einer HD 5870 nicht. D.h. Furmark an und die Wattzahl steht [sobald die Temperatur oben ist]. Eine GTX 480 dagegen säuft mit der Zeit immer mehr und brauch viel länger, bis sie "peakt".

Gipsel
2010-11-05, 20:44:50
Im Falle des Furmark spricht es „sofort” an. Es ist also nicht so, dass man anfangs höhere Fps hätte, die dann im Laufe der Zeit mit heisser werdendem und dadurch eine höhere Leistungsaufnahme habendem Chip sinken.
Die reinen Ampere, die durch fließen, steigen iirc auch zumindest laut Tool und Ampere-Zange bei einer HD 5870 nicht. D.h. Furmark an und die Wattzahl steht [sobald die Temperatur oben ist]. Eine GTX 480 dagegen säuft mit der Zeit immer mehr und brauch viel länger, bis sie "peakt".
Das widerspricht sich jetzt aber ein wenig! :rolleyes:

Das zeigt aber, daß es vielleicht durchaus mal interessant wäre, das näher zu beleuchten, oder?

y33H@
2010-11-05, 20:51:21
Ich sagte "iirc" =)

PCGH_Carsten
2010-11-05, 20:55:06
Es widerspricht sich nicht. Ich sagte doch, es spränge „sofort” an, man hätte konstante Fps im Furmark. Inwiefern unterscheidet sich das von y33h@s „Die reinen Ampere, die durch fließen, steigen iirc auch zumindest laut Tool und Ampere-Zange bei einer HD 5870 nicht”?

y33H@
2010-11-05, 20:58:08
Würde Karte throtteln, also "richtig", würde man das sehen. Geht zB eine GTX 480 über 100°, dann saufen die Fps ab.

Screemer
2010-11-05, 21:04:32
@ PCGH_Carsten

Jiiiiiiiiiiiiiiiiiiiiiiiiiiha! ;D
ich dachte ihr arbeitet im gleichen laden und so groß ist das büro in fürth doch auch nicht :)

airbag
2010-11-05, 21:06:54
Im Büro werden sie sich wohl kaum mit den Nicks ansprechen. Da ist Real ID angesagt. ;)

tombman
2010-11-05, 21:09:26
Im Büro werden sie sich wohl kaum mit den Nicks ansprechen. Da ist Real ID angesagt. ;)
Nene, carsten wird sicher PEE-CEE-GEE-HAA-CARSTEN gerufen ;D;D

Screemer
2010-11-05, 21:09:54
Real, real. wer braucht sowas schon ;) es gibt leute die sprechen mich nur mit nick an. man is das nerdig, fällt mir grad auf...

y33H@
2010-11-05, 21:13:16
Die internen Redakteurs-Codenamen werden nicht geleakt, sonst wird's ein "Raffail" :ulol: back top topic.

Vorhin erst gesehen (war in London): GF110 ist ja ein A1 laut IHS =)

Gipsel
2010-11-05, 21:13:36
Es widerspricht sich nicht. Ich sagte doch, es spränge „sofort” an, man hätte konstante Fps im Furmark. Inwiefern unterscheidet sich das von y33h@s „Die reinen Ampere, die durch fließen, steigen iirc auch zumindest laut Tool und Ampere-Zange bei einer HD 5870 nicht”?
Nun, wenn die Stromaufnahme konstant wäre, müßte bei steigender Temperatur die Framerate sinken (um eben die Stromaufnahme konstant zu halten).
y33H@ (oder sollte ich der Einfachheit halber Marc sagen?) hat ja aber noch schnell dazugesetzt, daß das gilt, nachdem die Temperatur konstant ist (was gegen ein Throtteln durch Einregeln auf eine bestimmte Stromaufnahme sprechen würde). Allerdings meint er, daß diese Konstanz viel schneller als bei einer GTX480 erreicht wird, was er wiederum als Zeichen des Throttelns interpretiert, was sich dann aber wieder in einer Änderung der Framerate ausdrücken würde, die Du nicht gesehen hast.

Ergo, konsistent ist das noch nicht, was ihr beide bisher festgestellt habt ;)

y33H@
2010-11-05, 21:29:18
Die Chiptemperatur hat offenbar keinen Einfluss auf die Ampere. Die Drossel setzt iirc aber bei einer bestimmten Ampere-Schwelle ein. Sollte diese sofort beim Start von Furmark und sagen wir, 70°, geknackt werden, dann kann Carsten auch keinen Fps-Rückgang sehen, weil die HW-Implementierung extrem schnell greift. Durch die Drossel geht die Karte aber offenbar einen P-State oder so runter und in diesem ist dann noch ein bisschen Luft - d.h. die Temp kann steigen und damit auch die Leistungsaufnahme noch etwas, die Ampere-Schwelle aber nicht erneut überschritten. Damit hätten wir von Beginn an konstante Fps, aber dennoch eine leicht Erhöhung der Leistungsaufnahme, wenn man nach 5 sec oder eben nach 500 sec die Ampere misst [die Volt sollten gleich bleiben bzw. bei höherer absoluten Leistungaufnahme je nach PSU nur minimal bis gar nicht sinken].

LovesuckZ
2010-11-05, 21:33:16
Vorhin erst gesehen (war in London): GF110 ist ja ein A1 laut IHS =)

Hm, sag mal was zu den Demos von nVidia. Laut Twitter sollen die "awesome" sein. :biggrin:

Aber A1 ist schon sehr interessant. Absehbar, aber trotzdem unglaublich.

Hugo78
2010-11-05, 21:36:31
Hm, sag mal was zu den Demos von nVidia. Laut Twitter sollen die "awesome" sein.
Link?

Absehbar, aber trotzdem unglaublich.
Du willst doch nur, dass jemand solche Sätze als Sig benutzt. :D

AwesomeSauce
2010-11-05, 21:39:06
2.7-3.x Mrd. Transistoren im A1 mit 772 MHz? Ich kenne die Gegebenheiten der verschiedenen automatischen Place and Route Systeme nicht genau, aber kann die Adaption eines solch neuen Systems derartige Auswirkungen auf die Dauer der Implementierungsphase des Designs haben? Lovesuckz hat mal einen Link dazu gepostet. Natürlich ist das dann nicht der alleinige Grund für die ungewöhnlich schnelle Exec des Designs - Einfluss könnte es dennoch gehabt haben. Vielmehr als denjenigen von Altium Designer oder Xilinx ISE kenne ich leider auch nicht;) Beide IHVs werden aber bestimmt spezialisierte Software verwenden...

EDIT: Diese Meldung war es afair: http://www.mentor.com/products/ic_nanometer_design/news/nvidia-olympus-soc

Die besagte Software ist Olympus-SoC (http://www.mentor.com/products/ic_nanometer_design/place-route/olympus-soc/)

y33H@
2010-11-05, 21:40:18
@ LovesuckZ

Demos? Siehe Youtube. Ich bin auch "awesome", schau dir lieber Videos an, wo ich drauf bin :P Und AwesomeSauce ist sicher ne "awesome" Soße :P

;)

Hugo78
2010-11-05, 21:41:19
Na ich bin ja der Meinung Nvidia ist ihr erster Kunde beim GF100 gewesen.
Die ersten GF100 A1 und A2 werkeln sicher als Simulationscluster bei NV im Keller. :D

fondness
2010-11-05, 21:42:27
2.7-3.x Mrd. Transistoren im A1 mit 772 MHz? Ich kenne die Gegebenheiten der verschiedenen automatischen Place and Route Systeme nicht genau, aber kann die Adaption eines solch neuen Systems derartige Auswirkungen auf die Dauer der Implementierungsphase des Designs haben? Lovesuckz hat mal einen Link dazu gepostet. Natürlich ist das dann nicht der alleinige Grund für die ungewöhnlich schnelle Exec des Designs - Einfluss könnte es dennoch gehabt haben. Vielmehr als denjenigen von Altium Designer oder Xilinx ISE kenne ich leider auch nicht;) Beide IHVs werden aber bestimmt spezialisierte Software verwenden...

Es ist eben ein Unterschied ob man eine neue Architektur fertigt oder einen minimal überarbeiteten Chip wo alles wesentliche längst erprobt ist. Mit GF100 kann man das eher nicht vergleichen.

AwesomeSauce
2010-11-05, 21:50:54
Tapeout im August/September und Produktion in November ist schon eine beachtliche Leistung für einen Chip dieser Grösse/Transistoranzahl. Und eine "minimale" Überarbeitung war es wohl auch nicht, wenn man Volkers Aussagen beachtet - da wurde anscheinend ordentlich was gedreht... Das Ganze interessiert mich halt, denn weiter als aufs FPGA sind unsere naiven und kleinen Designs nie gekommen. Gerade Gipsel und Coda (und ich bin sicher auch viele andere) haben da wohl den treffenderen Hintergrund...

Gipsel
2010-11-05, 22:00:20
Die Chiptemperatur hat offenbar keinen Einfluss auf die Ampere. Die Drossel setzt iirc aber bei einer bestimmten Ampere-Schwelle ein. Sollte diese sofort beim Start von Furmark und sagen wir, 70°, geknackt werden, dann kann Carsten auch keinen Fps-Rückgang sehen, weil die HW-Implementierung extrem schnell greift. Durch die Drossel geht die Karte aber offenbar einen P-State oder so runter und in diesem ist dann noch ein bisschen Luft - d.h. die Temp kann steigen und damit auch die Leistungsaufnahme noch etwas, die Ampere-Schwelle aber nicht erneut überschritten. Damit hätten wir von Beginn an konstante Fps, aber dennoch eine leicht Erhöhung der Leistungsaufnahme, wenn man nach 5 sec oder eben nach 500 sec die Ampere misst [die Volt sollten gleich bleiben bzw. bei höherer absoluten Leistungaufnahme je nach PSU nur minimal bis gar nicht sinken].
Wie verträgt sich das eigentlich mit dem (mit einigen Tools) beobachtbarem Throtteln bei Karten mit extrem angehobener Spannung? Denn dort passiert ja genau das Gleiche wie Du vermutest, die Frequenz wird stufenweise zurückgenommen.
Als Beispiel hier mal eine HD5850 mit 1,64V :freak::

http://img62.imageshack.us/img62/6654/5850.png

Laut AMD (bzw. dem B3D-Artikel zur HD5870 (http://www.beyond3d.com/content/reviews/53/3)) soll bei Überlast der Takt einer 5870 auf 600/900MHz zurückgenommen werden. Da paßt das mit der 5850 ja so ziemlich (550MHz?, finde gerade das Bild in voller Auflösung nicht). Aber wie gesagt, das ist mit dem richtigen Monitoring-Tool ja offensichtlich beobachtbar.

y33H@
2010-11-05, 22:20:25
Hmmmm .... dieses Karte ist unter 90°, ergo ist es nicht der Chip, der beginnt zu throtteln. Im Furmark liegt bei unter 100° ohne Overvolting immer der volle Takt an - ansonsten könnte man ja sofort sehen, dass gebremst wird.

Gipsel
2010-11-05, 22:41:11
Hmmmm .... dieses Karte ist unter 90°, ergo ist es nicht der Chip, der beginnt zu throtteln. Im Furmark liegt bei unter 100° ohne Overvolting immer der volle Takt an - ansonsten könnte man ja sofort sehen, dass gebremst wird.
Na er throttelt ja nicht aufgrund der Temperatur, sondern aufgrund der Stromaufnahme. ;)
Schau mal genau hin! Sobald Last anliegt, geht der GPU-Takt auf ~550MHz zurück, in den Lastpausen spiked er immer kurz auf 775MHz zurück (das reagiert praktisch instantan). Das entspricht ziemlich dem, was AMD gegenüber B3D über die Funktionsweise gesagt hat (nur das der Takt bei der 5870 600MHz betragen soll).
So einen Screenshot bei Furmark und man kann definitiv sagen, daß aufgrund des Verbrauchs-Monitoring gethrottelt wird.

pXe
2010-11-05, 22:43:03
Hm, sag mal was zu den Demos von nVidia. Laut Twitter sollen die "awesome" sein. :biggrin:
...

Gibt es eigentlich dass tolle Water Tech Demo vom GF100 irgendwo zum download?


pXe

LovesuckZ
2010-11-05, 22:47:09
Tapeout im August/September und Produktion in November ist schon eine beachtliche Leistung für einen Chip dieser Grösse/Transistoranzahl. Und eine "minimale" Überarbeitung war es wohl auch nicht, wenn man Volkers Aussagen beachtet - da wurde anscheinend ordentlich was gedreht...

Ist auch nonsens, was er schreibt. GF104 ist der drittgrößte Chip nach der Transistorenanzahl und kam trotz massiver Veränderungen zum GF100 in A1 auf dem Markt. nVidia hat eben 40nm und Time-To-Market eine hohe Bedeutung zugewiesen. Immerhin gab es vier Pressemitteilung bzgl. Investition in Simulationstool in den letzten 12 Monaten. Und anhand GF104, der sein Tape-Out zeitnah mit Barts (der deutlich weniger Änderungen zu Cypress aufweist) hatte, erkennt man, dass es sich markttechnisch sehr gut ausgezahlt hat.

LovesuckZ
2010-11-05, 22:50:43
Gibt es eigentlich dass tolle Water Tech Demo vom GF100 irgendwo zum download?


pXe

Ja. (http://www.multiupload.com/I6303V403R)

y33H@
2010-11-05, 22:55:12
@ Gipsel
Schau mal genau hin!Schei0 Bild ;) Damit ich dich richtig verstehe: Voller Takt = 0% GPU-Load; Throtteln = 100% GPU-Takt? Das kann man iirc mit dem Afterburner im Furmark nicht sehen.

Gipsel
2010-11-05, 23:00:50
Schei0 Bild ;) Damit ich dich richtig verstehe: Voller Takt = 0% GPU-Load; Throtteln = 100% GPU-TaktLast?Ja (nach meiner Korrektur). Das ist trotz der miesen Auflösung ziemlich klar zu erkennen (ich muß nochmal danach in voller Auflösung suchen).
Das kann man iirc mit dem Afterburner im Furmark nicht sehen.Das ist auch mein Stand.
Das spricht dann gegen das Throtteln zumindest mit diesem Mechanismus (Verbrauchslimit). ;)

Nightspider
2010-11-05, 23:07:53
Also erscheint GF110 am Dienstag?

Ich erwarte einen ausführlichen Test @ PCGH! ;)

y33H@
2010-11-05, 23:14:41
Ja (nach meiner Korrektur).Wie gesagt "Bin wohl noch angeknockt von gestern ...". Da hätte natürlich "Load" statt "Takt" stehen müssen, wie vorne auch. Aber zurück zum Afterburner: Nur weil er keinen Taktabfall (mei, klingt das komisch) zeigt, spricht es gegen das Throtteln? Ja. Andere Faktoren dafür, erfahren werden wir es wenn wohl erst in paar Jahren, wenn sich keiner mehr für die Karten interessiert.

pXe
2010-11-05, 23:40:32
Ja. (http://www.multiupload.com/I6303V403R)

Danke.
Sehr beeindruckend!


pXe

Fetza
2010-11-06, 00:02:50
Ist es eigentlich schon sicher, das nur die gtx 580 vorgestellt werden soll, oder könnte auch die gtx 570 mit dabei sein?

LovesuckZ
2010-11-06, 01:15:43
Anscheinend nicht. Eventuell wird sie zum Cayman Launch nachgeschoben, um nach unten hin etwas zu haben, oder sie kommt frühsten Dezember.

Thunder99
2010-11-06, 10:24:37
Ist es eigentlich schon sicher, das nur die gtx 580 vorgestellt werden soll, oder könnte auch die gtx 570 mit dabei sein?
Wieso sollten sie, die GTX570 ersetzt wohl die GTX480 und diese muss erst mal noch ausm Lager

igg
2010-11-06, 13:28:37
Laut neliz ist die GTX580 nur in ausgesuchten Benchmarks mehr als 10-15 % schneller als eine GTX480
Don't worry, there will be selected synthetic benchmarks where the difference is bigger
Quelle (http://forum.beyond3d.com/showpost.php?p=1490474&postcount=7234)

Edit: Dafür dass das Release in 3 Tagen ist und die Karten schon eine Weile getestet werden gibts erschreckend wenig Leaks...

Edit 2: Und Volker meint (http://www.computerbase.de/forum/showpost.php?p=8767953&postcount=261), die Karte wird super oder Crap. Für super gibts erschreckend ernüchternded von Leuten wie neliz.

crux2005
2010-11-06, 13:41:42
Laut neliz ist die GTX580 nur in ausgesuchten Benchmarks mehr als 10-15 % schneller als eine GTX480

Wie Raff schon andeutete, wirbt nVidia auch bei der GTX 580 mit (relativ) großen OC Potenzial...

y33H@
2010-11-06, 13:45:53
Super oder crap? Sie ist das, was man schon als GTX 480 erwartet hatte.

igg
2010-11-06, 13:56:17
Das könnte zu wenig sein. Wir sind 1 Jahr weiter und Cayman steht vor der Tür.

AwesomeSauce
2010-11-06, 14:03:30
Es wird zu wenig sein, es deutet vieles darauf hin... Nur, was Volker damit gemeint hat, dass alle bisherigen Gerüchte nicht stimmen würden - darauf kann ich mir keinen Reim machen.

@y33H@
Was die GTX480 werden sollte, hängt stark von der Betrachtungsweise ab;) Die NVidioten erwarteten einen zweiten 8800GTX, die FanATIker einen FX5800. Deine Aussage bringt uns also nicht weiter;)

mapel110
2010-11-06, 14:05:08
AwesomeSauce, y33H@ meinte natürlich aus nvidia-Sicht.

Und wenn sich ATI auch bei Cayman 10% ercheatet durch mieses AF, wirds für nvidia wirklich schwer. Dann mussen sie halt auch in dem Bereich nachziehen.

igg
2010-11-06, 14:05:09
Was die GTX480 werden sollte, hängt stark von der Betrachtungsweise ab;
Ich denke er bezieht sich auf die schlimmen Schwächen wie Wärme, Verbrauch, Lautstärke.

y33H@
2010-11-06, 14:10:09
Die Karte wird (natürlich) keine 2te 8800 GTX oder FX 5800 Ultra. NV ist sich den Schwächen der GTX 480 bewusst und weiß, man muss nebenbei noch die Leistung steigern - also eine Gratwanderung. Und da kann man halt keine großen Sprünge machen, dennoch kann man auf einem Drahtseil ein gutes Gesamtbild abliefern.

S940
2010-11-06, 14:11:32
dennoch kann man auf einem Drahtseil ein gutes Gesamtbild abliefern.Man kann aber auch runterfallen :freak:

Hugo78
2010-11-06, 14:13:01
dennoch kann man auf einem Drahtseil ein gutes Gesamtbild abliefern.

Die GTX 580 wird also eine Art seiltanzende nackte Megan Fox. ;D

igg
2010-11-06, 14:13:16
Ich frage mich, wieso sie nicht einfach die DP Einheiten rausgeworfen haben, zugunsten eines Gaming Monsters?

crux2005
2010-11-06, 14:13:20
Nur, was Volker damit gemeint hat, dass alle bisherigen Gerüchte nicht stimmen würden - darauf kann ich mir keinen Reim machen.

Alle? alle sind sicher nicht falsch.
AFAIK hat er viele geschrieben oder etwas in die Richtung...

Ich frage mich, wieso sie nicht einfach die DP Einheiten rausgeworfen haben, zugunsten eines Gaming Monsters?

was für DP Einheiten?

Orbmu2k
2010-11-06, 14:15:09
Die Karte wird (natürlich) keine 2te 8800 GTX oder FX 5800 Ultra. NV ist sich den Schwächen der GTX 480 bewusst und weiß, man muss nebenbei noch die Leistung steigern - also eine Gratwanderung. Und da kann man halt keine großen Sprünge machen, dennoch kann man auf einem Drahtseil ein gutes Gesamtbild abliefern.

Ich denke dass sagt alles. Die Karte ist genau das was alle Gerüchte auch sagen. Ein bischen (15-20%) schneller, leiser, kühler, energiesparender, aber keine ÜBER-Karte.

LovesuckZ
2010-11-06, 14:16:19
Das könnte zu wenig sein. Wir sind 1 Jahr weiter und Cayman steht vor der Tür.

Man sieht ja an Barts, dass ein Jahr nicht viel ist. Und das Cayman was besonderes wird, hört man doch nur von Leuten, die sowieso jeden AMD Chip als Überchip hinstellen.

crux2005
2010-11-06, 14:18:42
Von einem gewissen Blickwinkel war auch der R600 ein besonderer Chip. :redface:
btw: 950 MHz soll mit besseren GTX 580 @ Luft möglich sein. Stabil? kp...

Orbmu2k
2010-11-06, 14:19:54
btw: 950 MHz soll mit besseren GTX 580 @ Luft möglich sein. Stabil? kp...

Mit Referenz Kühlung?

Hugo78
2010-11-06, 14:20:11
@LZ
Sollte heute nicht noch eine Messe o.ä. starten, die damit geworben hatte, dass NV dort was besonderes zeigt?

LovesuckZ
2010-11-06, 14:22:24
@LZ
Sollte heute nicht noch eine Messe o.ä. starten, die damit geworben hatte, dass NV dort was besonderes zeigt?

PDX Lan ist am diesen Wochenende in Amerika: http://blogs.nvidia.com/ntersect/2010/11/nvidia-is-headed-to-pdx-lan-165.html

Ich geh stark davon aus, dass man heute die GTX580 dort vorstellen wird.

crux2005
2010-11-06, 14:24:01
Mit Referenz Kühlung?

Ich gehe mal stark davon aus.

Hugo78
2010-11-06, 14:24:52
PDX Lan ist am diesen Wochenende in Amerika: http://blogs.nvidia.com/ntersect/2010/11/nvidia-is-headed-to-pdx-lan-165.html

Ich geh stark davon aus, dass man heute die GTX580 dort vorstellen wird.

Ah thx.

igg
2010-11-06, 14:28:33
Andererseits: Vielleicht nutzt NV auch die massenhaften TMUs für gute BQ Features, so dass Enthusiasten endlich auch wieder eine insgesamt ausgewogene Karte erhalten.

y33H@
2010-11-06, 14:30:35
Du hast TMU-seitig doch schon grenzperfektes AF bei NV. Was willst du da noch "auswiegen"? Die SGSSAA-Leistung?

derguru
2010-11-06, 14:32:11
Andererseits: Vielleicht nutzt NV auch die massenhaften TMUs für gute BQ Features, so dass Enthusiasten endlich auch wieder eine insgesamt ausgewogene Karte erhalten.

welche massenhaften TMUs?

Spasstiger
2010-11-06, 14:34:45
Mein Kenntnisstand sind auch noch 64 TMUs, die aber evtl. Single-Cycle-fp16-fähig geworden sind wie beim GF104.

LovesuckZ
2010-11-06, 14:37:31
Es wird irgendwas zwischen 64 und 128 TMUs werden.

igg
2010-11-06, 14:43:56
Du hast TMU-seitig doch schon grenzperfektes AF bei NV. Was willst du da noch "auswiegen"? Die SGSSAA-Leistung?
Zum Beispiel.

derguru
2010-11-06, 14:46:54
die sgssaa leistung spielt in offziellen reviews absolut keine rolle,deshalb glaub ich auch das es beim 64er bleibt.

fondness
2010-11-06, 14:56:48
die sgssaa leistung spielt in offziellen reviews absolut keine rolle,deshalb glaub ich auch das es beim 64er bleibt.

Ich verstehe ohnehin nicht warum die Reviewer jetzt wo beide feines SGSSAA anbieten weiterhin mit SGMSAA vergleichen. Jahrelang wurde es gefordert, jetzt wird es ignoriert. Das wäre eine sehr gute Möglichkeit die Qualität in den Tests deutlich anzuheben, anstatt sie immer mehr zu senken.

derguru
2010-11-06, 14:58:12
tja,könnte man machen wenn amd sich mal dazu berappelt sgssaa auch unter dx10 aufwärts anzubieten.

fondness
2010-11-06, 15:12:49
tja,könnte man machen wenn amd sich mal dazu berappelt sgssaa auch unter dx10 aufwärts anzubieten.

AMD bietet auch kein MSAA unter DX10 aufwärts an, da es nicht mehr gestattet ist. Alles andere macht die Software, die haben SSAA leider auch noch nicht für sich entdeckt. Allerdings bin ich auch deiner Meinung das AMD hier ihre sture Haltung aufgeben sollte um auf die Konkurrenz zu reagieren und inoffiziell ein solches Tool zu bringen.

Aber um zum Ursprung zurück zu kommen, zumindest dort wo es machbar ist sollte man auch mit SSAA vergleichen.

Dural
2010-11-06, 15:13:41
Laut neliz ist die GTX580 nur in ausgesuchten Benchmarks mehr als 10-15 % schneller als eine GTX480


was auch logisch ist, da die technischen daten auch gar nicht mehr zulassen als eben die 15% im schnitt ;)

ich möchte viel lieber wissen wo und wie NV in gewissen benchmarks über die 15% kommen will/kann! am ende wird es wohl eine treiber sache sein die jedoch eigentlich alle fermi karten mit nehmen müsste :rolleyes:


was man von GF110 / GTX580 erwarten kann ist doch auch klar, ein Fermi wie er schon seit einem jahr auf dem markt hätte sein müssen, nicht mehr und nicht weniger!

beim GF100 ging wohl so einiges schief wie man jetzt mit GF110 gut sehen kann, dazu natürlich noch die 40nm problem-fertigung...

LovesuckZ
2010-11-06, 15:24:24
AMD bietet auch kein MSAA unter DX10 aufwärts an, da es nicht mehr gestattet ist.

:freak:

Und trotzdem verkaufen sie DX10.1 und DX11 kompartible Hardware. Die sollten mal verklagt werden wegen falschem Marketing. ;D


beim GF100 ging wohl so einiges schief wie man jetzt mit GF110 gut sehen kann, dazu natürlich noch die 40nm problem-fertigung...

Das einzige Problem mit 40nm waren die knappen Kapazitäten und die schlechten prozessbedingten Yields im letzten Jahr. Seit diesem Jahr gibt es keine Probleme - jedenfalls bei nVidia. Wenn AMD noch Supply-Probleme hat, dann sollten sie ihre Designs überdenken.

daywalker4536
2010-11-06, 15:34:43
AwesomeSauce, y33H@ meinte natürlich aus nvidia-Sicht.

Und wenn sich ATI auch bei Cayman 10% ercheatet durch mieses AF, wirds für nvidia wirklich schwer. Dann mussen sie halt auch in dem Bereich nachziehen.

Kann man sicher sagen das AMD die schnelleren Karten hat eben durch das herrunterfahren der Bildqualität?.

y33H@
2010-11-06, 15:36:44
AMD bietet auch kein MSAA unter DX10 aufwärts an, da es nicht mehr gestattet ist.Komisch, meine Radeon HD 5870 kann das ... nur muss es die App anfordern, das ist alles. Zumindest unter DX9 kann man AMD und NV mit 4x SGSSAA und LoD-Bias vergleichen, ja. AF halt nur bedingt.

fondness
2010-11-06, 15:39:30
Komisch, meine Radeon HD 5870 kann das ... nur muss es die App anfordern, das ist alles.

Du weißt wie es gemeint war. Ich habe doch geschrieben alles andere macht die Software, man kann es nicht mehr via Treiber erzwingen. Aber die Software könnte auch SSAA anfordern.

y33H@
2010-11-06, 15:41:49
NVs DX10/11-SGSSAA ist ein Hack. SGSSAA per App anfordern geht sicherlich, aber es macht halt keiner.

fondness
2010-11-06, 15:42:55
NVs DX10/11-SGSSAA ist ein Hack. SGSSAA per App anfordern geht sicherlich, aber es macht halt keiner.

Nichts anderes habe ich gesagt.

Black-Scorpion
2010-11-06, 18:34:36
:freak:

Und trotzdem verkaufen sie DX10.1 und DX11 kompartible Hardware. Die sollten mal verklagt werden wegen falschem Marketing. ;D
Was bezweckst du mit dem Beitrag eigentlich? Wenn es für dich zu hoch ist seinen Beitrag zu verstehen das lass es einfach.

Raff
2010-11-06, 18:40:00
Komisch, meine Radeon HD 5870 kann das ... nur muss es die App anfordern, das ist alles. Zumindest unter DX9 kann man AMD und NV mit 4x SGSSAA und LoD-Bias vergleichen, ja. AF halt nur bedingt.

Deine? ;)

Ich bin mir sicher, dass PCGH und CB bei den anstehenden Launches mit SGSSAA-Tests anrücken.

MfG,
Raff

y33H@
2010-11-06, 18:52:56
Welche Spiele + Settings wünscht ihr euch denn? 1680/1920 mit 4x SGSSAA in XYZ?

LovesuckZ
2010-11-06, 18:56:25
Ich wünsche mir Settings, die AMD auf das HQ-AF von nVidia bringen, ohne dass eine nVidiakarte SSAA haben muss.
Ich hoffe wirklich, dass man, wenn man schon SGSSAA von beiden vergleicht, nicht weiterhin das Cheat-AF auf beiden Seiten aktiviert lässt. Das wäre nicht nur absurd, sondern schon ziemlich bizarr.

Achja, wenn schon die Frage kommt: DX10 und DX11 Spiele reichen.

Raff
2010-11-06, 19:01:26
Nvidia: AF @ High Performance + Optis und LOD -1 für 8x SGSSAA
AMD: Quality-AF/A.I. Erweitert und Auto-LOD für 8x SGSSAA

:naughty:

Liefert auf beiden ein vergleichbares Bild und beide dürfen Samples fürs AF sparen. Das dient der Performance des SGSSAAs, welches wiederum gescheite Qualität sicherstellt. Insofern ist's nicht absurd, sondern eine Investition.

MfG,
Raff

y33H@
2010-11-06, 19:02:10
SGSSAA unter DX10/11 bei AMD ist gleichbedeutend mit "0 Fps" ... das solltest du wissen. Und Benches ohne AF, aber mit SGSSAA? Ich bitte dich, das ist Bullshit. Auch wenn AMDs AF klar schlechter ist als NVs HQ-AF, ich hab's beim Zocken dennoch an. Denn selbst nicht ganz so tolles AF ist besser als kein AF. Das, was die Intel-IGPs ausspucken, mal außen vor.

derguru
2010-11-06, 19:04:05
settings sind ok, spiele müssen ja dx9 sein.hmm dann das neue cod,serious sam hd,fallout 3 new vegas,arma 2 und noch eine mit der ut engine(mass effect 2 z.b.) warum nicht auch gothic 3.


edit:ist also fix das der cayman nicht besser filtert oder was?:rolleyes::tongue:

pXe
2010-11-06, 19:12:26
Welche Spiele + Settings wünscht ihr euch denn? 1680/1920 mit 4x SGSSAA in XYZ?

World of Warcraft, 1680, alles ingame auf max, 4xSGSAA, 16AF, evtl. noch lod bias bei Nvidia. Im DX9 Modus, an kritischen Stellen z.b. beim automatischen Rundflug der "Kraken am Hacken" Daily Quest in Eiskrone, oder bei einem Flug von Dalaran nach Fort Wildevar (auf jeden Fall durch die Grizzly Hügel, dort gibt es extreme viele/grosse Bäume).


pXe

LovesuckZ
2010-11-06, 19:17:01
Nvidia: AF @ High Performance + Optis und LOD -1 für 8x SGSSAA
AMD: Quality-AF/A.I. Erweitert und Auto-LOD für 8x SGSSAA

:naughty:

Liefert auf beiden ein vergleichbares Bild und beide dürfen Samples fürs AF sparen. Das dient der Performance des SGSSAAs, welches wiederum gescheite Qualität sicherstellt. Insofern ist's nicht absurd, sondern eine Investition.

MfG,
Raff

Ja, eine Investition in die Unspielbarkeit. Wer denkt, dass 8xSGSSAA mit vielen halbwegs neueren Spielen noch vernünftig performt, der irrt sich gewaltig. Selbst die Nature-Szene aus dem 3DMark2001 spuckt bei mir ganze 60 FPS mit 8xSGSSAA aus in 1080p aus. Und HP bringt ganze 10% mehr...

Ja, ein Fifa 11 klappt bestens mit SGSSAA. Aber selbst ein Dirt:2 in DX11 ist mit 4xSGSSAA schon an der Grenze...

Raff
2010-11-06, 19:18:57
Ja, eine Investition in die Unspielbarkeit. Wer denkt, dass 8xSGSSAA mit vielen halbwegs neueren Spielen noch vernünftig performt, der irrt sich gewaltig. Selbst die Nature-Szene aus dem 3DMark2001 spuckt bei mir ganze 60 FPS mit 8xSGSSAA aus in 1080p aus. Und HP bringt ganze 10% mehr...

Ja, ein Fifa 11 klappt bestens mit SGSSAA. Aber selbst ein Dirt:2 in DX11 ist mit 4xSGSSAA schon an der Grenze...

Das ist ein GeForce-Problem. Auf einer Radeon HD 5870 ist SGSSAA (wie erwähnt) besser nutzbar. Aber deswegen ja HP-AF, damit die Framerate so hoch wie möglich ist.

edit:ist also fix das der cayman nicht besser filtert oder was?:rolleyes::tongue:

Weniger Interpretieren, mehr Warten. ;)

MfG,
Raff

y33H@
2010-11-06, 19:21:18
@ derguru

PCGH hat Mass Effect 2, WoW und CoD MW im Parcours, die haben eh hohe Fps - das ist 4x SGSSAA ohnehin imo Pflicht. Ich zumindest bekomme ohne Augenkrebs ;D

LovesuckZ
2010-11-06, 19:22:36
Das ist ein GeForce-Problem. Auf einer Radeon HD 5870 ist SGSSAA (wie erwähnt) besser nutzbar. Aber deswegen ja HP-AF, damit die Framerate so hoch wie möglich ist.

MfG,
Raff

Nö, es ist ein Problem von allen. Nur weil du meinst, dass jeder mit 30 FPS klar kommt, muss es nicht stimmen. Lass doch mal Dirt:2 in DX9 durchlaufen. Ich komm mit SGSSAA auf ähnliche Werte wie 5870 User. Und 36 FPS sind nicht gerade toll spielbar.

derguru
2010-11-06, 19:34:23
Weniger Interpretieren, mehr Warten. ;)

MfG,
Raff

tsssssssss:D
@ derguru

PCGH hat Mass Effect 2, WoW und CoD MW im Parcours, die haben eh hohe Fps - das ist 4x SGSSAA ohnehin imo Pflicht. Ich zumindest bekomme ohne Augenkrebs ;D
ja das stimmt allerdings,obwohl es bei cod mit 4xsgssaa knapp wurde mit einer 5870.

y33H@
2010-11-06, 19:38:26
Ja, 19x12 mit 4x SGSSAA ist zu wenig - ich hatte es beim Launch in 25x16 mit 2x SGSSAA durch gezockt.

airbag
2010-11-06, 19:41:38
Risen hätte ich noch gerne. Mit 4*SGSSAA noch gut spielbar(auf High Endkarten), aber nicht allzu hohe FPS-werte

Fetza
2010-11-06, 19:48:25
Nö, es ist ein Problem von allen. Nur weil du meinst, dass jeder mit 30 FPS klar kommt, muss es nicht stimmen. Lass doch mal Dirt:2 in DX9 durchlaufen. Ich komm mit SGSSAA auf ähnliche Werte wie 5870 User. Und 36 FPS sind nicht gerade toll spielbar.

Genau deshalb bin ich teils so verwundert, wie sehr hier manche auf diese ganzen spielereien so stehen. Da nutze ich lieber 8xaa und spiele dafür mit 60 frames. Flüssiges gamen ist mir wichtiger, als ne diashow mit weniger shaderflimmern.

Gunslinger
2010-11-06, 20:08:00
Genau deshalb bin ich teils so verwundert, wie sehr hier manche auf diese ganzen spielereien so stehen. Da nutze ich lieber 8xaa und spiele dafür mit 60 frames. Flüssiges gamen ist mir wichtiger, als ne diashow mit weniger shaderflimmern.

Also ich möchte es nicht mehr missen. Gerade ältere Spiele lassen sich damit noch ordentlich aufhübschen. Das Spielgefühl ist IMO teilweise deutlich angenehmer als mit normalem AA.

Aktuell spiele ich zB Gothic 3 mit PCGH ini in 1920x1200 und 4xSSAA. Großteils wirklich gut spielbar.

http://666kb.com/i/bo5wmjd6wwfpibilq.jpg
http://666kb.com/i/bo5wwv8yuhkbemn72.jpg

derguru
2010-11-06, 20:16:35
uff das bild ist grauenhaft,machiger gehts fast gar nicht.

Gunslinger
2010-11-06, 20:28:01
uff das bild ist grauenhaft,machiger gehts fast gar nicht.

Sorry, jpeg.

Hier nochmal, hoffentlich etwas besser.

http://www.abload.de/thumb/sc22010-11-0619-57-33-d98c.png (http://www.abload.de/image.php?img=sc22010-11-0619-57-33-d98c.png)
http://www.abload.de/thumb/sc22010-11-0620-18-19-wynv.png (http://www.abload.de/image.php?img=sc22010-11-0620-18-19-wynv.png)

airbag
2010-11-06, 20:31:06
Matsch bleibt Matsch. Es ist nach wie vor genauso unscharf. ;)
LOD verstellen hilft nichts ?

Raff
2010-11-06, 20:36:40
HDR-Rendering aus, Bloom an = kein Matsch, keine blassen Farben. :) Depp of Feld macht das Bild auch weich.

MfG,
Raff

Gunslinger
2010-11-06, 20:46:43
HDR-Rendering aus, Bloom an = kein Matsch, keine blassen Farben. :) Depp of Feld macht das Bild auch weich.

MfG,
Raff

HDR ist aus, Depp ist an. :tongue:

Also bevor aktuelle Grafikkarten in alten Spielen Däumchen drehen, wie zB in Guild Wars oder HL2, hau ich lieber noch ordenlich SSAA drauf. Durch die Vielzahl der Konsolenports braucht man ohnehin meist nicht die Leistung aktueller Grafikkarten.

/ot Ende

LovesuckZ
2010-11-06, 21:10:27
nVidia veröffentlicht im Zuge des GTX580 Launches die "Endless City" Techdemo: http://www.geeks3d.com/20101106/test-nvidia-endless-city-gtx-580-dx11-tech-demo/

Startet nicht auf AMD Hardware. Gucken, ob GF10x User mehr Glück haben.

Raff
2010-11-06, 21:11:54
HDR ist aus, Depp ist an. :tongue:

Kurios. Dann muss es an der SC2.exe liegen. Mit der XR_3DA.exe (Stalker) hatte ich vor ein paar Monaten ein knackscharfes SSAA-Bild.

nVidia veröffentlicht im Zuge des GTX580 Launches die "Endless City" Techdemo: http://www.geeks3d.com/20101106/test-nvidia-endless-city-gtx-580-dx11-tech-demo/

Startet nicht auf AMD Hardware. Gucken, ob GF10x User mehr Glück haben.

Interessant, wie offenherzig da über ein NDA-Produkt zur Software geplaudert wird. Nun ja, Nvidia darf das.

Abartig:

• The demo positions and renders over 600 million triangles per second with a single GPU.

Ergo startet's wohl auf aktueller Radeon-Hardware, nur dauert es ein paar Minuten, bis das erste Bild kommt. ;D

MfG,
Raff

=Floi=
2010-11-06, 21:14:28
Welche Spiele + Settings wünscht ihr euch denn? 1680/1920 mit 4x SGSSAA in XYZ?

persönlich würde ich mir UT3 (wegen der weit verbreiteten engine) wünschen oder ein anderes game, welches mit SGSSAA ruhiggestellt wird. Es wäre nicht schlecht, wenn ihr mal ein paar kurze videos machen würdet, wo man die unterschiede (der flimmernden vegetation) in bewegung sieht.
Es würde imho viel bringen, wenn der laie auch mal schnell und einfach mitbekommen würde was ihm ohne AA eigentlich entgeht. Es wird immer die grafik mit der konsole verglichen, aber so kann man das eigentlich nicht machen, weil AA und TAA einfach zu viel bringt. Wenn man den blick auch für solche features schult, dann werden auch mehr leute darauf schauen.
Der unerschied zwischen keinem AA und perfektem TAA bis hin zum SSAA ist schon eklatant und sollte ruhig mal stärker fokussiert werden. Stupides 4xAA ohne TAA ist dagegen doch nur ein witz.

@LS
ist natürlich toll, dass ati bei DX9 schneller ist und man es deswegen nicht testen sollte. :rolleyes:

ich wünsche mir schon DX9 SGSSAA benchmarks. COD 5 oder ein anderer guter klassiker (welcher damit problemlos spielbar ist) wäre auch mal nice.


edit
raff könnte mal mit der 580er @ 900mhz den alten artikel überarbeiten, worin es um die maximale BQ bei spielen mit texturmod ging. leider finde ich den artikel gerade nicht.
Es ging darin um oblivion, HL2 und noch ein paar spielen mit texturmods und mit maximalen aa einstellungen.
das ist imho einer der besten artikel, weil er die leistungsfähigkeit der teuren und neuen karten in der praxis zeigt.

LovesuckZ
2010-11-06, 21:15:44
Interessant, wie offenherzig da über ein NDA-Produkt zur Software geplaudert wird.

Abartig:

• The demo positions and renders over 600 million triangles per second with a single GPU.

MfG,
Raff

Die Water-Demo erzeugt ebenfalls ca. 600 Millionen Dreiecke pro Sekunde (18,5 FPS bei 28 Millionen Dreiecke pro Frame).

Dural
2010-11-06, 21:59:53
DX9 benchmarks sind doch blödsinn mit solchen karten, DX11 und vieleicht einige ausgesuchte DX10 benchs wie zb. Crysis, alles andere interessiert nicht wirklich!

y33H@
2010-11-06, 22:07:32
Sprichst du generell von Benchmarks für die GTX 580? GTA IV ist auch DX9 und knüppelt bei maximalen Details alles nieder, Mafia II ebenfalls. DirectX 9 also als "Blödsinn" abzutun, ist Blödsinn.

Dural
2010-11-06, 22:14:07
ich kaufe keine neue High-End karte für irgend welche veralteten oder billige DX9 konsolen games... ;)

ich glaub meine GTX470 hat bis heute noch nie DX9 gesehen lol ;)

pXe
2010-11-06, 22:18:12
nVidia veröffentlicht im Zuge des GTX580 Launches die "Endless City" Techdemo: http://www.geeks3d.com/20101106/test-nvidia-endless-city-gtx-580-dx11-tech-demo/

Startet nicht auf AMD Hardware. Gucken, ob GF10x User mehr Glück haben.

Also auf GTX470 läufts, sieht aber sehr unspektakulär aus (Design, Artwork), das Water Tech Demo gefällt mir um längen besser.
Interessant: Tesslation an/aus kostet nur 10% fps (27->25), und in 1280x720 hab ich die gleichen fps (25) wie in 1680x1050.



pXe

y33H@
2010-11-06, 22:44:50
Die versuchen's aber auch jedes Mal ;D

Eine HD 5870 erreicht btw 92% einer GTX 480 ( = 100%) ... was im Mittel schon mal nicht hinkommt. Und HD 6870 hinter einer HD 5850? Ich weiß ja nicht ...

http://www.abload.de/thumb/2010-11-06_2241564oom.png (http://www.abload.de/image.php?img=2010-11-06_2241564oom.png)

http://www.gamezone.de/benchmarks.asp?sys=1

davidzo
2010-11-06, 22:45:10
ich kaufe keine neue High-End karte für irgend welche veralteten oder billige DX9 konsolen games... ;)

ich glaub meine GTX470 hat bis heute noch nie DX9 gesehen lol ;)

wie gut dass du nicht der durchschnitt bist. im schnitt spielen zocker derzeit denke ich weitaus mehr dx9 spiele als dx10 und x11 spiele zusammen. ja, es gibt viele große und auch top-aktuelle dx9 spiele für die man gerne auch noch etwas mehr grafikleistung hätte...
von daher - dx9 wird getestet, ob du willst oder nicht.

daywalker4536
2010-11-06, 23:10:00
ich kaufe keine neue High-End karte für irgend welche veralteten oder billige DX9 konsolen games... ;)

ich glaub meine GTX470 hat bis heute noch nie DX9 gesehen lol ;)

Und das ist traurig ^^

Hugo78
2010-11-06, 23:10:43
Die versuchen's aber auch jedes Mal ;D

Eine HD 5870 erreicht btw 92% einer GTX 480 ( = 100%) ... was im Mittel schon mal nicht hinkommt. Und HD 6870 hinter einer HD 5850? Ich weiß ja nicht ...

http://www.gamezone.de/benchmarks.asp?sys=1

Folg einfach mal der Adresse aus dem Impressum von Chipmeter.de, dann landest du bei einer entsprechend "beeindruckenden" Firmenzentrale. :biggrin:

y33H@
2010-11-06, 23:20:54
Falsches Impressum ;) Gamezone (Codezero AG (http://www.gamezone.de/impressum.asp)) sitzt in Neumarkter Str. 80, 81673 München:

http://www.abload.de/thumb/2010-11-06_231958ktvs.png (http://www.abload.de/image.php?img=2010-11-06_231958ktvs.png)

Wohl unter dem Gulli oder so ...

Hugo78
2010-11-06, 23:24:49
Bei den Balken steht doch powered by chipmeter.de. ;)

edit:
Aber ist seh grad Chipmeter und Codezero AG liegen keine 15min Fußweg von einander entfernt. :D

y33H@
2010-11-06, 23:30:10
Argl :usad: Dachte, von den stammt nur das Balkenlayout, nicht aber die Werte.

uweskw
2010-11-06, 23:35:11
Sorry, jpeg.

Hier nochmal, hoffentlich etwas besser.

[/URL][URL]http://www.abload.de/thumb/sc22010-11-0619-57-33-d98c.png (http://www.abload.de/image.php?img=sc22010-11-0619-57-33-d98c.png)


Gothic3@NV
sieht bei mir genauso aus, SSAA matscht das Bild und der Baumstamm-Wall links im Bild wird garnicht von AA erfasst.
Irgend jemand nen Tip was man da machen kann?

airbag
2010-11-06, 23:39:08
Gothic3@NV
sieht bei mir genauso aus, SSAA matscht das Bild und der Baumstamm-Wall links im Bild wird garnicht von AA erfasst.
Irgend jemand nen Tip was man da machen kann?


Bestimmte Post-Processing Effekte, wie Raff sagt ausmachen und LOD(inzwischen auch mit den 2xx Treibern möglich) ins Negative schieben.

uweskw
2010-11-07, 00:08:33
Schon alles probiert.
Hat bisher aber nix geholfen.
Diese Bereiche in denen AA oder selbst SSAA per Tool nicht greift hab ich auch in Mass-Effect 2

fondness
2010-11-07, 00:09:18
DX9 benchmarks sind doch blödsinn mit solchen karten, DX11 und vieleicht einige ausgesuchte DX10 benchs wie zb. Crysis, alles andere interessiert nicht wirklich!

Wir wissen schon das du und LovesuckZ nicht wollt das mit maximaler Bildqualität verglichen wird, weil ja dann NV hinten ist. Ich bin der letzte der an Kritik für AMDs peinliches AF spart, aber MSAA mit High-End-Karten zu vergleichen ist längst nicht mehr zeitgemäß. Jeder der die Leistung hat spielt mit dem deutlich besserem SSAA.

y33H@
2010-11-07, 00:10:12
Wo ist NV bei maximaler BQ hinten? Maximale BQ ist imo 8x SGSSAA mit LoD-Bias und HQ-AF, also NV.

EDIT
Ach du meinst Fps? Ja, das kann eine Radeon unter DX9 besser und unter DX10/11 gar nicht. Was nun? ;)

fondness
2010-11-07, 00:10:45
Die versuchen's aber auch jedes Mal ;D

Eine HD 5870 erreicht btw 92% einer GTX 480 ( = 100%) ... was im Mittel schon mal nicht hinkommt. Und HD 6870 hinter einer HD 5850? Ich weiß ja nicht ...

http://www.abload.de/thumb/2010-11-06_2241564oom.png (http://www.abload.de/image.php?img=2010-11-06_2241564oom.png)

http://www.gamezone.de/benchmarks.asp?sys=1

Kommt auf die Benchs drauf an. Im Grunde könnte die genau so hin kommen wie eure Werte. Aber das sie jetzt schon länger Werte der 6970 drinnen haben macht das ganze natürlich nicht gerade glaubwürdiger. ;D

fondness
2010-11-07, 00:12:58
Wo ist NV bei maximaler BQ hinten? Maximale BQ ist imo 8x SGSSAA mit LoD-Bias und HQ-AF, also NV.


Wenn du ein Pixel achtfach übersamplest sind die gesparten Samples bei AMD längst kein Argument mehr. Man kann als ausgleich natürlich auch bei NV die Filterqualität zurück schrauben wie Raff schon angedeutet hat. Aber bei negativen LoD-bias ist der Vorteil bei Nv-HQ eh nicht mehr vorhanden, weil der Filter dann äußerst seltsam filtert.

Und ohne einen ordentlichen Downsamplingfilter nützt dir das ohnehin nur begrenzt. Maximale Bildqualität ist deshalb ganz klar 8xSGSSAA/16xAF mit Tent-Downfilter, also AMD.


EDIT
Ach du meinst in Fps? Ja, das kann eine Radeon unter DX9 besser und unter DX10/11 gar nicht. Was nun? ;)

Was was nun? Ich habe ja gesagt wo man vergleichen kann sollte man auch die maximale Qualität wählen. Wo nicht geht es eh nicht.

y33H@
2010-11-07, 00:19:48
Wenn man den Tent dazu nimmst, hast du recht - eine bessere Kantenglättung gibt's nicht. Außer man misch bei NV 16xQ mit 8x SGSSAA (was iirc geht)?

fondness
2010-11-07, 00:23:13
Wenn man den Tent dazu nimmst, hast du recht - eine bessere Kantenglättung gibt's nicht. Außer man misch bei NV 16xQ mit 8x SGSSAA (was iirc geht)?

Never. Auch mit 100.000 Samples erreichst du nicht die Qualität eines Tent-Filters. Ein box-Filter kann Farbwerte eben nur pro Pixel zuordnen, und wird deshalb nie für lineare Übergänge sorgen können. Da machen mehr als vier bis acht Samples nicht mehr viel Sinn. Nur der Performanceeinbruch ist weiterhin linear.

y33H@
2010-11-07, 00:29:05
Also wird Crysis mit einem Cayman XT und 4x SGSSAA samt Tent-Filter erneut durchgespielt =)

LovesuckZ
2010-11-07, 00:34:03
Wir wissen schon das du und LovesuckZ nicht wollt das mit maximaler Bildqualität verglichen wird, weil ja dann NV hinten ist. Ich bin der letzte der an Kritik für AMDs peinliches AF spart, aber MSAA mit High-End-Karten zu vergleichen ist längst nicht mehr zeitgemäß. Jeder der die Leistung hat spielt mit dem deutlich besserem SSAA.

Ich spiel gerade Lost Planet 2 in DX11 mit 8xSGMSAA und 2xSSAA.
Und du? Bestmögliche BQ gibt es nur bei nVidia. :biggrin:

fondness
2010-11-07, 00:36:48
Also wird Crysis mit einem Cayman XT und 4x SGSSAA samt Tent-Filter erneut durchgespielt =)

Gerade Crysis ist dafür ein schlechtes Beispiel. Hier müsste man für ordentliches AA aus den Z-Werten lesen, was erst ab DX10.1 möglich ist. Und es sieht nicht so aus als ob hier noch ein update kommt. Da kann auch der Tent-Filter nur suboptimale Ergebnisse liefern.

airbag
2010-11-07, 00:40:33
16xQ mit 8x SGSSAA (was iirc geht)?
Geht nicht, weil nur 4MSAA Anteil
Aber 32xS mit 8SGSSAA geht

LovesuckZ
2010-11-07, 00:50:10
16xQ hat 8 Color-Samples.

airbag
2010-11-07, 01:30:27
Hab ausversehen 16xS gelesen.:redface:

horn 12
2010-11-07, 07:53:09
Sorry, wo bleiben die Infos zur Lanparty ?
Details zur GTX 580 ?

Hugo78
2010-11-07, 09:11:23
Hmm ...

Unreleased NVIDIA GPUs powering first showing of Call of Duty: Black Ops PC game play!
http://www.youtube.com/watch?v=oCPMHIDpT88

- Vapor chamber Kühlung
- db Angabe der Folie bezieht sich auf Crysis Warhead in 1920*1200
- Aliens vs. Triangles Tess Demo
If you see an alien like this, what you need to do with him? Shoooot him!! :D
- Endless City Tess Demo

boxleitnerb
2010-11-07, 09:32:35
Die City-Demo ist HAMMER! Vor allem hab ich kein Aufpoppen oder sowas gesehen wie es bei einem LOD-System sonst oft passiert.

Fetter Fettsack
2010-11-07, 10:11:09
Zitat von y33h@

Also wird Crysis mit einem Cayman XT und 4x SGSSAA samt Tent-Filter erneut durchgespielt

Haben sie denn nicht die Tent-Filter aus den neuen Treibern rausgeworfen? Oder willst du das mit pre 10.10 Catalyst Versionen machen (was doch eigentlich haarig bzgl. der neuen Hardware sein sollte, oder?)?

Dural
2010-11-07, 10:20:12
leiser als gtx285 mit 204watt tdp, das ist mal eine ansage!

die gtx580 scheint neben der gtx460 die zweite karte in einem jahr von nv zu sein die wohl rundum perfekt ist, ohne grosse mängel :)

Orbmu2k
2010-11-07, 10:22:32
Die VC erklärt auch dass die Karte 950Mhz mit dem auf den ersten Blick unspektakulären Kühler stabil packen soll.

Gekauft!

Dural
2010-11-07, 10:32:56
tja fermi rockt halt einfach, schon der gf100 war in dem bereich genial und die gf10x und jetzt gf110 setzten dank weniger verlustleistung noch mal deutlich was oben drauf.

die stock spanung von 1.012volt bei 772mhz ist ja auch mal eine ansage!

BigKid
2010-11-07, 11:05:21
Die VC erklärt auch dass die Karte 950Mhz mit dem auf den ersten Blick unspektakulären Kühler stabil packen soll.
Gekauft!
Jupp - nur wo :freak:

Fetter Fettsack
2010-11-07, 11:09:24
Steht auch irgendwo, was die Karte denn bei 950MHz so an Strom zur VVerfügung gestellt haben will? ^^

Raff
2010-11-07, 11:32:39
Haben sie denn nicht die Tent-Filter aus den neuen Treibern rausgeworfen? Oder willst du das mit pre 10.10 Catalyst Versionen machen (was doch eigentlich haarig bzgl. der neuen Hardware sein sollte, oder?)?

Auf HD-5000-Karten sind alle Tent-Downfilter noch drin, dafür fehlt Morph-AA. Auf einer HD 6000 ist letzteres drin, allerdings steht nur noch Bitch-Detect-CFAA zur Verfügung. All diese Schnitte kann man jedoch via Treiber-Inf-Modding auf allen Grafikkarten angleichen, sofern man das wünscht. :)

MfG,
Raff

Megamember
2010-11-07, 11:42:25
die stock spanung von 1.012volt bei 772mhz ist ja auch mal eine ansage!

Naja, damit schafft mein 480 fast 850MHZ.

Raff
2010-11-07, 11:44:19
Das ist aber keineswegs die Regel. Und für stabile 900 MHz brauchst du dann sowohl eine Spannungs- wie auch eine WaKüKeule.

MfG,
Raff

LovesuckZ
2010-11-07, 12:16:47
Hmm ...

Unreleased NVIDIA GPUs powering first showing of Call of Duty: Black Ops PC game play!
http://www.youtube.com/watch?v=oCPMHIDpT88

- Vapor chamber Kühlung
- db Angabe der Folie bezieht sich auf Crysis Warhead in 1920*1200
- Aliens vs. Triangles Tess Demo

- Endless City Tess Demo

Die Alien vs. Triangle Demo ist mal genial. Hoffentlich veröffentlichen sie die Demo. Wie das Alien Form verändert und wie "seamless" es in ineinander übergeht ist schon sehr hübsch.

/edit:

Wenn man die letzten 13 Monate mal überdenkt, dann ist es schon sehr ironisch, dass nVidia Tessellation wesentlich, wesentlich stärker forciert und pusht als AMD. Dabei hat Huddy doch nach der GTC 2009 im Hexus.net Forum geschrieben, dass nVidia DX11 und somit die Gamer ignorieren würde und Tessellation das "biggest Hardware Feature of DX11"* sei. Das ist dann doch schon ein ziemlicher PR Fail. Und das ganz ohne Mithilfe von nVidia.

*

(1) The positive mention of DX11 is a rarity in recent communications from NVIDIA - except perhaps in their messaging that 'DirectX 11 doesn't matter'. For example I don't remember Jensen or others mentioning tessellation (they biggest of the new hardware features) from the stage at GTC. In fact if reports are to be trusted only one game was shown on stage during the whole conference - hardly what I would call treating gaming as a priority!

(3) There's every reason to believe that NVIDIA is moving its focus away from gaming. I'll list just a few:

* Arguing against the relevance of DX11 is another.
[...]
* AMD is already working with games developers on over 20 forthcoming games which feature DX11 tech. NVIDIA has been nowhere to be seen! And we're doing that while offering the world's best support for DirectX 9, 10 and 10.1 games too!
http://forums.hexus.net/1806514-post28.html

Hugo78
2010-11-07, 12:40:12
Ja ... Alien vs. Triangle ist echt klasse.
Schade ist, dass Endless City dagegen so seltsame Texturen hat.
Hätte man hier eine Stadt aus weißem Marmor oder so gebastelt, würde man vermutlich auch mit Texturen den Detaillevel viel besser erkennen.

Der Wireframe Mode schaut jedenfalls beeindruckener aus.
http://i282.photobucket.com/albums/kk272/hugo78_2008/vlcsnap-2010-11-07-12h33m40s171.png

Gunslinger
2010-11-07, 12:55:00
wer vorbestellen will

http://www.yoyotech.co.uk/item-detail.php?products_id=4370723

sentinel_first
2010-11-07, 12:55:20
https://www.sabrepc.com/p-730-evga-nvidia-geforce-gtx-580-15gb-pci-express-20-x16-retail.aspx

Die 580 wird dann wohl preislich in die Fußstapfen der 8800GTX treten, 600€ FTW :biggrin:

LovesuckZ
2010-11-07, 12:59:29
Dort steht $499. Sollte normalerweise 450€ für Deutschland machen. Eine 8800GTX kostete 580€+. Also nicht ganz das selbe Niveau. ;)

Fetter Fettsack
2010-11-07, 13:03:48
Auf HD-5000-Karten sind alle Tent-Downfilter noch drin, dafür fehlt Morph-AA. Auf einer HD 6000 ist letzteres drin, allerdings steht nur noch Bitch-Detect-CFAA zur Verfügung. All diese Schnitte kann man jedoch via Treiber-Inf-Modding auf allen Grafikkarten angleichen, sofern man das wünscht.

Man dankt für die Aufklärung. :)

mironicus
2010-11-07, 13:20:20
Hmm... vielleicht gibt NVidia ja eine Preisempfehlung von 399 Euro für Europa vor (was imho gegenüber den fallenden 480er-Preisen sogar "gerecht" wäre). Wäre auch eine Kampfansage an AMD. Und AMD kontert mit einem Preis von 349 Euro für die 6970 und 279 Euro für die 6950. :D

*Träum* :D