PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GT400/GF100 - Q1/2010, DX11, CUDA 3.0 spam


Seiten : 1 2 3 [4]

Schlammsau
2010-03-25, 11:18:58
Wenn das stimmt mit den verschiedenen Taktraten, dann gibts Krieg. :flower:

Gast
2010-03-25, 11:19:49
Natürlich bringt Cypress GF100 ins Schwitzen. Logisch, bei einem Chip der komplett auf heutige Spiele abgestimmt ist und die "Zukunft" fast vollständig ignoriert.

Ja, die gesamte DX11 Unterstützung ist nur Software. Was für ein Quark. Aber ich vergaß, es zählt ja nur noch Geometrie, selbst wenn es vollkommen übertrieben ist wie beim Unigine-Demo "extrem". Hauptsache Dreiecke. Und selbst das läuft auf Cypress noch halbwegs brauchbar, daher kann ich mir heute schon sicher sein das es kein Spiel gegen wird wo ich einen sichtbaren Qualitätsverlust mit Cypress haben werde. Die Fermi Nutzer dürfen sich dann an nicht mehr sichtbaren "extrem" Feature aufgeilen.

Armaq
2010-03-25, 11:20:01
Wenn das stimmt mit den verschiedenen Taktraten, dann gibts Krieg. :flower:
Warum sollte es Krieg geben? Das wäre eine abgefuckte Masche von Nvidia, die aber nicht euer persönliches Wohlergehen bedroht, es sei denn ihr habt 100% eures Vermögens in AMD-Aktien.

Niall
2010-03-25, 11:20:38
Natürlich bringt Cypress GF100 ins Schwitzen. Logisch, bei einem Chip der komplett auf heutige Spiele abgestimmt ist und die "Zukunft" fast vollständig ignoriert.

Schon.
In meine Denkweise spielt da aber auch noch rein:
Wenn ich wirklich Enthusiast bin will ich die max. Performance, P/L, BQ jetzt.
Wenn in einem Jahr 50% der Spiele die Technologie ausreizt gibt’s schon wieder neue Karten die schneller, sparsamer etc. sind.

Vielleicht sehe ich das aber auch nicht »enthusiastisch« genug. :freak:

Chris

Gast
2010-03-25, 11:20:39
Natürlich bringt Cypress GF100 ins Schwitzen. Logisch, bei einem Chip der komplett auf heutige Spiele abgestimmt ist und die "Zukunft" fast vollständig ignoriert.
Wenn du schon in der Zukunft lebst, dann kannst du uns bestimmt auch verraten, in welchen Spielen in den nächsten 2-3 Jahren der GF100 dem RV870 so meilenweit überlegen ist. Und sag bitte nicht Metro, das wissen wir schon ;)

Gast
2010-03-25, 11:21:43
Wo steht denn das mit den unterschiedlichen Taktraten von Presse-Samples und den Retail-Karten? Kann jemand das nochmal verlinken. Auch wenn ich NV wirklich vieles zutraue, mag ich das nicht glauben. Damit würden sie jegliche Glaubwürdigkeit und jeden Respekt zurecht verlieren.

Amboss
2010-03-25, 11:23:16
das mit den Taktraten traue ich denen zu. Schon den G200 gab es in verschiedenen Strukturgrößen 65 u. 55nm, 192 oder 216 SPs und verschiedenen Stromsparmechanismen, das schlimme daran: Beides wurde unter dem ein und selben Produktnamen verkauft -> GTS 250, GTX260 u.a. Eine 65nm 192 GTX260 ist fast unverkäuflich in der Bucht, dumm wenn man als Unwissender zu so einer Karte gegriffen hat.

Gast
2010-03-25, 11:24:35
ah jetzt 12. April? :rolleyes:

und die Möglichkeit dass die Takraten der retail Dinger niedriger sind als jene der Review-Samples.

Sollte sich das bewahrheiten, dann können sie sich aber auf was gefasst machen. Dann ist die Kacke nämlich echt am dampfen in der Community :mad:

Aber nvidia traue ich persönlich alles zu. Verschleiern & tricksen an allen Ecken und Enden. Ein Wahnsinn :eek:

Sowas muss man tun, wenn man einfach nicht eingestehen kann, das man verloren hat, egal in welcher Form :)

LovesuckZ
2010-03-25, 11:25:28
Ja, die gesamte DX11 Unterstützung ist nur Software. Was für ein Quark. Aber ich vergaß, es zählt ja nur noch Geometrie, selbst wenn es vollkommen übertrieben ist wie beim Unigine-Demo "extrem". Hauptsache Dreiecke. Und selbst das läuft auf Cypress noch halbwegs brauchbar, daher kann ich mir heute schon sicher sein das es kein Spiel gegen wird wo ich einen sichtbaren Qualitätsverlust mit Cypress haben werde. Die Fermi Nutzer dürfen sich dann an nicht mehr sichtbaren "extrem" Feature aufgeilen.

Du versteht es nicht: Laut nVidia wird GF100 immer pixellimitiert sein, da die Geometriebrechnungen und -erzeugungen in einem wesentlich schnelleren Verhältnis abgearbeitet werden kann.
Ich würde außerdem jetzt ja auch auf CS5.0 verweisen, um zu sehen wie stark sich das neue Cache-System auswirkt und dabei wieder Metro2033 aus der Kiste holen, aber dann wirft man mir hier ja vor, dass ich nur selektiv die Spiele auswähle. Also wohl doch wieder zurück zu Crysis, dass weder Tessellation noch CS einsetzt. :(

Wo steht denn das mit den unterschiedlichen Taktraten von Presse-Samples und den Retail-Karten? Kann jemand das nochmal verlinken. Auch wenn ich NV wirklich vieles zutraue, mag ich das nicht glauben. Damit würden sie jegliche Glaubwürdigkeit und jeden Respekt zurecht verlieren.

Das ganze geht aus einem Shopeintrag hervor, wo nur diese Zahl stand: 625Mhz.
Das dies auch der Core-Takt sein könnte - nunja, solche Kleinigkeiten kann man auch ignorieren. :lol:

aylano
2010-03-25, 11:28:38
Wenn das stimmt mit den verschiedenen Taktraten, dann ...
..., dann gibts neben Hard- & Paper-Launch dann noch den Fake-Launch.

Gast
2010-03-25, 11:29:29
Natürlich bringt Cypress GF100 ins Schwitzen. Logisch, bei einem Chip der komplett auf heutige Spiele abgestimmt ist und die "Zukunft" fast vollständig ignoriert.

AMD hatte da mit NV auch eine guten Lehrer. Jahrelang waren ihre Architekturen nur bis zur nächsten Gen zu gebrauchen. Das hat dich aber damals natürlich nicht gestört. Jetzt haben wir die skurrile Situation das es womöglich genau umgekehrt sein wird, und ähnlich wie bei R580 vs. G71 könnte Fermi letztlich der Stromverbrauch das Genick brechen. Da selbst die GTX470 bei 215W liegt ist eine Dual-Karte wohl völlig unrealistisch. Außerdem scheint die Tesslationsleistung von Cypress so schlecht nicht zu sein wie manche hier tun. "For free" gibt es gar nichts und selbst der Unigine-Bench der ja nun wirklich nicht mit Tesslation spart läuft überwiegend flüssig.

Amboss
2010-03-25, 11:31:13
..., dann gibts neben Hard- & Paper-Launch dann noch den Fake-Launch.

Nein ,die gibt es dann bei Alternate u. anderen Shops als limitierte und 100 Euro teurere "Review Edition" zu kaufen :biggrin:

Gast
2010-03-25, 11:31:34
Das steht auf der Shopseite Übersetz mit Google
XFX GTX480 Eckwerte
Graphics Properties
Desktop-Klasse

Display Chip-Typ
GeForce GTX 480

Display-Chip-Serie
Nvidia GeForce GTX 480

Speicherkapazität (MB)
1536

Memory Interface (bit)
384

Core-Frequenz (MHz)
625

Grafik-Kern-Code
GF100

Chip Entscheidungsprozess
40 nm
http://product.yesky.com/product/606/606348/param.shtml

mironicus
2010-03-25, 11:34:49
Wird ja immer interessanter. In letzter Sekunde werden noch mal die Spezifikationen geändert (was laut Fudzilla die Verzögerung auf den 12.4 erklären soll). Die betreffen aber bestimmt nicht die Review-Karten (sind ja alle von NVidia selbst).

250 Watt TDP durch die Herabsetzung auf 625 MHz...? ;)
Review-Karten mit mehr Takt...? :D
Eine 250 Watt-TDP Karte dürfte imho unmöglich 280+ Watt (laut Leaks) bei normalen Spielen ziehen, das kann nur zutreffen, wenn die Review-Karte höher getaktet ist und insgesamt eine höhere TDP hat.

LovesuckZ
2010-03-25, 11:35:18
AMD hatte da mit NV auch eine guten Lehrer. Jahrelang waren ihre Architekturen nur bis zur nächsten Gen zu gebrauchen. Das hat dich aber damals natürlich nicht gestört.

Abgesehen von NV3x geschah es auch nur mit r580 und G71. Daneben steht G80 und r600. Soviel dazu.D
Daher keine Ahnung was du willst, aber das Trollen geht schon wieder los. Ich bin raus bis zum Launch.

Ronny145
2010-03-25, 11:35:25
jetzt rechnest noch einen anteil von pro-nv spiele, die 10.3a catalyst und den umstand, dass die folien direkt von nvidia stammen dazu, wu bist du dann ;)


Ausgehend von den 22% mit Cat 10.2, würden die spekulierten 15-20% im Durchschnitt somit ganz gut passen mit Cat 10.3.

Gast
2010-03-25, 11:36:47
Du versteht es nicht: Laut nVidia wird GF100 immer pixellimitiert sein, da die Geometriebrechnungen und -erzeugungen in einem wesentlich schnelleren Verhältnis abgearbeitet werden kann.
Ich würde außerdem jetzt ja auch auf CS5.0 verweisen, um zu sehen wie stark sich das neue Cache-System auswirkt und dabei wieder Metro2033 aus der Kiste holen, aber dann wirft man mir hier ja vor, dass ich nur selektiv die Spiele auswähle. Also wohl doch wieder zurück zu Crysis, dass weder Tessellation noch CS einsetzt. :(

Du schreibst ich verstehe es nicht, kommst dann mit einer nichtssagenden Floskel und schweifst auf CS um. Nein, dass muss man wohl auch nicht verstehen. Das nennt man dann wohl Aktionismus. Es bleibt dabei das man mit Cypress Spiele mit Tesslation flüssig spielen kann. Wenn Fermi immer Pixellimitiert wäre müsste es Tesslation "for free" geben, daran glaube ich nicht.

Bei CS wirst du ohnehin noch dein blaues Wunder erleben, weil die Rechenleistung einfach nicht da ist.



Das ganze geht aus einem Shopeintrag hervor, wo nur diese Zahl stand: 625Mhz.
Das dies auch der Core-Takt sein könnte - nunja, solche Kleinigkeiten kann man auch ignorieren. :lol:

Ja, das finde ich auch lächerlich. Die Pressesamples werden sich mit Sicherheit nicht von den ausgelieferten Produkten unterscheiden. Ansonsten würde sich NV nur selbst schaden.

MiamiNice
2010-03-25, 11:39:11
Wenn ich wirklich Enthusiast bin will ich die max. Performance, P/L, BQ jetzt.

Falsch, wen Du wirklich Enthusiast bist, interessiert Dich P/L gar nicht. Vielleicht sollten ein paar Leute mal nachlesen was "High-End" und " Enthusiast" eigendlich bedeutet.

Gast
2010-03-25, 11:41:01
Wird ja immer interessanter. In letzter Sekunde werden noch mal die Spezifikationen geändert (was laut Fudzilla die Verzögerung auf den 12.4 erklären soll). Die betreffen aber bestimmt nicht die Review-Karten (sind ja alle von NVidia selbst).

250 Watt TDP durch die Herabsetzung auf 625 MHz...? ;)
Review-Karten mit mehr Takt...? :D
Eine 250 Watt-TDP Karte dürfte imho unmöglich 280+ Watt (laut Leaks) bei normalen Spielen ziehen, das kann nur zutreffen, wenn die Review-Karte höher getaktet ist und insgesamt eine höhere TDP hat.

Das kann sich nichtmal nV leisten, muss ein Fehler seitens XFX sein.

derguru
2010-03-25, 11:43:19
Falsch, wen Du wirklich Enthusiast bist, interessiert Dich P/L gar nicht. Vielleicht sollten ein paar Leute mal nachlesen was "High-End" und " Enthusiast" eigendlich bedeutet.
richtig wenn du Enthusiast wärst dann hättest du schon im oktober eine oder mehrere 5870 karten denn so bleibt nur noch der begriff fanboy übrig:wink:

Gast
2010-03-25, 11:45:55
Ja und diese 15-20% wären auch eine solide Leistung und das Mindeste was man in Anbetracht des wahrscheinlichen Preises auch erwarten muss, aber alles andere als spektakulär oder überragend.

Meiner persönlichen Meinung nach dennoch zuwenig, da deutlich höherer Preis, deutlich höhere Leistungsaufnahme sowohl im Idle als auch unter Last, wahrscheinlich deutlich höherer Temperaturen und angesichts der puren technischen Voraussetzungen. Das Performance/mm² Verhälnis von NV ist im Vergleich mit AMD jedenfalls wirklich nur als schlecht zu bezeichen. Nicht auszudenken wenn AMD mal eine GPU in ähnlicher Größe wie die typischen NV-Gpus bauen würde und dieses dann auch noch so gut wie RV770 oder CypressXT umsetzen würde.

mironicus
2010-03-25, 11:47:10
Am besten wäre es, wenn man einfach mit den Tests so lange wartet, bis die ersten Retail-Karten auch tatsächlich auf dem Markt sind. :D

Amboss
2010-03-25, 11:48:44
Am besten wäre es, wenn man einfach mit den Tests so lange wartet, bis die ersten Retail-Karten auch tatsächlich auf dem Markt sind. :D
Bei den ständigen Verschiebungen warten wir dann aber noch 1-2 Monate...

mapel110
2010-03-25, 11:52:28
richtig wenn du Enthusiast wärst dann hättest du schon im oktober eine oder mehrere 5870 karten denn so bleibt nur noch der begriff fanboy übrig:wink:
Es gibt genügend Gründe, keine Radeon in den Rechner zu stecken. Allein schon der Rückschritt im AF im Vergleich zur Geforce kann abschrecken. Der wirkt sich schließlich in JEDEM Game aus.

MiamiNice
2010-03-25, 11:53:56
richtig wenn du Enthusiast wärst dann hättest du schon im oktober eine oder mehrere 5870 karten.

Jo, ich bin aber keiner. Mich interessiert nur High-End. Also das Produkt mit dem längsten Balken (single GPU) und mit den für mich besten Features. Für mich z.b. ist der Physikteil der NV Karten interessanter als z.b. 6 Monis anschliessen zu können. So hat jeder seine Präferenzen.

denn so bleibt nur noch der begriff fanboy übrig

ui, Fanboykeule FTW. Jeder der nicht der roten Religion huldigt ist ein Fanboy, schon klar ...

mironicus
2010-03-25, 11:59:20
Also ich wette, dass es am 27.3. massive Bestellungen für 5870 Karten geben wird (da auch 100 Euro billiger und momentan ganz gut verfügbar). Den Mehrpreis für den Performanceunterschied werden bestimmt nicht alle bezahlen wollen. Auch das Treiberupdate von ATI dürfte einiges gut machen in den kommenden Tests.

Wenn die GTX 480 preislich auf dem Niveau der 5870 liegen würde, wäre das wohl anders. Nicht ATI muss/wird die Preise senken, wohl eher NVidia.

N0Thing
2010-03-25, 12:00:30
Wird ja immer interessanter. In letzter Sekunde werden noch mal die Spezifikationen geändert (was laut Fudzilla die Verzögerung auf den 12.4 erklären soll). Die betreffen aber bestimmt nicht die Review-Karten (sind ja alle von NVidia selbst).

250 Watt TDP durch die Herabsetzung auf 625 MHz...? ;)
Review-Karten mit mehr Takt...? :D
Eine 250 Watt-TDP Karte dürfte imho unmöglich 280+ Watt (laut Leaks) bei normalen Spielen ziehen, das kann nur zutreffen, wenn die Review-Karte höher getaktet ist und insgesamt eine höhere TDP hat.

Nur weil ein Shop ein copy&paste Fehler gemacht hat, würde ich noch nicht darauf schließen, daß es Unterschiede zwischen Review-Karten und Verkaufskarten geben wird. So etwas wird keine Firma machen, damit bricht man sich doch nur selbst das Genick.

AMC
2010-03-25, 12:00:39
Es gibt genügend Gründe, keine Radeon in den Rechner zu stecken..

Mir fällt nur einer ein: Die mittelprächtigen Catalyst...


Allein schon der Rückschritt im AF im Vergleich zur Geforce kann abschrecken. Der wirkt sich schließlich in JEDEM Game aus.

:facepalm: Trollpost? :rolleyes: Hast Du eine HD5xxxx im Rechner? Nein? Dann halt Dich doch einfach mal raus. Ich lege selbst viel mehr Wert auf AF als auf AA, würde ich auf etwas verzichte müssen, würde ich immer AA wählen. Ich habe mich getraut meine erste Radeon seit 7 Jahren auf meinen Rechner loszulassen und kann diesen Kritikpunkt nicht mehr nachvollziehen. Wenn es Unterschiede im AF ggü. G80 gibt, so habe ich sie mit bloßem Auge und im Spiel in der Bewegung nicht mehr sehen können (von 8800GTX hochgerüstet), wenn welche vorhanden sind (und das scheint ja so zu sein), dann sind es akademische Unterschiede, die keine Praxisrelevanz für den Spieler besitzen. ATT saugen, 16AF und High-Q-AF per ATT aktivieren, A.I. deaktivieren und Du hast wunderschönes AF.

Sven77
2010-03-25, 12:03:32
...

Ist doch schön wenn du es nicht siehst :)

Amboss
2010-03-25, 12:06:14
Also ich wette, dass es am 27.3. massive Bestellungen für 5870 Karten geben wird (da auch 100 Euro billiger und momentan ganz gut verfügbar). Den Mehrpreis für den Performanceunterschied werden bestimmt nicht alle bezahlen wollen. Auch das Treiberupdate von ATI dürfte einiges gut machen in den kommenden Tests.

Wenn die GTX 480 preislich auf dem Niveau der 5870 liegen würde, wäre das wohl anders. Nicht ATI muss/wird die Preise senken, wohl eher NVidia.

Nvidia kann gar nicht die Preise tief genug senken, um wirtschaftlich profitabel gegen AMD konkurrieren zu können, alleine schon weil deren GPU deutlich größer und dadurch teurer ist. Hinzu kommt das aufwendigere Platinenlayout (Stromversorgung, Kühlung), sowie Stromverbrauch etc. Setzt man dem ganzen eine eher geringe Mehr-Performance entgegen (für eine komplett neue Architektur ist der Zugewinn schlecht, für einen Refresh G200 währ es noch akzeptabel), sieht es für NV zur Zeit schlecht aus. Die geringe Wafer-Ausbeute tut ihr übriges. Und zu guter Letzt: Ein halbes Jahrs später als die Konkurrenz und dann so ein Ergebnis..

Gast
2010-03-25, 12:06:39
Wenn es Unterschiede im AF ggü. G80 gibt, so habe ich sie mit bloßem Auge und im Spiel in der Bewegung nicht mehr sehen können (von 8800GTX hochgerüstet), wenn welche vorhanden sind (und das scheint ja so zu sein), dann sind es akademische Unterschiede, die keine Praxisrelevanz für den Spieler besitzen. ATT saugen, 16AF und High-Q-AF per ATT aktivieren, A.I. deaktivieren und Du hast wunderschönes AF.
Tja, das scheinen viele eben zu vergessen. Diese "großen" Unterschiede die hier immer erwähnt werden sind in einem Spiel in den meisten Fällen doch eh nicht spürbar. Außer man spielt Shooter nur auf Optik, schaut nur auf Wände und Treppen und vergisst dabei, auf den Gegner zu schießen und stirbt die ganze Zeit. Mit der besten Messtechnik wird man immer Unterschiede erkennen, aber im laufenden Spiel sind das doch nur Nuancen. Kann mir hier keiner erzählen, dass er den Unterschied zwischen 8xAF und 16xAF in einem Shooter auf hard mit vielen Gegnern erkennen kann.

Gast
2010-03-25, 12:13:38
Natürlich sieht das keiner, aber man braucht halt immer was um gegen die verhasste Konkurrenzfirma zu schießen. Also wenn einem nichts mehr einfällt, dann kommt man halt immer mit den angeblich katastrophalen Catalyst-Treibern oder den Augenkrebs verursachendem AF. Beides natürlich absolut übertreiben und aufgebauscht aus reinen Biased-Gründen.

Wie wirklich schlechte und teilweise kartenkillende Treiber aussehen, hat NV ja erst kürzlich bewiesen.

mironicus
2010-03-25, 12:14:16
Macht NVidia dann wohl momentan Verluste, wenn sie die GTX 480 für 450 Euro verkaufen?

Sorkalm
2010-03-25, 12:18:00
Macht NVidia dann wohl momentan Verluste, wenn sie die GTX 480 für 450 Euro verkaufen?

Sicherlich nicht, 450€ ist doch noch ein ganz ordentlicher Preis. Genau kann man das aber eh nicht sagen, solange man nicht weiß wie die Entwicklungskosten umgelegt werden. Der Deckungsbeitrag ist sicher noch sehr lange positiv, auch bei niedrigeren Preisen. ;)

Gast
2010-03-25, 12:19:22
Ob sie Verlust machen oder nicht kann dir wohl keiner außer NV sagen, aber ich glaube das 500-550€ realistischer sind. Je nach Verfügbarkeit und letztendlicher Leistung können daraus sogar auch mal schnell 600€ werden.

MiamiNice
2010-03-25, 12:21:06
Hab das kleine Comic hier gerade gefunden, und musste an den Thread hier denken:
http://www.spiegel.de/fotostrecke/fotostrecke-53066.html



Treffer und versenkt.

mironicus
2010-03-25, 12:22:59
Wenn man bedenkt, wie die Nachfrage bei ATI die unverbindliche Preisempfehlung nach oben getrieben hat, dürfte es bei den neuen NVidia-Karten wohl kaum anders sein. Da erübrigt sich wohl die Frage, ob man sofort zuschlagen sollte, oder mit der Hoffnung wartet, dass die Preise nach einigen Wochen sinken werden.

Andererseits: Wieviel Leute waren denn in der Lage tatsächlich 6 Monate zu warten, und wieviele haben sich letztendlich doch eine ATI geholt, weil sie nicht warten konnten? Vielleicht ist die Nachfrage nach den NVidia-Karten dann doch nicht so hoch...?

derguru
2010-03-25, 12:37:22
Es gibt genügend Gründe, keine Radeon in den Rechner zu stecken. Allein schon der Rückschritt im AF im Vergleich zur Geforce kann abschrecken. Der wirkt sich schließlich in JEDEM Game aus.
ach welche gründe denn noch?abgesehen davon das das af auf nv standard ist und das 99% der user das auch verwenden.
auch wenn man noch nichts offzielles über den fermi weiß so wird es sicherlich mehr gründe geben keinen fermi zu kaufen und wer weiß schon wie das af sich da verhält.;)(selbst wenn es HQ gibt,mal schauen was dann noch performance übrig bleibt)und in dx9 titeln ist af kein thema dank sgssaa.
Jo, ich bin aber keiner. Mich interessiert nur High-End. Also das Produkt mit dem längsten Balken (single GPU) und mit den für mich besten Features. Für mich z.b. ist der Physikteil der NV Karten interessanter als z.b. 6 Monis anschliessen zu können. So hat jeder seine Präferenzen.

ui, Fanboykeule FTW. Jeder der nicht der roten Religion huldigt ist ein Fanboy, schon klar ...

du sowieso was nicht schlimm ist.;)

Hab das kleine Comic hier gerade gefunden, und musste an den Thread hier denken:
http://www.spiegel.de/fotostrecke/fotostrecke-53066.html
sehr schön:up:

Gast87
2010-03-25, 12:53:03
@derguru:

Ich hab auch mit dem Kauf gewartet um mich dann,wenn beide Hersteller ihre DX11-karten auf dem Markt haben, für das beste zu entscheiden.

Bin ich jetzt deiner Meinung nach ein Fanboy ?!?

Niall
2010-03-25, 12:57:44
Das geht’ hier immer ab wie beim Fußball. :ubash:
Da ist der besser, da der und im Endeffekt vergessen die meisten,
dass es hier um Technologien geht die allen offen zur Verfügung stehen.

(Klar, kostet was, nur generell ist es ja nicht so, dass es für die
ATI/AMD Liebhaber keine Möglichkeit gibt auf den anderen Zug zu springen
sofern er schneller, effektiver etc. fährt. Gleiches natürlich für die nVidia Fraktion.)

Warum schaut nicht einfach jeder mal gebannt hin was da jetzt kommt und freut sich. So oder so bringt es niemandem irgendeinen existenziellen Nachteil! Außer man fährt noch mit einer Kiste die langsamer ist und mehr Energie verbraucht. Klar. :D

derguru
2010-03-25, 12:59:31
@derguru:

Ich hab auch mit dem Kauf gewartet um mich dann,wenn beide Hersteller ihre DX11-karten auf dem Markt haben, für das beste zu entscheiden.

Bin ich jetzt deiner Meinung nach ein Fanboy ?!?
ohmann :rolleyes:,es ging um Enthusiast.was hat das mit dir zutun?

richtig wenn du Enthusiast wärst dann hättest du schon im oktober eine oder mehrere 5870 karten denn so bleibt nur noch der begriff fanboy übrig:wink:

LovesuckZ
2010-03-25, 13:00:34
Das geht’ hier immer ab wie beim Fußball. :ubash:
Da ist der besser, da der und im Endeffekt vergessen die meisten,
dass es hier um Technologien geht die allen offen zur Verfügung stehen.

(Klar, kostet was, nur generell ist es ja nicht so, dass es für die
ATI/AMD Liebhaber keine Möglichkeit gibt auf den anderen Zug zu springen
sofern er schneller, effektiver etc. fährt. Gleiches natürlich für die nVidia Fraktion.)

Warum schaut nicht einfach jeder mal gebannt hin was da jetzt kommt und freut sich. So oder so bringt es niemandem irgendeinen existenziellen Nachteil! Außer man fährt noch mit einer Kiste die langsamer ist und mehr Energie verbraucht. Klar. :D

Warum sollte man denn auch bis morgen warten? Spammen, Trollen und Flamen kann man doch schon heute. :rolleyes:

Dimon
2010-03-25, 13:04:09
:facepalm: Trollpost? :rolleyes: Hast Du eine HD5xxxx im Rechner? Nein? Dann halt Dich doch einfach mal raus. Ich lege selbst viel mehr Wert auf AF als auf AA, würde ich auf etwas verzichte müssen, würde ich immer AA wählen. Ich habe mich getraut meine erste Radeon seit 7 Jahren auf meinen Rechner loszulassen und kann diesen Kritikpunkt nicht mehr nachvollziehen. Wenn es Unterschiede im AF ggü. G80 gibt, so habe ich sie mit bloßem Auge und im Spiel in der Bewegung nicht mehr sehen können (von 8800GTX hochgerüstet), wenn welche vorhanden sind (und das scheint ja so zu sein), dann sind es akademische Unterschiede, die keine Praxisrelevanz für den Spieler besitzen. ATT saugen, 16AF und High-Q-AF per ATT aktivieren, A.I. deaktivieren und Du hast wunderschönes AF.

Also ich sehe nicht viel von deinen hochgelobten AF der ATI´s, Fallout 3 Flimmert wie verrückt, und ja ich bin von einer 8800GTX auf HD4890 umgestiegen und werde mir nächstesmal ein Geforce holen wenn das mit den ATI´s so weitergeht....

Wird das Review dann um 00:01 Uhr am Fr. auf der PCGH Website erscheinen?

Gast
2010-03-25, 13:07:05
@LZ

Was gerade du dich immer melden musst, wenn es um den ganzen Fanboy-Quatsch geht ist mir ein Rätsel. Also ich sag mal so, wenn du nicht gerade bei NV arbeitest oder einiges an Kapital in NV-Aktien gebunden hast, dann würde ich dir schon raten mal über eine Therapie nachzudenken.

Gast
2010-03-25, 13:08:26
Warum sollte man denn auch bis morgen warten? Spammen, Trollen und Flamen kann man doch schon heute. :rolleyes:

Na wenn du meinst ;-)


Erster Leak :

Fermi Konstruktion Kit - 500 €
2 Arbeitszyklen pro Takt

http://www.reinkreativ.de/images/product_images/original_images/67_0.jpg

Raff
2010-03-25, 13:08:59
Mir fällt nur einer ein: Die mittelprächtigen Catalyst...



:facepalm: Trollpost? :rolleyes: Hast Du eine HD5xxxx im Rechner? Nein? Dann halt Dich doch einfach mal raus. Ich lege selbst viel mehr Wert auf AF als auf AA, würde ich auf etwas verzichte müssen, würde ich immer AA wählen. Ich habe mich getraut meine erste Radeon seit 7 Jahren auf meinen Rechner loszulassen und kann diesen Kritikpunkt nicht mehr nachvollziehen. Wenn es Unterschiede im AF ggü. G80 gibt, so habe ich sie mit bloßem Auge und im Spiel in der Bewegung nicht mehr sehen können (von 8800GTX hochgerüstet), wenn welche vorhanden sind (und das scheint ja so zu sein), dann sind es akademische Unterschiede, die keine Praxisrelevanz für den Spieler besitzen. ATT saugen, 16AF und High-Q-AF per ATT aktivieren, A.I. deaktivieren und Du hast wunderschönes AF.

Kurz: nein. Lang:

Das Radeon-AF sieht bei fiesen Textur- und Shader-Inhalten scheiße aus. Meine Definition von scheiße, die sich "rein zufällig" mit objektiver Qualitätsbetrachtung deckt = Unterfilterung (zu wenige AF-Samples, weil das schneller ist) und Bri-Banding (trilinear weg, weil das schneller ist). Wir haben 2010, AF gibt's im Endkundenmarkt seit rund 10 Jahren, da muss das echt nicht sein, nur um den längsten Balken zu haben. A.I. abzuschalten hat auf einer Radeon HD 5000 praktisch keine Auswirkungen ... mal abgesehen davon, dass erwünschte Fixes damit sterben. X-D Nvidias Treiberstandard flimmert zwar ähnlich (in Extremfällen weniger!), aber hier hat man wenigstens mit dem HQ-Modus die Möglichkeit, das AF siginifkant zu entflimmern, ohne dass es Nebenwirkungen gibt.

Ja, Supersampling hilft der Radeon zu gutem AF (meistens sogar zu sehr gutem ~48x AF), aber was mache ich, wenn die Leistung nicht reicht oder das Spiel DX10/11 nutzt? Mich kotzt das zeitweise arg an.

MfG,
Raff

Jake Dunn
2010-03-25, 13:09:07
Natürlich bringt Cypress GF100 ins Schwitzen. Logisch, bei einem Chip der komplett auf heutige Spiele abgestimmt ist und die "Zukunft" fast vollständig ignoriert.

So ein Quatsch, wann soll das denn eintreffen? Ich mein die Zukunft, in ein oder zwei Jahren?

Da gibt es längst neue Karten die sowieso schneller sind ;)

Gast
2010-03-25, 13:09:39
@Dimon

Er redete auch von der HD5xxx Serie, bei der das AF deutlich verbessert wurde und außerdem ist Fallout 3 in der Beziehung auch ein Problemfall (auch auf Geforce).

Gast
2010-03-25, 13:11:39
Ja, Supersampling hilft der Radeon zu gutem AF (meistens sogar zu sehr gutem ~48x AF)

Sorry, aber wer braucht zum Spielen denn wirklich 48x AF? Als ob man da noch Unterschiede erkennen würde...

Gast
2010-03-25, 13:11:51
Also ich sehe nicht viel von deinen hochgelobten AF der ATI´s, Fallout 3 Flimmert wie verrückt, und ja ich bin von einer 8800GTX auf HD4890 umgestiegen und werde mir nächstesmal ein Geforce holen wenn das mit den ATI´s so weitergeht....

Auch schon mal die 5er Serie probiert?
die Flimmerneigung ist nämlich geringer.
Bei Fallout 3 kannst du ja eh SSAA reinknallen, dann interessiert dich das AF nicht mehr. :)

Dimon
2010-03-25, 13:13:20
@Dimon

Er redete auch von der HD5xxx Serie, bei der das AF deutlich verbessert wurde und außerdem ist Fallout 3 in der Beziehung auch ein Problemfall (auch auf Geforce).

Ok ich bezog mich auf meine HD4890, und nein auf den Geforces Flimmert AF nicht so krass wie auf der Radeon, und auch innerhalb von Texturen (Shader Aliasing) wid besser gefiltert und es flimmert nicht so furchterregend :biggrin:

Gruß

Gast
2010-03-25, 13:15:01
Ok ich bezog mich auf meine HD4890, und nein auf den Geforces Flimmert AF nicht so krass wie auf der Radeon, und auch innerhalb von Texturen (Shader Aliasing) wid besser gefiltert und es flimmert nicht so furchterregend :biggrin:

Gruß
Seit wann kann das AF Shaderaliasing eliminieren?

Dimon
2010-03-25, 13:15:02
Auch schon mal die 5er Serie probiert?
die Flimmerneigung ist nämlich geringer.
Bei Fallout 3 kannst du ja eh SSAA reinknallen, dann interessiert dich das AF nicht mehr. :)

Ja ich überleg hin und wieder mal meine HD4890 wegzugeben und eine HD5770 zu holen :usad:

Alleine schon wegen Supersampling :)

Seit wann kann das AF Shaderaliasing eliminieren?

Sry ich bezog mich auf AA...

Armaq
2010-03-25, 13:15:21
Kurz: nein. Lang:

Das Radeon-AF sieht bei fiesen Textur- und Shader-Inhalten scheiße aus. Meine Definition von scheiße, die sich "rein zufällig" mit objektiver Qualitätsbetrachtung deckt = Unterfilterung (zu wenige AF-Samples, weil das schneller ist) und Bri-Banding (trilinear weg, weil das schneller ist). Wir haben 2010, AF gibt's im Endkundenmarkt seit rund 10 Jahren, da muss das echt nicht sein, nur um den längsten Balken zu haben. A.I. abzuschalten hat auf einer Radeon HD 5000 praktisch keine Auswirkungen ... mal abgesehen davon, dass erwünschte Fixes damit sterben. X-D Nvidias Treiberstandard flimmert zwar ähnlich (in Extremfällen weniger!), aber hier hat man wenigstens mit dem HQ-Modus die Möglichkeit, das AF siginifkant zu entflimmern, ohne dass es Nebenwirkungen gibt.

Ja, Supersampling hilft der Radeon zu gutem AF (meistens sogar zu sehr gutem ~48x AF), aber was mache ich, wenn die Leistung nicht reicht oder das Spiel DX10/11 nutzt? Mich kotzt das zeitweise arg an.

MfG,
Raff
BQ ist zwar nicht diskutierbar, aber wenn amn ein Spiel wirklich spielt, dann fällt flimmern nur in Extremfällen auf. in GTA IV hilft zB gar nichts. :D

Raff
2010-03-25, 13:15:29
Sorry, aber wer braucht zum Spielen denn wirklich 48x AF? Als ob man da noch Unterschiede erkennen würde...

Ati spart bei 16:1 AF an einigen Stellen sehr viele Samples. Mit Supersampling wird an diesen Stellen erst gescheite Qualität erreicht, an anderen wird sie auf 32:1 (+4x SSAA) bis 48:1 AF (+8x SSAA) angehoben. 48x oder 64x AF ist erst bei starken Texturverzerrungen sichtbar. Die Flimmerberuhigung dank SSAA sieht man aber immer.

MfG,
Raff

Jake Dunn
2010-03-25, 13:19:00
Ja ich überleg hin und wieder mal meine HD4890 wegzugeben und eine HD5770 zu holen :usad:

Alleine schon wegen Supersampling :)



Keine schlecht Idee, da du praktisch 1:1 tauschen kannst, mit Vor- und Nachteilen ^^

Schafft ein HD5770 4xSGSSAA in deiner Auflösung überhaupt?

Gast
2010-03-25, 13:19:24
Kurz: nein. Lang:

Das Radeon-AF sieht bei fiesen Textur- und Shader-Inhalten scheiße aus. Meine Definition von scheiße, die sich "rein zufällig" mit objektiver Qualitätsbetrachtung deckt = Unterfilterung (zu wenige AF-Samples, weil das schneller ist) und Bri-Banding (trilinear weg, weil das schneller ist). Wir haben 2010, AF gibt's im Endkundenmarkt seit rund 10 Jahren, da muss das echt nicht sein, nur um den längsten Balken zu haben. A.I. abzuschalten hat auf einer Radeon HD 5000 praktisch keine Auswirkungen ... mal abgesehen davon, dass erwünschte Fixes damit sterben. X-D Nvidias Treiberstandard flimmert zwar ähnlich (in Extremfällen weniger!), aber hier hat man wenigstens mit dem HQ-Modus die Möglichkeit, das AF siginifkant zu entflimmern, ohne dass es Nebenwirkungen gibt.

Ja, Supersampling hilft der Radeon zu gutem AF (meistens sogar zu sehr gutem ~48x AF), aber was mache ich, wenn die Leistung nicht reicht oder das Spiel DX10/11 nutzt? Mich kotzt das zeitweise arg an.

MfG,
Raff

Kauf dir eine Fermi, da wird das Flimmern mit Dreiecken geklättet

y33H@
2010-03-25, 13:19:41
@ Armaq

Im Gegenteil: Je intensiver ein Spiel, desto mehr stört Flimmern und Aliasing, da es die Illusion nachhaltig ruiniert.

Dimon
2010-03-25, 13:21:09
Keine schlecht Idee, da du praktisch 1:1 tauschen kannst, mit Vor- und Nachteilen ^^

Schafft ein HD5770 4xSGSSAA in deiner Auflösung überhaupt?

Da bin ich absolut überfragt, da ich zurzeit nur Fallout 3 mit mods zocke denke ich das ich mit der HD5770 glücklich werden könnte, OC kann man ja mit ihr auch noch betreiben :biggrin:

Aber im allgemeinen wäre das Kärtle doch langsamer wie mein jetziges ;)

Gast
2010-03-25, 13:22:48
@ Armaq

Im Gegenteil: Je intensiver ein Spiel, desto mehr stört Flimmern und Aliasing, da es die Illusion nachhaltig ruiniert.
das liegt ja wohl definitiv im auge des betrachters

LovesuckZ
2010-03-25, 13:23:20
So ein Quatsch, wann soll das denn eintreffen? Ich mein die Zukunft, in ein oder zwei Jahren?

Da gibt es längst neue Karten die sowieso schneller sind ;)

Metro2033 beschleunigt bzw. verbessert DoF über CS5.0 und setzt am stärksten von allen Spielen Tessellation ein. Metro2033 ist also schon die Zukunft in unserer Gegenwart.
Auch soll GF100's Cache Architektur das Global Illumination (wird auch in Metro2033 eingesetzt) deutlich beschleunigen.
Keine Ahnung also wieso Metro2033 soviel Fud abbekommt.

Gast
2010-03-25, 13:29:40
@LZ

Mal eine Frage an dich. Hast du Metro 2033 überhaupt schon mal gespielt und wenn ja auch unter DX11? Du scheinst ja der absolute Experte zu sein und erklärst ja praktisch in jedem zweiten Satz Metro 2033 zum Nabel der Welt.
Außerdem scheinst du auch noch ein Experte bezüglich der zukünftigen Entwicklung der Spiele-Industrie zu sein.

Jake Dunn
2010-03-25, 13:31:18
Da bin ich absolut überfragt, da ich zurzeit nur Fallout 3 mit mods zocke denke ich das ich mit der HD5770 glücklich werden könnte, OC kann man ja mit ihr auch noch betreiben :biggrin:

Aber im allgemeinen wäre das Kärtle doch langsamer wie mein jetziges ;)

Vlt. kann ja Raff o.ä. was sagen wie es mit der 5770er in F3 ausschaut bei SSAA.

Metro2033 beschleunigt bzw. verbessert DoF über CS5.0 und setzt am stärksten von allen Spielen Tessellation ein. Metro2033 ist also schon die Zukunft in unserer Gegenwart.
Auch soll GF100's Cache Architektur das Global Illumination (wird auch in Metro2033 eingesetzt) deutlich beschleunigen.
Keine Ahnung also wieso Metro2033 soviel Fud abbekommt.

4x Metro2033 in eine Post, hast du ein Hotkey dafür angelegt? :freak:

GI ist garnicht aktiv in dem Game.

Ich sehe z.b. die CryEngine3 in Zukunft, da kommen sicher mehr brauchbare Game als mit der 4A Engine...

Gast
2010-03-25, 13:31:59
Keine Ahnung also wieso Metro2033 soviel Fud abbekommt.


Weil Features nunmal nicht alles sind? Ich verwette meine tote Oma, dass Spiele kommen werden, die die in Metro gezeigten Techniken in vergleichbarer oder besserer Qualität umsetzen werden und dies auch noch wesentlich performanter.

Armaq
2010-03-25, 13:32:30
@ Armaq

Im Gegenteil: Je intensiver ein Spiel, desto mehr stört Flimmern und Aliasing, da es die Illusion nachhaltig ruiniert.
In gut erzählten Geschichten vielleicht, aber nicht wenn ich zB SC2 zocke. Dann will ich gewinnen, bin so konzentriert, dass ich nicht mal mit meiner Freundin sprechen kann und dann sch*** ich auf fehlendes AA. Das ist aber nur ein Beispiel.

LovesuckZ
2010-03-25, 13:32:31
Irgendwie schade, dass dieses Forum durch die ganzen Trolle aus den anderen Foren dank dem Gastaccount immer weiter im Niveau absinkt. Eine vernünftige Diskussion über GF100? Unmöglich. Eine vernünftige Diskussion über Spiele, wo GF100 schneller sein könnte? Unmöglich.
Traurig. Wirklich traurig. :(

MiamiNice
2010-03-25, 13:32:31
Keine Ahnung also wieso Metro2033 soviel Fud abbekommt.

Liegt doch wohl auf der Hand. Das Spiel nutzt massiv Feature´s die den ATI Karten nicht schmecken oder welche die ATI erst gar nicht an Board hat. Ist doch klar das man das kaputtreden muss. Pöses Metro -.- Eigendlich schade, das Spiel ist nämlich klasse.

LadyWhirlwind
2010-03-25, 13:37:31
Metro ist meiner Meinung nach kein unabhängiges Spiel, sondern für für Nvidia Karten programmiert um zu zeigen, was die Karten können. Es stellt meiner Meinung nach nicht das dar, was die durchschnittlichen Spiele in absehbarer Zukunft verwenden werden.

derguru
2010-03-25, 13:38:59
Ati spart bei 16:1 AF an einigen Stellen sehr viele Samples. Mit Supersampling wird an diesen Stellen erst gescheite Qualität erreicht, an anderen wird sie auf 32:1 (+4x SSAA) bis 48:1 AF (+8x SSAA) angehoben. 48x oder 64x AF ist erst bei starken Texturverzerrungen sichtbar. Die Flimmerberuhigung dank SSAA sieht man aber immer.

MfG,
Raff

frag mich warum ati´s af mehr leistung verbraucht obwohl es sample einspart vorallem weil deutchlich mehr füllrate zur verfügung steht.entweder kriegt das amd nicht gebacken oder nv ist weltmeister im cheaten.

y33H@
2010-03-25, 13:39:39
@ Armaq

SC2 im MP ist jmo auch ein mieses Beispiel. Nimm halt Stalker oder Metro.

Armaq
2010-03-25, 13:39:55
Irgendwie schade, dass dieses Forum durch die ganzen Trolle aus den anderen Foren dank dem Gastaccount immer weiter im Niveau absinkt. Eine vernünftige Diskussion über GF100? Unmöglich. Eine vernünftige Diskussion über Spiele, wo GF100 schneller sein könnte? Unmöglich.
Traurig. Wirklich traurig. :(
Deine Fragestellung ist aber auch verzerrt. Du suchst fast krampfhaft nach Vorteilen, diese ergeben sich ab Samstag doch von alleine. Insgesamt wissen wir bereits, dass der Chip die Erwartungen nicht erfüllt, weil er in Teilbereichen sehr nachgelassen hat. Auch im Vergleich zu den Vorgängern.

Der Vergleich zur 5870 kann eigentlich erst nach Launch erfolgen.

Edit: Warum ist SC2 ein mieses Beispiel? Wird wahrscheinlich eines der bestverkauften PC-Spiele überhaupt werden. In Metro ist mir die Schlechtigkeit von ATI nicht aufgefallen, da mich das Setting zu sehr fasziniert hat. Auch hatte ich kein Stuttering etc. pp., von daher war es, auch auf einer ATI, ein tolles Spiel.

Schlammsau
2010-03-25, 13:40:35
Liegt doch wohl auf der Hand. Das Spiel nutzt massiv Feature´s die den ATI Karten nicht schmecken oder welche die ATI erst gar nicht an Board hat. Ist doch klar das man das kaputtreden muss. Pöses Metro -.- Eigendlich schade, das Spiel ist nämlich klasse.

Alsoo ich sehe gerade nur, dass die aktuelle GeForce Generation mächtig zu kämpfen hat, mit dem Titel. ;)
Eine GTX285 kackt unter DX10 mächtig ab. :freak:

Das sollte dir zu denken geben. ;)

Iruwen
2010-03-25, 13:41:52
Warum deutlich mehr als man allgemein erwartete. Ich finde diese Bench-Werte alles andere als beeindruckend, zumal es NV interne Ergebnisse mit Cat. 10.2 seien sollen. Wenn ich bedenke, dass Cat. 10.3a für HD58xx bei Dirt2 20%, bei HAWX 15%, bei Crysis/WH 6%, bei Battleforge 8% usw. zulegt, dann bleiben für die GTX480 wahrscheinlich durchschnittlich nur 15% über.

Und wenn man die absoluten Werte (http://hardocp.com/article/2010/03/19/amds_ati_catalyst_103a_driver_performance) zu den Prozentzahlen sieht wird einem erstmal klar wie lächerlich das überhaupt ist. Betrifft sowohl die Treibersteigerungen als auch Fermis Vorsprung. Vor allem in den interessanten Bereichen um und unter 30FPS.

AMC
2010-03-25, 13:42:50
Eine vernünftige Diskussion über Spiele, wo GF100 schneller sein könnte? Unmöglich.
Traurig. Wirklich traurig. :(

Eine vernünftige Diskussion über Spiele, wo GF100 langsamer sein könnte? Unmöglich. Traurig. Wirklich traurig. :(

Gast
2010-03-25, 13:43:04
Vernünftige Diskussion das ich nicht lache. Das einzige was du willst ist eine einzige Jubelorgie auf GF100 die jegliche Probleme oder gar Kritik verschweigt und ja Metro 2033 ist ein gutes Game, aber auch nicht mehr als das.

Ich nehme mal an, dass die potenziellen Käufer einer GTX480 diese weder nur für Metro 2033 kaufen noch vorhaben nur dieses zu spielen. GF100 wird in Metro 2033 wesentlich besser performen als HD5870 und damit habe ich überhaupt kein Problem, aber du/ihr setzt es einfach auf einen Trohn der diesem Game nicht gebührt und das nur aus Gründen der eigenen Bias.

Nazar
2010-03-25, 13:45:11
Liegt doch wohl auf der Hand. Das Spiel nutzt massiv Feature´s die den ATI Karten nicht schmecken oder welche die ATI erst gar nicht an Board hat. Ist doch klar das man das kaputtreden muss. Pöses Metro -.- Eigendlich schade, das Spiel ist nämlich klasse.

Welche weltbewegenden oder spielbeeinflussenden Effekte bietet Mültro2033 denn, welche ATI Besitzern, dass Spielerlebnis in Mültro2033 vermiest?
Das hier allen ernstes mit einem Schlauchlevelkonsolenport die Features eines Fermi hochgehalten werden, lässt nichts gutes erahnen.

Mültro2033 ist ein sehr schlechtes Spiel (gemessen an den übertriebenen Bewertungen.. kenne nur eine Bewertung die in etwa das wiedergibt was Mültro2033 bietet.. ein 6.9).
Aber Geschmäcker dürfen ja (ausser hier :rolleyes:) verschieden sein!

Armaq
2010-03-25, 13:48:05
Ok, der ATI-Bias ist langsam pervers. Schlammsau und Nazar gehen mir richtig auf den Kranz.

Gast87
2010-03-25, 13:48:08
ohmann :rolleyes:,es ging um Enthusiast.was hat das mit dir zutun?

äh, ich will doch auch Enthusiast, entweder HD 5870 oder GTX 480 ...

darum gings doch, bin auch ich ein Fanboy weil ich erst abwarte und mich DANN entscheide ?

Tesseract
2010-03-25, 13:52:16
Seit wann kann das AF Shaderaliasing eliminieren?
schon immer weil texturwerte mögliche eingangsparameter der shader sind.
"eliminieren" ist zwar nicht ganz der richtige ausdruck aber je flimmeranfälliger die texturfilterung ist, umso flimmeranfälliger sind auch die meisten shader.

LovesuckZ
2010-03-25, 13:57:38
Insgesamt wissen wir bereits, dass der Chip die Erwartungen nicht erfüllt, weil er in Teilbereichen sehr nachgelassen hat. Auch im Vergleich zu den Vorgängern.


Ich habe überhaupt noch keine vertrauensvollen Zahlen gesehen. Trotzdem wird hier nur getrollt und gespammt. nVidia ging mit GF100 einen anderen Weg als AMD. Laut ihnen wäre GF100 bei Tessellation meisten immer pixellimitiert. Geometrie und Tessellation scheinen GF100 kaum etwas auszumachen. Das ist nicht krampfhaft nach einem Vorteil suchen - das ist nun leider mal die Wahrheit und Tatsache der Architektur. Genauso auch das neue Cache-System, dass anscheinend wesentliche Berechnungen deutlich beschleunigen soll. Metro2033 ist ein Spiel, dass zu den ganzen Pixelberechnungen eben auch diese, durch DX11 zur Verfügung gestellten, Effekte realisiert.
Ich sehe hier nur, wie AMD Fanboys gegen DX11 sind. Das lässt tief blicken, nach den ganzen DX10.1 Diskussionen.

pXe
2010-03-25, 14:01:09
Gibt es denn Vergleichsvideos von Metro mit/ohne Tesselation etc.?
So viel wie hier darüber geschrieben wird, könnte man meinen es wäre eine göttliche Offenbarung das Spiel.

pXe

y33H@
2010-03-25, 14:03:29
@ Armaq

Weil SC2 imo ein MP-Titel ist, der nicht von Optik und Atmo lebt. Im Gegensatz zu einem Stalker oder Metro.

tombman
2010-03-25, 14:04:45
Vernünftige Diskussion das ich nicht lache. Das einzige was du willst ist eine einzige Jubelorgie auf GF100 die jegliche Probleme oder gar Kritik verschweigt und ja Metro 2033 ist ein gutes Game, aber auch nicht mehr als das.

Ich nehme mal an, dass die potenziellen Käufer einer GTX480 diese weder nur für Metro 2033 kaufen noch vorhaben nur dieses zu spielen. GF100 wird in Metro 2033 wesentlich besser performen als HD5870 und damit habe ich überhaupt kein Problem, aber du/ihr setzt es einfach auf einen Trohn der diesem Game nicht gebührt und das nur aus Gründen der eigenen Bias.
Metro2033 wird doch nicht auf einen Trohn gesetzt, weil das Spiel so toll ist, sondern nur als INDIKATOR für Tesselationsleistung.
Heaven 2.0 extreme wird auch so ein Indikator sein.
Genauso wie 2007 Crysis ein Indikator war und es sogar heute noch ist.
Da gehts NICHT um gameplay.

Falls Fermi wirklich soviel besser tesselieren kann, ist das schon eine bemerkenswerte Aussage, die man nicht dadurch unter
den Tisch kehren SOLLTE, indem man die einzelnen Spiele abwertet, weil sie einem persönlich nicht gefallen mögen.

Ob krasse Tess. Perf. heutzutage generell schon wichtig ist, ist 'ne andere Frage...

Nazar
2010-03-25, 14:05:47
Ok, der ATI-Bias ist langsam pervers. Schlammsau und Nazar gehen mir richtig auf den Kranz.

Rofl.. mei bist du schee!
ATI Bias?
Weshalb?
Weil ich eine ATI im PC stecken habe?
Pssst... komm mal näher... ja.. noch näher!
*vorsichtig umschau*
Im Zweitrechner steckt eine GTX8800.. aber pssst.. nicht weitersagen.. sonst darf ich kein ATI Bias mehr verbreiten?

Unter uns Gebetsschwestern:
Lerne mit der Meinung andere zu leben. Es wird kaum einen Menschen auf der Welt geben, der je zu 100% Deiner Meinung sein wird.

Auch als ich "nur" eine GTX8800 im Hauptrechner hatte, war ich ähnlich kritisch gegenüber nV, wie jetzt.
Im Gegensatz zu Dir und ein paar anderen, ist es mir nämlich Latte ob eine Karte "Grün" oder "Rot" ist. Der "Bumms" muss stimmen.

Der Fermi hat bisher nicht das gehalten, was man sich (ich mir) erhofft hat (oh scheiße, ein ATI Fanboy, der gehofft hat, dass nV ein gutes Stück HW auf den Markt wirft.. steinigt ihn *mit wattenbällchen werf*).

Auch stehe ich immer noch negativ dem schlechten AF von ATI gegenüber, nur finde ich die härte im Ton, um die Diskussion darum falsch.
Auch ist mir der AI kack ein Dorn im Auge.
ABER
Deswegen werde ich nicht blind und fange an mich an Kleinigkeiten zu klammern oder sinnbefreite Vergleiche zu spamen. Nur weil diese Fehler existieren, versuche ich nicht auf Fehler bei nV hinzuweisen und umgekehrt.
Das alles ist mir latte.
Ich werde aber, egal wen es betrifft, nicht müde darauf hinzuweisen, wenn solche "unnötigen" Vergeliche stattfinden oder ein "Versagen" als "der GRoße Wurf" hingestellt wird.

Diese ständigen Vergleiche mit Metro2033 schaden dem Fermi mehr, als es ihm gut tut. Nur merken das einige nicht. Auch das ständig der Tesselationhammer ausgepackt wird, zeigt eigentlich nur, dass der Fermi -von einigen Fanboys- nur in diesen beiden Abteilungen gut zu seien scheint.
Merkt ihr eigentlich nicht, dass das was hier eine "Grüne" tun, Negativwerbung ist?
Ist der Fermi wirklich so schlecht, dass nur noch Tesselation und Metro2033 zählen?
Ich HOFFE doch nicht (scheiße dass ein ATI Fanboy auf sowas hofft) :rolleyes:

Nazar
2010-03-25, 14:11:21
Gibt es denn Vergleichsvideos von Metro mit/ohne Tesselation etc.?
So viel wie hier darüber geschrieben wird, könnte man meinen es wäre eine göttliche Offenbarung das Spiel.

pXe

Ich meine auf PCGH Vergleiche gesehen zu haben.
Mir persönlich gefällt Metro2033 untesseliert wesentlich besser.
Mit Tesselierung wirken viele Objekte wie aufgeblasen, auch werden die Texturen verzerrt.
Optisch ist es kein Gewinn.

N0Thing
2010-03-25, 14:16:45
Metro ist meiner Meinung nach kein unabhängiges Spiel, sondern für für Nvidia Karten programmiert um zu zeigen, was die Karten können. Es stellt meiner Meinung nach nicht das dar, was die durchschnittlichen Spiele in absehbarer Zukunft verwenden werden.


Dafür läuft das Spiel mit einer HD5850 deutlich besser als mit einer GTX285, selbst eine HD4890 liegt vor der GTX285. Nur für Nvidia kann das Spiel also nicht entwickelt worden sein.
Einen Rückschluß auf alle zukünftigen Spiele kann man anhand von Metro auch nicht ziehen, aber einen Eindruck welche Feature einer Karte mehr oder weniger liegen bekommt man vermutlich schon.

Hakkerstiwwel
2010-03-25, 14:19:06
Die Performance in Metro sagt etwas über....die Performance in Metro, und gibt bestenfalls einen Hinweis darauf wie Fermi unter Einsatz von Tesselation und CS unter den von Metro vorgegebenen Rahmenbedingungen performt.
Laut der vor einigen Seiten geleakten Slides soll Fermi 44% schneller als HD 5870 in Metro sein..wieviel davon auf performatere Tesselation oder anderes zu schieben ist, bleibt wohl abzuwarten.

BTW....die 44% erscheinen hoch sind aber gemessen am Hype/gegenHype nichts als Peanuts.

Gast
2010-03-25, 14:19:13
@tombman

Tesselation unter den Tisch kehren will auch niemand und es fällt mir überhaupt nicht schwer zuzugeben, dass NV da offensichtlich sehr gute Arbeit geleistet hat und dadurch AMD zwingt bei Tesselation nachzulegen, aber LZ mit seinem ständigen Übertreibungen ist einfach nicht mehr auszuhalten.

Wie du schon sagst, wann und ob sich Tesselation in dieser Stärke durchsetzt kann niemand sicher sagen (außer LZ natürlich) und wenn es benutzt wird will ich auch mal einen signifikanten BQ-Unterschied sehen, gerade weil es dermaßen viel Performance schluckt.

derguru
2010-03-25, 14:20:41
Tessellation-Vergleich in Metro (http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/)

Gibt es denn Vergleichsvideos von Metro mit/ohne Tesselation etc.?
So viel wie hier darüber geschrieben wird, könnte man meinen es wäre eine göttliche Offenbarung das Spiel.
pXe

aber nicht lachen:wink:

urfaust
2010-03-25, 14:20:49
Jo, ich bin aber keiner. Mich interessiert nur High-End.

ich bin kein Hetero (Enthusiast), mich interessieren nur Frauen (High-End)

Guten Morgen!
:facepalm:

Ok, der ATI-Bias ist langsam pervers


seit den letzten Leaks ist die Penetranz der NVler aber auch ganz
schön gewachsen...
Warum können wir uns nicht einfach darauf einigen, dass wir alle
gleich scheiße sind? Punkt. :love:

Metro2033

hier glänzt die GTX480 aber auch nicht gerade,
die FPS sind für einen 3D-Shooter schlichtweg inakzeptabel

Gast
2010-03-25, 14:22:26
Ich möchte den Unterschied vor allem mal bei bewegten Bildern sehen. Wenn einen 10 Zombies angreifen und man wenig Munition hat, weil man die fürs nächste Upgrade sparen muss, dann interessiert auch Tessellation nicht. Das interessiert dann höchstens, wenn man den Leuten in den Gesprächen auf die Ohren oder Hände schaut und dafür die Bildschirmlupe benutzt.

derguru
2010-03-25, 14:23:19
das musst du gar nicht in bewegung vergleichen selbst auf bildern ist das ein witz.(das gilt für alle games mit tess also auch die von amd aber wenigstens sind die spielbar)

Gast
2010-03-25, 14:25:11
Aber ich denke das Metro kein gutes Beispiel ist, würde ich eher als verhunzt betrachten, da geht sicher viel mehr und mit viel weniger Ressourcen Hunger.

Btw versteh ich nicht was man hat, die Leute die jetzt eine Ati haben sind gut bedient und müssen nicht traurig sein und die die sich einen Fermi kaufen ebenso, am Ende sollten alle Happy sein, es gibt keinen Grund zur Annahme man hätte was falsch gemacht. Die Karten sind beide gleich stark, die Unterscheide die es gibt sind so gering das man sie nicht bemerkt, weil man hin und wieder Blinzeln muss beim Spielen :)

MiamiNice
2010-03-25, 14:27:30
ich bin kein Hetero (Enthusiast), mich interessieren nur Frauen (High-End)

Guten Morgen!
:facepalm:


Jo, vielleicht schlägst Du die beiden Wörter mal nach.

:facepalm:

€: :ududen: soll helfen ^^

Jake Dunn
2010-03-25, 14:28:30
Die Performance in Metro sagt etwas über....die Performance in Metro, und gibt bestenfalls einen Hinweis darauf wie Fermi unter Einsatz von Tesselation und CS unter den von Metro vorgegebenen Rahmenbedingungen performt.
Laut der vor einigen Seiten geleakten Slides soll Fermi 44% schneller als HD 5870 in Metro sein..wieviel davon auf performatere Tesselation oder anderes zu schieben ist, bleibt wohl abzuwarten.

BTW....die 44% erscheinen hoch sind aber gemessen am Hype/gegenHype nichts als Peanuts.
Eine 5870iger bringt mit allem auf max. ~14 FPS und das sind dann um 20 FPS für die GTX480 :uwave:

mapel110
2010-03-25, 14:28:59
ach welche gründe denn noch?:
Was hat ATI für die Bildqualität unter DX10/DX11 getan mit der 5000er Generation? Bessere AF-Blume(von der man in der Praxis fast nichts hat, siehe HT4U-Videos) und das wars.
Bei nvidia wirds wesentlich besseres TransparenzAA geben und noch ein zusätzliches AA, über das man bisher wenig weiß.
Klingt für mich in dem Bereich also wesentlich interessanter.

Hakkerstiwwel
2010-03-25, 14:29:16
Eine 5870iger bringt mit allem um 14 FPS und das sind dann um 20 FPS für die GTX480 :uwave:
Spielbar?
//edit
wieviel der Mehrperformance ist der schnelleren Tesselation zuzuschreiben?

Gast87
2010-03-25, 14:30:30
i
Warum können wir uns nicht einfach darauf einigen, dass wir alle
gleich scheiße sind? Punkt. :love:


Amen ^^

Jake Dunn
2010-03-25, 14:31:38
Spielbar?
Muß jeder für sich entscheiden, da gehen die Meinungen oft recht weit auseinander :cool:

Gast
2010-03-25, 14:31:40
Dieses Enthusiasten- und Highend-Geschwätz find ich langsam echt auch nervig. Wenn man anspruchsvolle Online-Spiele spielt dann interessieren einen wenig, ob die Ohren des Gegners jetzt rund oder eckig sind, da gehts einzig und alleine darum, schneller und besser als der Gegner zu sein. Wenn der sich ordentlich bewegt, dann sieht man die Ohren nichtmal. Ich glaube diese Highend-Gamer spielen alle nur Single-Player im niedrigsten Schwierigkeitsgrad, damit sie den Gegnern vor dem Schiessen noch in die Augen schauen können oder Rollenspiele, wo sie stundenlang durch die Gegend laufen und sich Bäume und Landschaften anschauen. Wenn man Rennspiele, Shooter, Strategiespiele oder Sportspiele online oder mit starker KI spielt, dann ist man spätestens nach wenigen Minuten so konzentriert aufs Spiel ansich, dass einem Unterschiede wie 8xAF gegenüber 16xAF oder Tessellation in Metro an oder aus nicht auffallen. Dafür braucht man dann auch keine Highend Grafik und Kantenglättung.

MorPheuZ
2010-03-25, 14:32:04
Ich denke persönliche Meinungen über Metro oder Crüsis (Tresselation geil<->scheisse, Gameplay Uber<->Kacke) hat nichts mit der Technik an und für sich zu tun! Über persönliches Gutdünken kann man HIER nicht disskutieren.

Aber über die Technik sehr wohl!

Also los, BITTE!

Gast
2010-03-25, 14:32:26
Metro2033 wird doch nicht auf einen Trohn gesetzt, weil das Spiel so toll ist, sondern nur als INDIKATOR für Tesselationsleistung.
Heaven 2.0 extreme wird auch so ein Indikator sein.
Ob krasse Tess. Perf. heutzutage generell schon wichtig ist, ist 'ne andere Frage...
So sieht's aus. Die Entwickler müssen eh eine gewisse Basis finden, die alle glücklich macht, ansonsten rächt sich das schnell. Nicht jeder hat dann am Ende ne 470 oder 480 drin, sondern auch wohl einen schwächeren GF104.
Die jetzige Implementation kann es wohl nicht sein. Kaum Nutzen, nicht skalierbar und einen üblen Performancehit, selbst auf einem Fermi. Das ist immer schlimm in der Computerbranche. Kaum ist ein neues Feature draußen, muss es schnell und verpfuscht in alte Spielengines angeflanscht werden. Hauptsache man bekommt dafür von Amd und nvidia noch schnell etwas Kohle, um das kärgliche Entwicklerbudget ein bisschen aufzustocken. Von Spiele verkaufen alleine, kann ja keiner mehr leben.

derguru
2010-03-25, 14:35:16
Was hat ATI für die Bildqualität unter DX10/DX11 getan mit der 5000er Generation? Bessere AF-Blume(von der man in der Praxis fast nichts hat, siehe HT4U-Videos) und das wars.
Bei nvidia wirds wesentlich besseres TransparenzAA geben und noch ein zusätzliches AA, über das man bisher wenig weiß.
Klingt für mich in dem Bereich also wesentlich interessanter.
das ist spekulatios bis morgen nacht,was willst du mit TransparenzAA unter dx10 oder 11?als ob man das einfach erzwingen.:rolleyes:sonst noch was?und unter dx9 kack ich auf gut deutsch aber TransparenzAA wenn man sgssaa haben kann.

Gast
2010-03-25, 14:36:10
Metro 2033 bleibt trotz stärkerer Leistung von GTX480 in den meisten Situationen die mit HD5870 unspielbar sind genauso unspielbar, denn nur mal so als Bsp. 15 zu 22 Fps sind zwar ca. 47% schneller, aber dennoch beides unspielbar.

MorPheuZ
2010-03-25, 14:38:11
Metro 2033 bleibt trotz stärkerer Leistung von GTX480 in den meisten Situationen die mit HD5870 unspielbar sind genauso unspielbar, denn nur mal so als Bsp. 15 zu 22 Fps sind zwar ca. 47% schneller, aber dennoch beides unspielbar.

Da hast du sogar vollkommen recht! Was aber interessiert ist das WARUM!

Gast
2010-03-25, 14:38:40
Dieses Enthusiasten- und Highend-Geschwätz find ich langsam echt auch nervig. Wenn man anspruchsvolle Online-Spiele spielt dann interessieren einen wenig, ob die Ohren des Gegners jetzt rund oder eckig sind, da gehts einzig und alleine darum, schneller und besser als der Gegner zu sein. Wenn der sich ordentlich bewegt, dann sieht man die Ohren nichtmal.

Die Tesselation muss vorwiegend in der Levelarchitekur eingesetzt werden, alles andere ist für die Füße. Wenn es so wie in AvP oder Stalker gehandhabt wird, ist es nur featurehascherei ohne Sinn und Verstand und nicht mehr -und dann stimmt deine Meinung.
Aber ich denke in Zukunft, wird man mehr draus machen. Abwarten und Tee trinken.

Botcruscher
2010-03-25, 14:38:49
Metro2033 wird doch nicht auf einen Trohn gesetzt, weil das Spiel so toll ist, sondern nur als INDIKATOR für Tesselationsleistung.

Nicht mal das. Tes. wurde wie bei CoP nachträglich aufgesetzt und die Objekte werden wahllos aufgepumpt. Und selbst wenn wir es als Indikator nehmen sind beide Karten schlicht 3X zu langsam.
Shattered Horizon ist wenigstens DX10 only und zeigt damit wo die Reise hin geht. Der Rest sind schlicht DX9 Spiele mit Aufsatz.

PS: Und was soll dank Konsolen überhaupt noch groß kommen? Mehr als die üblichen Multititel wird es so schnell nicht geben.

mironicus
2010-03-25, 14:47:51
Bei AvP und Metro wirkt Tesselation wie schnell "reingerotzt". Schade drum, da es nicht die Vorteile der neuen Technik besonders gut aufzeigt.

Gast
2010-03-25, 14:49:00
Der Code für Engines spielt auch eine Rolle und da ist Metro sicherlich kein Vorzeigeprodukt. Was nützt ein 700 PS Auto wenn es einen Zementblock von 5 Tonnen an der Stoßstange hat.

Amboss
2010-03-25, 14:50:27
Wir haben zur Zeit fast ausschließlich DX9 Spiele mit ein paar hinein gewurschtelten DX10/11 Effekten, die oft vieles schlimmer, statt besser machen. Konsolen sei Dank. Wirklich vorwärts geht es erst mit der nächsten Konsolen Generation. PC Nutzer profitieren zur Zeit vor allem durch bessere Texturen, AF und Kantenglättung. Der Inhalt bleibt aber, auch grafisch, dank Multiplattformtitel, gleich. Also warten wir mal ab, bis die Xbox460 und Playstation 4 glauncht werden (+3 Jahre).

Nakai
2010-03-25, 14:53:06
*Sich umschau und sich wunder*

Wieso ist hier noch nicht dicht? Fanboi-Wars hab ich hier schon öfter gesehen, also nix neues aus dem Osten.

Bei AvP und Metro wirkt Tesselation wie schnell "reingerotzt". Schade drum, da es nicht die Vorteile der neuen Technik besonders gut aufzeigt.

Wundert dich das?! Ich meine, Tesselation muss erst seine Potenz entfalten...und die Entwickler müssen erst lernen es gut einzusetzen.

Die Werte sind wie erwartet...



mfg

Gast
2010-03-25, 14:55:52
Shattered Horizon ist wenigstens DX10 only und zeigt damit wo die Reise hin geht. Der Rest sind schlicht DX9 Spiele mit Aufsatz.

Aber das geht doch nicht. Nur PC und dann DX10 als Basis, das lohnt nicht. Dann kann man nicht mehr genug Kohle abgreifen.


PS: Und was soll dank Konsolen überhaupt noch groß kommen? Mehr als die üblichen Multititel wird es so schnell nicht geben.
Konsolenports mit angeflanschten (proprietären) Features, die auch aktuelle Hardware vernaschen. Dazu im Intro wahlweise AMD/ATI/nV/Intel als Sponsor oder alle zusammen und alle sind glücklich.

Gast
2010-03-25, 14:56:35
Ja richtig das ist das eigentliche Dilemma. Eigentlich müssten NV und AMD zusammenarbeiten um den PC als Gaming-Plattform Nr.1 zu erhalten. Leider werden diese veralteten Klapperkisten von Konsolen immer stärker und die letzten PC-only Entwickler setzen auch auf Multi-Plattform ( wer will es ihnen verdenken müssen schließlich auch Geld verdienen).

boxleitnerb
2010-03-25, 14:56:53
Tja die grünen können ja ihr neues CSAA nutzen, nur bleibt die Frage ob das Spiel dann noch spielbar sein wird bei dem was es an Leistung nimmt. :)

Ich dachte CSAA braucht kaum Performance, im Vergleich zu MSAA.

mironicus
2010-03-25, 14:57:09
Just Cause 2 ist auch DX10-only und es sieht (finde ich) hervorragend aus.

Iruwen
2010-03-25, 15:04:55
Ja richtig das ist das eigentliche Dilemma. Eigentlich müssten NV und AMD zusammenarbeiten um den PC als Gaming-Plattform Nr.1 zu erhalten. Leider werden diese veralteten Klapperkisten von Konsolen immer stärker und die letzten PC-only Entwickler setzen auch auf Multi-Plattform ( wer will es ihnen verdenken müssen schließlich auch Geld verdienen).

Die haben sich doch schon in der PCGA (http://www.pcgamingalliance.org/ABOUT/OurMembers/tabid/409/Default.aspx) zusammengetan. Hintenrum wird wahrscheinlich eh gekuschelt.

Jake Dunn
2010-03-25, 15:05:37
Just Cause 2 ist auch DX10-only und es sieht (finde ich) hervorragend aus.

Hmm aber nicht PC-only

Und hervorragend? Ein STALKER SoC oder CRYSIS/Warhead in DX9 sehen/sahen fett aus :)

tombman
2010-03-25, 15:09:19
Nicht mal das. Tes. wurde wie bei CoP nachträglich aufgesetzt und die Objekte werden wahllos aufgepumpt. Und selbst wenn wir es als Indikator nehmen sind beide Karten schlicht 3X zu langsam.
Shattered Horizon ist wenigstens DX10 only und zeigt damit wo die Reise hin geht. Der Rest sind schlicht DX9 Spiele mit Aufsatz.
PS: Und was soll dank Konsolen überhaupt noch groß kommen? Mehr als die üblichen Multititel wird es so schnell nicht geben.
Natürlich ist es ein Indikator, schließlich wird Tess. verwendet und zwar nach DX11-Norm.
WIE es verwendet wurde und warum, und ob es künstlerisch sinnvoll eingesetzt wurde oder nicht, ist IRRELEVANT.

Grundsatzdiskussionen sind hier fehl am Platz. (auch zu Crysis-Zeiten gabs schon Konsolen, also hätte C. nie passieren
dürfen. Jetzt gibts auch Konsolen, und trotzdem passierte Metro2033. Es traut sich immer wieder einmal irgendein Entwickler
HighEnd Gpus zu überfordern- vielleicht auch von AMD/NV bezahlt- schließlich müssen HE-Gpus ja weiterhin einen Sinn
haben, nicht wahr? :naughty: ;) :biggrin:)

Gast
2010-03-25, 15:12:21
Aber ihr Sinn nimmt immer weiter ab. Für L4D2,CoD:MW2 oder auch ME2 braucht man nichtmal ansatzweise eine HD8570 oder GTX480.

Dicker Igel
2010-03-25, 15:19:16
WIE es verwendet wurde und warum, und ob es künstlerisch sinnvoll eingesetzt wurde oder nicht, ist IRRELEVANT.

Finde ich nicht, denn der Käufer möchte diese Entwicklung ja auch erkennen.
Eine Funktion, die ingame nicht wirklich ersichtbar wird, ist da eher kontraproduktiv.

Gast
2010-03-25, 15:34:55
Macht NVidia dann wohl momentan Verluste, wenn sie die GTX 480 für 450 Euro verkaufen?

Kurz und knapp nein. Ich gehe davon aus, dass Sie Gewinne machen werden und in Summe sogar mehr als AMD/ATI und zwar aus folgenden Gründen:

1) Dicke Einnahmen im Profi Segment

2) Unter Umständen einen Tick bessere Verträge bei TSMC wegen der Gesamtmenge die abgenommen wird

3) die GTX470 und GTX480 haben nicht das Volumen um die Gesamtbilanz so massiv zu beeinflussen. Da sind die mid range und low end chips wichtiger. GF104 hat in dieser Hinsicht viel mehr Bedeutung als GF100 für die Bilanz von Nvidia. Stand heute ist, dass sie nach wie vor prächtig verdienen und das auch 6 Monate nach Cypress. Ich glaube deshalb nicht, dass es sich mit einem Update im Produklineup verschlechtern wird, zumal auch die Nachfrage in der Welt im allgemeinen auf dem aufsteigenden Ast ist.

tombman
2010-03-25, 15:39:28
Finde ich nicht, denn der Käufer möchte diese Entwicklung ja auch erkennen.
Eine Funktion, die ingame nicht wirklich ersichtbar wird, ist da eher kontraproduktiv.
Als Indikator ist es sehr wohl irrelevant wie es eingesetzt wird, es geht nur um eine Leistungsbeurteilung. Die Zielgruppe
weiß hoffentlich was man damit SINNVOLL anstellen KÖNNTE. Ansonsten gehört man IMO nicht zur HE-Zielgruppe...

Gast
2010-03-25, 16:25:42
Der Profi Markt bei Nvidia macht 150 Mio. $ aus. Davon sind 30-50 Mio. $ Tesla.

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzI2NjV8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1

Botcruscher
2010-03-25, 16:28:22
Es geht ja darum einen Indikator dafür zu haben wie die Performance mit dem Feature aussehen wird, in der Hoffnung dass Spiele in Zukunft die es *richtig* einsetzen sich hinsichtlich der Performance ähnlich verhalten.
Hoffnung...

Genau da liegt aber das Problem. Tes. muss frühzeitig bei der Erstellung der Geometrie berücksichtigt werden. Der gesamte Content muss darauf abgestimmt sein. Bei den jetzigen Spielen wird einfach alles aufgeblasen. Aus Quadratischen Objekten wird im Extremfall eine Wurst. Tessellation ist ebenfalls von 0 bis nahezu unendlich Skalierbar. Für das Feature gibt es weder ein zu langsam noch ein zu schnell. Die Grad der Tessellation kann eigentlich genau auf die Karte abgestimmt werden. Wenn da was ruckelt hat der Entwickler einfach Mist gebaut. Die Grafik von Metro ist gegenüber BF2 oder Crysis, im Vergleich zur Objektanzahl/Mapgröße eh ein Witz.

DrFreaK666
2010-03-25, 16:28:52
Also das 32xCSAA kaum Leistung kosten soll wie es NV angab, glaubte ich nicht eine Sekunde. Ich glaube es sollten laut NV doch nur 8% seien im Vergleich zu 8xMSAA. Wie zum Teufel soll das bitte gehen?

Vielleicht meint nv min. 8%
Das sieht je nach Spiel anders aus

Gast
2010-03-25, 16:34:40
Ja richtig das ist das eigentliche Dilemma. Eigentlich müssten NV und AMD zusammenarbeiten um den PC als Gaming-Plattform Nr.1 zu erhalten. Leider werden diese veralteten Klapperkisten von Konsolen immer stärker und die letzten PC-only Entwickler setzen auch auf Multi-Plattform ( wer will es ihnen verdenken müssen schließlich auch Geld verdienen).

ATI hat sich aus der Egal-Was-Es-Kostet-High-End-Entwicklung zurückgezogen und bietet im Moment das an was bei akzeptablem Kapitaleinsatz herauskommt. Dazu gibt es dann noch eine Dual-GPU-Karte und das war es. Verdienen will ATI im Notebook-Sektor, im OEM-Geschäft für Fertig-PC's und an den Konsolen (ATI GPU's werden in der XBOX verbaut).

NVIDIA konzentriert sich auf das absolute High-End und auf Extras wie Physix und Co.. Das hat oft höhere Kosten zur Folge und die grössere Die-Fläche tut ihr übriges. In der PS3 steckt ürigens eine NVIDAI GPU.

Beide Grafikkartenhersteller verdienen an den Konsolen gutes Geld. So lange die Grafikentwicklung so stagniert wie sie das aktuell tut verdienen beide auch an den PC Karten recht gutes Geld. Die Entwicklung neuer Karten ist somit "günstiger". Zumindest für ATI.

--> Der Gaming-PC Markt ist zwar noch wichtig, er wird aber in Zukunft für beide noch unwichtiger werden als er ohnehin ist. Das gilt vor allem für ATI.

Sentionline
2010-03-25, 16:37:25
--> Der Gaming-PC Markt ist zwar noch wichtig, er wird aber in Zukunft für beide noch unwichtiger werden als er ohnehin ist. Das gilt vor allem für ATI.
GPGPU. Und da liegt meines wissens nach wie vor Nvidia vorne. Vor allem in der Crypt Technik ist Cuda heftig...Wer Pyrit mal gesehn hat...;D

ähm...und vReveal erzeugt auch geile Bilder...;D

Jake Dunn
2010-03-25, 16:53:49
ähm...und vReveal erzeugt auch geile Bilder...;D

Hmm jo aber aus besch.... Quellmaterial reißt das auch fast nix raus ^^

Hab es selbst getestet hier ;)

Sentionline
2010-03-25, 16:55:21
Besser als ATi...ähm. Nix ;D

Riplex
2010-03-25, 16:58:01
Hier gibt es einen Rechner mit GTX480.

http://cgi.ebay.de/GTX480-Edition-PC-AMD-X4-965-1-5TB-8192MB-DDR3-Xigmatec_W0QQitemZ230454089502QQcmdZViewItemQQptZDE_Technik_Computer_Peripherieg er%C3%A4te_PC_Systeme?hash=item35a822571e

Hab mal die Einzelteile ohne GTX480 zusammengerechnet das sind ca 700 Euro. Der Händler will auch was verdienen also sag ich mal 1000 Euro. Also kostet die 480 ca 500 Euro.

Innerhalb von 4-9 Werktagen lieferbar. Dann kann das mit dem 12.4. ja garnicht stimmen, oder ?

Jake Dunn
2010-03-25, 16:58:51
Besser als ATi...ähm. Nix ;D

Was? :confused: Trollversuch?

vReveal läuft auch über CPU, ein i7@4ghz kachelt mit 8 Threads das auch recht fix durch ;)

Gast
2010-03-25, 17:00:30
Innerhalb von 4-9 Werktagen lieferbar. Dann kann das mit dem 12.4. ja garnicht stimmen, oder ?

Ja, da scheint was faul zu sein. Naja, FUD Gerücht.

Sentionline
2010-03-25, 17:01:19
Genau. Ich komm mit ner C2D und kleiner GTS aus, ne HD5x braucht n 8 Kerner für die selbe Mathe Aufgabe. Schöner vergleich ;D

urfaust
2010-03-25, 17:04:49
Hier gibt es einen Rechner mit GTX480.

http://cgi.ebay.de/GTX480-Edition-PC-AMD-X4-965-1-5TB-8192MB-DDR3-Xigmatec_W0QQitemZ230454089502QQcmdZViewItemQQptZDE_Technik_Computer_Peripherieg er%C3%A4te_PC_Systeme?hash=item35a822571e

das ist definitv ein Lockmittel um PCs an den Mann bringen zu können,
der Händler wird die Käufer wohl mit Wartezeit vertrösten, weiß vielleicht
selber noch nicht einmal wann er seine 480er bekommt..Eine Sauerei..

Gast
2010-03-25, 17:06:01
das ist definitv ein Lockmittel um PCs an den Mann bringen zu können,
der Händler wird die Käufer wohl mit Wartezeit vertrösten, weiß vielleicht
selber noch nicht einmal wann er seine 480er bekommt..Eine Sauerei..

Naja, 100% positive Bewertung. Mal schauen;)

Jake Dunn
2010-03-25, 17:10:30
Genau. Ich komm mit ner C2D und kleiner GTS aus, ne HD5x braucht n 8 Kerner für die selbe Mathe Aufgabe. Schöner vergleich ;D
Warum HD5K? Da reicht Onboard-Müll :P

Bin aber etwas entäuscht über vReveal, denn beim "2x Resolution Feature" gehts nur bis 288p und bei dem "Stabilize" wird dem Kamerawackeln zwar gut entgegen gewirkt aber dafür wackelt dann das Datum/Zeit vom Video :rolleyes:

Kosh
2010-03-25, 17:29:04
Innerhalb von 4-9 Werktagen lieferbar. Dann kann das mit dem 12.4. ja garnicht stimmen, oder ?

4-9 Tagen lieferbar?? Das hast du bei der 5870 letztes Jahr dutzendfach gelesen und dann wars nichts mit lieferbar für die nächsten 4 Wochen bei dem Händler.

Die Zeitangabe kann man zu 99% komplet vergessen.

Gast
2010-03-25, 17:31:11
4-9 Tagen lieferbar?? Das hast du bei der 5870 letztes Jahr dutzendfach gelesen und dann wars nichts mit lieferbar für die nächsten 4 Wochen bei dem Händler.

Die Zeitangabe kann man zu 99% komplet vergessen.

Wir werden es ja sehen. Und wenn wirklich noch ne Woche später ist mir jetzt auch absolut wayne.

LovesuckZ
2010-03-25, 17:33:48
Innerhalb von 4-9 Werktagen lieferbar. Dann kann das mit dem 12.4. ja garnicht stimmen, oder ?

Morgen ist Launch. Morgen wird die ein oder andere Seite auch etwas zur Verfügbarkeit schreiben.
Wieso man knapp 24h vor dem Launch noch jedes Gerücht Aufmerksamkeit schenkt, verstehe ich nicht. Wartet doch einfach ab.

Tomahawk
2010-03-25, 17:42:07
Ich bin sehr auf die Verfügbarkeit gespannt.

Ich wunder mich wirklich, dass eine solche Diskussion hier aufkommt. Der High-End Markt ist so ausgedünnt, dass selbst eine "mittelmäßige" 480er sehr gut verkauft werden kann.

Fermi wird sich an seiner Verfügbarkeit messen lassen müssen. Sollte diese (wider erwarten) gut sein, hat nVidia vieles richtig gemacht.

Gast
2010-03-25, 17:42:29
Naja insgeheim wollte ich auch keinen Krüppel aber wenn er einige Dinge ganz gut meistert warum nicht, bin ja ein sozialer Mensch :D

Dann darfst du erst recht keine ATI kaufen, angeblich haben die ja auch 900 bzw. 1800 ALUs in Hardware von denen nur 800, respektive 1600 verwendet werden können.

Kosh
2010-03-25, 17:45:21
Wir werden es ja sehen. Und wenn wirklich noch ne Woche später ist mir jetzt auch absolut wayne.


Eine Woche?? Das kann ruck zuck 2-3 Monate werden??

Es sei denn, Fermi wird ein Totalflop und liegt wie blei in den regalen rum, dann kann man natürlich viel schneller eine bekommen.

Aber sobald es eine gute Karte wird, dürfte die Verfügbarkeit sehr,sehr problematisch werden.

Gast
2010-03-25, 17:48:08
Eine Woche?? Das kann ruck zuck 2-3 Monate werden??

Es sei denn, Fermi wird ein Totalflop und liegt wie blei in den regalen rum, dann kann man natürlich viel schneller eine bekommen.

Aber sobald es eine gute Karte wird, dürfte die Verfügbarkeit sehr,sehr problematisch werden.

FUD laberten auch was vom 7. FUD kannste in der Pfeife rauchen. Und wie gesagt, warten wir ab:)

Gast
2010-03-25, 17:49:18
Wann soll B2 überhaupt kommen ? In nem halben Jahr ? Da gibts ja fast schon 28nm ^^


28nm wird es heuer sicher nicht mehr für den Endkunden geben und selbst wenn es gut läuft (was ich gerade bei TSMC bezweifle) wird es 28nm im High-End frühestens Mitte des nächsten Jahres geben.

Gast
2010-03-25, 17:58:40
Großartige Veränderungen wird man heute wohl kaum an den Produkten für 2011 vornehmen können und wenn AMD wie Charlie bis vor kurzem geglaubt hat Fermis Tessellator ist eine SW-Lösung, könnte es wohl bis AMD mit einem vergleichbaren Ansatz kommt, wohl etwas dauern.

Um eine ähnliches FrontEnd zu bauen braucht es Jahre an Entwicklungszeit.

Entweder hat ATI für die nächste Generation von Anfang an unabhängig von Fermi etwas derartiges vorgesehen oder wir werden es frühestens mit der übernächsten Generation sehen.

Gast
2010-03-25, 18:02:26
Warum AMD bringt wohl (nach eigenen Aussagen 2Q/2010) erstmal einen kompletten Refresh von Evergreen und danach die neue Architektur und wie die im Detail aussieht, weiß außer AMD selber momentan niemand.


Wohl kaum, damit sich ein Refresh auszahlt müsste sich die Ausbeute erstmals normalisieren, es ist sinnlos einen Refresh zu bringen wenn der Vorgänger noch nie richtig erhältlich war (außer natürlich der Vorgänger wäre ein kompletter Fail alá NV30/R600)

Refresh gibt es frühestens Q3, eher Q4. Eine neue Architektur kann man heuer nicht mehr erwarten.

Gast
2010-03-25, 18:03:50
Bei 28nm bin ich wirklich gespannt wie sich diese Geschichte entwickelt. Ich glaube das AMD und GF der sehr ambitionierte Pläne haben und TSMC klar abhängen wollen. Ich wäre mir deshalb trotz der relativ hohen Wahrscheinlichkeit das nichts in 28nm 2010 kommt nicht restlos sicher, dass wir dieses Jahr keine GPUs in 28nm sehen werden. Natürlich wenn überhaupt nur zum Jahresende und dann vielleicht auch nur einen kleinen Chip.

Gast
2010-03-25, 18:05:25
Wenn 28nm dann klar erstmal kleiner Chip. Aber was hat das hier zu suchen?

Coda
2010-03-25, 18:07:41
Um eine ähnliches FrontEnd zu bauen braucht es Jahre an Entwicklungszeit.
Wir wissen halt nicht ob und wann ATI mit so einem Projekt angefangen hat, deshalb lässt sich echt gar nichts darüber mutmaßen.

Es könnte also sein, dass wir das schon in der nächsten Generation sehen werden.

Gast
2010-03-25, 18:07:50
Und warum waren die HD58xx bis jetzt schlecht erhältlich? Richtig weil es eine enorme Nachfrage gab und im Prinzip keinen Wettbewerber für AMD. Dazu noch die zu geringen Produktionskapazitäten bei TSMC und fertig ist die schlechte Verfügbarkeit.

Neocroth
2010-03-25, 18:09:17
Dann darfst du erst recht keine ATI kaufen, angeblich haben die ja auch 900 bzw. 1800 ALUs in Hardware von denen nur 800, respektive 1600 verwendet werden können.

Stimmt meines Wissens nach nicht - der Gast hier bestätigt das auch:

Die waren/sind keine Redundanz, die waren schon immer nicht vorhanden. Die 900 SPs sind aus einem Bild geschlußfolgert, wo ein paar Strukturen mit SPs verwechselt wurden, die jedoch (bei genauem Hinsehen) keine SPs sind.

Hier bitte mal genau hinschauen:
http://www.hardware-infos.com/news.php?news=2597

9 senkrecht sind keine SPs, die Strukturen unterscheiden sich bei genauerem Hinsehen sehr deutlich von 1-8 senkrecht.

Coda
2010-03-25, 18:10:47
Also bei RV770 ist das definitiv Käse. Das sieht man wirklich.

Bei RV870 gibt's allerdings bis heute keine Die-Shots soweit ich weiß.

aylano
2010-03-25, 18:15:54
Macht NVidia dann wohl momentan Verluste, wenn sie die GTX 480 für 450 Euro verkaufen?
Das Problem wird eher die Entwicklungskosten sein alias 1,3 Mrd. $.

Und da ist die Frage, wie sie es Abrechnen.
Pro Stück oder Pro Monat (ca. 100 Mio. $ pro Monat)?
Ersteres können sie mit Geschäftsbericht-Anpassung pro Stück Geld verdienen.
Beim Zweiteren nicht.

Gesamt gesehen, macht Nvidia höchstwahrscheinlich durch die momentanen OEM & Co-Verträge keine Verluste.

mapel110
2010-03-25, 18:18:18
Die Entwicklungskosten rechnen sich über 3-4 Jahre, und das auf alle Märkte. Telsa, Quadro, Geforce, Mobile. Überleg mal, wie lange G80-Architektur quasi inkl. GT200 gemolken wurde und wird.

urfaust
2010-03-25, 18:20:55
ja ist denn heut schon Weihnachten?

Sweclockers (swedish forum / news site) claims their review will be up 1 minute past midnight tonight if I recall correctly.
Thats 9h from now.

Quelle (http://www.xtremesystems.org/forums/showpost.php?p=4305514&postcount=1556)

www.sweclockers.com

Schlammsau
2010-03-25, 18:25:46
Also das Thema Metro 2033 hatten wir hier ja schon oft im Zusammenhang mit den GF100 Karten, aber die Hardware-Anforderungen sind doch abnormal hoch. Ich meine natürlich sieht das Game sehr gut aus, aber da stimmt doch irgendwas nicht oder? Eine GTX285 z.B. kann ja noch nicht mal 1280x1024 absolut flüssig darstellen und allg. sind die "alten" NV-Karten im Vergleich zu den HD58xx extrem schwach. Auch die GTX480 wird da nicht soviel ausrichten können.

http://www.xbitlabs.com/articles/video/display/metro-2033_4.html#sect1

Nicht nur im Vergleich zur HD5000er Serie, sogar gegen die HD4000er loosen sie unter DX10 ziemlich ab. Ne GTX285 langsamer als eine 4890. Siehe PCGH Artikel......

Gast
2010-03-25, 18:28:17
Seit wann kann das AF Shaderaliasing eliminieren?

Weil Shader in der Regel Texturen verwenden und wenn diese nicht ordentlich gefiltert sind kann das fiese Shader-Aliasing verstärkt oder überhaupt erst erzeugt werden.

mapel110
2010-03-25, 18:28:41
Nicht nur im Vergleich zur HD5000er Serie, sogar gegen die HD4000er loosen sie unter DX10 ziemlich ab. Ne GTX285 langsamer als eine 4890. Siehe PCGH Artikel......
Da trügt dich wohl deine Erinnerung?!
http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2
Selbst die GTX260² kanns mit einer 4890 aufnehmen. Ist schon eher ein nvidia-Titel.

Gast
2010-03-25, 18:29:06
Also das Thema Metro 2033 hatten wir hier ja schon oft im Zusammenhang mit den GF100 Karten, aber die Hardware-Anforderungen sind doch abnormal hoch. Ich meine natürlich sieht das Game sehr gut aus, aber da stimmt doch irgendwas nicht oder? Eine GTX285 z.B. kann ja noch nicht mal 1280x1024 absolut flüssig darstellen und allg. sind die "alten" NV-Karten im Vergleich zu den HD58xx extrem schwach. Auch die GTX480 wird da nicht soviel ausrichten können.

http://www.xbitlabs.com/articles/video/display/metro-2033_4.html#sect1

Und das auch noch ohne directx 11 Optionen :(

Besides that, we also disabled “Advanced DOF” and “Tesselation” DirectX 11 options, because Nvidia solutions don’t support them and the tests must be performed in fair conditions.

aylano
2010-03-25, 18:29:17
Die Entwicklungskosten rechnen sich über 3-4 Jahre, und das auf alle Märkte. Telsa, Quadro, Geforce, Mobile. Überleg mal, wie lange G80-Architektur quasi inkl. GT200 gemolken wurde und wird.
Ja, die Frage ist eben, wie die R&D-Kosten am Anfang mit GT480 & GT470 angerechnet werden.

Gast
2010-03-25, 18:32:11
Edit: Warum ist SC2 ein mieses Beispiel? Wird wahrscheinlich eines der bestverkauften PC-Spiele überhaupt werden.


Lady Gaga ist eine der meistverkauften "Künstler". Was sagt das jetzt über die Qualität aus?

Eggcake
2010-03-25, 18:32:41
Da trügt dich wohl deine Erinnerung?!
http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2
Selbst die GTX260² kanns mit einer 4890 aufnehmen. Ist schon eher ein nvidia-Titel.

Nicht mit 4xMSAA:
http://www.pcgameshardware.de/aid,707129/Grafikkarten-Test-mit-ueber-200-Benchmarks-Vorbereitung-auf-GTX-470/480/Grafikkarte/Test/

Schlammsau
2010-03-25, 18:33:52
Da trügt dich wohl deine Erinnerung?!
http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2
Selbst die GTX260² kanns mit einer 4890 aufnehmen. Ist schon eher ein nvidia-Titel.

Nicht wirklich!
http://www.pcgameshardware.de/aid,707129/Grafikkarten-Test-mit-ueber-200-Benchmarks-Vorbereitung-auf-GTX-470/480/Grafikkarte/Test/
Unte 1680x1050 haargenau das selbe. Eine HD4890 deutlich vor einer GTX285......
http://www.abload.de/img/unbenannteo3c.jpg

Gast
2010-03-25, 18:34:41
Hier ist es so verdächtig ruhig, von einigen Personen, da ist doch was im Busch :D

mapel110
2010-03-25, 18:36:29
Schön, eh alles im völlig unspielbaren Bereich. Selbst bei den 5000er Radeons.

Eggcake
2010-03-25, 18:37:52
Schön, eh alles im völlig unspielbaren Bereich. Selbst bei den 5000er Radeons.

Sieht im spielbaren Bereich auch nicht besser (http://www.pcgameshardware.de/screenshots/original/2010/03/Fermi-Preview-Metro-1680.png) aus.

Gast
2010-03-25, 18:38:10
Also die Leadtek gefällt mir. Im Design hat NV auf jedenfall gewonnen:)

Gast
2010-03-25, 18:39:19
Nicht mit 4xMSAA:
http://www.pcgameshardware.de/aid,707129/Grafikkarten-Test-mit-ueber-200-Benchmarks-Vorbereitung-auf-GTX-470/480/Grafikkarte/Test/

Warum ist die HD 5850 überall so lahm? Die ist ja in vielen Spielen langsamer als eine GTX 285? oO

Schlammsau
2010-03-25, 18:39:40
Schön, eh alles im völlig unspielbaren Bereich. Selbst bei den 5000er Radeons.

Und du meinst mit Fermi wirds 3x schneller als das was eine GTX285 bringt?
Mit Tesselation? :lol:

Warum ist die HD 5850 überall so lahm? Die ist ja in vielen Spielen langsamer als eine GTX 285? oO

Mit aktuellen Treibern (Catalyst 10.3a) und Spielen setzen sich vor allem die Radeon HD 5850 und die Radeon HD 5870 gut in Szene, der Vorsprung vor der Geforce GTX 285 beträgt im Mittel knapp 10 respektive knapp 30 Prozent. In wenigen Fällen ist die Differenz nur sehr gering oder die HD 5850 fällt gar hinter die Geforce zurück. Demgegenüber stehen exzellente Werte in Mass Effect 2 oder Metro 2033. Im Folgenden finden Sie alle Benchmarks abzüglich den beiden Geforce GTX 400 (auf DirectX-11-Werte verzichten wir in Metro 2033 und Dirt 2, da einzig die beiden HD 5800 die aktuelle API beherrschen):

Eggcake
2010-03-25, 18:40:36
Rund 10% schneller im Mittel, war das jemals anders?

Zudem mit neuem NV-Treiber getestet - weiss auch nicht wo man mit dem noch überall zulegen konnte.

Schlammsau
2010-03-25, 18:41:53
Rund 10% schneller im Mittel, war das jemals anders?

Mit dem Launchtreiber war es ein Gleichstand zwischen der GTX285 und 5850.

pest
2010-03-25, 18:42:32
nur das in diesen Leaks "zufälligerweise" Ati Karten zum Vergleich
herangezogen werden... Darf man sich als 58XX Besitzer etwa nicht dazu äußern? Argumentieren etc.
Wenn du Monologe führen willst kannst du ja einen ortsansässigen nVidia FanClub gründen.
Jeden Sonntag Kaffeekränzchen und alle sind sich einig, keiner widerspricht dem anderen :tongue:

bitte nix zitieren, was ich nicht gesagt habe

Gast
2010-03-25, 18:42:32
Rund 10% schneller im Mittel, war das jemals anders?

Zudem mit neuem NV-Treiber getestet - weiss auch nicht wo man mit dem noch überall zulegen konnte.

Hallo? In Dirt 2 ist eine HD 5850 so deutlich langsamer als eine GTX 285? 79,1 FPS vs. 69,9 FPS? WTF?!

AnarchX
2010-03-25, 18:42:36
Warum ist die HD 5850 überall so lahm? Die ist ja in vielen Spielen langsamer als eine GTX 285? oO
Weniger Bandbreite, weniger Z-Leistung und wohl eine AF-Implementierung die trotz Flimmerneigung mehr Samples benötigt. Da kann sich eine GTX 285 in manchem Szenario durchaus behaupten.

Schlammsau
2010-03-25, 18:43:25
Hallo? In Dirt 2 ist eine HD 5850 so deutlich langsamer als eine GTX 285? 79,1 FPS vs. 69,9 FPS? WTF?!

Unter DX9! Das Game ist bei ATi hardware auf DX11 optimiert.

mapel110
2010-03-25, 18:44:02
Und du meinst mit Fermi wirds 3x schneller als das was eine GTX285 bringt?
Mit Tesselation? :lol:
Wie weit sich Fermi absetzen kann bei spielbaren Frameraten, kannst du bei HardOCP mit Frameverläufen erfahren. Für das Benchkonzept interessiert sich ja sonst leider keiner der großen Hardware-Webseiten. Dass Fermi mehr Performance (Bildqualität pro fps) liefern wird, steht wohl außer Frage.

Gast
2010-03-25, 18:45:03
Ich hatte irgendwie ein völlig anderes Bild von der HD 5850. 30 % + und HD 5870 50 %.

Gast
2010-03-25, 18:46:03
Tja die grünen können ja ihr neues CSAA nutzen, nur bleibt die Frage ob das Spiel dann noch spielbar sein wird bei dem was es an Leistung nimmt. :)

CSAA braucht kaum Mehrleistung gegenüber MSAA und 8xMSAA wurde deutlich beschleunigt, also ich denke diese Gefahr ist nicht vorhanden. Auf jeden Fall wird es deutlich weniger Leistung als SSAA kosten ;)

Schlammsau
2010-03-25, 18:46:28
Ich hatte irgendwie ein völlig anderes Bild von der HD 5850. 30 % + und HD 5870 50 %.

Nur wenn man den DX11 Bonus mitrechnet.

CSAA......Auf jeden Fall wird es deutlich weniger Leistung als SSAA kosten ;)
Und auch deutlich schlechter aussehen. ;)

Gast
2010-03-25, 18:48:47
Es gibt durchaus Szenarien wo es diese Abstände gibt, nur ist dies nicht die Regel und genau das gleiche werden wir auch bei GTX480 vs. HD5870 sehen.

Gast
2010-03-25, 18:49:37
Nur wenn man den DX11 Bonus mitrechnet.

Dann kann Fermi doch gar nicht failen. Die HD 5870 unter gleichen Bedingungen nur 30 % vor einer GTX 285? Wie sollte Fermi das nicht locker überbieten können? GTX 285: 240 SP, Fermi mindestens 480. Alleine diese Tatsache dürfte ausreichen.

Gast
2010-03-25, 18:49:52
Warum ist die HD 5850 überall so lahm? Die ist ja in vielen Spielen langsamer als eine GTX 285? oO
Zwei Spiele von Zehn,Dirt2 wurde schon erklärt;)

Schlammsau
2010-03-25, 18:51:14
Dann kann Fermi doch gar nicht failen. Die HD 5870 unter gleichen Bedingungen nur 30 % vor einer GTX 285? Wie sollte Fermi das nicht locker überbieten können? GTX 285: 240 SP, Fermi mindestens 480. Alleine diese Tatsache dürfte ausreichen.

Theorie und Praxis!

Fermi wird maximal 1,5x schneller sein als eine GTX285, in aktuellen Games. Im Schnitt also maximal 20% schneller als eine 5870. In Szenen wo kein VRAM limitiert.

My private opinion.

Eggcake
2010-03-25, 18:53:05
Dann kann Fermi doch gar nicht failen. Die HD 5870 unter gleichen Bedingungen nur 30 % vor einer GTX 285? Wie sollte Fermi das nicht locker überbieten können? GTX 285: 240 SP, Fermi mindestens 480. Alleine diese Tatsache dürfte ausreichen.

Dort wo eine 5870 nicht vom DX11-Speedup profitieren kann, wird das eine GTX480 auch nicht können, also sind wir genau gleich weit.

Ich versteh jetzt nicht wieso das alles plötzlich eine Neuigkeit sein soll. War die 5870 jemals so krass viel schneller? Der Durchschnitt lag schon immer so zwischen 20% und 35%.

Gast
2010-03-25, 18:54:57
Innerhalb von 4-9 Werktagen lieferbar. Dann kann das mit dem 12.4. ja garnicht stimmen, oder ?


Die Karten sind definitiv schon unterwegs, Nvidia rechnet damit dass sie für den Endkunden erst in etwa am 12.4. Verfügbar sind. Das heißt aber nicht, dass einzelne Händler diese schon früher bekommen.

Hugo
2010-03-25, 18:55:41
schade, dass GF100 nicht 128TMUs und bissel mehr Takt hat. Dann könnte sie nen ordentlichen Abstand zur GTX285 herstellen.
Die TMU Leistung scheint mir das schwächste Glied der Kette zu sein

Gast
2010-03-25, 18:56:10
Das mit den Aufrechnen der SPs haut aber nicht hin. Sowohl die HD5870/HD5850 als auch die GTX480/GTX470 können ihre Power nur in extrem fordernden Szenen zeigen. Bei einem Game was z.B. auf einer GTX285 schon mit 80Fps läuft, ist es einfach extrem schwierig die Vorteile der neuen Gens aufzuzeigen.

Trotzdem haben die neuen Karten in der Regel deutlich mehr Kraftreserven, die oft erst mit neuen Games offensichtlich werden (siehe Metro 2033).

AnarchX
2010-03-25, 18:58:31
Hier hat man mal die GTX 285 und GTX 480-Werte aus den Reviewers Guide Folien verglichen:
http://forum.beyond3d.com/showpost.php?p=1412927&postcount=4948
Wobei da aber auch viele >60FPS-Werte dabei sind. Interessant dürfe dann wohl eher ein Extreme-Test mit SSAA (falls noch vorhanden) oder Downsampling mit einer 2GiB GTX 285 sein.

Gast
2010-03-25, 18:59:51
Das mit den Aufrechnen der SPs haut aber nicht hin. Sowohl die HD5870/HD5850 als auch die GTX480/GTX470 können ihre Power nur in extrem fordernden Szenen zeigen. Bei einem Game was z.B. auf einer GTX285 schon mit 80Fps läuft, ist es einfach extrem schwierig die Vorteile der neuen Gens aufzuzeigen.

Trotzdem haben die neuen Karten in der Regel deutlich mehr Kraftreserven, die oft erst mit neuen Games offensichtlich werden (siehe Metro 2033).

Also gerade in Dirt 2 hatte ich bisher gedacht, die HD 5850 sei WEIT WEIT vor einer GTX 285 (erst recht mit Cat. 10.3a). Egal, ob DX9 oder 11.

Gast
2010-03-25, 19:01:13
eine AF-Implementierung die trotz Flimmerneigung mehr Samples benötigt.
Interessante Tatsache.
Ist denn bekannt, ob man durch diese schlechtere AF-Implementierung ein paar Transistoren spart oder es nur auf "Unfähigkeit" zu schieben ist?
Wenn es Unfähigkeit ist, gehört diese dringend abgestellt. Es kann nicht sein, dass man selbst im Jahr 2010 immer noch mit Flimmer-AF begrüßt wird.
Wenn's schon unfähig sind, dann sollen's wenigstens noch die Option zur sauberen Abtastung anbieten, egal wieviel Performance es kostet. Schlimmer als ihr Tesselations-Impact kann es ja nicht sein. :D

Gast
2010-03-25, 19:07:08
Ich bin glaube ich zugegeben nicht besonders sensibel was AF-Flimmern angeht, aber bestimmt auch kein kompletter Ignorant und finde das dies meistens einfach maßlos übertrieben wird und das auch noch, welche Überraschung von Leuten die seit Jahren keine ATI-Karten mehr hatten.

Ich habe jetzt seit ca. 5 Monaten eine HD5870 und es ist bei weitem nicht so ein Problem wie es einige immer wieder darstellen.

Gast
2010-03-25, 19:15:11
Hier hat man mal die GTX 285 und GTX 480-Werte aus den Reviewers Guide Folien verglichen:
http://forum.beyond3d.com/showpost.php?p=1412927&postcount=4948
Wobei da aber auch viele >60FPS-Werte dabei sind. Interessant dürfe dann wohl eher ein Extreme-Test mit SSAA (falls noch vorhanden) oder Downsampling mit einer 2GiB GTX 285 sein.

interessant. das sind ca. +45% avg gegenüber einer 285er.
jetzt nehmen wir mal an, die CB ratings sind halbwegs representativ. da ist (laut radeon 5830 test) eine 5870er mit uralt treibern (9.11) bei 4xAA 37% vor der 285er, mit 8xAA 40% (in besagter 1920er auflösung) ob wir jetzt die steigerungen mit den 10.3a dazurechnen wollen oder nicht, egal. es schaut jedenfalls so aus, als ob die 480er im schnitt nicht besonders weit vor der 5870er liegt. und das mit 50% mehr transistoren und "kochplatte+harföhn"-kühler und 6 monatiger verspätung. sollten die gerüchte um die niedrigere taktfrequenz der ausgelieferten karten auch noch stimmen, kann sich nvidia die karten wirkloch behalten.

Gast
2010-03-25, 19:19:42
Wie stehen eigendlich die Changsen auf neue Cuda Anwendungen? Nach Video, Crypt etc. könnte jetzt mal Datenkompression als "nützlich" an der Reihe sein oder? :confused:

Düfte ja nicht so schwer sein den 7-Zip Code da einzucudern?

bei kompression limitiert doch heute eh der schreibspeed der platte

Gast
2010-03-25, 19:21:05
interessant. das sind ca. +45% avg gegenüber einer 285er.
jetzt nehmen wir mal an, die CB ratings sind halbwegs representativ. da ist (laut radeon 5830 test) eine 5870er mit uralt treibern (9.11) bei 4xAA 37% vor der 285er, mit 8xAA 40% (in besagter 1920er auflösung) ob wir jetzt die steigerungen mit den 10.3a dazurechnen wollen oder nicht, egal. es schaut jedenfalls so aus, als ob die 480er im schnitt nicht besonders weit vor der 5870er liegt. und das mit 50% mehr transistoren und "kochplatte+harföhn"-kühler und 6 monatiger verspätung. sollten die gerüchte um die niedrigere taktfrequenz der ausgelieferten karten auch noch stimmen, kann sich nvidia die karten wirkloch behalten.

Warte die Zeit ab. Die Benchmarks sind alle CPU Limitiert (bis auf Warhead) bei sehr hohen Auflösungen wird man locker 2xGTX285 erreichen.

Sentionline
2010-03-25, 19:26:17
bei kompression limitiert doch heute eh der schreibspeed der platte
Welche Platte ist zu langsam? Die von vor 20 Jahren villeicht. Kein schlüssiges Gegenargument für mich...

Gast
2010-03-25, 19:26:36
Ich fürchte da ist bei dir der Wunsch Vater des Gedanken.

Gast
2010-03-25, 19:27:17
[QUOTE=Kosh;7928142
Aber sobald es eine gute Karte wird, dürfte die Verfügbarkeit sehr,sehr problematisch werden.[/QUOTE]

Muss nicht sein.

1. Wird die Nachfrage nicht so wahnsinnig groß sein, die wenigsten 58xx-Besitzer werden wohl umsteigen.

2. Hat NV 80% der 40nm-Kapazitäten bei TSMC und kann damit auch mit größerem DIE deutlich mehr produzieren (lassen)

Gast
2010-03-25, 19:28:35
Es könnte also sein, dass wir das schon in der nächsten Generation sehen werden.

Ich habe nichts anderes geschrieben. Mit Fermi hat es auf jeden Fall nichts zu tun, egal wie es kommt.

Gast
2010-03-25, 19:29:44
Ich fürchte da ist bei dir der Wunsch Vater des Gedanken.

Schau dir die Games an...das hat nichts mit Wünschen zu tun die hängen alle an der CPU WiC,RE5,Left4Dead = Source Engine,Vantage. Dir nützt die schnellste Karte nichts in Games wo die CPU Limitiert, daher muss raus aus dem CPU Limit sonst verfälscht es das Gesamtleistungsbild.

Gast
2010-03-25, 19:30:27
Böse sache
http://www.hwmag.de/grafikkarten/geforce-gtx480-im-grenzbereich

Gast
2010-03-25, 19:30:35
Nur wenn man den DX11 Bonus mitrechnet.


Und auch deutlich schlechter aussehen. ;)
warum? auf ht4u liegt sie mit aktuellen treibern zwischen 40-47%vorne

Gast
2010-03-25, 19:35:33
Schau dir die Games an...das hat nichts mit Wünschen zu tun die hängen alle an der CPU WiC,RE5,Left4Dead = Source Engine,Vantage. Dir nützt die schnellste Karte nichts in Games wo die CPU Limitiert, daher muss raus aus dem CPU Limit sonst verfälscht es das Gesamtleistungsbild.


Aber diese Daten beruhen auf den angeblichen NV internen Bench-Ergebnissen und das die ihre eigenen neuen GPUs ins CPU-Limit laufen lassen willst du mir doch nicht ernsthaft erzählen. NV wird, wenn diese Werte wirklich real sind und von ihnen stammen sollten, mit Sicherheit für eine sehr schnelle CPU gesorgt haben.

Gast
2010-03-25, 19:36:51
Ich hatte irgendwie ein völlig anderes Bild von der HD 5850. 30 % + und HD 5870 50 %.

Das stimmt gegenüber der alten ATI-Spitze.

Gast
2010-03-25, 19:37:58
Und auch deutlich schlechter aussehen. ;)

Mit 32 Samples sicher nicht in Fällen in denen kein Shaderflimmern auftritt.

Polygone und AT werden besser geglättet.

Gast
2010-03-25, 19:38:05
Aber diese Daten beruhen auf den angeblichen NV internen Bench-Ergebnissen und das die ihre eigenen neuen GPUs ins CPU-Limit laufen lassen willst du mir doch nicht ernsthaft erzählen. NV wird, wenn diese Werte wirklich real sind und von ihnen stammen sollten, mit Sicherheit für eine sehr schnelle CPU gesorgt haben.

Schau auf die Games und Ja eigentlich müsste man NV dafür hauen...

Gast
2010-03-25, 19:42:22
GTX 285: 240 SP, Fermi mindestens 480. Alleine diese Tatsache dürfte ausreichen.

GTX 285: 80TMUs, Fermi: (bisher max) 60TMUs

Texturleistung ist immer noch sehr wichtig, für fast jeden Shader ist der Input eine gefilterte Textur. Der Takt ist nicht wesentlich höher und gather4 bringt nur in wenigen Fällen Mehrleistung. Wenn die TMUs nicht irgendwelche anderen noch nicht bekannten Tricks beherrschen wird sich Fermi in vielen Spielen nicht weit absetzen können (außer natürlich man verzichtet auf AF und setzt am besten noch auf 8xMSAA)

Gast
2010-03-25, 19:44:35
Fermi wird maximal 1,5x schneller sein als eine GTX285, in aktuellen Games. Im Schnitt also maximal 20% schneller als eine 5870. In Szenen wo kein VRAM limitiert.


Laut NV-Folie ist Fermi 1,5-2x schneller, die 1,5 sind also Minimum, die 2x wohl der Idealfall mit 8xMSAA. Tesselation kann ja nicht verglichen werden, da 285GTX das nicht kann.

Gast
2010-03-25, 19:46:38
NV oder AMD-Folien sind die eine Seite die Realität dann die andere und wichtigere.

Gast
2010-03-25, 19:47:29
Und beides stimmt oftmals nicht überein.

Eggcake
2010-03-25, 19:48:19
Welche Platte ist zu langsam? Die von vor 20 Jahren villeicht. Kein schlüssiges Gegenargument für mich...

Wenn komprimiert wird, limitiert zu 99% die CPU. Mit meinem Quad liege ich dann bei rund 10-25MB/s. Weiss ja nicht was der Gast so komprimiert - ich komprimiere meistens nur, wenn's auch was zu komprimieren gibt und dann limitiert garantiert nicht die Platte :)

Edit: Sorry für OT

Gast
2010-03-25, 19:48:47
GTX 285: 80TMUs, Fermi: (bisher max) 60TMUs

Texturleistung ist immer noch sehr wichtig, für fast jeden Shader ist der Input eine gefilterte Textur. Der Takt ist nicht wesentlich höher und gather4 bringt nur in wenigen Fällen Mehrleistung. Wenn die TMUs nicht irgendwelche anderen noch nicht bekannten Tricks beherrschen wird sich Fermi in vielen Spielen nicht weit absetzen können (außer natürlich man verzichtet auf AF und setzt am besten noch auf 8xMSAA)
Zum Glück testet die Presse höchstens 16x Q.
Kann man Nvidia nicht verübeln wenn sie auf diese Testmethoden reagiert.

Gast
2010-03-25, 19:50:32
Ist denn bekannt, ob man durch diese schlechtere AF-Implementierung ein paar Transistoren spart oder es nur auf "Unfähigkeit" zu schieben ist?

Natürlich kann man durch schlechte AF-Implementierungen Transistoren sparen, das haben bereits genügend Karten beider Hersteller gezeigt.

Und ja, man kann auch je nach Hardwareimplementierung "zu viele" Samples verwenden und eine andere Implementierung entsprechend weniger, ohne dass die Qualität verschlechtert wird.

Es wäre also durchaus denkbar, dass RV870 für korrektes AF mehr Samples braucht als G80+ bzw. mit den eingesparten Samples, die zum Flimmern führen, immer noch nicht weniger als G80+ mit korrekter Filterung.


Prinzipiell könnte es natürlich auch umgekehrt sein und G80+ braucht zwar mehr Samples, erschlägt aber alles mit extremer Rohleistung (wobei das eher unwahrscheinlich ist wenn man G200 vs RV870 sieht)

Gast
2010-03-25, 19:51:31
Wie stehen eigendlich die Changsen auf neue Cuda Anwendungen? Nach Video, Crypt etc. könnte jetzt mal Datenkompression als "nützlich" an der Reihe sein oder? :confused:


Sinnlos für Heimanwender, es limitiert die Festplatte.

Gast
2010-03-25, 19:52:52
Welche Platte ist zu langsam? Die von vor 20 Jahren villeicht. Kein schlüssiges Gegenargument für mich...

Jede, selbst mit einer SSD.

Eggcake
2010-03-25, 19:54:32
Sinnlos für Heimanwender, es limitiert die Festplatte.

Dann musst du aber echt eine miese Platte haben:
http://www.abload.de/img/untitledcu5e.png (http://www.abload.de/image.php?img=untitledcu5e.png)

Solche Anwendungen können durchaus auch für Heimanwender interessant sein.

Ihr verwechselt wohl komprimieren mit entkomprimieren.

Gast
2010-03-25, 19:55:39
NV oder AMD-Folien sind die eine Seite die Realität dann die andere und wichtigere.

NV bzw. AMD-Folien sind sicher aus dem Blickwinkel die eigene Hardware im besten Licht zu zeigen und eigene Schwächen zu verstecken.
Wirklich die Unwahrheit erzählen sie aber nie, das könnten sie sich auch nicht leisten, wenn man es ihnen sofort nachweisen kann.

Sentionline
2010-03-25, 19:59:14
- ich komprimiere meistens nur, wenn's auch was zu komprimieren gibt und dann limitiert garantiert nicht die Platte :)
Ich nutze Kompression für meine Offline Datenbank. Für den Gau und Zeitersparnis...;)

http://www.abload.de/thumb/zwischenablage02e0v6.jpg (http://www.abload.de/image.php?img=zwischenablage02e0v6.jpg) http://www.abload.de/thumb/zwischenablage03n2dt.jpg (http://www.abload.de/image.php?img=zwischenablage03n2dt.jpg)

Und noch für andere Sachen...

OgrEGT
2010-03-25, 20:01:36
Gibt es schon irgendwo einen Frameverlauf GTX 480 unter Unigine 2.0 1920x1080 Extreme Tesselation? Würde mich mal im Vergleich zur Radeon 5870 Cat 10.3a und das wiederum im Vergleich zu den Werten unter Unigine 1.0 interessieren. Dann könnte man mal sehen wie gut/schlecht die Tesselation Power unter extremen Bedingungen wirklich ist.

Hab schon mal einen für die HD5870 gemacht... :smile:

Habe als Minimum fps 0 bei ca. 170 sec :biggrin:

Eggcake
2010-03-25, 20:02:11
Ja - ich meine nur, wenn man natürlich Dateien nicht komprimiert und nur in ein Archiv packt, hat die CPU logischerweise nix zu tun und es limitiert die Lese- und Schreibrate des Laufwerks (oder besser: "komprimieren" + "entkomprimieren" = Kopiergeschwindigkeit des Laufwerks).
Wenn's was zu komprimieren gibt, dann limitiert die CPU. Wenn du die Archive nur zum speichern brauchst bzw. der Übersichtlichkeit wegen, dann nutzt dir hingegen auch kein CUDA, dann hängt's wirklich von den Platten ab.

Edit: Von Schlammsau gibt's auch bereits Diagramme einer 5850:

http://666kb.com/i/bhqrveedvstjx14xb.gif

Mehr sind schon im Unigine Benchthread zu finden.
Wie du hingegen auf 0FPS ohne AA kommst ist mir eher schleierhaft :)

Sentionline
2010-03-25, 20:08:15
Beispielsweise komprimiere ich Spielearchive, bevor ich neue Mods/Patches teste, dann brauch ich das Spiel nicht neu zu instalieren. Falls der/die deinstaller versagen, kann ich einfach den Ordner löschen und das alte wieder entpacken (dringend nötig bei z.b. Generäle). Nur in ein Archiv Packen tu ich nicht, denn in Plattenplatz schimmt man nicht durchgehend. Ich nicht.

Ach, es gibt so viele Gründe zu komprimieren, muss man nicht erläutern. Aber etwas schneller darfs ruhig gehen, wo die Spieleordner doch immer größer werden...und nicht nur die. ;)

Am Plattentempo haperts nicht, das ist blödsinn. Schon seid minderstens 7 Jahren.

mfg

Eggcake
2010-03-25, 20:09:37
Wie gesagt - das kommt auf den Kompressionsgrad draufan, bin aber deiner Meinung :)

OgrEGT
2010-03-25, 20:09:47
Mehr sind schon im Unigine Benchthread zu finden.
Wie du hingegen auf 0FPS ohne AA kommst ist mir eher schleierhaft :)

Liegt vielleicht an Vista 64 :biggrin:
Muss die Kiste sowieso mal neu installieren...

Gast
2010-03-25, 20:15:46
Böse sache
http://www.hwmag.de/grafikkarten/geforce-gtx480-im-grenzbereich
Ist ja auch ordentlich Voltage drauf. Man kann sich wohl nicht darauf verlassen, wenn man die Voltage auch nur ein bisschen über Default anhebt, dass der Kühler dann noch leise zu Sache geht. Ich frage mich eh, wie gut Spannungswandler sind und wie lange die bei Overclocking halten. Das sind ganz andere Dimensionen als früher und selbst da sind schon recht früh einige Karten defekt gegangen (G80, GTX 280 usw.)