Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : GT400/GF100 - Q1/2010, DX11, CUDA 3.0 spam


Seiten : 1 2 [3] 4

Menace
2010-03-08, 22:09:04
Mal eine dumme Frage, da die Werte vorhin von HarryHirsch nicht stimmten (die hochgetakteten). Stimmen denn die ersten Werte?

HarryHirsch
2010-03-08, 22:10:37
Mal eine dumme Frage, da die Werte vorhin von HarryHirsch nicht stimmten (die hochgetakteten). Stimmen denn die ersten Werte?

nein. schlammsau hat aber inzwischen die richtigen

Menace
2010-03-08, 22:11:47
Fuer Heaven/Drachen/Unigine macht gefaelligst einen anderen Thread auf.

Auch wenn sie sich auf den Fermi-Nvidia-Benchmark sich beziehen? :rolleyes:

AwesomeSauce
2010-03-09, 17:45:10
@AnarchX
Kann mir immer noch nicht vorstellen, dass eine GTX470 mit Taktraten unterhalb der Teslas auf den Markt kommt (1400/700)...

Gast
2010-03-09, 17:46:35
21W für den Lüfter sind vollkommen utopisch. Als ob der auf 100% laufen würde.

Sorry, aber der Lüfter braucht 21 Watt? Nie und nimmer.

Coda
2010-03-09, 17:51:46
Sorry, aber der Lüfter braucht 21 Watt? Nie und nimmer.
Sag ich doch :|

Gast
2010-03-09, 17:52:46
Nochmal zu Klärung. Wer kommt auf das schmale Brett das der fuzzelige Lüfter über 20 Watt braucht? Das kann doch eigentlich nur aus der roten Ecke kommen...

Gast
2010-03-09, 17:54:22
Ich glaube auch nicht das der Lüfter bei den Serienkarten verwendet wird, das wäre absoluter Luxus wenn man mal nicht davon ausgeht das NV einen Staubsaugen in Kauf nimmt. Bei Vorseienkarten verbaut auch ATi oft überdimensionierte Lüfter, darauf würde ich nicht viel geben.

Gast
2010-03-09, 17:54:53
Soso. Ich werde das mal bei Gelegenheit nachmessen. Ich werde mir ja so eine Karte holen;)

Schlammsau
2010-03-09, 17:56:19
Wenn es der selbe ist wie auf dem Bild: 9,6 Watt.

Und das sind in Ampere?

Coda
2010-03-09, 17:56:42
Und das sind in Ampere?
:facepalm:

Schlammsau
2010-03-09, 17:57:51
Maximal augenscheinlich schon. Es stehen 1.8A bei 12V drauf. Eindeutiger geht es elektrotechnisch gesehen nicht ;)


Und was genau soll der Test jetzt sagen? Es kann genauso gut sein, dass der Fan-Controller der GTX 270 eben nicht bis 12V, sondern nur 6V steuert bei 100%.

Ratings auf dem Bauteil sind Maximalwerte. Die ganze Diskussion geht mir deshalb schon auf die Nerven.

das war nur bezogen auf den Kommentar von LZ, der meinte 20W von der TDP abzuziehen wegen der 1,8 Ampere.

Gast
2010-03-09, 17:58:01
Und das sind in Ampere?

9,6 Ampere? Du hast wohl im Physikunterricht geschlafen:D

Gast
2010-03-09, 18:00:07
9,6 Ampere? Du hast wohl im Physikunterricht geschlafen:D
wohl mit dir als Kopfkissen, 9,6 Ampere ... lmao

Schlammsau
2010-03-09, 18:01:18
9,6 Ampere? Du hast wohl im Physikunterricht geschlafen:D

Sorry ich war mir nur nicht sicher ob der Lüfter mit 6 oder 12 Volt betrieben wird. :P

Gast
2010-03-09, 18:01:33
Und was genau soll der Test jetzt sagen? Es kann genauso gut sein, dass der Fan-Controller der GTX 270 eben nicht bis 12V, sondern nur 6V steuert bei 100%.

Ratings auf dem Bauteil sind Maximalwerte. Die ganze Diskussion geht mir deshalb schon auf die Nerven.

Wir sprechen hier von einem E-Motor, da kannst du nicht beliebig herunter mit der Spannung, da er sonst nicht mehr anläuft. Bei 12V Nennspannung wird man einen solchen Lüfter kaum mit 6V oder weniger betreiben können.

Gast
2010-03-09, 18:02:24
Sorry Schlammsau, den konnte ich mir nicht verkneifen. Dachte mir schon das du WATT meintest. Und wegen den 20+X Watt. Das ist nur zum Lachen, denn das wäre dann eine Turbine.

Gast
2010-03-09, 18:07:38
Der Motor ist brushless, der läuft sogar ganz sicher noch mit <6V.

Ich kenne hunderte solche Motoren, natürlich brushless, und die wenigstens laufen mit <7V. Aber wenn du meinst.

Gast
2010-03-09, 18:12:15
Wie gesagt zwischen 0 und 100 Lüfterdrehzahl liegen rund 10 Watt bei einer 5850. Passt ja ganz gut zu der angegebenen Amperezahl auf dem Lüfter. Und das ist verdammt laut.

Aber der Lüfter einer GTX470 soll ja die doppelten Ampere haben.....OMG. :eek:

Das sagt erstmal das der Motor gut ist. Und wer sagt denn das der voll aufdreht? Abwarten und die Karte durch Furmark jagen:D

Gast
2010-03-09, 18:18:09
Ich weiß eins sicher: Die Karte braucht keinen Luftstrom, der von einer normalen 21W-Turbine erzeugt wird. Bleiben zwei Möglichkeiten:

1. Das Ding läuft mit deutlich niedrigerer Drehzahl als andere vergleichbare Lüfter bei diesen Ratings.
2. Die Spannungen sind niedriger

Zu 1.) Ein E-Motor hat einen sehr hohen Wirkungsgrad von 80-90%, deshalb kann man die Drehzahl wenn man Pe weiß sehr gut abschätzen. Es sei denn der Strömungswiderstand wäre bedeutend höher, aber das sieht nach einem gewöhnlichen Radialdesign aus.

Zu 2.) Wie schon gesagt hier hat man nur beschränkt Möglichkeiten.

Ich bleibe dabei das der Lüfter nicht bei Serienkarten verbaut wird. Es würde ja auch keinen Sinn machen eine 21W-Turbine zu verbauen wenn man sie nicht braucht. Das macht die Karte ja auch nicht billiger.

Gast
2010-03-09, 18:20:26
Meine Vermutung ist, dass das nächstkleinere Modell nicht genügend Luft nach oben in extremen Fälle gehabt hätte.

Sprich 10W reichen bei dem "kleinen" Radiallüfter nicht mehr um den Betrieb in jeder Situation (verstopftes Gehäuse, 30° Außentemperatur) zu gewährleisten.

Die Ansteuerung ist doch sowieso PWM soweit ich weiß, dann erledigt sich das Anlaufproblem ohnehin.

Es gibt schon noch "einige" Modell zwischen 0.8A und 1.8A. :D

Gast
2010-03-09, 18:33:11
Liest du eigentlich auch was ich schreibe?

1. Kein GPU-Lüfter der Welt läuft selbst im 3D-Betrieb auf 100%.

*hust*FX5800 Ultra *hust*
;)

-Carsten

Gast
2010-03-09, 19:16:28
Das Problem ist das fast ausschließlich Settings gebencht werden wo man annehmen kann das das eine GB der 5870 knapp werden könnte.

S940
2010-03-09, 19:16:49
schon ernüchternd.
Solange die Taktraten nicht fix sind, sind die ganzen Bildchen gute Unterhaltung, aber nicht viel wert ..

Gast
2010-03-09, 19:17:18
schon ernüchternd.

was? Das die 470 und nicht die 480 Gegner der 5870 ist?

Gast
2010-03-09, 19:19:29
Ein 470er bench, oder? Damit wäre das dann der Gegner der 5870...

Hm, ich glaube langsam dass die 470 nur in solchen Extremauflösungen + AA gegen die 5870 anstinken kann, wohl aufgrund des Mehr an Speicher.

Gast
2010-03-09, 19:20:39
Ich finde das ganz und gar nicht enttäuschend. Was ich schon so gehört und gelesen habe...

Gast
2010-03-09, 19:25:07
Schon wieder 2560x1600 und der Grund für diese Auflösungswahl ist ja auch klar, denn nur unter dieser extremen Auflösung kann sich eine GTX470 dank des größeren Speichers leicht absetzen.

y33H@
2010-03-09, 19:26:16
Die hat nur 256M mehr .... also ob das soviel reißt. Bei den Settings müssen beide Karten (massiv) auslagern, ergo egal.

mapel110
2010-03-09, 19:26:37
Und in niedrigeren Einstellungen ists auf beiden Karten gut spielbar. Daher wayne.

LovesuckZ
2010-03-09, 19:26:37
Bei dem Stalker-Vergleich geht doch der 5870 garnicht der Speicher aus. Guckt euch die Min-Frames an: Die liegen auf dem selben Niveau...

dildo4u
2010-03-09, 19:27:43
Krass wenn der Stalker Bench die 470 ist das Game liegt den ATI's sher sher gut.

Odal
2010-03-09, 19:29:04
was? Das die 470 und nicht die 480 Gegner der 5870 ist?


und was ist wen das X für 8 und nicht für 7 steht?

also GTX480

Gast
2010-03-09, 19:29:49
und was ist wen das X für 8 und nicht für 7 steht?

also GTX480

Tut mir leid, das kann und will ich mir nicht vorstellen;)

LovesuckZ
2010-03-09, 19:30:05
und was ist wen das X für 8 und nicht für 7 steht?

also GTX480

Die Benches kommen alle vom selben Typen. Und der hat nur eine GTX470.

Gast
2010-03-09, 19:30:19
Die hat nur 256M mehr .... also ob das soviel reißt. Bei den Settings müssen beide Karten (massiv) auslagern, ergo egal.

25% mehr Speicher bei einer Karte, es muss ausgelagert werde und von die kommt nur ein wayne? Bezeichnend.

dildo4u
2010-03-09, 19:30:47
und was ist wen das X für 8 und nicht für 7 steht?

also GTX480
Die leak Benches sind bisher alles nur 470 schätze es hat noch keiner Außerhalb von NV und Boardpartnern 480.

fizzo
2010-03-09, 19:31:11
und was ist wen das X für 8 und nicht für 7 steht?

also GTX480

Habe ich mir auch gedacht, warum das X?


Ich erwarte persönlich mindesten 60% mehr Leistung zur GTX285. Seit der CES wäre dies ein gutes Ergebnis. Alles, was darunter liegt, wäre mehr als erbärmlich. Und das hat nichts, aber überhaupt nichts mit Cypress zu tun. Denn Cypress ist nicht schnell.

;)

Gast
2010-03-09, 19:31:26
Krass wenn der Stalker Bench die 470 ist das Game liegt den ATI's sher sher gut.

Nein, es ist ein Game das stark von DX11 profitiert. In punko Geschwindigkeit lag da NV nie schlecht.

Gast
2010-03-09, 19:32:09
Außerdem ist diese Auflösung sehr praxisfern, denn nur eine sehr kleine Minderheit der Gamer zockt in dieser Auflösung bzw. hat überhaupt einen Monitor der diese ermöglicht und die 256MB mehr Ram bringen zwar nicht viel mehr, aber sie bringen was.

Odal
2010-03-09, 19:36:32
Außerdem ist diese Auflösung sehr praxisfern, denn nur eine sehr kleine Minderheit der Gamer zockt in dieser Auflösung bzw. hat überhaupt einen Monitor der diese ermöglicht und die 256MB mehr Ram bringen zwar nicht viel mehr, aber sie bringen was.


stimmt die auflösung ist etwas niedrig

meine bevorzugte auflösung sind 2560x2048

y33H@
2010-03-09, 19:38:37
25% mehr Speicher bei einer Karte, es muss ausgelagert werde und von die kommt nur ein wayne? Bezeichnend. Ja, weil das Setting und die Fps fürn Ar*** sind. Wenn GTX4x0 nur hier schneller ist, dann sind die Karten imo für den Ar***.

Gast
2010-03-09, 19:45:26
GF100 ist also schneller in vollkommen "übertesselierten" Szenen die so in einem Game wenig bis gar keinen Sinn machen und nur unnötige Ressourcen verschwenden und in extremen für die Mehrheit der Gamer uninteressanten Auflösungen, in denen die NV Karten dann von den etwas größerem Ram profitieren, wobei sowohl die HD5870 als auch die GTX470 sowieso unspielbare Fps liefern.

Ja wirklich ganz großes Kino, besonders angesichts der Die-Größe.

Gast
2010-03-09, 19:46:34
Und es sind noch nichtmal finale Treiber. Da werden noch Performancesprünge drinne sein. Ist halt ne neue Architektur;)

Gast
2010-03-09, 19:48:45
Nein? P = U * I? :ugly:

Mal ganz abgesehen davon, dass Ampere die Maßeinheit für Strom ist und Watt für Leistung. Aber das sind ja nur Nebensächlichkeiten :usad:

Genauer gesagt ... Stromstärke welche durch Anzahl der Ladungen pro Zeit definiert ist, wohingegen die Spannung die Menge an Arbeit, welche verrichtet werden kann pro Ladung angibt.

Gast
2010-03-09, 19:49:07
196.78 war das laut dem Bild. Also, das war noch längst nicht alles:)

Gast
2010-03-09, 19:51:29
Und es sind noch nichtmal finale Treiber. Da werden noch Performancesprünge drinne sein. Ist halt ne neue Architektur;)

Und was wenn's so lange dauert wie beim R600 mit der Optimierung? Ich will die Performance JETZT und nicht in einem halben Jahr... nur weil es sein könnte dass der Treiber dann erst das Potenzial der Karte entfalten kann?

Gast
2010-03-09, 19:51:48
irgendwie hab ich das dumpfe gefühl, dass nvidia ende märz nur die 470er vorstellen wird.... also gitbs vielleicht auch nur reviews von 470er karten.

Gast
2010-03-09, 19:52:04
Na klar wenn die Hoffnung mal wieder richtig am schwinden ist, kommt dann der Irrglaube an den Wundertreiber der alles richten wird und nochmal 20% rausholt.

LovesuckZ
2010-03-09, 19:53:32
GF100 ist also schneller in vollkommen "übertesselierten" Szenen die so in einem Game wenig bis gar keinen Sinn machen und nur unnötige Ressourcen verschwenden und in extremen für die Mehrheit der Gamer uninteressanten Auflösungen, in denen die NV Karten dann von den etwas größerem Ram profitieren, wobei sowohl die HD5870 als auch die GTX470 sowieso unspielbare Fps liefern.

Ja wirklich ganz großes Kino, besonders angesichts der Die-Größe.

Mal sehen: Gleichschnell in "nicht Tessellationsituationen", (deutlich) schneller in "Tessellationsituationen". Hm, was da wohl der besser deal ist. :freak:

Gast
2010-03-09, 19:53:35
Ja, ich habe noch die Hoffnung, das die 470 schneller als die 5870 ist. Denn das habe ich getippt:)

Nighthawk13
2010-03-09, 19:55:03
schon ernüchternd.
Kommt auch auf den Preis an. Für ne 300EUR Karte wäre die Leistung in Stalker ziemlich gut.
Für ne 400+EUR Karte enttäuschend.

pest
2010-03-09, 19:55:59
wenn sich das Ding auf Augenhöhe der HD5870 bewegt, ist der Vorsprung gegenüber der GTX285 aber nicht besonders.

dildo4u
2010-03-09, 19:57:47
wenn sich das Ding auf Augenhöhe der HD5870 bewegt, ist der Vorsprung gegenüber der GTX285 aber nicht besonders.
Die 470 ersetzt ja auch die GTX260 nicht die 285.

Gast
2010-03-09, 19:58:04
wenn sich das Ding auf Augenhöhe der HD5870 bewegt, ist der Vorsprung gegenüber der GTX285 aber nicht besonders.

Wenns die 470 ist, hat Nvidia mit der 480 wieder die Singlekrone inne. Später wird dann die Dualkarte nachgeschoben;)

LovesuckZ
2010-03-09, 19:58:06
wenn sich das Ding auf Augenhöhe der HD5870 bewegt, ist der Vorsprung gegenüber der GTX285 aber nicht besonders.

Ca. 30% für die GTX470. Je nach Fall läge die GTX480 wohl zwischen 10% (:frown:) und 50% (:D) nochmal vor der 470. Macht dann etwas zwischen 43% und 95% mehr Leistung gegenüber der GTX285 (normale, nicht 8xMSAA und speicherauslaufende Szenarien).

y33H@
2010-03-09, 19:58:31
@ pest

In Stalker CoP mit DX11-SpeedUp ist eine HD5870 fette 50 bis über 100% vor einer GTX285. Sofern das die GTX470 auch packt - ist doch ok.

Gast
2010-03-09, 19:58:33
Ich würde es schon als eine Enttäuschung sehen, wenn die GTX470 "nur" so schnell wie die HD5870 wäre, aber es deutet halt einiges darauf hin, dass sie nicht mal das schafft.

pest
2010-03-09, 20:04:32
Die 470 ersetzt ja auch die GTX260 nicht die 285.

ist doch egal, dafür das sie 448! Shader draufpacken, ist das nicht viel imho, aber gut, wenn man danach geht sieht die GTX260 gegenüber der GTS250 alt aus.

@ pest

In Stalker CoP mit DX11-SpeedUp ist eine HD5870 fette 50 bis über 100% vor einer GTX285. Sofern das die GTX470 auch packt - ist doch ok.

Ich suche mir lieber Games, wo keine Architektur besonders benachteiligt ist.

Ich will jetzt auch gar nicht diskutieren in welchen Situationen wohl wie was warum besser ist. Ist nur das Gefühl das NV erheblichen Aufwand für recht wenig Output betrieben hat.
Das die architekturellen Änderungen ab und an und in Zukunft wohl mehr durchschlagen, sollte man ja praktisch erwarten können.

LovesuckZ
2010-03-09, 20:06:01
ist doch egal, dafür das sie 448! Shader draufpacken, ist das nicht viel imho


Naja, sie hat auch weniger:
Bandbreite
Texturleistung

Die 448SP werden sich zeigen, wenn viel mit PhysX gemacht wird. Oder die Last mehr auf die Recheneinheiten verlagert wird (CS z.B).

/edit: Warum hat jeder Angst, dass man die Taktraten kennt? Unglaublich.

y33H@
2010-03-09, 20:06:09
Ist nur das Gefühl das NV erheblichen Aufwand für recht wenig Output betrieben hat. Das Gefühl scheint eher eine Tatsache zu sein. Allerdings frage ich mich dann, wie böse das Design gegen die Wand gefahren wurde :usad:

dildo4u
2010-03-09, 20:09:40
Das Gefühl scheint eher eine Tatsache zu sein. Allerdings frage ich mich dann, wie böse das Design gegen die Wand gefahren wurde :usad:
Reine FPS sind halt nich alles Compute Shader werden ja jetzt auch für Grafik genutzt siehe Just Cause 2 und Metro 2033 also abwarten.

y33H@
2010-03-09, 20:10:55
Das wäre wie X1800XT zu X1900XT - hat lange gedauert, aber letztere dreht um erstere mittlerweile Kreise.

N0Thing
2010-03-09, 20:11:06
Mal sehen: Gleichschnell in "nicht Tessellationsituationen", (deutlich) schneller in "Tessellationsituationen". Hm, was da wohl der besser deal ist. :freak:


Wenn du so fragst, fände ich schneller in "nicht Tessellationsituationen" und gleich schnell in in "Tessellationsituationen" für mich als Spieler besser als andere Ergebnisse. ;)

Ich bin einfach gespannt wo sich die NV-Karten einsortieren werden, nach den ganze Gerüchten, Vermutungen und Spekulationen will ich einfach wissen wer Recht gehabt hat und wer falsch liegt. ^_^

Gast
2010-03-09, 20:11:26
Reine FPS sind halt nich alles Compute Shader werden ja jetzt auch für Grafik genutzt siehe Just Cause 2 und Metro 2033 also abwarten.

Also soll der GF100 gegen den rv870 in Rechenleistung punkten?

Gast
2010-03-09, 20:12:36
Der Großteil der Games unterstützt aber nunmal kein DX11 und das wird auch noch mittelfristig so bleiben und der Großteil der Gamer spielt nicht in 2560x1600 und auch das wird auf absehbare Zeit so bleiben.

Ich denke wie gesagt, dass ohne starke Tesselation und extrem hohe Auflösungen beide GT100 Grakas eher eine Enttäuschung werden. Gegen eine HD5870 Eyefinity 6 mit 2GB GDDR5 wird auch der leichte Vorteil in 2560x1600 wegfallen bzw. sich vielleicht sogar umkehren.

dildo4u
2010-03-09, 20:15:33
Also soll der GF100 gegen den rv870 in Rechenleistung punkten?
Überlegene Softwarebasis mit genug Hardwarespeed NV hat da noch ordentlich Vorsprung mit cuda.NV betont imo zu Recht Software wird immer wichtiger.

Gast
2010-03-09, 20:17:23
Überlegene Softwarebasis mit genug Hardwarespeed NV hat da noch ordentlich Vorsprung mit cuda.NV betont imo zu Recht Software wird immer wichtiger.

? Ich dachte es geht um CS.
CUDA und CS sind unterschiedliche Schnittstellen.

dildo4u
2010-03-09, 20:20:32
? Ich dachte es geht um CS.
CUDA und CS sind unterschiedliche Schnittstellen.
Just Cause 2 nutzt Cuda um GS Effekte zu proggen nicht verfügar für ATI.

http://www.pcgameshardware.de/aid,706058/Just-Cause-2-Geforce-exklusive-Effekte-im-Detail-Update-Benchmarks-mit-und-ohne-CUDA/Action-Spiel/Test/

Gast
2010-03-09, 20:20:32
Jawohl da haben wir es doch schon Cuda und jetzt fehlt nur noch PhysX. Eines muss man NV wirklich lassen beim Marketing macht ihnen so schnell keiner was vor, immerhin haben sie es geschafft einer beträchtlichen Anzahl von Leuten einzureden, dass Cuda und PhysX einen echten Mehrwert darstellen.

Gast
2010-03-09, 20:21:28
CUDA in Spielen kannst du vergessen solange es nur auf NV-Karten läuft. Dafür gibt es CS.

Gast
2010-03-09, 20:22:21
Just Cause 2 nutzt Cuda um GS Effekte zu proggen nicht verfügar für ATI.

Ja und weiter?
Wo Nichts vorhanden ist, ist Nichts vergleichbar.
Was ist dass für eine Diskussionsführung?

dildo4u
2010-03-09, 20:24:41
Sie nutzen Cuda weil es ausgereift ist das meinte ich mit überlege Softwarebasis.

LovesuckZ
2010-03-09, 20:25:04
Jawohl da haben wir es doch schon Cuda und jetzt fehlt nur noch PhysX. Eines muss man NV wirklich lassen beim Marketing macht ihnen so schnell keiner was vor, immerhin haben sie es geschafft einer beträchtlichen Anzahl von Leuten einzureden, dass Cuda und PhysX einen echten Mehrwert darstellen.

Stimmt. Kein Mehrwert. Also nicht nutzbar. So wie Havok über OpenCL.
Trollt euch wo anders - wirklich.

Gast
2010-03-09, 20:25:51
Sie nutzen Cuda weil es ausgereift ist das meinte ich mit überlege Softwarebasis.

Und das glaubst du vermutlich tatsächlich. Sie nutzen es genau aus dem selben Grund warum man PhysX nutzt.

Gast
2010-03-09, 20:26:40
Sie nutzen Cuda weil es ausgereift ist das meinte ich mit überlege Softwarebasis.

Was ist denn an CS unausgereift?
Da solltest du mal ne email an MS schreiben.
Ich hasse diese Fanboydiskussionen wie die Pest.

Gast
2010-03-09, 20:27:47
Hauptsache PhysX wird genutzt, was man bei Havok in aktuellen Games nicht behaupten kann:D

LovesuckZ
2010-03-09, 20:29:34
Wenn du so fragst, fände ich schneller in "nicht Tessellationsituationen" und gleich schnell in in "Tessellationsituationen" für mich als Spieler besser als andere Ergebnisse. ;)

Und wenn die 5870/2GB nicht schneller ist? Wer jetzt noch nicht gekauft hat, der steht doch dann vor der Wahl, zwischen gleichschnell in nT und schneller in T gegen gleichschnell in nT und langsamer in T.
Was ist dann da der bessere Deal?
Wenigsten ist das TOP-Modell nicht nur auf dem Niveau der 5850 und verbraucht deutlich mehr Storm. :freak:

Gast
2010-03-09, 20:33:37
@LovesuckZ

Die 480 wird schneller in jedem Bereich als die 5870. Wenn nicht esse ich meine Shorts:D

Gast
2010-03-09, 20:35:35
@LovesuckZ

Die 480 wird schneller in jedem Bereich als die 5870. Wenn nicht esse ich meine Shorts:D

In punkto Rechenleistung und Texelfüllrate kann ich dir jetzt schon sagen dass das nicht so sein wird.

Iruwen
2010-03-09, 20:35:37
Na klar wenn die Hoffnung mal wieder richtig am schwinden ist, kommt dann der Irrglaube an den Wundertreiber der alles richten wird und nochmal 20% rausholt.
Solange das bei "Catalyst 10.3 bringt ja viel mehr FPS!!1" ok ist :freak:

Gast
2010-03-09, 20:36:57
In punkto Rechenleistung und Texelfüllrate kann ich dir jetzt schon sagen dass das nicht so sein wird.

OK, sagen wir in 99 Prozent der Spiele. Es soll ja auch noch Games geben, wo ATI seine Finger im Spiel hat:D

Gast
2010-03-09, 20:40:28
OK, sagen wir in 99 Prozent der Spiele. Es soll ja auch noch Games geben, wo ATI seine Finger im Spiel hat:D

verstehen ist manchmal wichtiger als nur lesen :ugly:

Tarkin
2010-03-09, 21:18:07
Just Cause 2 nutzt Cuda um GS Effekte zu proggen nicht verfügar für ATI.

http://www.pcgameshardware.de/aid,706058/Just-Cause-2-Geforce-exklusive-Effekte-im-Detail-Update-Benchmarks-mit-und-ohne-CUDA/Action-Spiel/Test/

Ja, der "Mehrwert" ist wirklich beachtlich :freak:

von 47fps auf 30fps (gut -40%) dank besserem Wasser. Das zahlt sich mal richtig aus.

Kein besonders geeignetes Argument.

Selbst wenn solche Effekte verfügbar wären, würde ich die nicht nutzen (im diesem speziellen Fall). Ist ja komplett sinnlos bitte.

Bisschen weniger Performance Verlust-wäre vielleicht wünschenswert.

Gast
2010-03-09, 21:18:22
Just Cause 2 nutzt z.B. Havok. ;)


Just Cause 2 nutzt aber auch Cuda ;-)

Gast
2010-03-09, 21:20:26
Reine FPS sind halt nich alles Compute Shader werden ja jetzt auch für Grafik genutzt siehe Just Cause 2 und Metro 2033 also abwarten.

Just Cause 2, SUPER stichwort!
und was bringt uns das CUDA?
http://www.pcgameshardware.de/aid,706058/Just-Cause-2-Geforce-exklusive-Effekte-im-Detail-Update-Benchmarks-mit-und-ohne-CUDA/Action-Spiel/Test/

HUI, sinnloser "Bokeh" Filter und schöneres wasser inkl 50% framedrops. wie toll.

Tarkin
2010-03-09, 21:22:31
Just Cause 2, SUPER stichwort!
und was bringt uns das CUDA?
http://www.pcgameshardware.de/aid,706058/Just-Cause-2-Geforce-exklusive-Effekte-im-Detail-Update-Benchmarks-mit-und-ohne-CUDA/Action-Spiel/Test/

HUI, sinnloser "Bokeh" Filter und schöneres wasser inkl 50% framedrops. wie toll.

NICHT VON MIR!

Blaire
2010-03-09, 21:32:22
HUI, sinnloser "Bokeh" Filter und schöneres wasser inkl 50% framedrops. wie toll.

Solange es im spielbaren Bereicht liegt, wo ist das Problem? Die meisten Konsolenumsetzungen haben Reserven en Masse.

LovesuckZ
2010-03-09, 21:35:02
Solange es im spielbaren Bereicht liegt, wo ist das Problem? Die meisten Konsolenumsetzungen haben Reserven en Masse.

Vorallem kann es ich es ausstellen. :rolleyes:

Gast
2010-03-09, 21:37:05
Vorallem kann es ich es ausstellen. :rolleyes:

Beim Bokeh-Filter würde ich das auch wärmstens empfehlen.
Augenkrebs Ahoi.

Gast
2010-03-09, 21:40:20
Vorallem kann es ich es ausstellen. :rolleyes:

lern mal deutsch

dildo4u
2010-03-09, 21:43:49
Ja, der "Mehrwert" ist wirklich beachtlich :freak:

von 47fps auf 30fps (gut -40%) dank besserem Wasser. Das zahlt sich mal richtig aus.

Kein besonders geeignetes Argument.

Selbst wenn solche Effekte verfügbar wären, würde ich die nicht nutzen (im diesem speziellen Fall). Ist ja komplett sinnlos bitte.

Bisschen weniger Performance Verlust-wäre vielleicht wünschenswert.
Genau das Feld für die 480 gerade in Kombination mit solche Effekten wird der Abstand zu alten Generation deutlich werden.

mapel110
2010-03-09, 21:51:05
http://img11.abload.de/img/driverskall.png

pest
2010-03-09, 21:54:03
nothing is more exiting than old news (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7892920&postcount=14840)

Gast
2010-03-09, 21:55:23
Der Ramtakt soll nicht Final sein. Wahrscheinlich gehts da noch höher.

Gast
2010-03-09, 22:05:58
Gibt es eigentlich irgendwo ein Datenblatt zu diesem 20W Höllenlüfter?

Mich würd mal interessieren wie hoch das Ding full throttle dreht, müsste wohl bald 10.000 rpm sein?

lilgefo~
2010-03-09, 22:19:36
Gibt es eigentlich irgendwo ein Datenblatt zu diesem 20W Höllenlüfter?

Mich würd mal interessieren wie hoch das Ding full throttle dreht, müsste wohl bald 10.000 rpm sein?

Die guten Holzlüfter von Delta. <3

dargo
2010-03-09, 22:34:07
Außerdem ist diese Auflösung sehr praxisfern, denn nur eine sehr kleine Minderheit der Gamer zockt in dieser Auflösung bzw. hat überhaupt einen Monitor der diese ermöglicht und die 256MB mehr Ram bringen zwar nicht viel mehr, aber sie bringen was.
Stimmt, wir vergleichen demnächst die neuen High-End-Grafikkarten in CPU-Limits. :uup:

Mal davon ab, lese dich mal hier ein:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129

Man kann schon länger höhere Auflösungen fahren als der TFT nativ darstellen kann.

AMC
2010-03-09, 22:45:30
Mal sehen: Gleichschnell in "nicht Tessellationsituationen", (deutlich) schneller in "Tessellationsituationen". Hm, was da wohl der besser deal ist. :freak:

Zur 5850? Ja. Die 5870 wird in "nicht Tesselationssituationen" gleich scnell zur 480er sein, und die 5850 zur 470, das ist bis jetzt der Tenor. Es freut mich, dass selbst Du das mittlerweile einsiehst.

LovesuckZ
2010-03-09, 22:47:50
Zur 5850? Ja. Die 5870 wird in "nicht Tesselationssituationen" gleich scnell zur 480er sein, und die 5850 zur 470, das ist bis jetzt der Tenor. Es freut mich, dass selbst Du das mittlerweile einsiehst.

Wow - dabei ist schon die GTX470 so schnell. Ich hasse Rebranding. :mad:

Gast
2010-03-09, 22:50:50
meine Herren der NV schuß....warte doch mal ab was von dem Benchi im ersten Spiel übrig bleibt....ich wette nix.

Gast
2010-03-09, 22:54:06
Zur 5850? Ja. Die 5870 wird in "nicht Tesselationssituationen" gleich scnell zur 480er sein, und die 5850 zur 470, das ist bis jetzt der Tenor. Es freut mich, dass selbst Du das mittlerweile einsiehst.

Du hast dich verschrieben. Das muss heissen die 470 ist so schnell (mit ausgereiften Treibern) schneller als eine 5870 und die 480 thront über allem. Wir werden sehen wer Recht hat. Lange dauerts nicht mehr.

AMC
2010-03-09, 22:59:54
Du hast dich verschrieben. Das muss heissen die 470 ist so schnell (mit ausgereiften Treibern) schneller als eine 5870 und die 480 thront über allem. Wir werden sehen wer Recht hat. Lange dauerts nicht mehr.

Der gute alte NV-Fanboy-Talk. ;D So langsam echt nicht mehr ernstzunehmen....und das schreibt jemand, der die erste AMD-Karte seit 7 Jahren im Rechner hat..

AMC
2010-03-09, 23:01:40
Lange dauerts nicht mehr.

Klasse! Ich kann im April endlich von nV die Leistung einer seit September 2009 verfügbaren 5870er haben...wie praktisch. :freak:

N0Thing
2010-03-09, 23:02:53
Ja, der "Mehrwert" ist wirklich beachtlich :freak:

von 47fps auf 30fps (gut -40%) dank besserem Wasser. Das zahlt sich mal richtig aus.

Kein besonders geeignetes Argument.

Selbst wenn solche Effekte verfügbar wären, würde ich die nicht nutzen (im diesem speziellen Fall). Ist ja komplett sinnlos bitte.

Bisschen weniger Performance Verlust-wäre vielleicht wünschenswert.

Mal abgesehen davon, daß dieses Thema sehr nah am Offtopic ist: Wo ist das Problem?
Es gibt für 0€ Aufpreis auf Wunsch bei einzelnen Darstellungen eine bessere Grafikqualität. Aus meiner Sicht kein Grund um von einer ATI auf eine Nvidia zu wechseln, aber weder für ATI, noch für Nvidia-Besitzer ein Grund die Nase darüber zu rümpfen, oder?

Gast
2010-03-09, 23:05:37
Der gute alte NV-Fanboy-Talk. ;D So langsam echt nicht mehr ernstzunehmen....und das schreibt jemand, der die erste AMD-Karte seit 7 Jahren im Rechner hat..

Dann sei doch glücklich mit der Karte und philosophiere hier net rum. Das ist der GF100 Thread.

AMC
2010-03-09, 23:07:36
Dann sei doch glücklich mit der Karte und philosophiere hier net rum. Das ist der GF100 Thread.

Sorry, aber ich bin selbst ein "Brancheninsider", daher amüsiere ich mich gerade königlich. ;)

Apropos @ Lovesuckz: Würselen oder München? ;)

Gast
2010-03-09, 23:15:31
Klasse! Ich kann im April endlich von nV die Leistung einer seit September 2009 verfügbaren 5870er haben...wie praktisch. :freak:
Freud dich, seit wann gibts die GTX 280?

Wirklich mehr bietet die 5870 nicht, weder mehr VRAM, noch gleichwertiges AF.

Um in deinen Augen nicht als Fanboy dazustehen, die 4870 X2 bietet mehr Leistung als die 5870, zumindest auf dem Papier was zählt, und diese Karte gibts seit Herbst 2008.

AMC
2010-03-09, 23:21:20
Freud dich, seit wann gibts die GTX 280?

Die GTX 280 ist also so schnell wie eine HD5870...

/edit@ vergleichbaren Settings?

Gäste sind bei mir ab sofort wieder auf ignore. Bitte nicht wundern -> registrieren. Danke.

y33H@
2010-03-09, 23:23:08
Die GTX 280 ist also so schnell wie eine HD5870? In Borderlands gar schneller *SCNR*

AMC
2010-03-09, 23:27:17
In Borderlands gar schneller *SCNR*

Die 480er ist sogar schneller in Sekunde 10.002 bis 10.082 in Heaven @ unsinnige Tesselation-Settings/Implementierung. :rolleyes: Oh warte....war ja die 5850 die da verglichen wurde :freak:.

/edit @ Lovesuckz: Würselen oder München? ;)

Gast
2010-03-09, 23:31:24
*hust*FX5800 Ultra *hust*
;)

-Carsten
Die hatte aber auch nur ein 2,80 Watt Lüfterchen. Für damalige Verhältnisse war das aber schon viel und auch die Frequenz war unträglich, welche ja in die Bewertung nach Sone eingeht.

Gast
2010-03-09, 23:32:13
Die GTX 280 ist also so schnell wie eine HD5870...

2 Jahre dazwischen müssen für irgendwas gut sein, mieseres AF alleine reichen mir nicht als Begründung.
Du gehörst zu der Gruppe, die es schlecht findet das aktuelle Onboardgrafikkarten schneller als eine 9700 Pro sind. Glückwunsch.

y33H@
2010-03-09, 23:37:06
@ AMC

OffTopic: Geile Signatur ;D

AMC
2010-03-09, 23:42:24
@ AMC

OffTopic: Geile Signatur ;D

Offtopic: Der Spruch war/ist einfach nur zu geil. :uup:

Iruwen
2010-03-09, 23:57:43
Sorry, aber ich bin selbst ein "Brancheninsider", daher amüsiere ich mich gerade königlich. ;)

Ach so, du bist "Brancheninsider" und die anderen Fanboys. Na dann ist deine Meinung natürlich gleich doppelt wichtig.

Ich seh hier gleich wieder einige Seiten auf die Spielwiese wandern, lasst es doch einfach mal...

Gast
2010-03-10, 00:00:50
In Borderlands gar schneller *SCNR*

na dann pack mal aus, oller Mießmacher :D
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=465783&page=23

Gast
2010-03-10, 00:01:37
Bitte den ganzen Offtopic-Müll von AMC fachgerecht entsorgen. Danke.

AMC
2010-03-10, 00:15:38
Ach so, du bist "Brancheninsider" und die anderen Fanboys. Na dann ist deine Meinung natürlich gleich doppelt wichtig.

Danke, Du hast mich überzeugt, ich ziehe mich zurück und überlasse den "Experten" wie Iruwen und Lovesuckz den Thread. Ich bin immer froh auf Menschen zu treffen, die mir sagen was ich mache, gemacht habe, wo und zu wem ich welche Kontakte habe und natürlich wo ich arbyte. Vielen Dank.

@Lovesuckz: Noch mal, wo?

AMC
2010-03-10, 00:19:17
Bitte den ganzen Offtopic-Müll von AMC fachgerecht entsorgen. Danke.

Bitte die Gast-Accounts fachgerecht für diesen Thread sperren. Danke.

S940
2010-03-10, 02:02:48
Bitte die Gast-Accounts fachgerecht für diesen Thread sperren. Danke.
Dafür gibts extra ne Ignore Funktion ...

Gast
2010-03-10, 07:15:47
Bitte die Gast-Accounts fachgerecht für diesen Thread sperren. Danke.
Bitte den Spekufred erst ab 500 Posts öffnen.
Du kannst es echt nicht lassen rumzustänkern? Ohne deine Abschweifungen wars hier im Fred um einiges angenehmer.

Gast
2010-03-10, 07:45:25
Far Cry 2 Benches.2560*1600 8XAA 40fps GTX 470/32fps 5870.

http://www.pcgameshardware.de/aid,706260/Geforce-Fermi-GTX-470-und-GTX-480-Bilder-und-Benchmarks-von-GF100/Grafikkarte/News/bildergalerie/?iid=1257488&vollbild

http://www.pcgameshardware.de/aid,706260/Geforce-Fermi-GTX-470-und-GTX-480-Bilder-und-Benchmarks-von-GF100/Grafikkarte/News/

jetzt sind die die 8xAA in 2560x1600 gut genug... scroll mal hier runter und klapp den das "Rating 2560x1600 8xAA/16xAF" auf... aber bereite dich auf einen shock vor: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/18/#abschnitt_performancerating_qualitaet

die 5830 ist in diesen settings sogar schneller als eine GTX295. den nvidia karten geht hier der ram aus und bei DIESEN benchmarks isses jetzt genau umgekehrt. ich verwette meinen hintern, dass in realistischen settings (1680, 1920) die sache GANZ anders ausschaun wird. wieso wohl macht nvidia um diese settings hier solchen wirbel, hm? sicher nicht weils überall anders gleich gut oder besser sind.

Gast
2010-03-17, 10:01:12
Den Größenunterschied kannst du locker in der AF oder SSAAA Schwäche des RV770 suchen.
Du siehst, AMDs 5D ist nicht grundsätzlich der Weg, der ohne Zweifel für eine bessere Leistung/mm² liefert.

Schlammsau hat zuvor die Diesize ins Spiel gebracht, andere Kostenfaktoren haben ihn nicht disskutiert, weshalb er klugerweise die Disskussion beendet hat.
Er hat die Größe des GF100 genommen und mit RV870 verglichen.
Jetzt kann man ein ähnlich unsinnigen Vergleich hernehmen, ohne jegliche Berücksichtung anderer Kostenfaktoren, den wir haben gelernt Die-size = einzige Kosten ....
Also 5850 vs GTS 460 mit GF104
bzw 4850 vs GTS 250. -> 5% Diesizevorteil, sonst NICHTS.
lol. du nimmst also das topprodukt der g92 serie und vergleichst es mit dem einstiegsprodukt der rv770 linie? echt fair. klar will niemand mit dir diskutieren

Gast
2010-03-17, 10:16:58
lol. du nimmst also das topprodukt der g92 serie und vergleichst es mit dem einstiegsprodukt der rv770 linie? echt fair. klar will niemand mit dir diskutieren
Lies nochmal den Beitrag.
Ich mache es bewusst, weil es umgekehrt so gern gemacht wird. Ziel dabei ist es u.a. denen die es so tun vor Augen zu führen das ihre Methode scheisse ist.

Gast
2010-03-17, 10:21:34
Ich frag mich, ob die 480er Käufer nicht heftig verarscht werden, sollte es später im Jahr doch noch eine "Ultra" mit 512sp geben...
Eigentlich kann man nur die 470er (eine!) guten Gewissens kaufen und abwarten.
Später gibts immer was besseres.
Viel besser würde eine 512er nicht sein, der Verlust hält sich in Grenzen. Und in dem Preisbereich kann man nunmal nicht auf lange Preisstabilität bauen, ich denke da an die 8800 GT, völlig anderes Preissegment und Werthalbierung innerhalb weniger Monate. Das war Verarsche, Verarsche die in dem Ausmaß in diesem Segment absolut nicht die Regel ist.

Gast
2010-03-17, 10:32:01
beispiel fürs umgekehrte?
GTX 260 vs 4870, GTX 470 vs 5870.

Beschnitten vs Vollausstattung, Beschnitten wird ignoriert, lediglich die Die-size betrachtet.

LZMach dich nicht schon wieder lächerlich.
Rate mal andere Namen.

Gast
2010-03-17, 10:35:38
beispiel fürs umgekehrte? rv870 vs. gf100? is unfair stimmt, der rv870 ist schon 1/2 jahr draussen und vom gf100 nix zu sehen. tesselation war unwichtig als die gerüchte da waren dass der gf100 da stinkt. jetzt wo der gf100 das offensichtlich gut machen soll, ist es das must-have feature welches dx11 zu einem must-have macht. vorher war dx10 (bewusst ohne .1) das must-have, alles andere sinnlos. ich liebe dein blödes polarisieren LZ.
Jap und für euch ist auf einmal Supersampling das must-have, welches erst als sinnlos und leistungsfressend hingestellt wurde.

tombman
2010-03-17, 10:45:09
Den selben Gedankengang hatte ich heute auch beim lesen der News. Warum tief in den Geldbeutel greifen, wen man eh nicht das Top Produkt bekommt. Ich werde wohl eine 470er kaufen und dann beim erscheinen der 512er Karte (GTX490?) nochmals zuschlagen und die 470er in der Bucht an den Mann bringen. Eine Option wäre auch eine ATI zu kaufen und auf die 490 zu warten, aber die DX11 Performance in Metro ist wohl fürn Popo bei ATI. Das ist das schon wieder alles kagge, man will Geld ausgeben aber nix gescheites zum kaufen ist auf dem Markt vorhanden. Und mit halben Sachen gebe ich mich ungern zufrieden.
Jo, oder man SPAMMT den Rechner mit 3x 480 voll, und verliert ordentlich Geld, sobald die 512sp Karte herauskommt :mad:

Sascha1971
2010-03-17, 10:48:40
Jo, oder man SPAMMT den Rechner mit 3x 480 voll, und verliert ordentlich Geld, sobald die 512sp Karte herauskommt :mad:

Da brauchst du aber ein gutes Netzteil. Gibt es da was gescheites ?

LovesuckZ
2010-03-17, 10:52:35
Jo, oder man SPAMMT den Rechner mit 3x 480 voll, und verliert ordentlich Geld, sobald die 512sp Karte herauskommt :mad:

Und wo ist der Unterschied zur GTX470? :rolleyes:

Gast
2010-03-17, 11:04:44
nun wohl auch offi- statemant wegen verschiebung der gtx 480 auf denn 6. april!

http://www.fudzilla.com/content/view/18110/1/

was ich sehr schön finde:

Geforce GTX 480 massive availability April 6th

Palpatin
2010-03-17, 11:08:59
[/url]

was ich sehr schön finde:

Geforce GTX 480 massive availability April 6th

Fragt sich nur obs am 7 April auch noch ne "massive availability" gibt oder obs dann heist leider Ausverkauft :).

Gast
2010-03-17, 11:10:46
Fragt sich nur obs am 7 April auch noch ne "massive availability" gibt oder obs dann heist leider Ausverkauft :).


wäre naütlich auch was "massive sold out"

Gast
2010-03-17, 11:27:32
Jap und für euch ist auf einmal Supersampling das must-have, welches erst als sinnlos und leistungsfressend hingestellt wurde.
sinn dieser satzkonstruktion?

wir wissen:

a) NV's 8xaa ist immer noch grottenlahm
b) sgssaa sieht toll aus für alte games etc.
c) sgssaa ist klar zu lahm für neue games
d) aber NV's 8xaa wäre es genauso *haha*

und wo haben wir - sprich ich - je mit sgssaa geprollt? ihr fanboys geht mir alle aufn sack. für sgssaa hab ich noch ne voodoo 5 übrigens. und zocken tu ich mit ner 5770 - in der anderen kiste ist ne 8800 ultra drin also verkneifs dir.

Gast
2010-03-17, 11:28:48
ach ja, für LZ: paperlaunch paperlaunch *haha*

tombman
2010-03-17, 11:31:08
Und wo ist der Unterschied zur GTX470? :rolleyes:
Die 470er war immer als Krüppel geplant, da gibts keine Überraschungen.

Die 280er war ein voller chip, die 285er hat nur ein bischen mehr Takt draufgehaut- das war abzusehen und klar.

Wenn dann ein refresh in Form einer 490er kommt, die 512sp UND mehr Takt hat, dann sind die 480er-Käufer
die Gearschten.

LovesuckZ
2010-03-17, 11:33:38
Die 470er war immer als Krüppel geplant, da gibts keine Überraschungen.

Die 280er war ein voller chip, die 285er hat nur ein bischen mehr Takt draufgehaut- das war abzusehen und klar.

Wenn dann ein refresh in Form einer 490er kommt, die 512sp UND mehr Takt hat, dann sind die 480er-Käufer
die Gearschten.

Wow, soviel Text und so wenig Antworten auf die Frage. Also nochmal:
Wo ist der Unterschied zur GTX470?

Kommt eine angebliche 512SP Version, dann wird sie entweder teurer als die "GTX480" oder gleichteuer und somit wird jede darunter liegende Karte billiger.
Deine Aufregung ist also rein künstlicher Natur. :rolleyes:

mictasm
2010-03-17, 11:35:05
uff, da hab ich ja echt zu lange nicht mitgelesen. ist es bestätigt, dass die 480er auch nicht komplett ist? das ist ja ziemlich unbefriedigend...

LovesuckZ
2010-03-17, 11:43:08
Es ist nichts bestätigt. Laut dem Zed_X Typen erhalten europäische Journalisten heute bzw. morgen die Pressesamples. Leaks sollten daher nur noch eine Frage der Zeit sein.

Gorkon
2010-03-17, 11:47:06
Jo, oder man SPAMMT den Rechner mit 3x 480 voll, und verliert ordentlich Geld, sobald die 512sp Karte herauskommt :mad:

Das wäre in der tat wirklich ärgerlich. Aber so was gab es / gibt es auch an der AMD-Front (HD4890 bzw. Speku auf HD5890). Early Adopter sind einfach die gearschten bei nem Refresh...egal in welchem Lager :frown:

Armaq
2010-03-17, 11:49:21
Das wäre in der tat wirklich ärgerlich. Aber so was gab es / gibt es auch an der AMD-Front (HD4890 bzw. Speku auf HD5890). Early Adopter sind einfach die gearschten bei nem Refresh...egal in welchem Lager :frown:
Findest du? Ich finde die 4890 ist einfach nichts im Mehrwert zur 4870.

tombman
2010-03-17, 12:00:15
Deine Aufregung ist also rein künstlicher Natur. :rolleyes:
Deine Bewertung meiner Aufregung ist irrelevant.
===
Nach den letzten Aussagen von Nvidia scheint 480sp ziemlich sicher :(
Würde mich schwer wundern, falls es doch noch 512sp werden- offenbar kann man das Teil wirklich derzeit nicht bauen, Nvidia hats übertrieben, das Ego von Jensen war zu groß :D

LovesuckZ
2010-03-17, 12:02:14
Deine Bewertung meiner Aufregung ist irrelevant.

Das ist ein Forum und nicht dein Blog. Wenn du Monologe führen willst, besorg dir ein Twitter_Account.
Aber es steht immer noch die Frage im Raum:
Wo ist der Unterschied zur GTX470? Immerhin wäre man bei dieser Karte ja nicht "der Angearschte".

Sehe ich nicht so. Wen die 480er nur mit 480sp kommt ist es einfach ein Stück abgespeckte Hardware. Ich kaufe ungern unkomplette Sachen, habe es gerne komplett oder gar nicht. Zumal der eigenen Ärger ziemlich gross ist, wen es 2 Monate später die Vollversion der Karte zu kaufen gibt.

Dann kauf dir keine GTX480. Wo ist das Problem?

Gast
2010-03-17, 12:08:29
a) NV's 8xaa ist immer noch grottenlahm



Wissen wir nicht, im Gegenteil NV sagt, dass sie die 8xMSAA-Performance deutlich verbessert haben, und da man das sehr leicht nachprüfen kann sind sie wohl kaum so dreist in dem Punkt zu lügen.

b) sgssaa sieht toll aus für alte games etc.

Angesichts von 32xCSAA inklusive 32 Samples für TRAA ist SGSSAA für alte Spiele ziemlich sinnlos. Das einzige wo SSAA weiterhin einen Qualitätsvorteil hätte wäre Shaderflimmern, für solche Spiele ist es aber klar zu langsam (zumindest wenn man mindestens 4 Samples will)

c) sgssaa ist klar zu lahm für neue games
Richtig


d) aber NV's 8xaa wäre es genauso *haha*

Sagt wer?

Odal
2010-03-17, 12:20:21
Ich frag mich, ob die 480er Käufer nicht heftig verarscht werden, sollte es später im Jahr doch noch eine "Ultra" mit 512sp geben...
Eigentlich kann man nur die 470er (eine!) guten Gewissens kaufen und abwarten.

is das jetzt gesichert das die GTX480 nicht mit 512SPs kommt? Woher stammt diese gesicherte Info?

tombman
2010-03-17, 12:27:17
Das ist ein Forum und nicht dein Blog. Wenn du Monologe führen willst, besorg dir ein Twitter_Account.

Du sollst sachlich bleiben, und nicht meine Emotionen falsch bewerten, check?

Aber es steht immer noch die Frage im Raum:
Wo ist der Unterschied zur GTX470? Immerhin wäre man bei dieser Karte ja nicht "der Angearschte".

Das Erscheinen einer 512sp Karte kann den 470er Käufern egal sein, da sie wußten, sie bekommen keinen vollen Chip.
480er Käufer wollen die beste single-gpu, und zwar für länger als ein paar Wochen. Das hat
nix mit Preis/Leistung etc zu tun, sondern mit "das Beste haben wollen".

Dann kauf dir keine GTX480. Wo ist das Problem?
Er will aber vielleicht eine DX11 Karte mit Phys-X- und zwar eine, die bei Metro 2033 nicht zusammenbricht.

Sascha1971
2010-03-17, 12:36:54
Das Erscheinen einer 512sp Karte kann den 470er Käufern egal sein, da sie wußten, sie bekommen keinen vollen Chip.
480er Käufer wollen die beste single-gpu, und zwar für länger als ein paar Wochen. Das hat
nix mit Preis/Leistung etc zu tun, sondern mit "das Beste haben wollen".



Das sehe ich übrigens auch so

Edit: Ich verstehe auch nicht, warum sie nicht gleich ne Ultra raus bringen. Die par Chips die 100 % ok sind, könnten die doch als Ultra verkaufen, den Rest eben als normale 480er

LovesuckZ
2010-03-17, 12:49:44
Du sollst sachlich bleiben, und nicht meine Emotionen falsch bewerten, check?

Das habe ich getan. Eine sachliche Einschätzung mit den Worten: Künstliche Aufregung.


Das Erscheinen einer 512sp Karte kann den 470er Käufern egal sein, da sie wußten, sie bekommen keinen vollen Chip.
480er Käufer wollen die beste single-gpu, und zwar für länger als ein paar Wochen. Das hat
nix mit Preis/Leistung etc zu tun, sondern mit "das Beste haben wollen".

"Das beste haben zu wollen" funktioniert immer nur am selben Tag. Egal ob eine angebliche 512 SP Version einen Tag oder ein Jahr später erscheint. Wenn er sich eine Karte mit weniger als 16SM kauft, dann weiß er das. Dann erhält er auch das beste zum aktuellen Zeitpunkt. Er kann auch warten, bis die angebliche 512SP Version erscheint. Aber dann wird sowieso wieder ein künstlicher Grund zum Heulen gesucht. :rolleyes:


Er will aber vielleicht eine DX11 Karte mit Phys-X- und zwar eine, die bei Metro 2033 nicht zusammenbricht.

Der Unterschied zwischen 15 und 16 SM beträgt sensationelle 6,6%. Ja, davon kann er sich wirklich Spielbarkeit kaufen. ;D

Gast
2010-03-17, 12:52:16
Das habe ich getan. Eine sachliche Einschätzung mit den Worten: Künstliche Aufregung.



"Das beste haben zu wollen" funktioniert immer nur am selben Tag. Egal ob eine angebliche 512 SP Version einen Tag oder ein Jahr später erscheint. Wenn er sich eine Karte mit weniger als 16SM kauft, dann weiß er das. Dann erhält er auch das beste zum aktuellen Zeitpunkt. Er kann auch warten, bis die angebliche 512SP Version erscheint. Aber dann wird sowieso wieder ein künstlicher Grund zum Heulen gesucht. :rolleyes:



Der Unterschied zwischen 15 und 16 SM beträgt sensationelle 6,6%. Ja, davon kann er sich wirklich Spielbarkeit kaufen. ;D
auf die 6,6% komme ich dann bei den Metro Benches zurück.

tombman
2010-03-17, 13:02:09
Das habe ich getan. Eine sachliche Einschätzung mit den Worten: Künstliche Aufregung.
Meine Emos hast du weder sachlich, noch sonstwie einzuschätzen.

"Das beste haben zu wollen" funktioniert immer nur am selben Tag. Egal ob eine angebliche 512 SP Version einen Tag oder ein Jahr später erscheint. Wenn er sich eine Karte mit weniger als 16SM kauft, dann weiß er das. Dann erhält er auch das beste zum aktuellen Zeitpunkt. Er kann auch warten, bis die angebliche 512SP Version erscheint. Aber dann wird sowieso wieder ein künstlicher Grund zum Heulen gesucht. :rolleyes:
Man will aber möglichst, oder zumindest AUSREICHEND lange das Beste haben, sonst ist da nämlich der Witz draußen.
Ein 480sp 480er erhöht die Chance enorm, daß "ausreichend lange" NICHT erreicht wird. Und nein, 1 Tag ist nicht ausreichend ;D

Der Unterschied zwischen 15 und 16 SM beträgt sensationelle 6,6%. Ja, davon kann er sich wirklich Spielbarkeit kaufen. ;D
Wenn du keine Ahnung von Enthusiasmus hast, dann spar dir weitere comments zu dem Thema- wirklich.
Es geht nicht um Mathematik.

derguru
2010-03-17, 13:12:36
versteh die aufregung nicht,was soll der unterschied sein bei einer 480 die später von der 512 ersetzt wird oder eine 512 die später von einer mit höherem takt ersetzt wird,performancemäßig ist es das selbe in grün und zeitlich wahrscheinlich auch.

mit highend zieht man schneller als man denkt die arschkarte,ist nunmal so.die zeiten des g80 sind vorbei wo man 2 jährchen auf dem treppchen sitzt.

Gast
2010-03-17, 13:19:33
versteh die aufregung nicht,was soll der unterschied sein bei einer 480 die später von der 512 ersetzt wird oder eine 512 die später von einer mit höherem takt ersetzt wird,performancemäßig ist es das selbe in grün und zeitlich wahrscheinlich auch.

Zeitlich ist es mit hoher Wahrscheinlichkeit nicht das gleiche und darum geht es. :) Denn wenn sich die Gerüchte mit 480 Shadern bewahrheiten, darf man wohl auch davon ausgehen, dass die zweite Hälfte der Gerüchte ebenfalls wahr ist. Also in wenigen Monaten eine überarbeitete Version.

LovesuckZ
2010-03-17, 13:36:36
Meine Emos hast du weder sachlich, noch sonstwie einzuschätzen.

Dann lass deine "Emos" auch in deinem Körper. Das hier ist kein One-Way Medium.


Man will aber möglichst, oder zumindest AUSREICHEND lange das Beste haben, sonst ist da nämlich der Witz draußen.
Ein 480sp 480er erhöht die Chance enorm, daß "ausreichend lange" NICHT erreicht wird. Und nein, 1 Tag ist nicht ausreichend ;D


Achja? Wann ist denn ausreichend lange? 3 Monate? 6 Monate? Grafikkarten sind wohl kaum ein Statussymbol. Und wer meint damit anzugeben, der hat sowieso ein paar andere Probleme...


Wenn du keine Ahnung von Enthusiasmus hast, dann spar dir weitere comments zu dem Thema- wirklich.
Es geht nicht um Mathematik.

"Enthusiasmus" leben davon, dass sie sich das aktuell beste kaufen. Das hat überhaupt keine Aussage darüber, wann das aktuelle alt ist. Sonst ginge es dir sowieso nur um den Wert deiner Sachen, um damit angeben zu können. ;D

Ist eigentlich was zum Zustand der Review-Karten bekannt? Treiber final oder kommt 3 Tage vor Launch für Benchmarks ein Treiber- und BIOS-Update?

Reviewer erhalten heute oder morgen die Karten und Folien. Dann werden wir mehr wissen. ZZ ist nichts bekannt, außer dass der Releasetreiber 256.xx sein wird.

LovesuckZ
2010-03-17, 13:49:46
Klingt nach GF100. Kommt der Chip doch 6 Monate früher und nicht 6 Monate später. :D

Gast
2010-03-17, 13:53:47
"Enthusiasmus" leben davon, dass sie sich das aktuell beste kaufen.

Auch, aber nicht nur! Ein Produkt, welches theoretisch zu mehr in der Lage sein könnte bzw welches in irgendeiner Form nachträglich beschnitten wurde, erweckt schon ein ungutes Gefühl. Ich persönlich würde mir sowas niemals kaufen, auch wenn es aus leistungstechnischer Sicht Unsinn ist. Selbst wenn die 480 die längsten Balken produziert, bleibt ein Anflug von "gewollt und nicht gekonnt" als unseelige Aura um die neue Serie bestehen, bis eben voll funktionsfähige Chips erhältlich sind. Irrational, aber nachvollziehbar, wie ich finde;)

tombman
2010-03-17, 13:55:37
Dann lass deine "Emos" auch in deinem Körper. Das hier ist kein One-Way Medium.
Dort waren sie auch, bis du sie abschlecken mußtest und weiterhin mußt.

Achja? Wann ist denn ausreichend lange? 3 Monate? 6 Monate? Grafikkarten sind wohl kaum ein Statussymbol. Und wer meint damit anzugeben, der hat sowieso ein paar andere Probleme...

Was ausreichend lange ist, entscheidet jeder selbst. Aber 6 Monate wünscht man sich schon, was ich so mitbekommen habe.
Mit Statussymbolen hat das gar nix zu tun, sondern damit, daß man sich nicht verarscht vorkommen will. Außerdem verliert man ja auch Geld, da die 480sp Karte sofort an Wert bei ebay verlieren würde. Der "das Beste" Bonus würde sofort wegfallen- und ja, der WIRD bezahlt ;)

"Enthusiasmus" leben davon, dass sie sich das aktuell beste kaufen. Das hat überhaupt keine Aussage darüber, wann das aktuelle alt ist. Sonst ginge es dir sowieso nur um den Wert deiner Sachen, um damit angeben zu können. ;D

Geldmittel sind aber auch bei Enthusiasten nicht unbegrenzt. NIEMAND will sich 480er kaufen, nur um ein paar Wochen später schon wieder umzurüsten und Geld zu verlieren.
Man ist ja gewohnt, auf der HighEnd-Welle Geld zu verlieren, aber es sollte Grenzen geben.
Es gab sogar schon Rückzahlungen bei Grafikkarten von Herstellern (:eek:), weil sogar DIE wissen, daß auch Verarsche Grenzen haben muß :D
Ob man jetzt den Preis einer HighEnd-Graka in kurzer Zeit stark senkt, oder den Chip aufbohrt und den Preis gleich läßt
, ist praktisch das selbe.
Das würde bei mir nicht gut ankommen, und bei anderen E.s auch nicht.

Benedikt
2010-03-17, 14:03:34
@tombman: Eine Frage am Rande - wie lösen Enthusiasten wie Du eigentlich das Lärmproblem von zwei- oder mehreren Highend-Lösungen wie z. B. 480ern? Rechner gekapselt/remote?

Gast
2010-03-17, 14:05:04
Dort waren sie auch, bis du sie abschlecken mußtest und weiterhin mußt.

Was ausreichend lange ist, entscheidet jeder selbst. Aber 6 Monate wünscht man sich schon, was ich so mitbekommen habe.
Mit Statussymbolen hat das gar nix zu tun, sondern damit, daß man sich nicht verarscht vorkommen will. Außerdem verliert man ja auch Geld, da die 480sp Karte sofort an Wert bei ebay verlieren würde. Der "das Beste" Bonus würde sofort wegfallen- und ja, der WIRD bezahlt ;)

Geldmittel sind aber auch bei Enthusiasten nicht unbegrenzt. NIEMAND will sich 480er kaufen, nur um ein paar Wochen später schon wieder umzurüsten und Geld zu verlieren.
Man ist ja gewohnt, auf der HighEnd-Welle Geld zu verlieren, aber es sollte Grenzen geben.
Es gab sogar schon Rückzahlungen bei Grafikkarten von Herstellern (:eek:), weil sogar DIE wissen, daß auch Verarsche Grenzen haben muß :D
Ob man jetzt den Preis einer HighEnd-Graka in kurzer Zeit stark senkt, oder den Chip aufbohrt und den Preis gleich läßt
, ist praktisch das selbe.
Das würde bei mir nicht gut ankommen, und bei anderen E.s auch nicht.

jammerlappen :D

tombman
2010-03-17, 14:05:43
@tombman: Eine Frage am Rande - wie lösen Enthusiasten wie Du eigentlich das Lärmproblem von zwei- oder mehreren Highend-Lösungen wie z. B. 480ern? Rechner gekapselt/remote?
Alles @ Remote :D

@gast: niemand jammert mehr als ein ausgeloggter member ;)

Gast
2010-03-17, 14:17:59
ihr habt probleme... :rolleyes:

und nein ich würde mir sicher auch keine GTX480 mit 480SP kaufen, jammere aber nicht rum weil es mir so ziemlich egal ist... :rolleyes:

da holt man sich lieber gleich eine GTX470 und später einen (oder zwei/drei) vollen GF100 ;D

oder man holte sich vor zig Monaten ne 5870 :)

Gast
2010-03-17, 14:22:50
Man will aber möglichst, oder zumindest AUSREICHEND lange das Beste haben, sonst ist da nämlich der Witz draußen.
Ein 480sp 480er erhöht die Chance enorm, daß "ausreichend lange" NICHT erreicht wird. Und nein, 1 Tag ist nicht ausreichend ;D

Man weiß doch noch nicht mal, wann die "kleine" 480 in ausreichenden Mengen zur Verfügung stehen wird. Und wenn die 480 abgespeckt sein sollte und trotzdem wie man munkelt eine Heizplatte ist, die am momentanen technisch Möglichem arbeitet, dann wird eine Version, die zusätzlich mit Transistoren aufgepumpt ist, wohl kaum in 40nm erscheinen können, sondern erst mit einem Shrink. Und bis der Shrink kommt und ohne Probleme arbeitet, da können locker noch 2 Jahre vergehen.

Dural
2010-03-17, 14:23:13
oder man holte sich vor zig Monaten ne 5870 :)

das hab ich schon vor einem halben jahr gesagt wer auf fermi wartet ist blöd... hab meine 5870 seit September brauche sie aber nicht, da ich derzeit eh nicht zocke...

tombman
2010-03-17, 14:35:21
Man weiß doch noch nicht mal, wann die "kleine" 480 in ausreichenden Mengen zur Verfügung stehen wird. Und wenn die 480 abgespeckt sein sollte und trotzdem wie man munkelt eine Heizplatte ist, die am momentanen technisch Möglichem arbeitet, dann wird eine Version, die zusätzlich mit Transistoren aufgepumpt ist, wohl kaum in 40nm erscheinen können, sondern erst mit einem Shrink. Und bis der Shrink kommt und ohne Probleme arbeitet, da können locker noch 2 Jahre vergehen.
Da ist die Frage, wie die non-functionalen Einheiten deaktiviert wurden. Brauchen die weiter Strom und heizen, obwohl sie nix machen?
Falls ja, würde eine 512sp Karte kaum mehr brauchen, nur eben voll funktionsfähig sein :)
512sps werden ja "gebrannt", funken nur ned alle :ugly:
das hab ich schon vor einem halben jahr gesagt wer auf fermi wartet ist blöd... hab meine 5870 seit September brauche sie aber nicht, da ich derzeit eh nicht zocke...
Ähm, aber ist eine Karte kaufen, die man nicht braucht, nicht noch blöder?

Gast
2010-03-17, 15:29:51
Oh man oh man.
Da jammert ein Pseudo ueber ne kastrierte GTX480. Erbärmlich.
Wenn man sich schon 3 solcher Teile reinhaut dann bitte die mit 3GB Speicher. Wer schon soviel auslegt sollte auch kurz das Hirn einschalten. 3x GTX480 mit je 1,5GB VRAM sind vielleicht fuer große Schwanzmarkbalken nett, zum gamen auf nem 30" inkl 32xAA aber wohl eher ungeeignet. Es gibt jetzt schon Crysis mods die bis 2GB Vram benutzen, und das in 1920 mit 2xAA. Wenn der Herr nun nachgedacht hat wird er auch merken dass es zum Launch sowieso keine 3GB Varianten geben wird, also kann er sich gemütlich zurücklehnen und auf gscheide Varianten warten.

tombman
2010-03-17, 15:36:42
Oh man oh man.
Da jammert ein Pseudo ueber ne kastrierte GTX480. Erbärmlich.
Wenn man sich schon 3 solcher Teile reinhaut dann bitte die mit 3GB Speicher. Wer schon soviel auslegt sollte auch kurz das Hirn einschalten. 3x GTX480 mit je 1,5GB VRAM sind vielleicht fuer große Schwanzmarkbalken nett, zum gamen auf nem 30" inkl 32xAA aber wohl eher ungeeignet. Es gibt jetzt schon Crysis mods die bis 2GB Vram benutzen, und das in 1920 mit 2xAA. Wenn der Herr nun nachgedacht hat wird er auch merken dass es zum Launch sowieso keine 3GB Varianten geben wird, also kann er sich gemütlich zurücklehnen und auf gscheide Varianten warten.
Und du jammerst über einen Herrn, der angeblich jammert- was dich dann wohl zum deutlich größeren Jammerer macht- als Bonus auch noch in der feigen Variante, nämlich als Ausgeloggter :ulol:

Außerdem gehts auch darum, die 295er loszuwerden, die JETZT noch gut über ebay weggehen, aber nach dem launch der 480er sicher nimmer.
Warten ist also keine Option, wenn man nicht lange ohne Grakas dastehen will- aber soweit hast sicher nicht gedacht ;)

Gast
2010-03-17, 15:39:56
Und du jammerst über einen Herrn, der angeblich jammert- was dich dann wohl zum deutlich größeren Jammerer macht- als Bonus auch noch in der feigen Variante, nämlich als Ausgeloggter :ulol:

Außerdem gehts auch darum, die 295er loszuwerden, die JETZT noch gut über ebay weggehen, aber nach dem launch der 480er sicher nimmer.
Warten ist also keine Option, wenn man nicht lange ohne Grakas dastehen will- aber soweit hast sicher nicht gedacht ;)

Ich jammere nicht über dich. Ich versuch dich nur zum denken anzuregen (was wohl vergebliche Liebesmüh ist).
Aber wenn du glaubst mit 1,5GB Vram, Mikrorucklern und Inputlag im TripleSLI glücklich zu werden dann bitte, wirf dein Geld zum Fenster raus (sofern du damit auch spielen willst, wenns dir nur um Benchmarkbalken geht dann ist die Anschaffung ja gerechtfertigt, nur dann bist du ein noch ärmeres Würstchen als ich dachte).

tombman
2010-03-17, 15:45:49
Ich jammere nicht über dich. Ich versuch dich nur zum denken anzuregen (was wohl vergebliche Liebesmüh ist).
Aber wenn du glaubst mit 1,5GB Vram, Mikrorucklern und Inputlag im TripleSLI glücklich zu werden dann bitte, wirf dein Geld zum Fenster raus (sofern du damit auch spielen willst, wenns dir nur um Benchmarkbalken geht dann ist die Anschaffung ja gerechtfertigt, nur dann bist du ein noch ärmeres Würstchen als ich dachte).
Lol, tombman zum Denken anregen, der "Entdecker" der MR. ICH rege andere zum Denken an und nicht umgekehrt.
Wenns mir um Balken ginge, dann hätte ich wohl schon längst 2x HD5970- aber auch das kommt dir nicht in den Sinn.

Und wenn ich mit Quad-SLI glücklich war, dann werde ich es auch mit Triple 480 sein...

p.s.: ich weiß, was du willst, und ich ERLAUBE es dir ;) (Ban)

Gast
2010-03-17, 19:02:32
Dirt2 geht auch mit 8xSSAA ohne Probleme (1x 5850). Gibt also durchaus auch neuere Spiele :)

Und warum sollte man in einem Spiel, in dem die ganzen Weichzeichner schon jegliches Flimmern im Ansatz unterdrücken SSAA verwenden? (Abgesehen davon dass ich stark bezweifle, dass 8xSSAA in einer vernünftigen Auflösung schnell genug ist)

Mr. Lolman
2010-03-17, 19:03:29
Und warum sollte man in einem Spiel, in dem die ganzen Weichzeichner schon jegliches Flimmern im Ansatz unterdrücken SSAA verwenden? (Abgesehen davon dass ich stark bezweifle, dass 8xSSAA in einer vernünftigen Auflösung schnell genug ist)

Mit dem neuesten Patch gibts keinen Weichzeichner unter DX9 mehr.

Gast
2010-03-17, 19:08:52
Mit dem neuesten Patch gibts keinen Weichzeichner unter DX9 mehr.

Und man spielt mit einer DX11-Karte unter DX9? Wird ja immer seltsamer.

Gast
2010-03-17, 19:11:16
Vielleicht versucht man, über die Deaktivierung eines Clusters die Chipausbeute zu erhöhen, um damit genug Dies zum Launch zur Verfügung zu haben?

Vielleicht auch nur weil man damit die gleiche oder gar bessere Leistung erreicht?

Eventuell ist nicht die Ausbeute an voll funktionstüchtigen Chips so niedrig, sondern es macht nur 1 Cluster mit hoher Wahrscheinlichkeit die angepeilten Taktraten nicht mit, und man ist im Endeffekt schneller wenn man einen deaktiviert und dafür die anderen höher taktet.

Mr. Lolman
2010-03-17, 19:26:26
Und man spielt mit einer DX11-Karte unter DX9? Wird ja immer seltsamer.

Wenn DX11 sonst keine Vorteile bietet, gibts ja keinen Grund es zu verwenden. Crysis spielt man optimalerweise (wenn man nicht unnötig Performance verschenken will) auch mit der 32bit Version in DX9 (ja auch unter Win7 64bit!).

Sascha1971
2010-03-17, 19:27:29
2x GTX 470 ist aus Preisleistungssicht sicherlich am sinnvollsten.



Das könnte wirklich die Alternative sein.
Bin mal gespannt auf die ersten Benchmarks.
Ob die das mit den MR evtl auch verbessert haben ???

Gast
2010-03-17, 19:37:51
wenn die 480 doch nicht so toll ist besorg ich mir halt 3 davon.
Hartz4 machts möglich

Gast
2010-03-17, 19:40:23
Wenn es danach geht - wieso gibt es DX11? :rolleyes:

Die Entwicklung muss weiter gehen und der Verkauf, sowie auch millionen Menschen Arbeit brauchen :)
Es wird erst ein Sprung bei Spielen geben wenn es die neuen Konsolen gibt. Aber da man technisch an einem Punkt ist wo allen nicht mehr so flott entwickelt wird, wird das sicher noch bis 2012 oder sogar länger dauern.
Bis dahin wird Nvidia aber auch einen 512 Fermi backen können ;)

Gast
2010-03-17, 19:43:10
Und warum sollte man in einem Spiel, in dem die ganzen Weichzeichner schon jegliches Flimmern im Ansatz unterdrücken SSAA verwenden? (Abgesehen davon dass ich stark bezweifle, dass 8xSSAA in einer vernünftigen Auflösung schnell genug ist)

Mir würden 4x MSAA mit 4x TSSAA bei konstant 60FPS auch schon reichen.

Das 4x TSSAA halbiert auf meiner 9800GT (756/1890/1044Mhz) die FPS.

Die dreifache Leistung einer 9800GT sollte eine neue Grafikkarte mindestens haben, eher sogar fünffache Leistung um etwas Reserve für neue Spiele zu haben.

Thunder99
2010-03-17, 19:46:44
Diese 100SPs bei RV770/790 waren reine Redundanz, GF100 war jedoch auf 512 funktionierende SPs geplant.
Stimmt, ich vergaß :redface:

Gast
2010-03-17, 19:48:02
ab wann kann man eigentlich ungefähr mit der gf104 rechnen?

DrFreaK666
2010-03-17, 22:04:50
Das hat nichts mit "NVIDIAner" zu tun. Ich verwende auch auf der 4870 kein 8xAA, weil ich den Unterschied für viel zu klein halte. Wenn dann eher noch Edge-Detect.

Dann habe ich anscheinend bessere Augen oder wünsche mir einen Unterschied zu sehen und habe daher Halluzinationen

mictasm
2010-03-17, 22:07:57
Dann habe ich anscheinend bessere Augen oder wünsche mir einen Unterschied zu sehen und habe daher Halluzinationen
Vielleicht ist deine Bildschirmauflösung auch einfach zu gering?

Coda
2010-03-17, 22:08:25
Ja, der Punktabstand des Displays spielt da auf jeden Fall mit rein.

DrFreaK666
2010-03-17, 22:09:42
Ja, der Punktabstand des Displays spielt da auf jeden Fall mit rein.

Imho macht es besonders bei UE3-Games einen Unterschied ob man mit 4xMSAA oder 8xMSAA zockt

Schlammsau
2010-03-17, 22:23:38
In der Regel ist es aber wirklich so, dass 8xAA kaum mehr BQ bringt.

Hab auch seltenst mit 8xAA gezockt!

DrFreaK666
2010-03-17, 22:24:41
In der Regel ist es aber wirklich so, dass 8xAA kaum mehr BQ bringt.

Hab auch seltenst mit 8xAA gezockt!

Ich nutze es wenn die Performance reicht

Gast
2010-03-17, 22:25:14
ich bin schon gespannt wie die GTX480 bei 8AA skalliert, beim dem G80 war die 8AA Leistung schlecht, wenn Nvidia hier nachgebessert hat sieht es gut aus.
Nvidia muss nachgebessert haben. Massiv.
Nicht weils so wichtig ist, sondern weil die Magazine nur dieses Einstellung kennen.
Für die Magazine muss man sehen, wie man 16xQ AF samt 8xMSAA ohne TAA besonders flott macht.
Dazu zählt mehr Optimierungen bei Q und schnelleres 8xMSAA. Wenn beides fruchtet kann die Presse tanzen, das Ding wird in den Tests gut abschneiden.
8xMSAA nicht zu verbessern steht praktisch nicht zur Diskussion, das kann sich Nvidia nicht erlauben.

Mir als Nutzer bringts zwar leider rein gar nichts, von BQ steigerungen oder anderen Performancesteigerungen hätte ich profitieren können, aber leider läuft das nie so wie man es sich wünscht.

Gast
2010-03-17, 22:28:29
Imho macht es besonders bei UE3-Games einen Unterschied ob man mit 4xMSAA oder 8xMSAA zockt
Gerade UE3 ist i.d.R. so übel voll mit Shaderflimmern, dass es fast gar nicht auffällt eben weil der Anteil der flimmrigen Bildbereiche die von MSAA erfasst werden, ziemlich gering ist.

UE3-Games sind der perfekte Kandidat für Supersampling.

Tesseract
2010-03-17, 22:30:23
Ja, der Punktabstand des Displays spielt da auf jeden Fall mit rein.

und die entfernung vom monitor sowie natürlich der content, der gezeigt wird.

bei vielen neueren spielen macht sich das aliasing imho deutlich weniger bemerkbar weil es u.a. weniger der langen, flachen kanten gibt als früher. dazu kommt in vielen spielen die düstere stimmung die sich natürlich auch auf die kontraste der kanten auswirkt.

DrFreaK666
2010-03-17, 22:30:47
Gerade UE3 ist i.d.R. so übel voll mit Shaderflimmern, dass es fast gar nicht auffällt eben weil der Anteil der flimmrigen Bildbereiche die von MSAA erfasst werden, ziemlich gering ist.

UE3-Games sind der perfekte Kandidat für Supersampling.

Meinte natürlich Super-sampling. Sorry

DrFreaK666
2010-03-17, 22:38:20
8x MSAA ist angesichts von 4x TAA oder 4x SGSSAA fürn Arsch. Warum die Polygone bügeln bis zum geht nicht mehr und den Rest wie blöde flimmern lassen ... seeehr sinnvoll :ugly:

Ist ja gut. Hab mich vertippt :frown:
Wenn Spiele aber ohne AA extrem flimmern dann sieht man einen Unterschied zwischen 4xSGSSAA und 8xSGSSAA.

Wird nv nur 32xCSAA bieten (oder wie immer das auch heissen mag)?

mapel110
2010-03-17, 22:38:24
8x MSAA ist angesichts von 4x TAA oder 4x SGSSAA fürn Arsch. Warum die Polygone bügeln bis zum geht nicht mehr und den Rest wie blöde flimmern lassen ... seeehr sinnvoll :ugly:
Bei 8xAA werden aber auch gleichzeitig mehr Samples für TAA verfügbar. Also hat der Modus sehr wohl seine Berechtigung. Bei nvidia ändert sich das aber ja nun mit Fermi.

y33H@
2010-03-17, 22:46:37
Wenn Spiele aber ohne AA extrem flimmern dann sieht man einen Unterschied zwischen 4xSGSSAA und 8xSGSSAA.Logo. NV bietet 32x CSAA mit 32 Samples fürs TAA.

@ mapel110

Moment, ich spreche von (reinem) 8x MSAA. 8x TAA hat wie wie du sagst natürlich seine Berechtigung.

Gast
2010-03-17, 22:52:43
Ich frage mich anhand der bisher erschienenen DX11-Games (inkl. Metro 2033) aber immer noch, was mir Tesselation eigentlich bringt, wenn kein optischer BQ-Gewinn festzustellen ist. Ich habe mich ernsthaft angestrengt den großen optischen Aha-Effekt zu finden, aber es wollte mir einfach nicht gelingen.

Ich finde Heaven zeigt schon sehr deutlich was man mit Tesselation erreichen kann. Es ist einfach noch zu früh für Spiele die von Anfang an auf die Nutzung von tesselation ausgelegt sind.

Hier mal ein paar sehr nette Ausschnitte aus Heaven 2.0:
http://nvidia.fullviewmedia.com/gdc2010/11-shergin-zaprjagaev.html

Ich finde den optischen Mehrwert von (richtig eingesetzer) Tesselation absolut berechtigt!

PS: Die anderen Videos von der GDC sind teilweise auch sehr intressant. z.B. auch Cryengine 3.
http://nvidia.fullviewmedia.com/gdc2010/agenda.html

StefanV
2010-03-17, 22:56:49
Vielleicht ist deine Bildschirmauflösung auch einfach zu gering?
Andersrm:
Die Pixel des Schirms sind zu groß (19" 5:4, 22", 26-28" 16:10).

Ich hab hier nur ~100DPI Schirme (24", 1920x1200, 20" 1600x1200), das halte ich für optimal, gerade beim spielen sollt man auf möglichst kleine Bildpunkte wert legen, eben aufgrund vom Aliasing, aber auch anderen Nachteilen der TFT Technologie.

Dimon
2010-03-17, 23:07:00
Tessellation ist aber kein DX11 feature, die HD4xxx kann doch auch Tessellation. Wieso nutzt man das nicht in DX10 games?


Gruß

Coda
2010-03-17, 23:12:36
Vor D3D11 gab es keine programmierbare Tesselation. Das kannst du nicht vergleichen.

Gast
2010-03-18, 02:57:23
kann man denn schon in etwa einordnen auf welchem leistungsniveau die gf104
läuft? verglichen mit der noch aktuellen geforce generation.

Gast
2010-03-20, 17:11:27
Die GTX480 ist 2-3 mal so schnell bei PhysX wie die GTX285? Geil... :up:



Gähn.... Und das heisst was?

Schlammsau
2010-03-20, 17:18:13
Gar nichts, nur ein weiterer Strohhalm an den die nVidia Fanboys klammern.

PhysX bringt, auch wenn ich Physik über GPU grundsätzlich für gut halte, eigentlich nichts was man haben muss. Siehe das super dupa Metro 2033 PhysX Video.

PhysX und Tesselation ist momentan nichts anderes als ein Marketinginstrument seitens der Hersteller. Tesselation bringt momentan nur einen kleinen Mehrwert in DiRT2, und das beim tesseliertem Wasser. Alles andere ist im warsten Sinne des Wortes Dreck!

Just my opinion!

S940
2010-03-20, 17:20:15
und das beim tesseliertem Wasser. Alles andere ist im warsten Sinne des Wortes Dreck!
Hej, die Fähnchen drehen sich auch ganz toll im Wind ;-)

dargo
2010-03-20, 17:22:33
Gähn.... Und das heisst was?
Das heißt für mich, dass ich in jedem Spiel welches gpu-beschleunigtes PhysX bietet jenes eingeschaltet lassen kann ohne, dass die Performance besonders einbricht. Mir ist das schon viel wert. Dass die ATI-Fanboys das anders sehen ist mir klar. ;)

Gast
2010-03-20, 17:37:27
Das heißt für mich, dass ich in jedem Spiel welches gpu-beschleunigtes PhysX bietet jenes eingeschaltet lassen kann ohne, dass die Performance besonders einbricht. Mir ist das schon viel wert. Dass die ATI-Fanboys das anders sehen ist mir klar. ;)

Die richtigen Fanboys haben eine kleine NV zu ihrer ATI :D
Und nen Unterschied in zb. Metro ist = NULL.

y33H@
2010-03-20, 17:39:08
In Metro = 0. Nö.

Gast
2010-03-20, 17:41:47
In Metro = 0. Nö.

Bei deisen Aussagen könnte NV PR noch in die Lehre gehen :)

Gast
2010-03-20, 17:41:56
wie Nö?

Wenn ich die NV ausstecke hab ich 0 in Worten NULL Nachteile zur ATI solo, erzähl keinen.

Gast
2010-03-20, 17:44:23
wie Nö?

Wenn ich die NV ausstecke hab ich 0 in Worten NULL Nachteile zur ATI solo, erzähl keinen.

Ich auch komischerweise, aber vieleicht brauch NV Physixs um die CPU zu entlasten die die GPU unterstützen muss :D

y33H@
2010-03-20, 17:47:14
Vll habe ich es falsch verstanden. Mit "Advanced PhysX" sinken auf Radeon-light die Fps, sofern man sich nicht im GPU-Limit befindet.

dargo
2010-03-20, 17:48:45
Und nen Unterschied in zb. Metro ist = NULL.
Ob mir PhysX optisch einen Mehrwert liefert lass mal meine Sorge sein. Metro 2033 interessiert mich weniger da ich es (noch) nicht habe.

Gast
2010-03-20, 17:54:05
Genauso wie das absolut unbrauchbare Teselation von ATI bei zu und abschalten in Metro 0 ausmacht.

y33H@
2010-03-20, 17:55:12
Was meinst du mit Null ausmacht? Sie macht optisch wie Fps-mäßig was aus.

Odal
2010-03-20, 17:58:59
Ich auch komischerweise, aber vieleicht brauch NV Physixs um die CPU zu entlasten die die GPU unterstützen muss :D

naja es macht scheinbar auch ein unterschied in den details ob man advanced physx aus oder an hat sowie nochmal ob man eine nvidia gpu drin hat zur hardwarebeschleunigung

http://www.youtube.com/watch?v=OmB4Z5xZkHI

hier z.b. an so einemauf dem boden liegenden zettel visualisiert

ohne advanced physx gibts das objekt nicht und selbst wenn es an ist gibts das objekt zwar es liegt aber nur rum solange keine hardwarebeschleunigung vorhanden ist

Gast
2010-03-20, 17:59:51
Was meinst du mit Null ausmacht? Sie macht optisch wie Fps-mäßig was aus.

Ich mein das so, mit einem Atom-Mikroscope habe ich Metro noch nicht gespielt, daher ist es mir nicht aufgefallen.
Und bei den Frames die die Grandiose Engine ausspuckt fällt mir auch kaum was an den FPS auf ;)

y33H@
2010-03-20, 18:03:06
Deine Augen möchte ich nicht haben :ulol: Aber ja, Tessellation kann man bisher getrost vergessen.

Gast
2010-03-20, 18:04:17
Deine Augen möchte ich nicht haben :ulol: Aber ja, Tessellation kann man bisher getrost vergessen.

Das nenn ich wirklich mal eine Faire aussage ;)

Gast
2010-03-20, 18:05:59
Was ist denn das für ein Quatsch? Hat der Zettel etwa ein Eigenleben? Also ich habe selten so etwas unrealistisches und zudem mit Verlaub dämliches gesehen wie diesen "tanzenden" Zettel.

Gast
2010-03-20, 18:10:13
http://www.youtube.com/watch?v=OmB4Z5xZkHI


Wow.
Das hat mich überzeugt.
GPU-PhysiX ist der Wahnsinn

Menace
2010-03-20, 18:10:16
http://www.youtube.com/watch?v=OmB4Z5xZkHI

hier z.b. an so einemauf dem boden liegenden zettel visualisiert


;D Was ist denn das? Ich bin ein Freund von realistischer Umgebung und von mir aus auch mit PhysX. Aber dieser tanzende Miniteppich soll bitte was darstellen? Das hat absolut nichts mit Physik und erst Recht nicht mit Materialkunde zu tun. Ich hoffe, dass das kein reeller Ausschnitt aus dem Spiel war. Ich hasse es nämlich, wenn man mich für Blöd verkaufen würde. :P

dildo4u
2010-03-24, 23:21:25
aufeinmal wieder von Sli reden weil eine 480 auch nicht so viel schneller ist als ne 5870 :rolleyes:

Benmarks sind entäuschend :(
Für Tobman kommt keine andere Konfig in Frage. ;)

tombman
2010-03-24, 23:22:48
Also, die Werte sehen gut aus, freut mich, kann damit leben.
Weiß wer welche Cpu verwendet wurde?

@cr@b: frag mich per PM, aber nein, es sind nicht die Balken.

Gast
2010-03-24, 23:26:17
sollten diese werte stimmen performt fermi besser als ich erwartet hätte nach den ganzen problemen mit der fertigung.

Stimmt, recht hast du, dafür das der Fermi vor nem halben Jahr und sogar früher mit 100, teilweise gar 200% Mehrleistung gehandelt wurde ist da echt krass!!

Gast
2010-03-24, 23:29:35
Was da noch beim Futuremark Typen fehlt sind Frameverläufe. Wäre aber jetzt auch zuviel verlangt.

AwesomeSauce
2010-03-24, 23:34:17
Stimmt, recht hast du, dafür das der Fermi vor nem halben Jahr und sogar früher mit 100, teilweise gar 200% Mehrleistung gehandelt wurde ist da echt krass!!
Wenn du solchen Schwachsinn für voll nimmst, kann man dir auch nicht mehr helfen...

Nvidia hat das Problem, dass bei jeder neuen Generation eine weitere G80-Situation erwartet wird. Das führt zwangsweise zu enttäuschten Gesichtern (ja, auch ich hatte von GF100 mehr erwartet, aufgrund der 40nm-Probs bei TSMC kann ich aber damit leben).

Gast
2010-03-24, 23:40:49
Die Kommentare zu den Benches auf der Seite sind einfach köstlich. Ich bin gespannt ob das alles so hinhaut. Wenn ja, dann großen Respekt an den Typen.

Superheld
2010-03-24, 23:43:12
Die Kommentare zu den Benches auf der Seite sind einfach köstlich. Ich bin gespannt ob das alles so hinhaut. Wenn ja, dann großen Respekt an den Typen.

:confused:

...findest die 480er Werte nun gut oder nicht .

Gast
2010-03-24, 23:43:19
Naja, ich hab gelesen 450 Euro. Klar wird das kein G80. Der Aufpreis zur 5870 wirds wohl wert sein.

Mit dem irren Idle-Verbrauch? Nein.

Gast
2010-03-24, 23:45:36
Ich meine die Kommentare auf der Futuremark Seite. Da unterhalten die sich über die benches.

Einer zum Beispiel: Can i marry you ? then we can play together ...

Der andere: Pics first.

Ist jetzt aber Offtopic.

cR@b
2010-03-24, 23:46:47
Mit dem irren Idle-Verbrauch? Nein.

Den du micht Sicherheit schon weißt :rolleyes: Mein Kasten läuft keine 24/7 von daher ist mir der ganze Stromrotz wurst! Jaja der Umwelt zur Liebe und was ist mit den Bonzen und ihren Kisten? :D

Gast
2010-03-24, 23:48:10
@Superheld

Ich kann mich mit den Werten anfreunden. Hab schlimmeres erwartet.

Superheld
2010-03-24, 23:51:12
@Superheld

Ich kann mich mit den Werten anfreunden. Hab schlimmeres erwartet.

das sie besser/schneller ist war klar, naja noch abwarten^^:)

Dural
2010-03-25, 00:19:20
wie man sieht muss es B2 nicht mal richten... Es geht um dem Chip / die Architektur und die scheint ganz "OK" zu sein

Gast
2010-03-25, 00:20:39
@Guru

Es kommt auf die Sicht an. Wenn man eine 5870 hat, muss man net umsteigen. Hat man so wie ich ne 260 mit 192 Shadern ist das ein Quantensprung. Und man sieht an diesen benches (Wenn sie wahr sind) das NV hier Games hat wo die 5870 sagen wir mal nicht mithalten kann. Ich finde das Ergebnis nicht schlecht. Man bedenke das dies die 480SP Version ist.

Bioshock
2010-03-25, 00:21:00
Also wenn die Benchs stimmen, dann kann man doch die GTX 470 gegen eine 5870
stellen.Naj mal abwarten..........:rolleyes:

mfg

tombman
2010-03-25, 00:21:32
jetzt ist aber klar warum nv die far cry2 werte gezeigt hatte.ich finde die werte bescheiden,positive ist die 8aa performance.

in den dx11 games kann sich die 480 nicht besonders gut absetzen,zwischen 0-20% und mit dem cat10.3 wird es sogar ein tick weniger.
NV wird sicher auch neue Treiber bringen, denn die Architektur ist neu- da ist sicher mehr herauszuholen, als ATI bei der Zypresse schafft.

Gast
2010-03-25, 00:29:53
Ich will doch hoffen das man am GDDR5 Speicher drehen kann. Und dann schauen was noch so drinne ist an Performance+.

Die 480 hat ja 0,4ns Speicher verbaut.

tombman
2010-03-25, 00:53:33
da bin ich mal gespannt,ich glaub sogar nv hat zum jetzigen zeitpunkt schon weit mehr ausgequetscht als amd.

Das hat dir der Teufel verraten! [/Rumpelstilzchen]

Du könntest Recht haben, NV optimiert leider sehr gut :/
Aber, bei so 'ner neuen Arch. kann noch was kommen, und AMD wird nach Cat 10.3 auch nimmer viel nachpfeffern können- sie brauchen die Leistung ja JETZT gegen Furby.

Gast
2010-03-25, 02:30:09
Ich find es erstaunlich wie immer nach dem Catalyst 10.3 geschriehen wird, als ob der soviel mehr Leistung brächte. Außer Dirt2 sind die Steigerungen doch im einstelligen Prozentbereich.
http://hardocp.com/article/2010/03/19/amds_ati_catalyst_103a_driver_performance

AC mit Vsync gebencht :uroll:

Gast
2010-03-25, 05:11:04
AC mit Vsync gebencht :uroll:Hat das vielleicht einen spielinternen Framelimiter?
Eigentlich fände ich Benchs mit Vsync (gibts leider so gut wie nie...) weit aussagekräftiger und praxisnäher als die üblichen ohne. Was bringts denn Frames zu messen, die nie auf dem Bildschirm ankommen?
Ob sich wohl wer traut, 480 vs 5870 als Bildqualitätsbench zu fahren, also wieviel man rausholen kann, ohne bei aktivem Vsync unter das Maximaltempo zu fallen? Wäre eine nette Abwechslung.
Flüssiger als die ganze Zeit am Vsync zu kleben geht doch nicht.
Alles darüber hinausgehende ist, nun ja, absolut überflüssig. :weg:

DrFreaK666
2010-03-25, 06:07:09
Hat das vielleicht einen spielinternen Framelimiter?
Eigentlich fände ich Benchs mit Vsync (gibts leider so gut wie nie...) weit aussagekräftiger und praxisnäher als die üblichen ohne. Was bringts denn Frames zu messen, die nie auf dem Bildschirm ankommen?
Ob sich wohl wer traut, 480 vs 5870 als Bildqualitätsbench zu fahren, also wieviel man rausholen kann, ohne bei aktivem Vsync unter das Maximaltempo zu fallen? Wäre eine nette Abwechslung.
Flüssiger als die ganze Zeit am Vsync zu kleben geht doch nicht.
Alles darüber hinausgehende ist, nun ja, absolut überflüssig. :weg:

Nicht jeder spielt mit Vysnc.
Viele wissen nicht mal, was die Option bringt

Gast
2010-03-25, 06:34:06
Nicht jeder spielt mit Vysnc.Aber wo man die Wahl hat werden die meisten es sicher anschalten. Also jedenfalls diejenigen, die als Käufer von Highendgrakas in Frage kommen.
Viele wissen nicht mal, was die Option bringtDann sollte man ihnen DAS HIER (http://alt.3dcenter.org/artikel/2004/03-12_a.php) zeigen.

DrFreaK666
2010-03-25, 06:42:45
Aber wo man die Wahl hat werden die meisten es sicher anschalten. Also jedenfalls diejenigen, die als Käufer von Highendgrakas in Frage kommen.
Dann sollte man ihnen DAS HIER (http://alt.3dcenter.org/artikel/2004/03-12_a.php) zeigen.

Ach, wenn man in GS sieht, dass die GTX480 die schnellste Graka ist dann weiss man trotzdem nicht unbedingt was Vsync ist

dreamweaver
2010-03-25, 06:54:11
Wie es wohl mit undervolten wird?

Gast
2010-03-25, 10:51:50
Das wär der Hammer zum totlachen
Wenn die Pressesamples mit 725 Mhz ausgeliefert wurden. Und am 6 dann die Karten mit 625 verkauft werden
XFX GTX480 Eckwerte
625 Mhz
http://product.yesky.com/product/606/606347/param.shtml

Und dann von NV
Wir haben nie behauptet das die erste version der GTX480 mit diesen Taktraten auf den Markt kommt.

Muaha

Gast
2010-03-25, 10:56:30
Gähn, kann man die ATI Boys nicht in einen anderen Thread auslagern? Immer das gleiche Gefasel in diesem Thread, bla Preis, bla Verbrauch, bla Cat x.3 blabla.
Das ist der Fermi Thread, eigendlich erwartet man hier Leaks, Infos etc. zum Fermi. Aber statt dessen muss man sich seitenweise durch rotes PR-Geblubber lesen. Das nervt, vor allem wen man morgens nur schnell schauen will ob es was neues gibt.

Wenn die GF100 draußen sind, wirst du dich über die "ATI Fanboys" freuen, und ihnen Danken. Denn sie sind es die euch auf den Boden der Tatsachen zurück geholt, und verhindert haben, das ihr die 100% Mehrleistungs Kirschen/Leaks/Fakes für Bare Münze, und die weniger tollen Infos als FUD Lügen abstempelt, und euch keinen Fermi erträumt mit Ansprüchen, die Nvidia im Leben nicht hätte befriedigen können.

Dann würdet ihr immer noch von 2-3 Facher Leistung zur vorherigen Generation ausgehen, von einem GPU Monster das wahre Wunder bewirkt, und sogar Krebs heilen kann.

Botcruscher
2010-03-25, 10:59:47
Pressesamples mit mehr Takt als das Endprodukt wäre natürlich ein dickes Ei.

Armaq
2010-03-25, 10:59:51
Wirklich? Ich fand G80 beeindruckend zur damaligen Zeit. Aus dem Stand durchgehend ca 66%* schneller als die schnellste Single-GPU Karte zu damaligen Zeit. Das gab es seitdem nicht mehr.

*66% mit 4AA/16AF, z.B. bei HT4U (http://ht4u.net/reviews/2006/nvidia_g80/)
Ja, da hat er recht.

G80 war die "härteste" Karte.

Tarkin
2010-03-25, 11:10:33
ah jetzt 12. April? :rolleyes:

und die Möglichkeit dass die Takraten der retail Dinger niedriger sind als jene der Review-Samples.

Sollte sich das bewahrheiten, dann können sie sich aber auf was gefasst machen. Dann ist die Kacke nämlich echt am dampfen in der Community :mad:

Aber nvidia traue ich persönlich alles zu. Verschleiern & tricksen an allen Ecken und Enden. Ein Wahnsinn :eek:

Gast
2010-03-25, 11:10:47
Ja, da hat er recht.

G80 war die "härteste" Karte.

Mit der R600-Architektur lag AMD wohl dennoch richtig, selbst wenn die HD 2xxx-Reihe erstmal gefailed hat. Die ausgereizte Version (HD 5870) ist weitaus schneller als der ausgereizte G80 (GTX 285) und bringt offensichtlich sogar die Nachfolgearchitektur ins Schwitzen (GF100).

LovesuckZ
2010-03-25, 11:13:39
Mit der R600-Architektur lag AMD wohl dennoch richtig, selbst wenn die HD 2xxx-Reihe erstmal gefailed hat. Die ausgereizte Version (HD 5870) ist weitaus schneller als der ausgereizte G80 (GTX 285) und bringt offensichtlich sogar die Nachfolgearchitektur ins Schwitzen (GF100).

Natürlich bringt Cypress GF100 ins Schwitzen. Logisch, bei einem Chip der komplett auf heutige Spiele abgestimmt ist und die "Zukunft" fast vollständig ignoriert.

Nazar
2010-03-25, 11:15:36
Wo würde den der Fermi stehen wenn die previesample wirklich mit 725 MHz liefen und die Verkaufsversionen nur mit 625 MHz?
Schafft es die 480 überhaupt noch mit der 5850 gleichzuziehen?

Armaq
2010-03-25, 11:17:47
Natürlich bringt Cypress GF100 ins Schwitzen. Logisch, bei einem Chip der komplett auf heutige Spiele abgestimmt ist und die "Zukunft" fast vollständig ignoriert.
Das hat ansonsten immer Nvidia so gehandhabt. Ich erinnere mich gut an Benchmarks, die Karte auf ihre Zukunftstauglichkeit hin untersuchten und da war ATI-Sieger.