PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 3]


Seiten : 1 2 3 [4] 5 6 7 8

MEDIC-on-DUTY
2008-05-22, 11:06:32
Die GPU ist wirklich ein Monster. Bilder sagen mehr als Zahlen... Schätze auch, dass das PCB mit 88er Größe daherkommt.

Odal
2008-05-22, 11:09:23
Wenn ich die Bilder mit der Geforce 9800 GTX vergleiche, sieht die 9800 GTX Spannungsversorgung viel aufgeräumter aus.
http://pics.computerbase.de/2/0/9/8/7/14.jpg
Bei der 9800 GTX sehe ich vier Phasen, bei der GTX 280 6! Phasen, das heißt was!

ich zähle sogar 7 die haben nichtmal mehr nebeneinander gepasst

Godmode
2008-05-22, 11:10:08
ich zähle sogar 7 die haben nichtmal mehr nebeneinander gepasst

Bzw 9 wenn man die ganz hinteren drei Wandler auch noch mitzählt.

Unyu
2008-05-22, 11:10:44
hat sie nicht...vergleich mal die PCBs
Und du meinst die Kondensatoren der 9800GTX waren nur zum Spass, jetzt gehts ohne?

das heißt was!
Ja, das eine High-End Karte mehr als eine Performance Karte verbraucht.

Odal
2008-05-22, 11:16:50
Und du meinst die Kondensatoren der 9800GTX waren nur zum Spass, jetzt gehts ohne?


kennst du überhaupt die aufgaben der bauteile von denen du sprichst?

InsaneDruid
2008-05-22, 11:30:24
Ja am AF muss AMD noch arbeiten. :)
Entfällt das Wörtchen "schoen".

Seit wann gibts in D3D10 überhaupt kein AA? :rolleyes:


Eben, es wird ja geradezu getan als ob kein DX10 Titel AA böte, und nur DX10.1 dies ermöglichte.

Bei AC war das fehlende AA ja iirc auch auf eine Kante beschränkt.

mictasm
2008-05-22, 11:40:10
kennst du überhaupt die aufgaben der bauteile von denen du sprichst?

Und du? Was genau zählt ihr da eigentlich, die Wandler sind es nicht, wenn ihr auf 7 bis 9 kommt?

Schaut mal auf Bauteile mit WLP. Und selbst die 6 Stück sind nicht alle gleich. Ich komme auf 3 Netzteilblöcke mit jew. 2 ICs.

Snoopy69
2008-05-22, 11:43:09
übrigens finde ich deine PS3 shots nicht gerade beeindruckend...das gezeigte kann locker durch GTR2 mit custom strecken und custom texturen erreicht werden...und das gar ohne den unschärfemist um die miserable umgebung zu verdecken

Dann zeig mir mal ein PC-Rennspiel mit der Quali und einen PC in der Grösse der PS3 mit nur 150W Gesamtverbrauch. :wink:
Wie gesagt - da ruckt absolut garnichts.

Odal
2008-05-22, 11:44:37
Und du? Was genau zählt ihr da eigentlich, die Wandler sind es nicht, wenn ihr auf 7 bis 9 kommt?

Schaut mal auf Bauteile mit WLP. Und selbst die 6 Stück sind nicht alle gleich. Ich komme auf 3 Netzteilblöcke mit jew. 2 ICs.

seit wann muss die ansteuerung gleich sein?

http://666kb.com/i/ayv3qnbcuq1ink0m5.jpg

Dann zeig mir mal ein PC-Rennspiel mit der Quali und einen PC in der Grösse der PS3 mit nur 150W Gesamtverbrauch. :wink:
Wie gesagt - da ruckt absolut garnichts.

Vom Verbrauch höre ich jetzt das erste mal, du sprachst von nie auf dem PC dagewesener Optik

Godmode
2008-05-22, 11:51:29
Und du? Was genau zählt ihr da eigentlich, die Wandler sind es nicht, wenn ihr auf 7 bis 9 kommt?

Schaut mal auf Bauteile mit WLP. Und selbst die 6 Stück sind nicht alle gleich. Ich komme auf 3 Netzteilblöcke mit jew. 2 ICs.

Oh, ich hab die zwei Teile unter den Stromanschlüssen auch noch mit gezählt, aber ich seh schon das sind andere, da steht was anderes drauf.

Snoopy69
2008-05-22, 12:00:24
Vom Verbrauch höre ich jetzt das erste mal, du sprachst von nie auf dem PC dagewesener Optik
Ok, lassen wir den Verbrauch weg. Ob du dann immer noch was findest...?
Ich will damit nur verdeutlichen, wie mies die PC-Spiele eig. programmiert sind. Die HW kann wesentlich mehr. Stattdessen kommt eig. nur halbfertiger Müll auf den Markt (vom OS angefangen). Und kaum läuft etwas anständig (zb XP), kommt der nächste Müll...

Gast
2008-05-22, 12:09:13
Ok, lassen wir den Verbrauch weg. Ob du dann immer noch was findest...?
Ich will damit nur verdeutlichen, wie mies die PC-Spiele eig. programmiert sind. Die HW kann wesentlich mehr. Stattdessen kommt eig. nur halbfertiger Müll auf den Markt (vom OS angefangen). Und kaum läuft etwas anständig (zb XP), kommt der nächste Müll...
Was glaubst du warum hier einige für DX10.1 sind?

Unyu
2008-05-22, 12:26:49
Schaut mal auf Bauteile mit WLP.
GTX 280: 6-7
9800 GTX: 12 + 4
8800 GTX: 12

Snoopy69
2008-05-22, 12:34:52
Was glaubst du warum hier einige für DX10.1 sind?
Wenn das so ist, dann bin ich für DX10.2 :D

btw: Ich bin gerade am Testen versch. Treiber für meine beiden 8800GTX wegen Crysis.
Echt schockierend, dass es @ SLI teilweise schlechter spielbar ist als mit nur einer Karte ;( Und das obwohl die FPS laut Fraps viel höher sind :eek:
Zum Benchen ok, aber zum Spielen taugt SLI/CF einfach nix...

In einem anderen Thread hab ich erfahren, dass sogar Single-Karten Mikroruckler haben sollen (Schuld soll zb das NT sein). Weiss jmd darüber mehr?

Ich hoffe, dass der GT200 doppelt soviele FPS in Crysis @ 1920x1200 liefert wie meine beiden Karten.
2 Karten würde ich ja gerne wieder nehmen, dann MUSS der Hersteller aber endlich mal was tun. Die müssen das die ganze Zeit gewusst haben. Wir Dummen kaufen ja alles :rolleyes:

Gast
2008-05-22, 12:50:46
Ich hoffe, dass der GT200 doppelt soviele FPS in Crysis @ 1920x1200 liefert wie meine beiden Karten.
:


Also statt 10 fps dann 20 fps,Wahnsinn

Snoopy69
2008-05-22, 12:55:16
Denkst du...
Von 20 auf 40 fps bei 1920x1200 + 16xAA :wink:

Was hast du denn so?

PS: Die 16xAA hab ich nur zu Testzwecken (wegen Ermittlung der Mikroruckler) eingestellt.

Odal
2008-05-22, 13:00:21
9800 GTX: 12 + 4
8800 GTX: 12

88GTX

http://img148.imageshack.us/img148/1907/g80kb7.jpg

98GTX

http://img148.imageshack.us/img148/2082/9800gtxyn4.jpg

Unyu
2008-05-22, 13:10:23
Die Komponenten der Spannungsversorgung, die per Pad mit dem Kühler in Kontakt stehen:

8800GTX:
http://pics.computerbase.de/1/5/8/8/6/155.jpg
http://pics.computerbase.de/1/5/8/8/6/145.jpg
-> 6

9800GTX:
http://pics.computerbase.de/2/0/9/8/7/14.jpg
http://pics.computerbase.de/2/0/9/8/7/18.jpg
-> 12 + 4

GTX 280:
-> ~ nach dem Bild 6-7

Odal
2008-05-22, 13:18:25
Die Komponenten der Spannungsversorgung, die per Pad mit dem Kühler in Kontakt stehen:

8800GTX:
http://pics.computerbase.de/1/5/8/8/6/155.jpg
http://pics.computerbase.de/1/5/8/8/6/145.jpg
-> 6

9800GTX:
http://pics.computerbase.de/2/0/9/8/7/14.jpg
http://pics.computerbase.de/2/0/9/8/7/18.jpg
-> 12 + 4

GTX 280:
-> ~ nach dem Bild 6-7

du zeigst es doch selbst an deinen bildern...es sind 4 phasen bei der 8800GTX und 4 Phasen bei der 9800GTX

bei der GTX280 sind es mindestens 6 Phasen für die GPU ich schätze sogar 7

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/maerz/geforce_9800_gtx_gainward/

4 Phasen

für die 88GTX such ich vielleicht auch noch aber eigentlich ist es anhand der bilder offensichtlich

reunion
2008-05-22, 13:20:17
Mich würde mal wirklich interessieren was man mit diesem NVIO-Ding jetzt wieder will. Das kann doch nicht wirtschaftlich sinnvoll sein.

Gast
2008-05-22, 13:23:15
Wenn das so ist, dann bin ich für DX10.2 :D

Ich hoffe, dass der GT200 doppelt soviele FPS in Crysis @ 1920x1200 liefert wie meine beiden Karten


In einem anderen Thread hab ich erfahren, dass sogar Single-Karten Mikroruckler haben sollen (Schuld soll zb das NT sein). Weiss jmd darüber mehr?

Aha.....aber ansonsten ist alles klar bei dir. Es besteht natürlich die möglichkeit das es zwischen den frames verschiedene Abstände geben kann, liegt allerdings an der Anforderung und das sieht man auch an der fps Anzeige.


Du fliegst aber eh in einem unspielbaren Berreich rum....Stell das ganze mal so ein das du auf avg 80fps kommst, damit ists dann Spielbar. Damit hast du min. 30fps in extrem Situationen und darauf kommts an.

Unyu
2008-05-22, 13:24:55
Mich würde mal wirklich interessieren was man mit diesem NVIO-Ding jetzt wieder will.
Ein paar MioTransitoren in der GPU sparen.


bei der GTX280 sind es mindestens 6 Phasen für die GPU ich schätze sogar 7
Wenn du es so zählst dann ist dafür eine einzelne Phase bei der GTX 280 um einiges schwächer/anders ist, als bei 8800 und 9800. ;)

Odal
2008-05-22, 13:30:38
Wenn du es so zählst dann ist dafür eine einzelne Phase bei der GTX 280 um einiges schwächer/anders ist, als bei 8800 und 9800. ;)

Ich merk schon du hast wenig Ahnung von was du sprichst... (wo die Leistung an bzw. abfällt etc.):rolleyes:
zumal ja auch überall die selben bauteile zum einsatz kommen :rolleyes:
naja lassen wir das

glaubs oder lass es die stromversorgung ist beim GT200 um einiges stärker ausgelegt als bei der 88GTX....und das nicht ohne Grund...aber ist ja auch nicht verblüffend bei den Technischen Daten der GPU

Snoopy69
2008-05-22, 13:33:37
Was ist das eig. für eine Leitung, die bei der 9800GTX zum Slotblech geht?

Wegen den Bauteilen...
Die 12 kleinen sind Spannungswandler, während die grossen Blöcke nur Spulen sind.

Moralelastix
2008-05-22, 13:39:40
Die Spannungswandler sehen genau so aus wie die bei der 6800GT/Ultra. *lol*

Wieso nutzt NV noch immer keine digitalen Spannungswandler so wie ATI? Könnte die Karte viel kürzer machen.

Unyu
2008-05-22, 13:40:54
Ich merk schon du hast wenig Ahnung von was du sprichst...
Dann erkär mal.

Idie stromversorgung ist beim GT200 um einiges stärker ausgelegt als bei der 88GTX
Wäre nicht verwunderlich, muss auch etwas mehr leisten.

Was ist das eig. für eine Leitung, die bei der 9800GTX zum Slotblech geht?
Die Status LED Versorgung.


Die 12 kleinen sind Spannungswandler, während die grossen Blöcke nur Spulen sind.
Ja eben die GTX 280 hat erstaunlich wenig Spannungswandler.

Schlammsau
2008-05-22, 13:54:54
Leute......bei dieser Leistung, dieser DIE Grösse und diesen Steckern noch von wenig Stromverbrauch auszugehen.......;D

Gast
2008-05-22, 13:55:05
Was ist das eig. für eine Leitung, die bei der 9800GTX zum Slotblech geht?

Wegen den Bauteilen...
Die 12 kleinen sind Spannungswandler, während die grossen Blöcke nur Spulen sind.


Wie willst du ohne Spulen Spannungen wandeln?

Schlammsau
2008-05-22, 13:59:11
Gegen den GT200 wird vom Verbrauch her die 9800GX2 wie eine Mainstream Karte dastehen! ;)

Gast
2008-05-22, 13:59:28
Wie willst du ohne Spulen Spannungen wandeln?
Wie willst du ohne Spannungswandler Spannungen wandeln?

Snoopy69
2008-05-22, 14:00:10
Ich sagte doch nur, dass die grossen Teile Spulen sind - mehr nicht.

Gast
2008-05-22, 14:00:59
Wie willst du ohne Spannungswandler Spannungen wandeln?

Machst du Witze? So etwas wie einen Spannungswandler (als Bauteil) gibt es nicht!

GeneralHanno
2008-05-22, 14:01:02
bei gemunkelten 250W TDP braucht man auch eine sehr breite energieversorgung ;)

dargo
2008-05-22, 14:02:51
Gegen den GT200 wird vom Verbrauch her die 9800GX2 wie eine Mainstream Karte dastehen! ;)
Nö, beide werden sich nicht viel nehmen.

Snoopy69
2008-05-22, 14:04:19
Ich sehe im Post #1 nur einen PCIe x6 + x8-Buchse.
Das wären über den Slot 75W + PCIe x6 75W + PCIe x8 100W - richtig oder?

Gast
2008-05-22, 14:05:50
Nö, beide werden sich nicht viel nehmen.


Würde eher darauf tippen das G200 weniger braucht wie GX2

dargo
2008-05-22, 14:06:02
Ich sehe im Post #1 nur einen PCIe x6 + x8-Buchse.
Das wären über den Slot 75W + PCIe x6 75W + PCIe x8 100W - richtig oder?
Nein, mit den Anschlüssen der Geforce 280GTX sind max. 300W möglich.

AnarchX
2008-05-22, 14:06:09
Der 8-Pin-Stecker liefert bis zu 150W.

Schlammsau
2008-05-22, 14:06:21
Nö, beide werden sich nicht viel nehmen.

Also weniger wirds mit Sicherheit nicht werden, eher mehr! Um wieviel steht in den Sternen.

dargo
2008-05-22, 14:07:58
Also weniger wirds mit Sicherheit nicht werden, eher mehr!
Habe ich was von weniger gesagt? Ich tippe auf 180-200W real.

AnarchX
2008-05-22, 14:08:01
Also weniger wirds mit Sicherheit nicht werden, eher mehr! Um wieviel steht in den Sternen.
Ob der gezeigte Kühler wirklich (deutlich) mehr als durchschnittlich ~180W real kühlen kann mag ich doch zu bezweifeln, aber warten wir ab.

Snoopy69
2008-05-22, 14:09:31
Der 8-Pin-Stecker liefert bis zu 150W.
Ach ja...

Slot 75W
x6 100W
x8 150W

oder?

dargo
2008-05-22, 14:10:03
Ob der gezeigte Kühler wirklich (deutlich) mehr als durchschnittlich ~180W real kühlen kann mag ich doch zu bezweifeln, aber warten wir ab.
Gibts schon Bilder vom Kühler? Habs wohl verpasst. Hast du mal den Link? :)

Ach ja...

Slot 75W
x6 100W 75W
x8 150W

oder?
So. :)

Schlammsau
2008-05-22, 14:10:35
Ob der gezeigte Kühler wirklich (deutlich) mehr als durchschnittlich ~180W real kühlen kann mag ich doch zu bezweifeln, aber warten wir ab.

wie hoch ist die TDP eines R600? Und wie sah der Kühler aus?

dildo4u
2008-05-22, 14:10:41
Also weniger wirds mit Sicherheit nicht werden, eher mehr! Um wieviel steht in den Sternen.
Unter einer 2900XT liegt der Verbrauch darauf Wette ich und auch das haben die meisten Boards und Netzteile überlebt also laber nicht.

Schlammsau
2008-05-22, 14:11:48
Unter einer 2900XT liegt der Verbrauch darauf Wette ich und auch das haben die meisten Boards und Netzteile überlebt also laber nicht.
Der R600 war auch vom Stromverbrauch her, für die Tonne! :P

dargo
2008-05-22, 14:13:26
Unter einer 2900XT liegt der Verbrauch darauf Wette ich und auch das haben die meisten Boards und Netzteile überlebt also laber nicht.
Das wären <160W. Das glaube ich nicht Tim. :D

Snoopy69
2008-05-22, 14:14:09
Mein NT (lt.Sig) müsste also reichen. SLI will ich glaub ich nicht mehr, wenn ATI/AMD und NV so unfähig sind ;(

AnarchX
2008-05-22, 14:14:21
Gibts schon Bilder vom Kühler? Habs wohl verpasst. Hast du mal den Link? :)


#1

crux2005
2008-05-22, 14:14:24
Mich würde mal wirklich interessieren was man mit diesem NVIO-Ding jetzt wieder will. Das kann doch nicht wirtschaftlich sinnvoll sein.

imho hatte nV zu viele auf Lager und wollte die nutzen :biggrin:

dildo4u
2008-05-22, 14:16:16
Der R600 war auch vom Stromverbrauch her, für die Tonne! :P
Der Chip war wie die Nachfolger für die Tonne gut erkannt.Wenn der GT200 ein 4xxx der 140W braucht um 100% abzieht kann sie auch ohne Probleme 200W verbrauchen.

dargo
2008-05-22, 14:19:00
#1
:redface:

Das ist doch der stinknormaler G9800GTX Kühler oder? Hmm, das verwundert mich dann doch etwas. Ich hätte eher ein Monster auch bei der Kühlung erwartet. Wobei, in deinem Link wird von G9900GTX gesprochen. Ich denke so wird der G92b @GTX heißen.

Schlammsau
2008-05-22, 14:22:43
Der Chip war wie die Nachfolger für die Tonne gut erkannt.Wenn der GT200 ein 4xxx der 140W braucht um 100% abzieht kann sie auch ohne Probleme 200W verbrauchen.
Ich hab keinen Bock mit dir über die Vor- und Nachteile der HD3xxx Karten zu diskutieren! Wenn es für dich kein Problem ist, wenn die Karte 200 und mehr Watt verbrät....bitteschön! Für mich ist es wichtig! :P
Vor allem weil, wie ich finde nV unfähig ist den Idle Verbrauch zu senken!
Und jetzt komm nicht mit der 9600GT....die ist immo die einzige Karte von nV die den Idle Stromverbrauch etwas gesenkt hat. Bestes Gegenbeispiel ist wieder die 9600GSO, die ja schon fast mehr Strom verbrät wie eine 8800GT!
Aber ihr habt ja die Kohle....Hauptsache das Ding rennt, gelle.

Gast
2008-05-22, 14:23:07
imho hatte nV zu viele auf Lager und wollte die nutzen :biggrin:
Werden die gleichen Beweggründe wie beim G80 sein. Riesengroßer Die wegen der Masse an Trans. gepaart mit zu großem Fertigungsprozess.

Snoopy69
2008-05-22, 14:23:24
Ein genauerer Termin als Q3 steht nicht fest, oder?
Die 9800GTX bzw. GX2 (wieder Mikroruckler) will ich nicht - zu lahm.

Was mich auch etwas ankotzt, dass SLI bei Crysis so dermaßen schlecht performt, dass eine Karte besser ist als SLI. Ich glaube, das wird nix mehr bei Crysis. Im Interview (vor dem Release) aber gross was von Multi-GPU-Unterstützung tönen :rolleyes:

AnarchX
2008-05-22, 14:24:33
redface:

Das ist doch der stinknormaler G9800GTX Kühler oder?
Nein, vergleich doch mal. Der Kühler von PConline ist mächiger:
größerer Lüfter, mehr Platz für einen größeren Kühlkörper.


Wobei, in deinem Link wird von G9900GTX gesprochen. Ich denke so wird der G92b @GTX heißen.
Nunja, auf dem Kühler steht die PCB-Nummer P651, die desöfteren mit dem 512-Bit PCB in Verbindung gebracht wurde.

Wobei hier durchaus etwas nicht passt, imo:
Man schaue sich mal die Speicherpads auf dem dritten Bild an und die Position der Speichermodule auf den PCB-Bildern.
Die Einlässe für die Stromverbindungen sehen eher nach 6+6 aus.
Vielleicht der Kühler der GTX 260?

Ein genauerer Termin als Q3 steht nicht fest, oder?
Die 9800GTX bzw. GX2 (wieder Mikroruckler) will ich nicht - zu lahm.

Vielleicht mal bei Threads einen Blick ins 1. Posting werfen, da hier doch wichtige Infos sein könnten. ;)

Gast
2008-05-22, 14:27:20
Ich hab keinen Bock mit dir über die Vor- und Nachteile der HD3xxx Karten zu diskutieren! Wenn es für dich kein Problem ist, wenn die Karte 200 und mehr Watt verbrät....bitteschön! Für mich ist es wichtig! :P
Vor allem weil, wie ich finde nV unfähig ist den Idle Verbrauch zu senken!
Und jetzt komm nicht mit der 9600GT....die ist immo die einzige Karte von nV die den Idle Stromverbrauch etwas gesenkt hat. Bestes Gegenbeispiel ist wieder die 9600GSO, die ja schon fast mehr Strom verbrät wie eine 8800GT!
Aber ihr habt ja die Kohle....Hauptsache das Ding rennt, gelle.
Sei froh, dass nV dieses Feature auch nicht noch abdeckt. Sonst gäbe es so gut wie kein Argument sich eine Amd-Karte zu holen! Außerdem hat nV vor, die Hauptkarte abzuschalten und dafür die IGP laufen zu lassen. Wenn man das System erfolgreich vermarkten will, dann muss man abartige Verbräiche auch im 2D aufweisen können. Das System nennt sich glaube ich Martkwirtschaft und es ist das Beste, was der Menschheit passieren konnten - sagt zumindest die Elite.

Gast
2008-05-22, 14:27:31
Der Chip war wie die Nachfolger für die Tonne gut erkannt.Wenn der GT200 ein 4xxx der 140W braucht um 100% abzieht kann sie auch ohne Probleme 200W verbrauchen.
Relativ gesehen magst du recht haben. Nur wohin soll diese absoluten Verbrauchsteigerungen noch führen? Irgendwann muss doch mal Schluss sein!?!

Snoopy69
2008-05-22, 14:27:41
btw., Die Karte kann so lang sein wie sie will - in den Stacker STC passt sie immer rein :D
Eine 8800 Ultra verbrät (am NT gemessen - abzüglich Scheinleistung) ca. 150W

dildo4u
2008-05-22, 14:30:20
Relativ gesehen magst du recht haben. Nur wohin soll diese absoluten Verbrauchsteigerungen noch führen? Irgendwann muss doch mal Schluss sein!?!
Bei 200W hat Nvidia schon verkündet.GT200 wird der Finale Monster Chip von Nvidia.

dargo
2008-05-22, 14:40:47
Wobei hier durchaus etwas nicht passt, imo:
Man schaue sich mal die Speicherpads auf dem dritten Bild an und die Position der Speichermodule auf den PCB-Bildern.
Die Einlässe für die Stromverbindungen sehen eher nach 6+6 aus.
Vielleicht der Kühler der GTX 260?

Leider sind die Bilder recht klein. Ich denke das mit dem Speicher passt schon. Es sieht mir eher so aus als ob die Erhebung für die Speicherchips durchgängig ist und nicht für jeden Chip einzeln. Kannst du auf den Bildern die Erhebung für den NVIO erkennen? Ich sehe da was beim Vergrössern, sicher bin ich mir aber nicht.

Snoopy69
2008-05-22, 14:47:00
Vielleicht mal bei Threads einen Blick ins 1. Posting werfen, da hier doch wichtige Infos sein könnten. ;)
- Launch: 18 Juni 2008

Aber welche nun genau?
Zudem wird man min. 2-3Mon. warten müssen bis sich die Preise normalisiert haben, da jeder sie haben will.

dargo
2008-05-22, 14:52:09
- Launch: 18 Juni 2008

Aber welche nun genau?

Geforce GTX 280 und GTX 260.

Gast
2008-05-22, 14:52:12
Ich hab keinen Bock mit dir über die Vor- und Nachteile der HD3xxx Karten zu diskutieren! Wenn es für dich kein Problem ist, wenn die Karte 200 und mehr Watt verbrät....bitteschön! Für mich ist es wichtig! :P
Vor allem weil, wie ich finde nV unfähig ist den Idle Verbrauch zu senken!
Und jetzt komm nicht mit der 9600GT....die ist immo die einzige Karte von nV die den Idle Stromverbrauch etwas gesenkt hat. Bestes Gegenbeispiel ist wieder die 9600GSO, die ja schon fast mehr Strom verbrät wie eine 8800GT!
Aber ihr habt ja die Kohle....Hauptsache das Ding rennt, gelle.

Nur dumm das die NVIDIA Karte auf die Leistung bezogen deutlich weniger Strom Verbrauchen als die ATI, die ATI sind auf die Leistung Bezogen sogar richtige Strom vernichter. Wie man hier von Strom Sparen reden kann mit einer so miesen Leistung ist mir ein Rätsel!!!

AnarchX
2008-05-22, 14:55:51
Kannst du auf den Bildern die Erhebung für den NVIO erkennen?
Ja, das NVIO-Pad scheint links sich zwischen den vier Gewinden zu liegen, für die man entsprechende Löcher auch auf dem PCB findet.

Aber daneben liegen doch vier erkennbare Erhebungen, wo aber sich laut PCB nur zwei Speicherchips befinden. :|

edit:
Vielleicht ist der Kühler gar schon für eine 2GiB Version ausgelegt, immerhin könnte man wohl auch Speicher dort bestücken, wo auf der Rückseite die Chips liegen, was dann vier Chips mit so geringen Abständen erklären würde. :D

Snoopy69
2008-05-22, 14:59:58
Geforce GTX 280 und GTX 260.
Weiss man schon was über die Preise?

Chris Lux
2008-05-22, 15:02:21
Ich glaube, das wird nix mehr bei Crysis. Im Interview (vor dem Release) aber gross was von Multi-GPU-Unterstützung tönen :rolleyes:
consolen sind halt jetzt wichtiger...

Schlammsau
2008-05-22, 15:05:49
Nur dumm das die NVIDIA Karte auf die Leistung bezogen deutlich weniger Strom Verbrauchen als die ATI, die ATI sind auf die Leistung Bezogen sogar richtige Strom vernichter. Wie man hier von Strom Sparen reden kann mit einer so miesen Leistung ist mir ein Rätsel!!!

Nein tun sie nicht!
Und nocheinmal geh nicht von der 9600GT aus!
Die 3870 verbraucht 13% weniger Strom im Idle, unter Last aber nur 1% mehr als die 8800GT! Ich glaube den CB Tests, die zwar ab und an mal Fehler beinhalten aber im grossen und ganzen sehr repräsentativ sind, da ich schon des öfteren gegengetestet habe und immer auf ähnliche Ergebnisse gekommen bin! :P

dargo
2008-05-22, 15:09:13
Weiss man schon was über die Preise?
Nein, ich tippe aber auf 599-649$ für die 280 und 499$ für die 260.

Snoopy69
2008-05-22, 15:10:07
Geht ja noch...
Selbst wenn die 13.000 bei 3DMark Vantage stimmen sagt das leider noch nichts über die wahre Spieleleistung aus. Wie gesagt, ich wünsche mir bei Full-HD min. eine FPS-Verdoppelung.
Aber selbst diese Karte wird Crysis noch nicht ausreizen können. Wurde im Interview damals auch gesagt. Wenn das Detail "Ultra hoch" kommen sollte, dann sowieso nicht :ulol:

btw: Crysis-Tweaks. Viel Spass beim angucken... http://www.forumdeluxx.de/forum/showthread.php?t=480414

Gast
2008-05-22, 15:20:05
Eine 8800 Ultra verbrät (am NT gemessen - abzüglich Scheinleistung) ca. 150W


Der Spitzenwert (direkt an der Karte gemessen!) beträgt knapp 240 W (!).

LovesuckZ
2008-05-22, 15:43:12
Nein tun sie nicht!
Und nocheinmal geh nicht von der 9600GT aus!
Die 3870 verbraucht 13% weniger Strom im Idle, unter Last aber nur 1% mehr als die 8800GT! Ich glaube den CB Tests, die zwar ab und an mal Fehler beinhalten aber im grossen und ganzen sehr repräsentativ sind, da ich schon des öfteren gegengetestet habe und immer auf ähnliche Ergebnisse gekommen bin! :P

Und die 8800GT ist 30% schneller. Das Performance/Watt Verhältnis ist bei nVidia wesentlich besser.

Coda
2008-05-22, 15:45:20
Mich würde mal wirklich interessieren was man mit diesem NVIO-Ding jetzt wieder will. Das kann doch nicht wirtschaftlich sinnvoll sein.
Es geht offenbar darum einige Fertigungs-Schritte bei dem Monster-Die damit wegzulassen.

Oder laut Razer ist das Ding natürlich einfach wieder total verbuggt.

Nein tun sie nicht!
Und nocheinmal geh nicht von der 9600GT aus!
Die 3870 verbraucht 13% weniger Strom im Idle, unter Last aber nur 1% mehr als die 8800GT! Ich glaube den CB Tests, die zwar ab und an mal Fehler beinhalten aber im grossen und ganzen sehr repräsentativ sind, da ich schon des öfteren gegengetestet habe und immer auf ähnliche Ergebnisse gekommen bin! :P
WO hast du gemessen? Nach dem Netzteil ist total für die Katz. Egal wer es macht. Zudem spielt die 3870 auch nicht in der gleichen Liga wie die 8800GT.

http://www.xbitlabs.com/articles/video/display/gainward-bliss9600gt-512gs_7.html#sect0

Das ist das so ziemlich das einzig representative was es gibt, weil sie direkt an der Stromversorgung der Karten messen.

Schlammsau
2008-05-22, 16:05:38
WO hast du gemessen? Nach dem Netzteil ist total für die Katz. Egal wer es macht. Zudem spielt die 3870 auch nicht in der gleichen Liga wie die 8800GT.

http://www.xbitlabs.com/articles/video/display/gainward-bliss9600gt-512gs_7.html#sect0

Das ist das so ziemlich das einzig representative was es gibt, weil sie direkt an der Stromversorgung der Karten messen.

Wieso ist das für die Katz?
Jede Hardware verhält sich anders in einem anderen Rechner, auf nem anderen Board, etc....
Wenn verschiedene Karten in dem selben Rechner, auf dem selben Board verglichen werden, sind das für mich die einzigen brauchbaren Ergebnisse!
Genauso weiss ich dass die 8800GT im Durchschnitt 25% schneller als eine 3870 ist! Dafür ist sie auch 20% teurer als ihr Gegner. Rechtfertigt aber nicht im geringsten die 14% Mehrverbrauch im Idle! Den Stromverbrauch einer X2 finde ich genauso daneben.....viel zu hoch! Das muss besser gehen!

LovesuckZ
2008-05-22, 16:06:36
genauso weiss ich dass die 8800GT im Durchschnitt 25% schneller als eine 3870 ist!

Wieso vergleichst du sie dann mit der 3870? :confused:

Coda
2008-05-22, 16:08:30
Wieso ist das für die Katz?
Jede Hardware verhält sich anders in einem anderen Rechner, auf nem anderen Board, etc....
Erstens habe ich das Gefühl dass die Netzmessgeräte die Blindströme mitmessen, was ein total verfälschtes Bild gibt und zweitens kann ein Netzteil pro Spannungsschiene eine unterschiedliche Effizienz haben. Für die allgemeine Betrachtung ist es deshalb allein aussagekräftig was die Karte zieht. Und natürlich auch für den Kühlbedarf.

X-Bit-Labs misst den Verbrauch natürlich auch bei allen Karten mit der gleichen Platform. Aber an der einzig richtigen Stelle.

Schlammsau
2008-05-22, 16:13:25
Wieso vergleichst du sie dann mit der 3870? :confused:
weil sie eigentlich dafür ausgelegt ist/war!

Erstens habe ich das Gefühl dass die Netzmessgeräte die Blindströme mitmessen, was ein total verfälschtes Bild gibt und zweitens kann ein Netzteil pro Spannungsschiene eine unterschiedliche Effizienz haben. Für die allgemeine Betrachtung ist es deshalb allein aussagekräftig was die Karte zieht. Und natürlich auch für den Kühlbedarf.

X-Bit-Labs misst den Verbrauch natürlich auch bei allen Karten mit der gleichen Platform. Aber an der einzig richtigen Stelle.

wenn ich jetzt beide Seiten miteinander Vergleiche, kommen eigentlich sehr identische Werte bei raus!

Coda
2008-05-22, 16:15:18
weil sie eigentlich dafür ausgelegt ist/war!
So what? :confused:
Sie ist erreicht die Performance aber nicht. Die Performance/Watt ist bei ATI selbst mit dem kleineren Fertigungsprozess schlechter unter Last. Das ist ein Faktum.

wenn ich jetzt beide Seiten miteinader Vergleiche, kommen eigentlich sehr identische Werte bei raus!
Computerbase und X-Bit-Labs? Wo ist dann das Problem?

Gast
2008-05-22, 16:15:31
Dafür ist sie auch 20% teurer als ihr Gegner.
Nö der Unterschied ist kleiner.

weil sie eigentlich dafür ausgelegt ist/war!
Dafür gibts die 9600GT!

Schlammsau
2008-05-22, 16:23:16
Stimmt, wobei man sich jetzt fragen muss, welcher Hersteller jetzt mehr an einer einzelnen Karte verdient. nVidia mit der 8800GT für 118€ oder ATi mit der einer 3870 für 109€..... die 8800GT hat ja doch den um einiges grösseren DIE!

desert
2008-05-22, 16:28:39
Stimmt, wobei man sich jetzt fragen muss, welcher Hersteller jetzt mehr an einer einzelnen Karte verdient. nVidia mit der 8800GT für 118€ oder ATi mit der einer 3870 für 109€..... die 8800GT hat ja doch den um einiges grösseren DIE!

ich würde mal behaupten nvidia, wenn man sich die zahlen anschaut ;)

Gast
2008-05-22, 16:31:05
Warum vergleichts du nicht die 9600GT mit der 3870?

Gast
2008-05-22, 16:32:54
Etl aber doch günstiger zu produzieren, die Größe eines Chips ist ja nicht alleine ausschlaggebend was ich daran verdiene.
Zumal die Zahlen von nV etwas anderes Sprechen als hier immer suggeriert wird von einer Person, man verdient Geld damit, sogar gut!

Schlammsau
2008-05-22, 16:36:55
Warum vergleichts du nicht die 9600GT mit der 3870?
neee......wohl eher mit der HD3850 - 512MB ;)
Jeder der eine 9600GT besitzt, kann doch hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=416135) oder hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=412382) mal mitbenchen. Interessiert mich wirklich, wie die 9600GT sich hier schlagen.


Etl aber doch günstiger zu produzieren, die Größe eines Chips ist ja nicht alleine ausschlaggebend was ich daran verdiene.

Das würde mich echt mal interessieren!
Die GPU ist aber das teuerste an einer Karte!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=414700

Unyu
2008-05-22, 16:46:19
neee......wohl eher mit der HD3850 - 512MB ;)
Warum?
Die 9600GT ist locker so schnell wie die 3870. Du kennst die Benches.

Es gibt einfach keinen vernünftigen Grund die 3870 mit der 8800GT zu vergleichen.

Schlammsau
2008-05-22, 16:49:56
Warum?
Die 9600GT ist locker so schnell wie die 3870. Du kennst die Benches.

Es gibt einfach keinen vernünftigen Grund die 3870 mit der 8800GT zu vergleichen.

Auf dich habe ich gewartet!
in den allermeisten Benches ohne AA und AF, ist die 9600GT genau da wo sie hingehört, nämlich zwischen der 3850 und 3870!
Nur in Benches mit 16xAF und 4xAA zieht sie teils der 3870 davon! Mit 8xAA oder sehr hohen Auflösungen bricht sie gnadenlos ein!

Aber jetzt BTT!

Odal
2008-05-22, 16:55:20
im NVidia Favorite Crysis ist die 9600GT jedenfalls nicht mit der 3870 auf einer augenhöhe
http://www.xbitlabs.com/articles/video/display/gainward-bliss9600gt-512gs_11.html#sect0

insgesamt wird der 9600GT jedenfalls ruck zuck die puste ausgehen der mangelt es einfach an grundperformance...bei einem so abgespeckten g92 ja auch nicht verwunderlich

tombman
2008-05-22, 17:00:20
Bei 200W hat Nvidia schon verkündet.GT200 wird der Finale Monster Chip von Nvidia.
Noch ein paar größere PCB Bilder:
http://img89.imageshack.us/img89/1249/2008052276e7838a450d9ecmz7.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/5051/200805220692d90f068b76bwp5.jpg (http://imageshack.us)
http://img141.imageshack.us/img141/4426/200805229183401ab0a35a1pe3.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/295/295937.shtml
:massa:

Der letzte seiner Art- für die letzten games ihrer Art :(

Jedenfalls gibts keinen Chip unter den SLI Brücken...in den Schemabildern war da noch einer- hmm, wofür der wohl geplant war?

Gast
2008-05-22, 17:07:54
:massa:

Der letzte seiner Art- für die letzten games ihrer Art :(

Jedenfalls gibts keinen Chip unter den SLI Brücken...in den Schemabildern war da noch einer- hmm, wofür der wohl geplant war?

Was willst du denn ausser Crysis mit der Karte dann zocken? Willst du sie nur für Crysis kaufen?

tombman
2008-05-22, 17:09:50
Was willst du denn ausser Crysis mit der Karte dann zocken? Willst du sie nur für Crysis kaufen?
Sie kann wahrscheinlich GTX SLI ersetzen, DESHALB will ich sie ;)

Je nach Leistung kommt dann entweder eine zweite dazu, oder eben nicht, aber das hängt von meiner Gier und eben der single-Leistung ab ;)

Gast
2008-05-22, 17:12:01
Sie kann wahrscheinlich GTX SLI ersetzen, DESHALB will ich sie ;)

Je nach Leistung kommt dann entweder eine zweite dazu, oder eben nicht, aber das hängt von meiner Gier und eben der single-Leistung ab ;)
Jetzt sag welche Spiele brauchen überhaupt 2xGTX Leistung?
Crysis?

calimero58
2008-05-22, 17:17:11
ist ja gut und schön aber der preis ist trotzdem unverschämt,für eine karte mit der leistung von 2 gtx karten das 3fache zuzahlen(600 euro),auch wenn es ein singlechip ist.leute die schon 2x8800gtx im pc haben werden doch nichts an mehrperformance merken bei einer karte,seh den sinn nicht abgesehen vom singlechip dasein.

tombman
2008-05-22, 17:17:34
Jetzt sag welche Spiele brauchen überhaupt 2xGTX Leistung?
Crysis?
Fast jedes auf 1920x1200...

Gast
2008-05-22, 17:23:08
Fast jedes auf 1920x1200...
Was heisst denn fast jedes? Beispiele? Ich wette mit dir du findest kein Spiel das mit EINER GTX in dieser Auflösung nicht läuft. Ausgenommen eben Crysis und Armed Assault (aber da sind die Entwickler Schuld).

16xS zählt nicht....

tombman
2008-05-22, 17:26:29
Was heisst denn fast jedes? Beispiele? Ich wette mit dir du findest kein Spiel das mit EINER GTX in dieser Auflösung nicht läuft. Ausgenommen eben Crysis und Armed Assault (aber da sind die Entwickler Schuld).

16xS zählt nicht....
Schon mal was von 4xAA gehört?

Alles weitere dann per pm...

Nightspider
2008-05-22, 17:26:42
Was heisst denn fast jedes? Beispiele? Ich wette mit dir du findest kein Spiel das mit EINER GTX in dieser Auflösung nicht läuft. Ausgenommen eben Crysis und Armed Assault (aber da sind die Entwickler Schuld).

16xS zählt nicht....

Ich hab fast jedes Spiel schonmal auf 1920*1200 gespielt und kann dir sagen, das es mit einer GTX nicht all zu flüssig läuft.

Wenn dir wenige Frames reichen bitte, mir und Tombman als auch vielen anderen nicht, also hör auf zu diskutieren...

Gast
2008-05-22, 17:27:23
Schon mal was von 4xAA gehört?
Ich würde sagen 8xS inklusive. 1920x1200@8XS was läuft nicht mit einer GTX?

Gast
2008-05-22, 17:29:11
Was heisst denn fast jedes? Beispiele? Ich wette mit dir du findest kein Spiel das mit EINER GTX in dieser Auflösung nicht läuft. Ausgenommen eben Crysis und Armed Assault (aber da sind die Entwickler Schuld).

16xS zählt nicht....


Diashow fällt nicht unter Flüssig, gibt nunmal auch Spieler die gerne min. 35fps haben um nicht als Zielscheibe zu enden.

Die GTX hat schon lange ausgedient, sollte am besten gleich was 4x so schnelles kommen.

Banshee18
2008-05-22, 17:30:10
Ganz unrecht hast du ja nicht, Gast, aber manche wollen eben 16xS und mehr, womit SLI eine Daseinsberechtigung hat.
Außerdem reden wir hier von tombman. Ein tombman ohne SLI ist wie ein Mensch mit nur einem Arm und Bein. :biggrin:

€: Ich glaube, der Gast meint die neue GTX.

Coda
2008-05-22, 17:30:59
Jedenfalls gibts keinen Chip unter den SLI Brücken...in den Schemabildern war da noch einer- hmm, wofür der wohl geplant war?
Großartig was rechnen wird das Ding auf jeden Fall nicht. Das sieht man schon daran dass es nicht als BGA verbaut ist.

Gast
2008-05-22, 17:44:43
Hey tombman & Co,

ihr habt echt eine Ausdauer. Respekt!! Diese Leute, die alles in Frage stellen "Warum sli?", Warum 4 Kerne in einer CPU?", "Warum Feuer und Steinwerkzeug?" gehen mir auch auf den Senkel aber man findet sie überall. Ich habe den Kampf gegen diese Subjekte aufgegeben und kann nur mentalen Beistand leisten. Bleibt standhaft ich denke an euch. Ja, und auch ich werde meine 8800 Ultra OC sofort gegen eine GTX280 ersetzen damit Crysis endlich mal richtig flüssig läuft.
Der Mensch drängt nach vorn und wer auf der Stelle steht wird überholt oder stirbt aus.

Gast
2008-05-22, 17:45:11
Ich hab keinen Bock mit dir über die Vor- und Nachteile der HD3xxx Karten zu diskutieren! Wenn es für dich kein Problem ist, wenn die Karte 200 und mehr Watt verbrät....bitteschön! Für mich ist es wichtig! :P

Richtig, für Dich...Also bitte keine Öko Diskussion sowas hat hier nix zu suchen

Eggcake
2008-05-22, 17:51:00
@tombman

Na für AA müsstest du doch Profile erstellen und das machste ja sowieso nicht :P ;)

calimero58
2008-05-22, 17:51:43
Hey tombman & Co,

ihr habt echt eine Ausdauer. Respekt!! Diese Leute, die alles in Frage stellen "Warum sli?", Warum 4 Kerne in einer CPU?", "Warum Feuer und Steinwerkzeug?" gehen mir auch auf den Senkel aber man findet sie überall. Ich habe den Kampf gegen diese Subjekte aufgegeben und kann nur mentalen Beistand leisten. Bleibt standhaft ich denke an euch. Ja, und auch ich werde meine 8800 Ultra OC sofort gegen eine GTX280 ersetzen damit Crysis endlich mal richtig flüssig läuft.
Der Mensch drängt nach vorn und wer auf der Stelle steht wird überholt oder stirbt aus.


mit einer karte wirst du aber max bei 1680*1050 in max quality spielen können,für höhere auflösungen musst du 2 kaufen:)

tombman
2008-05-22, 17:52:22
@tombman

Na für AA müsstest du doch Profile erstellen und das machste ja sowieso nicht :P ;)
Nicht bei vielen AAA Titel, die haben das im Menu ...

Snoopy69
2008-05-22, 17:52:52
Leider skaliert SLI bei Crysis total besch... - nämlich so gut wie garnicht. Oder wie habt ihr es hinbekommen?
Bei CoD4 dagegen super - ca. 90% mehr FPS @ 1920x1200

tombman
2008-05-22, 17:59:38
Leider skaliert SLI bei Crysis total besch... - nämlich so gut wie garnicht. Oder wie habt ihr es hinbekommen?
?? Crysis skaliert sogar sehr gut mit SLI...

Henroldus
2008-05-22, 18:15:11
Was heisst denn fast jedes? Beispiele? Ich wette mit dir du findest kein Spiel das mit EINER GTX in dieser Auflösung nicht läuft. Ausgenommen eben Crysis und Armed Assault (aber da sind die Entwickler Schuld).

16xS zählt nicht....
nochmal: das schöne call of Juarez unter DX10 ist mit 4xAA noch nicht spielbar
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/16/#abschnitt_call_of_juarez
btw leistung braucht man immer und wenn es für SSAA ist

Sonyfreak
2008-05-22, 18:17:46
Jetzt sag welche Spiele brauchen überhaupt 2xGTX Leistung?Je nach Qualitätseinstellung und Auflösung ein großer Teil der Spiele der letzten 3 bis 4 Jahre. ;)

mfg.

Sonyfreak

Snoopy69
2008-05-22, 18:27:27
Eben stand hier noch...

bei mir skaliert SLI wie Sau
Bild: http://s3.directupload.net/images/080501/temp/vwjiofhd.png (http://s3.directupload.net/file/d/1416/vwjiofhd_png.htm)

Scheinbar skaliert es doch nicht so gut. Mal mit einer Single-Karte probiert?
Oder warum kann mir KEINER sagen, was man einstellen muss?

btw: Deine Texturen in der Ferne sehen besch... aus. :wink:

Vor und nach nem Tweak (nur etwas zu hell)

http://www.abload.de/thumb/hc_2882ibj.jpg (http://www.abload.de/image.php?img=hc_2882ibj.jpg) http://www.abload.de/thumb/hc_287zww.jpg (http://www.abload.de/image.php?img=hc_287zww.jpg)

calimero58
2008-05-22, 18:33:08
nochmal: das schöne call of Juarez unter DX10 ist mit 4xAA noch nicht spielbar
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/16/#abschnitt_call_of_juarez
btw leistung braucht man immer und wenn es für SSAA ist


mit 3*3870 im triple locker flockig spielbar;)

Banshee18
2008-05-22, 18:33:18
Die Postings waren von einem User, der sich nicht an seine Sperre halten will, also nicht wundern, wenn hier Postings scheinbar grundlos verschwinden. Und jetzt bitte zurück zum Thema! Für Fragen gibt es die PN-Funktion.

mictasm
2008-05-22, 18:54:43
Oder warum kann mir KEINER sagen, was man einstellen muss?


Können wir das hier herauslassen, du hast doch schon zwei Threads damit belegt...

Gast
2008-05-23, 04:22:56
mit 3*3870 im triple locker flockig spielbar;)

Mit Mikrorucklern gaNZ super flockig

tombman
2008-05-23, 05:06:49
WIE GEIL!!!

Folding@home at "upcoming nvidia gpu" ;)
Kann nur GT200 sein, und er ownt alles weg, auch die PS3.
http://www.pcper.com/comments.php?nid=5679

=Floi=
2008-05-23, 07:19:25
folding @ home ist mit sli aber dann schon eine teure angelegenheit. In der praxis macht es so keinen sinn, weil der stromverbrauch einfach nicht den gegenwert rechtfertigt.


zitat
Jedenfalls gibts keinen Chip unter den SLI Brücken...in den Schemabildern war da noch einer- hmm, wofür der wohl geplant war?
den platz gab es auch schon auf den GF7 karten und das war ein MSI only feature.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=321097&highlight=chip

AnarchX
2008-05-23, 08:24:26
WIE GEIL!!!

Folding@home at "upcoming nvidia gpu" ;)
Kann nur GT200 sein, und er ownt alles weg, auch die PS3.
http://www.pcper.com/comments.php?nid=5679
:D
http://img185.imageshack.us/img185/5651/folding370dd720bnt8.jpg (http://imageshack.us)
http://img362.imageshack.us/img362/6264/folding470ddaf72uc1.jpg (http://imageshack.us)

Schade dass es keine Basiswerte von einer GeForce8/9 gibt...

Gast
2008-05-23, 09:06:28
NVIDIA nennt das teil ja wirklich GeForce GTX 280

Gast
2008-05-23, 09:32:18
WIE GEIL!!!

Folding@home at "upcoming nvidia gpu" ;)
Kann nur GT200 sein, und er ownt alles weg, auch die PS3.
http://www.pcper.com/comments.php?nid=5679


Mensch tumbman, jetzt beruhig dich mal wieder. Inzwischen bejubelst du schon so nen folding client. Wenn es morgen heisst das ding kann auch SuperPi dann gehst du hoffentlich nicht durch die decke.

Gast
2008-05-23, 09:37:05
WIE GEIL!!!

Folding@home at "upcoming nvidia gpu" ;)
Kann nur GT200 sein, und er ownt alles weg, auch die PS3.
http://www.pcper.com/comments.php?nid=5679


Laut dem Diagramm ist doch die PS3 schon lange "geownt".

PS: Wie kann eigentlich etwas wegge"ownt" werden... ??? Wenn schon so ne Quatschsprache dann bitte richtig.

Schlammsau
2008-05-23, 09:42:08
Schade dass es keine Basiswerte von einer GeForce8/9 gibt...

ich würde laut diesem Balkendiagramm, eine G92 GTX mal so um die 250 Punkte einordnen.
also wie ich mir dachte, maximal doppelte G92 Performance. Aber bedenkt, dass solche Presentationen auch immer sehr optimistisch für den jeweiligen Ersteller ausgelegt sind.

AnarchX
2008-05-23, 09:44:32
wie ich mir dachte, maximal doppelte G80 Performance.
Und woher kennst du die Leistung von G80 unter F@H?;)

Das einzige was man hier sieht, ist, dass die GTX 280(?) eine HD3870 im Faktor ~2.5 schlägt, die immerhin fast 500 GFLOPs MADD-Leistung bietet.

Schlammsau
2008-05-23, 09:46:39
Und woher kennst du die Leistung von G80 unter F@H?;)

Das einzige was man hier sieht, ist, dass die GTX 280(?) eine HD3870 im Faktor ~2.5 schlägt, die immerhin fast 500 GFLOPs MADD-Leistung bietet.
das eine einzelne 3870 ungefähr um den Faktor 1,5 langsamer ist als die schnellste G80/G92 GPU!

AnarchX
2008-05-23, 09:48:02
das eine einzelne 3870 ungefähr um den Faktor 1,5 langsamer ist als die schnellste G80 GPU!
In Spielen, aber wie es unter F@H, was doch andere Anforderungen hat, aussieht, wissen wir nunmal nicht.

Schlammsau
2008-05-23, 09:49:46
In Spielen, aber wie es unter F@H, was doch andere Anforderungen hat, aussieht wissen wir nunmal nicht.

ich glaube/vermute, dass wird sich nicht viel nehmen!
Aber das ist doch super für nVidia, doppelte Leistung ist doch gut oder nicht?

Gast
2008-05-23, 09:55:42
Das einzige was man hier sieht, ist, dass die GTX 280(?) eine HD3870 im Faktor ~2.5 schlägt, die immerhin fast 500 GFLOPs MADD-Leistung bietet.

Na dann muss nV froh sein, wenn man nicht von einer 4870 "weggeownt" wird. Die X2 geht da jedenfalls locker vorbei.

Dadi
2008-05-23, 10:03:24
Technisch versteh ich nicht viel, aber langsam geht es mir schon auf die Nerven.
Anfangs immer wieder „Wunderkind PS3, 7 Kerne usw.“ aber nach dem Diagramm, wenn was wahres dran ist, ists schon enttäuschend nach etwas über einem Jahr so tief zu liegen.
Die Konsole hab ich selbst und als verwöhnter PC User sehe ich technisch bessere Leistungen am PC als auf der Konsole.

seahawk
2008-05-23, 10:42:55
Vergiss nicht den Preis. Die GT200 dürfte alleine soviel wie 2 PS3 kosten.

mapel110
2008-05-23, 10:52:30
Vergiss nicht den Preis. Die GT200 dürfte alleine soviel wie 2 PS3 kosten.
Ich möcht echt mal wissen, wo ihre eure Konsolen kauft. Gebraucht bei ebay?
http://geizhals.at/deutschland/?cat=conps3

Ich würde eher von einem Preis bei etwa 500 € ausgehen, vielleicht auch leicht drunter. nvidia muss ja schließlich auch noch einen gewissen Druck auf ATI ausüben.

gamingforce
2008-05-23, 11:12:48
Die wrd mehr kosten 100%, NV lässt sich das gut bezahlen davpn kannst du ausgehen.
Wenn der nur 500 kostet, wer bitte kauft die anderen Grakas nocht ie 9800 GTX,GX2 ?
Und ich glaub nicht das NV schnell ihr Preise mal um die hälfte runter drückt.

dargo
2008-05-23, 11:19:11
Die wrd mehr kosten 100%, NV lässt sich das gut bezahlen davpn kannst du ausgehen.
Wenn der nur 500 kostet, wer bitte kauft die anderen Grakas nocht ie 9800 GTX,GX2 ?

Die Karten laufen bald aus.

Nakai
2008-05-23, 11:20:16
Die Karten laufen bald aus.

Nicht alle.


mfg Nakai

dargo
2008-05-23, 11:22:40
Nicht alle.

Die 9800GTX und GX2 schon.

gamingforce
2008-05-23, 11:24:57
schön abgezockt würd ich sagen ;D

schnell noch ihren Schrott verkauft den sie gebaut haben und jetzt vom Markt nehmen:rolleyes:

dargo
2008-05-23, 11:29:07
schön abgezockt würd ich sagen ;D

schnell noch ihren Schrott verkauft den sie gebaut haben und jetzt vom Markt nehmen:rolleyes:
Schon mal daran gedacht, dass es mit dem Erscheinen vom G92b und G(T)200 keinen Platz mehr in den jeweiligen Preissegmenten gibt? Du bist echt der Held. *kopfschüttel*

Ailuros
2008-05-23, 12:03:48
das eine einzelne 3870 ungefähr um den Faktor 1,5 langsamer ist als die schnellste G80/G92 GPU!

Aber nicht mit GPGPU Zeug! Jegliche G8x/9x erscheint mit Absicht nicht in einem solchen Diagram.

Schlammsau
2008-05-23, 12:06:01
Aber nicht mit GPGPU Zeug! Jegliche G8x/9x erscheint mit Absicht nicht in einem solchen Diagram.

und wie siehts bei GPGPU aus? Und warum sind die G8x und G9x nicht verteten?

mapel110
2008-05-23, 12:07:45
und wie siehts bei GPGPU aus? Und warum sind die G8x und G9x nicht verteten?
Es wird wohl so sein, dass dort die Radeons ihre theoretischen GFlops eher auf die Straße bringen als Geforces, wenn ich Ailuros Unterton richtig deute.

Ailuros
2008-05-23, 12:14:08
AnarchX,

Es ist eine GTX280 und der Unterschied liegt bei 2.8x.

Na dann muss nV froh sein, wenn man nicht von einer 4870 "weggeownt" wird. Die X2 geht da jedenfalls locker vorbei.

Die R600 ging auch in solchem Zeug an einer G80 "locker vorbei" und sogar noch mehr als die theoretischen +15% die ich fuer eine 4870X2 mal ganz schnell ausgerechnet habe.

Sobald es zu mehr als nur sterilen MADD calls kommt, sinkt eine R600 so radikal ab dass es nicht mehr schoen ist.

Was jetzt das obrige heisst ist genau die erste indirekte Bestaetigung dass jeglicher FLOP auf GT200 um einiges effizienter ist als auf RV670 (als Anfang).

Es wird wohl so sein, dass dort die Radeons ihre theoretischen GFlops eher auf die Straße bringen als Geforces, wenn ich Ailuros Unterton richtig deute.

Denk nach dass eine RV670@775MHz auf 496GFLOPs kommt. Ich weiss zwar immer noch nicht wieviel theoretische GFLOPs eine GTX280 von sich geben kann, aber ich nehme mal eine konservative These von 240*3*1.5GHz = 1080GFLOPs. Ein theoretischer GFLOP Unterschied von 2.2x. Bleiben rein theoretisch ein Unterschied von 0.6x.

Natuerlich falls all das obrige erstmal stimmt. Auf jeden Fall einen solchen Unterschied hatte jegliche G8x/9x bis jetzt noch nie gezeigt in FoldingHome Zeug.

deekey777
2008-05-23, 12:26:23
Mal Butter bei die Fische:
http://img386.imageshack.us/img386/161/folding4fg8.jpg
Diese Grafik zeigt:
Für die HD 3870: Es ist die aktuelle Performance der HD 3870 iVm F@H-GPU2-Client. Sie liegt bei ~170 irgendwas
Für die GTX 280: Es ist die Performance der GTX 280 in was?

Der GPU2-Client verursacht aktuell einmal eine enorme CPU-Last, so dass die Performance extrem von dem Takt der CPU abhängt. Weiterhin soll der Beta-Client die Radeons nicht auslasten (es ist ein Beta-Client!).

AnarchX
2008-05-23, 12:28:33
Für die HD 3870: Es ist die aktuelle Performance der HD 3870 iVm F@H-GPU2-Client. Sie liegt bei ~170 irgendwas
Für die GTX 280: Es ist die Performance der GTX 280 in was?

Offenbar molday, also wohl Moleküle pro Tag. (Im Client-Shot sieht man auch m / day)

Aber der Gedanke, dass der CUDA-Client vielleicht effizienter arbeitet, kam mir auch schon.

Gast
2008-05-23, 12:32:05
Könnte es nicht sein das der neue Physik Chip der Nvidia speziell für diese Folding@home Geschichten arbeitet? Das würde aus meiner Sicht die enorme Performance gegenüber der HD3870 erklären.

@Ailuros,
du weist das doch sicher schon ;) Wie schaut es eigentlich an der Kyro Front aus? Kommt da mal was neues? Vermisse meine Kyro2...

crux2005
2008-05-23, 12:36:14
Könnte es nicht sein das der neue Physik Chip der Nvidia speziell für diese Folding@home Geschichten arbeitet?

wie physics chip ? die Berechnungen werden wohl wieder die ALUs übernehmen

Odal
2008-05-23, 12:54:06
wie physics chip ? die Berechnungen werden wohl wieder die ALUs übernehmen

so siehts aus wieso sollte man auch sonst anstrengungen unternehmen alle möglichen berechnungen auf einer gpu ausführbar zu machen und sogar eine api entwickeln womit das ähnlich einer normalen programmiersprache nutzbar ist....

weiterhin finde ich es jetzt nicht so verwunderlich das die GT200 "so weit" vor der 3870 in diesem speziellen fall liegt.....

besonders da nv durch cuda sicher schon ein paar kniffe hat um für solche aufgaben eine hohe recheneffizienz zu schaffen....

das sagt aber nix über die eigentliche spieleleistung aus

Ailuros
2008-05-23, 13:27:54
@Ailuros,
du weist das doch sicher schon ;) Wie schaut es eigentlich an der Kyro Front aus? Kommt da mal was neues? Vermisse meine Kyro2...

Fuer PC desktop in Form einer standalone GPU wohl nichts. Was jetzt UMPCs oder kleine Schlepptops betrifft, siehe Intel Atom Dingsbumse mit SGX; sonst eben Handys und/oder handheld gaming devices.

besonders da nv durch cuda sicher schon ein paar kniffe hat um für solche aufgaben eine hohe recheneffizienz zu schaffen....

das sagt aber nix über die eigentliche spieleleistung aus

Schoen waere es wenn nur SW zu solchen Unterschieden fuehren wuerde. G8x/9x hatten fuer GPGPU Zeug deutliche Schwaechen und man hatte auch Intel's kommendes Projekt im Hinterkopf. Dass NV Marketing-Diagramme nur gegen AMD's zeitigen GPUs zeigt hat ja auch seinen Sinn; denn gegen Intel's IGPs eine GT200 zu stellen waere mehr als nur laecherlich.

Hvoralek
2008-05-23, 13:36:36
Technisch versteh ich nicht viel, aber langsam geht es mir schon auf die Nerven.
Anfangs immer wieder „Wunderkind PS3, 7 Kerne usw.“ aber nach dem Diagramm, wenn was wahres dran ist, ists schon enttäuschend nach etwas über einem Jahr so tief zu liegen.
Die Konsole hab ich selbst und als verwöhnter PC User sehe ich technisch bessere Leistungen am PC als auf der Konsole.War bei F@H nicht sogar schon R580 schneller als ein PS3- Cell?

Gast
2008-05-23, 13:39:00
Durch die Physik-Berechnungen via Software wird die Framerate dann aber in Spielen ein wenig sinken. Für manch einen dann vielleicht wieder zu viel. Na ja, wird man ja wahrscheinlich dann im Treiber deaktivieren können.

Hvoralek
2008-05-23, 13:45:16
Durch die Physik-Berechnungen via Software wird die Framerate dann aber in Spielen ein wenig sinken. Für manch einen dann vielleicht wieder zu viel. Na ja, wird man ja wahrscheinlich dann im Treiber deaktivieren können.Wer würde denn diesen Client parallel zu einem Spiel laufen lassen?

Odal
2008-05-23, 13:54:25
Schoen waere es wenn nur SW zu solchen Unterschieden fuehren wuerde. G8x/9x hatten fuer GPGPU Zeug deutliche Schwaechen und man hatte auch Intel's kommendes Projekt im Hinterkopf. Dass NV Marketing-Diagramme nur gegen AMD's zeitigen GPUs zeigt hat ja auch seinen Sinn; denn gegen Intel's IGPs eine GT200 zu stellen waere mehr als nur laecherlich.

also lässt sich treiberseitig da nicht viel rausholen und die G80 architektur ist vermurkst wenn es um F@H geht?

aber der GT200 soll doch die gleiche architektur haben wieso ist das ding dann soviel schneller darin als ein G80?

ich mein wir sprechen hier dann ja nicht nur von doppelter geschwindigkeit..

Ailuros
2008-05-23, 14:09:55
also lässt sich treiberseitig da nicht viel rausholen und die G80 architektur ist vermurkst wenn es um F@H geht?

Ist Dir schon aufgefallen dass auf einer 8800GTX nur 346GFLOP/s maximal theoretische MADD Leistung zur Verfuegung steht?

http://www.beyond3d.com/content/reviews/7/17

aber der GT200 soll doch die gleiche architektur haben wieso ist das ding dann soviel schneller darin als ein G80?

Inwiefern "gleiche" Architektur? G8x/9x= 2*8 SPs/cluster, GT200= 3*8 SPs/cluster.

deekey777
2008-05-23, 15:14:28
Ist Dir schon aufgefallen dass auf einer 8800GTX nur 346GFLOP/s maximal theoretische MADD Leistung zur Verfuegung steht?

http://www.beyond3d.com/content/reviews/7/17
...
Der R580 kommt bei 650 MHz auf theoretische 374 GFLOPs, davon etwa ein Zweidrittel MADDs. Trotzdem hat man es hinbekommen, dass der GPU1-Client seit Oktober 2006 lief. Nach und nach kamen auch kleinere Grafikkarten bis zur X1600Pro.
Der aktuelle GPU2-Client funktioniert auf allen HD-Radeons ab HD2600 aufwärts.
Dass der NV-Client "erst" jetzt kommt, ist nicht schlimm, denn man hat für den GPU2-Client (der CAL/Brook+ nutzt) auch ziemlich lange gebraucht. Dass in dem tollen Diagramm kein G80 zu sehen ist, liegt eher daran, dass für den G200 geworben wird.

crux2005
2008-05-23, 15:47:58
Wakü für die G200:

http://s3.directupload.net/images/080523/temp/vlmzu43g.jpg (http://s3.directupload.net/images/080523/vlmzu43g.jpg)

http://s4.directupload.net/images/080523/temp/22j7ysa3.jpg (http://s4.directupload.net/images/080523/22j7ysa3.jpg)

http://www.aqua-computer-systeme.de/cgi-bin/YaBB/YaBB.pl?board=1;action=display;num=1211479269

bestätigt die bilder der GTX 280 von PCinLife

Hvoralek
2008-05-23, 15:49:23
Der R580 kommt bei 650 MHz auf theoretische 374 GFLOPs, davon etwa ein Zweidrittel MADDs. Trotzdem hat man es hinbekommen, dass der GPU1-Client seit Oktober 2006 lief. Nach und nach kamen auch kleinere Grafikkarten bis zur X1600Pro.
Der aktuelle GPU2-Client funktioniert auf allen HD-Radeons ab HD2600 aufwärts.
Dass der NV-Client "erst" jetzt kommt, ist nicht schlimm, denn man hat für den GPU2-Client (der CAL/Brook+ nutzt) auch ziemlich lange gebraucht. Dass in dem tollen Diagramm kein G80 zu sehen ist, liegt eher daran, dass für den G200 geworben wird.In der Präsentation wird ausdrücklich auf die bereits installierte Basis an CUDA- GPUs (also G8x/9x) Bezug genommen. Das deutet wohl schon darauf hin, dass der Client auch auf denen laufen wird. Wie schnell er das tut, ist natürlich eine andere Frage. Wenn G8x "nur" im Rahmen der rechnerischen MADD- Leistung langsamer ist als R6xx, würde sich das wohl trotzdem lohnen.

deekey777
2008-05-23, 16:17:58
In der Präsentation wird ausdrücklich auf die bereits installierte Basis an CUDA- GPUs (also G8x/9x) Bezug genommen. Das deutet wohl schon darauf hin, dass der Client auch auf denen laufen wird. Wie schnell er das tut, ist natürlich eine andere Frage. Wenn G8x "nur" im Rahmen der rechnerischen MADD- Leistung langsamer ist als R6xx, würde sich das wohl trotzdem lohnen.
Eben: F@H ist so eine altruistische Sache, wo jeder zusätzliche Client zählt.

Gast
2008-05-23, 16:31:10
wenn der g200 wirklich kein d3d10.1 beherschen sollte, wär das schon ein bisschen ein Armutszeugnis von Nividia. Was die in den letzten Monaten abgeliefert haben war schon peinlich genug. Seit dem 8800GTX ist nichts mehr vernünftiges von Nividia gekommen. Die Mainstream Produkte haben sich aus unerklärlichen Gründen um viele Monate nach hinten verschoben und so wirds wohl diesmal auch sein. Die 8800gt usw. hätte direkt im Anschluss an die 8800gtx kommen sollen und nicht erst ein Jahr später.
Aber wenn Ati so schwächelt ist das auch kein Wunder. Ati hätte niemals aufgekauft werden dürfen. AMD hat schon angekündigt die Entwicklung zu verlangsamen, da kein Geld. Innovationen auf dem Graka-Sektor dürften keine mehr kommen wie die Jahre vor dem Übernahme. Nividia wird sich natürlich dem anpassen, denn wieso entwickeln, wenn keine Konkurenz da ist.
Hier hat das gierige AMD dafür gesorgt, dass das Entwicklungstempo in den kommenden jahren auf dem ganzen Markt deutlich geringer wird. Eine Verdopplung der Grafikkartenleistung mit jeder neuen Generation alle 1-1,5 Jahre wie in der Vergangenheit können wir vergessen. Sehr schade. Der schuldige ganz klar AMD. Wir können froh sein wenn AMD überhaupt noch am Leben bleibt. Wenn sie untergehen ziehen sie dann auch ATI mit in den Tot oder bedeutungslosigkeit. Einfach eine Katastrophe.

Kolos
2008-05-23, 16:32:31
sorry, hab mich vergessen anzumelden. Der Beitrag ist von mir.

Schlammsau
2008-05-23, 16:33:26
sorry, hab mich vergessen anzumelden. Der Beitrag ist von mir.
gewagte Theorie. :|

tombman
2008-05-23, 16:33:32
Mensch tumbman, jetzt beruhig dich mal wieder. Inzwischen bejubelst du schon so nen folding client. Wenn es morgen heisst das ding kann auch SuperPi dann gehst du hoffentlich nicht durch die decke.
Oh doch, dann gehe ich durch die Decke :cool: ;)
Laut dem Diagramm ist doch die PS3 schon lange "geownt".
Jo, ich weiß, aber es werden eben auch alle ATi Produkte geownt ;)

PS: Wie kann eigentlich etwas wegge"ownt" werden... ??? Wenn schon so ne Quatschsprache dann bitte richtig.
To own = besitzen. "wegownen" heißt also "wegbesitzen". Ist natürlich ein Kunstwort, was aber durchaus Sinn macht- als Mischung aus wegschnappen und besitzen ;) So sehe ich es jedenfalls :)

Odal
2008-05-23, 16:51:30
gewagte Theorie. :|

nicht unbedingt....

was meinst du wohl wieso nvidia mit produkten wie der 9800GTX kunden abledert....

eben weil sie es sich leisten können...keine konkurenz....

die denken nicht an uns kunden...die denken daran das die kassen klingeln...

und das tun sie besonders wenn man keine grossen investitionen tätigt aber den kunden dennoch alles mögliche verscherbelt

das perverse daran ist doch das einige leute das sogar begrüßen...

die sagen DX10.1 überflüssig..neue GPUs statt der Xte Aufguß des G80 überflüssig...
Denn NVidia ist ach so toll weils ja NVidia ist

Auch wenn die Leute mit solchem Engstirnigen Denken ins eigene Fleisch schneiden interessiert es sie nicht...

Gleiches gilt natürlich auch für ATI wenn diese bzgl. Absatzzahlen Kapital und Performance am längeren Hebel sitzen würden

Unyu
2008-05-23, 16:57:20
neue GPUs statt der Xte Aufguß des G80 überflüssig.
RV770 ist ja kein R600 Aufguss. :rolleyes:

Lieber eine Weiterentwicklung eines pefekten Designs als eine aufgebohrte Krücke. :cool:


was meinst du wohl wieso nvidia mit produkten wie der 9800GTX kunden abledert....

Was ist daran abledern?
Ist doch normal das man Karten ohne Konkurrenz auch mal 30€ überteuert verkaufen kann.


die sagen DX10.1 überflüssig

Ist es auch so lange D3D10 kaum genutzt wird und Nvidia .1 nicht anbietet.

Odal
2008-05-23, 17:00:32
ach da kommt ja gleich so einer von denen ich sprach :cool:
solang nvidia drauf steht kann man dir sicher auch nen hartes altes brötchen für 500€ andrehen und du wirst es noch toll finden


Was ist daran abledern?
Ist doch normal das man Karten ohne Konkurrenz auch mal 30€ überteuert verkaufen kann.


Ist es auch so lange D3D10 kaum genutzt wird und Nvidia .1 nicht anbietet.

jo und ich als kunde soll das natürlich alles ganz toll finden? Das Leute wie du das ganz toll finden ist ja das perverse an der Sache.

Unyu
2008-05-23, 17:02:42
solang nvidia drauf steht kann man dir sicher auch nen hartes altes brötchen für 500€ andrehen und du wirst es noch toll finden
Falsch.

Du bist wohl davon betroffen das R600 immer noch im RV770 weiterlebt.

Aber Nvidia ist ja böse, da muss man gar nicht in die Packung rein gucken. :rolleyes:

LovesuckZ
2008-05-23, 17:03:38
Schon lustig. Selbst AMD findet 10.1 nicht toll. Oder wo sind die gepushten Anwendungen?
Es gibt nach fast 8 Monaten gerade mal eine Anwendung, die 10.1 benutzt. Und das wurde rein zufällig sichtbar.
Vielleicht sollte man erst mal AMD kritisieren, dass sie 10.1 nicht pushen. Denn nVidia muss nichts anbieten. Und sollte sich 10.1 nicht durchsetzen, dann ist die Schuld wohl kaum bei nVidia zu suchen - sondern bei den Kunden und AMD.

Sorkalm
2008-05-23, 17:04:48
und Nvidia .1 nicht anbietet.

Richtig, solange Nvidia das nicht anbietet wird es wohl nicht großflächig verwendet. Aber wieso darf man Nvidia dafür nicht kritisieren?
Du musst ja deswegen nicht gleich vom Kauf absehen, aber im Sinne der Kunden ist diese Entwicklung jedenfalls nicht (weil bei Nvidia bekannt ist: wir werden das auch ohne D3D10.1 los).

LovesuckZ
2008-05-23, 17:09:24
Interessant. Der Kunde kauft sich doch jetzt keine 10.1 Hardware in Massen. Wieso ist dann 10.1 plötzlich "im Sinn des Kunden"?
Dazu stellt sich mir die Frage: Was hat nVidia damit zu tun, dass sich 10.1 durchsetzt? Wenn es keine ehrlichen Entwickler mehr auf der Welt gibt, dann hat nVidia eben auch keine Probleme. Und einen 10.0 Pfad wird es in Zukunft wohl öfters geben - ich sehe die Nichtunterstützung von nVidia als kein Problem an.
Aber ey, statt AMD zu kritisieren, dass sie vorhandene Features nicht vermarkten können, ist nVidia schuld. Selbstkritisch sollte man diese Betrachtung hinterfragen.

tombman
2008-05-23, 17:09:38
die sagen DX10.1 überflüssig..neue GPUs statt der Xte Aufguß des G80 überflüssig...
Denn NVidia ist ach so toll weils ja NVidia ist
.
Nvidia ist nicht allein am Markt. Was nützt eine tolle, neue GPU mit zig features, die keine software der Welt ausnutzen wird, weil der Konkurrent nicht hinterherkommt?
Nvidia hat sicher genug in der Schublade (bzw auf dem Supercomputer ;D), aber sie können ohne ATI nichts Größeres durchsetzen.
Und was hast du gegen G92? Durch solche Chips bekommt die MASSE überhaupt erst die Rechenleistung um eine große installed base zu schaffen, was für die devs der Spiele wichtig ist.
Jeder kann sich heutzutage ne Karte zwischen 100 und 150 Euro kaufen und bekommt relativ abartige Leistung!
Mit G80 wäre so ein Preis nicht zu machen gewesen, und mit einem neuen Megachip anstelle von G92 auch nicht- siehe G200.

Außerdem heißt der Kampf heutzutage: PC vs Konsole- und der rennt auch über den Preis!

Ohne eine große installed DX10 base läuft da gar nix. ATI hat das richtig erkannt. Nvidia wahrscheinlich auch, aber ihr Herz schlägt eben eher Richtung Enthusiast- deshalb G200.

Wenn der Konkurrent nix Forderndes herausbringt, dann braucht sich keiner beeilen. War immer schon so, und wird immer so sein.
Die Schuld liegt bestenfalls bei ATI, falls sie überhaupt wo liegt...

deekey777
2008-05-23, 17:10:03
Schon lustig. Selbst AMD findet 10.1 nicht toll. Oder wo sind die gepushten Anwendungen?
Es gibt nach fast 8 Monaten gerade mal eine Anwendung, die 10.1 benutzt. Und das wurde rein zufällig sichtbar.
Vielleicht sollte man erst mal AMD kritisieren, dass sie 10.1 nicht pushen. Denn nVidia muss nichts anbieten. Und sollte sich 10.1 nicht durchsetzen, dann ist die Schuld wohl kaum bei nVidia zu suchen - sondern bei den Kunden und AMD.
Seit acht Monaten gibt es schon das SP1 für Vista? Wie schnell die Zeit vergeht...

Gast
2008-05-23, 17:10:20
Schon lustig. Selbst AMD findet 10.1 nicht toll. Oder wo sind die gepushten Anwendungen?
Es gibt nach fast 8 Monaten gerade mal eine Anwendung, die 10.1 benutzt. Und das wurde rein zufällig sichtbar.
Vielleicht sollte man erst mal AMD kritisieren, dass sie 10.1 nicht pushen. Denn nVidia muss nichts anbieten. Und sollte sich 10.1 nicht durchsetzen, dann ist die Schuld wohl kaum bei nVidia zu suchen - sondern bei den Kunden und AMD.

wieso muss eigentlich ein grafikartenhersteller dx10.1 pushen?das ist der falsche weg,die spiele entwickler sollen alles aus den karten raus holen und gut ist.die spiele entwickler sind es anscheinend gewohnt erstmal geld zusehen siehe nv=crysis.

LovesuckZ
2008-05-23, 17:15:12
wieso muss eigentlich ein grafikartenhersteller dx10.1 pushen?das ist der falsche weg,die spiele entwickler sollen alles aus den karten raus holen und gut ist.die spiele entwickler sind es anscheinend gewohnt erstmal geld zusehen siehe nv=crysis.

Marketing.

Gast
2008-05-23, 17:16:41
Marketing.

falsch,denn marketing ist für uns und nicht für die spieleentwickler.

LovesuckZ
2008-05-23, 17:19:43
falsch,denn marketing ist für uns und nicht für die spieleentwickler.

Ja, für uns. Für den Kunden. Wenn es kein Marketing gibt (= keine Spiele), ist ein fehlendes 10.1 auch kein Problem für den Kunden. Denn theoretisch scheint es gut zu sein, aber wenn es nicht genutzt wird, hat man nichts davon.
Ausserdem bezweifel ich, dass Entwickler heutzutage solche Technikfreaks sind. Der Zeitdruck bei sovielen Projekten wird immer enger, da ist überhaupt keine Möglichkeit mehr jedes popelige Extra einzubauen.

GeneralHanno
2008-05-23, 17:20:19
MUSS denn die ganze Dx10.1 geschichte in diesem thread alle 3 seiten von neuem durchgekaut werden?

K4mPFwUr$t
2008-05-23, 17:21:33
nein, aber die ATI jünger stürzen sich jetzt auf jedes noch so kleine feature :rolleyes:
ist ja voll das neue techlevel ;D

Gast
2008-05-23, 17:21:41
Ja, für uns. Für den Kunden. Wenn es kein Marketing gibt (= keine Spiele), ist ein fehlendes 10.1 auch kein Problem für den Kunden. Denn theoretisch scheint es gut zu sein, aber wenn es nicht genutzt wird, hat man nichts davon.
Ausserdem bezweifel ich, dass Entwickler heutzutage solche Technikfreaks sind. Der Zeitdruck bei sovielen Projekten wird immer enger, da ist überhaupt keine Möglichkeit mehr jedes popelige Extra einzubauen.

rofl klar jetzt brauchen wir noch werbung für die spieleentwickler damit die merken das es dx10.1 gibt,lol aus welcher ranch bist du entflohen?

LovesuckZ
2008-05-23, 17:23:31
rofl klar jetzt brauchen wir noch werbung für die spieleentwickler damit die merken das es dx10.1 gibt,lol aus welcher ranch bist du entflohen?

Yeah alter. Denkst wohl, dass jeder Spieleentwickler voll der Freak ist. Der sich mit seinem Gastaccount auf freizeitliche Techniksites rumtrollen und schon Jahre vor realease von neuen technischen Freakgeekszeug alle Einzeleinheiten knowed.

tombman
2008-05-23, 17:26:56
nein, aber die ATI jünger stürzen sich jetzt auf jedes noch so kleine feature :rolleyes:
ist ja voll das neue techlevel ;D
Haben ja auch nix anderes ;)

Gast
2008-05-23, 17:28:03
Yeah alter. Denkst wohl, dass jeder Spieleentwickler voll der Freak ist. Der sich mit seinem Gastaccount auf freizeitliche Techniksites rumtrollen und schon Jahre vor realease von neuen technischen Freakgeekszeug alle Einzeleinheiten knowed.

na sicher ist jeder spieleentwickler ein freak,sogar der mieseste spieleentwickler hat mehr sachverstand als jeder möchtegernfreak z.b. von hier.

Gast
2008-05-23, 17:28:05
Seit acht Monaten gibt es schon das SP1 für Vista?

Nein, aber D3D10.1.
Oder wie hätte AMD schon bei Erscheinen der HD3000 Serie diese als D3D10.1 klassifizieren können?

Hvoralek
2008-05-23, 17:34:57
wenn der g200 wirklich kein d3d10.1 beherschen sollte, wär das schon ein bisschen ein Armutszeugnis von Nividia. Was die in den letzten Monaten abgeliefert haben war schon peinlich genug. Seit dem 8800GTX ist nichts mehr vernünftiges von Nividia gekommen. Die Mainstream Produkte haben sich aus unerklärlichen Gründen um viele Monate nach hinten verschoben und so wirds wohl diesmal auch sein. Die 8800gt usw. hätte direkt im Anschluss an die 8800gtx kommen sollen und nicht erst ein Jahr später.Klar, man hätte Ende 2006 einfach mal so eine mehr als 300 mm² große GPU in 65 nm auf den Markt schmeißen sollen... Das war damals ja auch ein erprobtes und stabiles Verfahren für derartige Chips (Es gab noch nicht einmal ein winziges Billigmodell in der Strukturgröße, die ersten 65- nm- GPUs überhaupt waren m.W. RV610 und RV630 - Mitte 2007 und deutlich kleiner als G92). Aber klar: Einen Chip wie G92 hätte der Fertigungsprozess sicher auch schon 2006 hergegeben! Man hat natürlich auch völlig ohne Grund den sogar weniger komplexen G80 nicht in 65nm, sondern noch in 90nm gefertigt :rolleyes:

Aber wenn Ati so schwächelt ist das auch kein Wunder. Ati hätte niemals aufgekauft werden dürfen. AMD hat schon angekündigt die Entwicklung zu verlangsamen, da kein Geld. Innovationen auf dem Graka-Sektor dürften keine mehr kommen wie die Jahre vor dem Übernahme. Nividia wird sich natürlich dem anpassen, denn wieso entwickeln, wenn keine Konkurenz da ist.
Hier hat das gierige AMD dafür gesorgt, dass das Entwicklungstempo in den kommenden jahren auf dem ganzen Markt deutlich geringer wird. Eine Verdopplung der Grafikkartenleistung mit jeder neuen Generation alle 1-1,5 Jahre wie in der Vergangenheit können wir vergessen. Sehr schade. Der schuldige ganz klar AMD. Wir können froh sein wenn AMD überhaupt noch am Leben bleibt. Wenn sie untergehen ziehen sie dann auch ATI mit in den Tot oder bedeutungslosigkeit. Einfach eine Katastrophe.Ach, jetzt ist AMD schuld daran, dass R600 ein Reinfall wurde? Ein Chip, mit dessen Entwicklung lange vor der Übernahme begonnen wurde und dessen Grundzüge sicher auch schon davor feststanden? Die wohl größte Fehlentscheidung in der R6xx- Konzeption (die massive Überschätzung von FP16- Texturen) ist höchstwahrscheinlich auch vorher erfolgt. Der Grobaufbau der TMUs wird wohl kaum so spät noch geändert, und nach der Übernahme war wirklich absehbar, dass kurz- und mittelfristig ganz, ganz überwiegend FX8- Texturen genutzt werden würden. Und natürlich sind AMDs Kürzungen im Forschungsbereich (die m.W. erst 2007 begannen) auch daran schuld, dass die Ingenierure schon 2006 erhebliche Probleme mit ihren ROPs hatten. Da könnte es allerdings wirklich einen Zusammenhang mit der Übernahme geben: In deren Folge verließen einige Mitarbeiter der GPU- Abteilung das Unternehmen. Mit denen wären die ROPs vll. zu retten gewesen. Einen Zusammenhang mit den später erfolgten R&D- Kürzungen gibt es allerdings nicht. Wenn Du AMD deshalb die Übernahme als solche vorwirfst, halte bitte auch anderen Unternehmen jede Entscheidung vor, die zu Kündigungen qualifizierter Mitarbeiter beitragen könnte.

Machst Du AMD eigentlich auch noch verantwortlich für mögliche Altlasten des R400- Grunddesigns? Was heißt "mögliche"? Daher stammt ja anscheinend dieser völlig überflüssigen Tessalator.

Die Kürzung der Forschungsbudgets war nicht vorteilhaft, aber wohl aufgrund der schlechte Finanzlage nötig. Ob ATI alleine sein Forschungsbudget hätte aufrecht erhalten können, mag man aber bezweifeln; auch deren Verwaltung hätte mit den mäßigen R5xx-/ R600- Verkaufszahlen wirtschaften müssen.

Sicherlich wird diese Kürzung dazu führen, dass kommende AMD- Produkte nicht so gut werden, wie sie mit mehr Forschungsgeldern hätten werden können. Die R&D- Kürzungen kommen aber natürlich erst mit einiger Verzögerung auf dem Markt an. Der schnell und günstig hingeklaschte RV770 könnte ein Ergebnis davon sein.

Das klingt jetzt doch etwas ruppiger, als es sollte. Auf solches undifferenziertes Verbalgeholze reagiere ich recht empfindlich, v.a. wenn es inhaltlich falsch ist und dann auch noch rüde Schuldzuweisungen enthält.

Ich muss wohl nicht kenntlich machen, welche Teile dieses Beitrags ironisch gemeint sind.

MEDIC-on-DUTY
2008-05-23, 17:35:38
bei CB gibts nen Bericht zum WaKü von Aquacomputer für die GT200....ach wurde schon gepostet. sry

MEDIC-on-DUTY
2008-05-23, 17:39:18
Wakü für die G200:

http://s3.directupload.net/images/080523/temp/vlmzu43g.jpg (http://s3.directupload.net/images/080523/vlmzu43g.jpg)

http://s4.directupload.net/images/080523/temp/22j7ysa3.jpg (http://s4.directupload.net/images/080523/22j7ysa3.jpg)

http://www.aqua-computer-systeme.de/cgi-bin/YaBB/YaBB.pl?board=1;action=display;num=1211479269

bestätigt die bilder der GTX 280 von PCinLife

Wird die Karte dann auch Singleslot-tauglich?

Ein Test hierzu wird sicherlich interessant, da nicht immer ein Wasserkühler zwingend bessere Temps mit sich bringt, jedoch sicherlich stabilere. Was schon bei der x800XT so war.
Garantie ist auch noch ein Thema. Aber es wird sicherlich von Aquacomputer Kartern inkl. Kühler und Garantie geben.

Schlammsau
2008-05-23, 17:45:12
@Lovesuckz
schade das du auf deekey777´s Antwort nicht eingehst.
DX10.1 ist erst seit zwei Monaten verfügbar, bzw. kann man es erst seit 2 Monat nutzen! :P

Gast
2008-05-23, 17:50:47
Wird die Karte dann auch Singleslot-tauglich?

Ein Test hierzu wird sicherlich interessant, da nicht immer ein Wasserkühler zwingend bessere Temps mit sich bringt, jedoch sicherlich stabilere. Was schon bei der x800XT so war.
Garantie ist auch noch ein Thema. Aber es wird sicherlich von Aquacomputer Kartern inkl. Kühler und Garantie geben.
Heutzutage braucht man echt schon 2 Kreisläufe einen für CPU@4,0GHz und den anderen für 200W Grafikkarte.

tombman
2008-05-23, 17:55:59
bei CB gibts nen Bericht zum WaKü von Aquacomputer für die GT200....ach wurde schon gepostet. sry
Wird die Karte dann auch Singleslot-tauglich?

Wahrscheinlich nicht, da selbe Designfehler wie immer. Habe dort eh auch schon gepostet.

LovesuckZ
2008-05-23, 18:01:54
@Lovesuckz
schade das du auf deekey777´s Antwort nicht eingehst.
DX10.1 ist erst seit zwei Monaten verfügbar, bzw. kann man es erst seit 2 Monat nutzen! :P

Und? Es hätten schon längst erste Ankündigungen da sein können.

deekey777
2008-05-23, 18:08:28
Und? Es hätten schon längst erste Ankündigungen da sein können.
Dann liste mal auf, welche Spiele unbedingt D3D10.1 brauchen.

AnarchX
2008-05-23, 18:11:26
Hier gibt es nochmal bessere Bilder zu GTX 280 @ F@H:
http://img385.imageshack.us/img385/8155/foldingclient72f76c75ss5.jpg (http://imageshack.us)
http://www.legitreviews.com/article/713/1/

tombman
2008-05-23, 18:17:10
Btw, ausgehend vom folding@home Bild habe ich mal auf die GTX280 in games "hochgerechnet".

http://img58.imageshack.us/img58/1669/yeahbabytb3.jpg (http://imageshack.us)

ALso ca die Leistung, die ich mir bei der GTX 280 vorstelle ;)

Schlammsau
2008-05-23, 18:20:39
@Tombman

meinst du das evtl. die möglichkeit besteht, das dieses Diagramm die nV Karten besser als in es in wirklichkeit der Fall ist darstellt? Ist ja immerhin eine nVidia Presentation!

K4mPFwUr$t
2008-05-23, 18:24:49
@Schlammsau
irgendwie gehst du mir auch immer mehr auf den zeiger :rolleyes:

meinst du das evtl. die möglichkeit besteht, das dieses Diagramm die ATI Karten besser als in es in wirklichkeit der Fall ist darstellt? Ist ja immerhin eine ATI Presentation!
genau so könnte man das im ATI thread posten, nur würde ich dann sicherlich hassbriefe von so manchen bekommen wie ... *hust* schlammsau, odal *hust*

PS: die entwickler haben schon mehr als zwei monaten über 10.1 verfügt, aber sowas wie beta SP sagt dir bestimmt eh nix ;D

tombman
2008-05-23, 18:24:52
@Tombman

meinst du das evtl. die möglichkeit besteht, das dieses Diagramm die nV Karten besser als in es in wirklichkeit der Fall ist darstellt? Ist ja immerhin eine nVidia Presentation!
Deswegen steht da auch "ASSUMPTION" ;)

Gast
2008-05-23, 18:25:50
Deswegen steht da auch "ASSUMPTION" ;)

Wir reden hier Deutsch.Also was bedeutet das....

tombman
2008-05-23, 18:27:59
Wir reden hier Deutsch.Also was bedeutet das....
http://www.dict.cc/englisch-deutsch/assumption.html

Schlammsau
2008-05-23, 18:30:29
@Schlammsau
irgendwie gehst du mir auch immer mehr auf den zeiger :rolleyes:
dafür gibt es eine Ignore Liste ;)


genau so könnte man das im ATI thread posten, nur würde ich dann sicherlich hassbriefe von so manchen bekommen wie ... *hust* schlammsau, odal *hust*
dann tus doch! Ich weiss und alle anderen hier auch, dass die neuen ATi Karten Leistungstechnisch der neuen nV Karte, klar unterlegen sein werden. Hab auch nie etwas anderes behauptet! Aber das ihr euch so an nVidia Folien aufgeilt, hätt ich nie gedacht.

PS: die entwickler haben schon mehr als zwei monaten über 10.1 verfügt, aber sowas wie beta SP sagt dir bestimmt eh nix ;D
welche DX10 Spiele wurden in den letzten Monaten released? Wohl doch nur eins oder? :smile:

K4mPFwUr$t
2008-05-23, 18:33:43
@Schlammsau
garnicht gewusst das ich ein NV fanboy bin ;D

ich find es nur albern wie immer die gleichen personen an allem zweifeln, alles runterziehen und sich auf ein kleines 10.1 feature stürzen.

tombman
2008-05-23, 18:35:43
... und sich auf ein kleines 10.1 feature stürzen.
Wobei sie es gar nicht nötig hätten, schließlich ist der Preis auch dementsprechend. Komplexe wegen einer ATI HD4xxx muß keiner haben. G200 ist eben der "BigDaddy", aber kostet auch entsprechendes "BigDaddyGeld"...

Schlammsau
2008-05-23, 18:36:01
ich find es nur albern wie immer die gleichen personen an allem zweifeln, alles runterziehen und sich auf ein kleines 10.1 feature stürzen.


es ist halt einer der wenigen Punkte wo ATi noch Punkten kann.....

crux2005
2008-05-23, 18:46:26
Tesselation vergessen ? ;D

denke auch, dass es ein Armutszeugnis ist wenn nV kein D3D 10.1 support bietet, die GTX 280 werde ich mir sowieso kaufen

Snoopy69
2008-05-23, 19:15:18
Wakü für die G200:

http://s3.directupload.net/images/080523/temp/vlmzu43g.jpg (http://s3.directupload.net/images/080523/vlmzu43g.jpg)

http://s4.directupload.net/images/080523/temp/22j7ysa3.jpg (http://s4.directupload.net/images/080523/22j7ysa3.jpg)

http://www.aqua-computer-systeme.de/cgi-bin/YaBB/YaBB.pl?board=1;action=display;num=1211479269

bestätigt die bilder der GTX 280 von PCinLife
Iss ja geil :eek:
Wie immer hat AC nen Kühler parat BEVOR die Karten rauskommen *habenwill* :)


Btw, ausgehend vom folding@home Bild habe ich mal auf die GTX280 in games "hochgerechnet".

http://img58.imageshack.us/img58/1669/yeahbabytb3.jpg (http://imageshack.us)

ALso ca die Leistung, die ich mir bei der GTX 280 vorstelle ;)
Bin mal gespannt was netto wirklich an Mehrperformance dabei rauskommt.
Ich hoffe, dass 18.06. stimmt. Ich werde warten...

Was ist eig, mit dir los? Hast du es dir doch anders überlegt? Ich dachte, du wolltest dich aus der Highend-Szene zurüchziehen? :D

Anarchy-HWLUXX
2008-05-23, 19:45:30
Iss ja geil :eek:
Wie immer hat AC nen Kühler parat BEVOR die Karten rauskommen *habenwill* :)




Es wurden doch 3D daten von der Platine geleakt, ich denk mal AC hat sich diese auch geladen und schomal den passenden Kühler designed in der hoffnung das es das Richtige Design ist.

deekey777
2008-05-23, 19:48:23
Btw, ausgehend vom folding@home Bild habe ich mal auf die GTX280 in games "hochgerechnet".

http://img58.imageshack.us/img58/1669/yeahbabytb3.jpg (http://imageshack.us)

ALso ca die Leistung, die ich mir bei der GTX 280 vorstelle ;)
Ergibt null Sinn.

Moralelastix
2008-05-23, 19:52:25
Wär das nicht ziemlich enttäuschend? Nur G80 @ SLI Leistung, pff.....

Snoopy69
2008-05-23, 19:53:51
Es wurden doch 3D daten von der Platine geleakt, ich denk mal AC hat sich diese auch geladen und schomal den passenden Kühler designed in der hoffnung das es das Richtige Design ist.
Nö, soweit ich weiss hat AC das Privileg an Graka-Dummies zu kommen. Wurde zumin. mehrfach in der Wakü-Szene erwähnt :wink:
Ich mein, ich hab schon paar Jahre Wakü. Und wenn eine neue Graka vorgestellt wurde, hatte AC den Kühler schon VOR dem Release sogar schon im Shop (sogar mit Preisen).

LovesuckZ
2008-05-23, 19:56:08
Wenn also kein Spiel heutzutage ein Vorteil von 10.1 ziehen würde, wieso wäre es dann ein "Armutszeugnis" von nVidia, es nicht zu untersützen?

Ergibt null Sinn.

Richtig, weil die 3870 in F@H mindesten auf dem Niveau der 8800GTX liegt.

deekey777
2008-05-23, 20:04:49
Wenn also kein Spiel heutzutage ein Vorteil von 10.1 ziehen würde, wieso wäre es dann ein "Armutszeugnis" von nVidia, es nicht zu untersützen?



Richtig, weil die 3870 in F@H mindesten auf dem Niveau der 8800GTX liegt.
Die HD3870 erreicht mit dem GPU2-Client die 1.000000000000000000000000000000000000000000000000000000000000000000000000000000 0000000000^100000000000000000000000000000000000000000000000-fache Leistung der 8800GTX.
Es wird keinen gemeinsamen GPU-Client geben, denn keiner ist so verrückt, wieder DirectX zu nutzen. Es wird zwei eigenständige GPU2-Clients geben, für NV wird CUDA benutzt, für HD-Radeons CAL/Brook+ als Backend. Der aktuelle GPU2-Client läuft mit angezogener Bremse: Einmal ist der Client extrem CPU-abhängig, da CAL einen CPU-Overhead verursacht, dazu soll er die HD3780 zu einem Fünftel auslasten.
Dieses NV-Bild ist somit für den Arsch, genau wie die Präsentation, wie toll der auf CUDA basierte H.264-Encoder ist.

Snoopy69
2008-05-23, 20:10:17
Mal was Anderes...
Vielleicht wurde es aber schon angesprochen. Welche CPU wäre ideal (und trotzdem nicht zu teuer) für die GTX 280?

K4mPFwUr$t
2008-05-23, 20:10:49
@deekey777
wen intressiert das die 3870 mit angezogener handbremse bei GPU2 läuft?
am ende ist nur intressant wer die meiste reale leistung in der praxis erbringt.

deine erklärung klingt wie eine billige ausrede von A/A.

@Snoopy69
dein E6600 sollte doch reichen ;)

deekey777
2008-05-23, 20:13:29
@deekey777
wen intressiert das die 3870 mit angezogener handbremse bei GPU2 läuft?
am ende ist nur intressant wer die meiste reale leistung in der praxis erbringt.

deine erklärung klingt wie eine billige ausrede von A/A.

Danke für deine Inkompetenz.

Gast
2008-05-23, 20:15:26
Tesselation vergessen ? ;D

denke auch, dass es ein Armutszeugnis ist wenn nV kein D3D 10.1 support bietet, die GTX 280 werde ich mir sowieso kaufen

Die Tesselation Einheit der AMD GPUs ist doch garnicht in irgendeiner Weise spezifiziert in D3D10, kommt erst wohl mit D3D11. Wohl eher in der jetzigen Form ein Abfallprodukt der XBOX GPU.

Godmode
2008-05-23, 20:16:56
Mal was Anderes...
Vielleicht wurde es aber schon angesprochen. Welche CPU wäre ideal (und trotzdem nicht zu teuer) für die GTX 280?

Ich würde mal sagen, möglichst das schnellste was am Markt verfügbar ist!

Gast
2008-05-23, 20:18:22
Mal was Anderes...
Vielleicht wurde es aber schon angesprochen. Welche CPU wäre ideal (und trotzdem nicht zu teuer) für die GTX 280?

Crysis ist wohl das fordernste Spiel, auch Assasines Creed und Age of Conan gehören dazu. Aber die CPU ist nicht soo ausschlaggebend. Jede Dualcore CPU über 2GHz sollte genug Power bringen, so dass man in 1680*1050 + 4xAA angenehm Spielen kann. Meiner 8800GTS640 geht mittlerweile etwas die Puste aus, aber das Baby hat 1,5Jahre seinen Dienst getan, länger als jede andere Graka davor (ok die Voodoo1 und die GF3TI200 hielten länger ^^).

Grakapower kann man nie genug haben!

Gast
2008-05-23, 20:29:18
Assassins Creed? Was soll da fordernd sein ?

Odal
2008-05-23, 20:35:04
@Schlammsau
irgendwie gehst du mir auch immer mehr auf den zeiger :rolleyes:


genau so könnte man das im ATI thread posten, nur würde ich dann sicherlich hassbriefe von so manchen bekommen wie ... *hust* schlammsau, odal *hust*

PS: die entwickler haben schon mehr als zwei monaten über 10.1 verfügt, aber sowas wie beta SP sagt dir bestimmt eh nix ;D

Sagmal willst du mich rollen oder was?

Ich bin einer der letzten Menschen die in irgendeiner Farbe eingefärbt sind...nicht umsonst besitze ich sowohl einen G92 als auch einen RV670

ich lass mich nur von keinem IHV verarschen und sehe nicht ein wenn ich DX10.1 haben könnte und NV mir mal wieder das Xte mal DX10.0 verkaufen will...

und ich lass mich auch nicht verarschen wenn ATI mir "Optimierte" Texturfilterung als WU AF verkaufen will

Genauso wenig wie ich es nicht einsehe wie NV meint mit keinen Stromsparmechanismus in 2D liefern zu wollen...

Oder das der RV670 manchmal absolut unkonstante Leistung bietet...mal hui und mal pfui...

Ich rede höchstens Klartext...das ich sowohl bei den NVidia Jüngern anecke (sieht man ja bei dir) als auch bei ATI Jüngern ist mir dabei scheiss egal.

_flx
2008-05-23, 20:36:15
Assassins Creed? Was soll da fordernd sein ?

Mehrere Threads? KI etc..

Snoopy69
2008-05-23, 20:36:41
Eig. wolltwe ich ja mal einen QC benutzen, aber wenn man sich anguckt, wie gut die E8400 rennen...
Eben mal so auf 4GHz prügeln ist da kein Problem. Die Power ist brachial...
Aber eig. reicht mein E6600 noch völlig aus, da eher die Graka limitiert - klar, bei 1920x1200

Kolos
2008-05-23, 20:38:46
Klar, man hätte Ende 2006 einfach mal so eine mehr als 300 mm² große GPU in 65 nm auf den Markt schmeißen sollen... Das war damals ja auch ein erprobtes und stabiles Verfahren für derartige Chips (Es gab noch nicht einmal ein winziges Billigmodell in der Strukturgröße, die ersten 65- nm- GPUs überhaupt waren m.W. RV610 und RV630 - Mitte 2007 und deutlich kleiner als G92). Aber klar: Einen Chip wie G92 hätte der Fertigungsprozess sicher auch schon 2006 hergegeben! Man hat natürlich auch völlig ohne Grund den sogar weniger komplexen G80 nicht in 65nm, sondern noch in 90nm gefertigt :rolleyes:

Die ersten 8800gt's basierten doch auf dem g80 oder irre ich mich da? Der ist auch erst kurz vor der 8800gt auf g90 Basis erschienen. Und wenn nicht, man hätte zumindest ähnlich perfomante Mainstream Grafikkarten in 90nm herstellen können und nicht eine einzige abgespeckte Variante der 8800gtx. Das wär schon alles möglich gewesen aber Nvidia hatte keinen Grund dazu und hat lieber auf den kostengünstigeren 65nm prozess gewartet. Wenn erst 1 Jahr später eine große Bandbreite entsprechender Mainstream-Produkte der quasi selben Generation (8800gtx) erscheinen, dann läuft da defenitiv was falsch im Graka-Markt. Das gabs früher so nicht und früher hat es ja auch funktioniert. Der g90 oder g92 (wie auch immer) ist legidlich ein g80 Aufguss, der architektonisch fast vollkommen identisch ist mit dem g80, nur halt ein anderer Fertigungsprozess.


Ach, jetzt ist AMD schuld daran, dass R600 ein Reinfall wurde? Ein Chip, mit dessen Entwicklung lange vor der Übernahme begonnen wurde und dessen Grundzüge sicher auch schon davor feststanden? Die wohl größte Fehlentscheidung in der R6xx- Konzeption (die massive Überschätzung von FP16- Texturen) ist höchstwahrscheinlich auch vorher erfolgt. Der Grobaufbau der TMUs wird wohl kaum so spät noch geändert, und nach der Übernahme war wirklich absehbar, dass kurz- und mittelfristig ganz, ganz überwiegend FX8- Texturen genutzt werden würden. Und natürlich sind AMDs Kürzungen im Forschungsbereich (die m.W. erst 2007 begannen) auch daran schuld, dass die Ingenierure schon 2006 erhebliche Probleme mit ihren ROPs hatten.

Machst Du AMD eigentlich auch noch verantwortlich für mögliche Altlasten des R400- Grunddesigns?

Die Kürzung der Forschungsbudgets war nicht vorteilhaft, aber wohl aufgrund der schlechte Finanzlage nötig. Ob ATI alleine sein Forschungsbudget hätte aufrecht erhalten können, mag man aber bezweifeln; auch deren Verwaltung hätte mit den mäßigen R5xx-/ R600- Verkaufszahlen wirtschaften müssen.

Sicherlich wird diese Kürzung dazu führen, dass kommende AMD- Produkte nicht so gut werden, wie sie mit mehr Forschungsgeldern hätten werden können. Die R&D- Kürzungen kommen aber natürlich erst mit einiger Verzögerung auf dem Markt an. Der schnell und günstig hingeklaschte RV770 könnte ein Ergebnis davon sein.

Der R600 war defeinitiv mehr oder weniger ein Reinfall und wie du schon sagst, hatte AMD darauf keinen großen Einfluss. Das ist ja auch nicht das Problem. Das Problem ist, wie der neue Besitzer AMD damit umgeht. Nvidia hat es auch geschafft aus dem nv30 desaster wieder rauszukommen indem sie sich angestrengt haben und ihre hausaufgaben gemacht haben. Siehe da, aufeinmal lag nvidia mit dem nv40 wieder vorne. Und das vor allem deswegen weil ATI sich anschickte Nvidia immer mehr vom Grafikkartenmarkt zu verdrängen. Genau das ist Konkurenz. Aber was macht denn Ati bzw. AMD nach dem R600 Flop? Ich sehe keine derartigen Bestrebung wie früher bei Nvidia aus dieser Situation herauszukommen und bestrebt zu sein die Leistungskrone zu erobern. Heute geht es AMD in erster Linie nur noch um den Profit. Die scheißen auf HighEnd. Die werden sich davor Hüten neue technologien zu entwickeln um Performancereiter zu werden. Der RV770 scheint alles andere als ein Performancekiller zu werden, viel mehr hat man sich bei diesem Chip darauf konzentriert ihn billig und einfach herzustellen, damit man Kohle damit macht.
Ich betrachte diesen neuen Weg von AMD als sehr negativ. Der stetige Fortschritt erlebt jetzt einen Dämpfer. Man kann nie genug Leistung haben und stell dir vor, hätten ATI und Nvidia früher sich gegenseitig nicht so sehr gepusht wären wir heute noch bei g70 und R580. Man mag zwar sagen, die Grafikkartenleistung reicht für jedes erhätliches Spiel aus, aber die Spiele sind so gut wie die Hardware hergibt, von der Grafik jetzt. Wenn es Grafikkarten gebe die 10 mal so schnell sind wie unsere Heutigen, dann würden wie eine Grafikpracht genießen, die mit nichts vergleichbar ist was wir heute kennen. Und genau darum gehts mir, um den stetigen Fortschritt.

K4mPFwUr$t
2008-05-23, 20:39:15
@deekey777
inkompitenz?
du erzähst die sache so das die ATI x bremsklötze hat. wären diese nicht wäre der RV670 schneller als der G80/G92. nur was bringt dir das theoretische wissen das sie ohne bremsklötze mehr leistung hätte?

in der praxis scheint das ganze ja anders auszuschauen.

@odal
übrigends ich bin kein fanboy ;)
nur fällt es sehr auf das du dich an diesem DX10.1 sehr hoch ziehst.
NV kein DX10.1 != weltuntergang.

deekey777
2008-05-23, 20:43:50
@deekey777
inkompetenz?
du erzähst die sache so das die ATI x bremsklötze hat. wären diese nicht wäre der RV670 schneller als der G80/G92. nur was bringt dir das theoretische wissen das sie ohne bremsklötze mehr leistung hätte?

in der praxis scheint das ganze ja anders auszuschauen.
...
Wie wär's, wenn du dich mit dem GPU2-Client auseinadersetzt, bevor du deinen Stuß weiterverbreitest?

€: Dich auf Rechtschreibung hinzuweisen, ist irgendwie sinnlos.

Odal
2008-05-23, 20:44:21
@odal
übrigends ich bin kein fanboy ;)
nur fällt es sehr auf das du dich an diesem DX10.1 sehr hoch ziehst.
NV kein DX10.1 != weltuntergang.

ich zieh mich daran hoch weil mir da was durch die lappen geht was sich NV leisten könnte zu implementieren...

sowohl speed technisch als auch kostentechnisch

ich sehe nicht ein das ich sie dafür bejuble..nein im gegenteil ich kritisiere sie dahingehend das mitlerweile die 3. generation G80 ohne DX10.1 verkauft werden soll....

was soll der scheiss...was interessieren mich die millionen die nvidia daurch mehr an umsatz macht...ich bin kunde und hab nix davon...

manchmal denke ich nvidia müsste längst pleite sein für die zig fürsprecher in foren die sie anscheinend bezahlen....anders kann ich mir die "dummheit" der "kunden" nicht erklären....

wenn sie nen stück hundescheisse in einen NVidia Karton verpacken würden gäbe es immer noch genug die Hurra schreien....

Unyu
2008-05-23, 20:47:45
Was wäre wenn nvidia .1 hätte?
Sie würden es pushen, es gäbe zig Spiele.

Was ist jetzt?
AMD pusht oder eben auch nicht, es gibt nach über einem halben Jahr ein .1 Spiel.

Was wäre wenn beide es hätten?
Nvidia hätte keinen Grund es zu pushen, AMD pusht eh nicht, keine andere Situation als jetzt.

Odal deine vergleiche mit Scheisse sind indisskutabel, zeigen aber gut deine Zuneigung zu AMD.

K4mPFwUr$t
2008-05-23, 20:52:21
@deekey777
du musst nicht zugeben das du eine besondere zuneigung zum duden pflegst :rolleyes:

warum muss ich mich jetzt mit dem GPU2 client auseinander setzen wenn du doch selber sagst, das wenn gewisse limitierende faktoren nicht gegeben wären der RV670 den G80/G92 zersägen würden. du sagst es ja selber, was zweifelst du nun meine meinung an?

@odal
wenn es danach ginge müsste ATI auch schon mehrfach pleite gegangen sein.

ich bejubel den fehlenden 2D modus vom G80/G92 auch nicht, da besteht handlungsbedarf ohne frage.

wenn dich die meisten sachen am G80 und zukünftig GT200 stören, hindert dich keiner zur 4870 zu greifen, nur sollte dir dann klar sein das du über das 10.1 feature verfügst dafür allerdings eine geringere leistung in kauf nehmen musst (ist ja klar bei highend vs. values).

sowohl ATI als auch NV hatten in der vergangenheit schon geschlafen wenn es um sollche features gingen.

NV hat die bessere PR, siehe den teil der an unyu gerichtet ist. der fall ist einfach das die masse auf sollche introsachen wie NV gut aufspringt, würde da mehr ATI auftauchen wären die verkaufszahlen vieleicht besser.

@Unyu
AMD bzw. ATI hat sich aus dem markt wohl größten teils zurück gezogen, wobei NV das ganze immer mehr ausbaut.

ich denk da nur an:
HL² ATI zu NV game
FC und crysis ATI zu NV game

Odal
2008-05-23, 21:04:05
Was wäre wenn nvidia .1 hätte?
Sie würden es pushen, es gäbe zig Spiele.

Was ist jetzt?
AMD pusht oder eben auch nicht, es gibt nach über einem halben Jahr ein .1 Spiel.

Was wäre wenn beide es hätten?
Nvidia hätte keinen Grund es zu pushen, AMD pusht eh nicht, keine andere Situation als jetzt.

Odal deine vergleiche mit Scheisse sind indisskutabel, zeigen aber gut deine Zuneigung zu AMD.

http://img294.imageshack.us/img294/4007/blaey7.jpg (http://imageshack.us)
http://img294.imageshack.us/img294/4007/blaey7.2c17952176.jpg (http://g.imageshack.us/g.php?h=294&i=blaey7.jpg)

so jezt möchte ich mal sehen was du im rechner stecken hast und wenns keine ATI ist würde ich mal schön die Backen halten...

soviel zu meiner "fanatischen" AMD/ATI Zuneigung

btw: wenn NVidia mal ihre milliarden gewinne darein stecken würde endlich in der 3. generation mal DX10.1 anzuflanschen würde sich der entwickler über eine weite hardwarebasis freuen können....

denn leisten können sie es sich..ist ja nicht so das NV am hungertuch nagt...dafür haben fanatische fans ja zu G70/71 Zeiten gesorgt und lieber das schlechtere Produkt für mehr geld gekauft...


@odal
wenn es danach ginge müsste ATI auch schon mehrfach pleite gegangen sein.

ich bejubel den fehlenden 2D modus vom G80/G92 auch nicht, da besteht handlungsbedarf ohne frage.

wenn dich die meisten sachen am G80 und zukünftig GT200 stören, hindert dich keiner zur 4870 zu greifen, nur sollte dir dann klar sein das du über das 10.1 feature verfügst dafür allerdings eine geringere leistung in kauf nehmen musst (ist ja klar bei highend vs. values).

sowohl ATI als auch NV hatten in der vergangenheit schon geschlafen wenn es um sollche features gingen.

NV hat die bessere PR, siehe den teil der an unyu gerichtet ist. der fall ist einfach das die masse auf sollche introsachen wie NV gut aufspringt, würde da mehr ATI auftauchen wären die verkaufszahlen vieleicht besser.


das kommt immer drauf an was man sich leisten kann....ATI führt schon seit sehr langer Zeit eher ein nieschendasein...das die da nicht immer genug in ihre entwicklung buttern können kann ich verstehen...aber nvidia muss dank verkaufszahlen dicke kasse machen....und da kann ichs nicht nachvollziehen wenn man den kunden jahrelang mit dem gleichen scheiss abspeisst wo der "konkurent" schon ne ecke weiter ist....

ich bin kunde....ich will sowohl konkurenz damit preise niedrig sind und auch mal was neues kommt...als auch "big bang for the bucks"
und damit mein ich nicht nur balkenlänge sondern gesamtpaket

Unyu
2008-05-23, 21:11:57
so jezt möchte ich mal sehen was du im rechner stecken hast und wenns keine ATI ist würde ich mal schön die Backen halten...

Was hat das damit zu tun? Es geht um die Beiträge. :confused:

würde sich der entwickler über eine weite hardwarebasis freuen können....

Wirklich?
Würde sich etwas ändern? Imho nein.

dafür haben fanatische fans ja zu G70/71 Zeiten gesorgt und lieber das schlechtere Produkt für mehr geld gekauft...

G7x war nicht in allen Punkten schlechter, da übersiehst du etwas: den Preis, der ach so wichtige Stromverbrauch. ;)


AMD bzw. ATI hat sich aus dem markt wohl größten teils zurück gezogen, wobei NV das ganze immer mehr ausbaut.
Nur warum?
Man kann doch keine GPUs designen und dann den Kunden im Dreck liegen lassen. :confused:

LovesuckZ
2008-05-23, 21:12:00
Sag mal, bist du gerade auf Hasstour?
Checkst du nicht, dass 10.1 kurz vor der Abtreibung ist? Weder nVidia noch AMD zeigen interesse an 10.1. Wahrscheinlich wollen sie das Thema D3D10 nur überleben und werden erst wieder mit dem Nachfolger glücklich werden.
Und dein geplärer, dass nVidia irgendwas müsste: Ja, warum bringt AMD kein High-End Chip mit 10.1 auf den Markt?

Gast
2008-05-23, 21:18:26
@deekey777
inkompitenz?
du erzähst die sache so das die ATI x bremsklötze hat. wären diese nicht wäre der RV670 schneller als der G80/G92. nur was bringt dir das theoretische wissen das sie ohne bremsklötze mehr leistung hätte?


ey alta!
das "Ding" hat sogar mit angezogener Handbremse, in F@H, mehr Leistung als nen G80

Odal
2008-05-23, 21:25:23
Ja, warum bringt AMD kein High-End Chip mit 10.1 auf den Markt?

Weil sie keine Kohle haben man

NV könnte es sich aber leisten wenigstens beim GT200 DX10.1 dranzustricken...anstgelle dessen speisen sie die kunden bzw. mich als kunde wieder mit dem Xten G80 Aufguss ab und tüchtig Kasse zu machen....

Jeder "Kunde" der das noch begrüßt kann man nicht ganz für voll nehmen...

und nein ich schiebe sicher keinen hass ich sehe nur nicht ein wieso die sich auf meine Kosten die Taschen immer voller stecken

Tigershark
2008-05-23, 21:29:09
Weil sie keine Kohle haben man

NV könnte es sich aber leisten wenigstens beim GT200 DX10.1 dranzustricken...anstgelle dessen speisen sie die kunden bzw. mich als kunde wieder mit dem Xten G80 Aufguss ab und tüchtig Kasse zu machen....

Jeder "Kunde" der das noch begrüßt kann man nicht ganz für voll nehmen...

und nein ich schiebe sicher keinen hass ich sehe nur nicht ein wieso die sich auf meine Kosten die Taschen immer voller stecken


Weil sie ein Wirtschaftsunternehmen sind bspw.??

Mal ehrlich, es kann ihnen doch sch****egal sein, solange der Kunde zahlt, gibt es nunmal keinen GRUND, mehr zu bieten als unbedingt nötig.

und Dich hindert ja niemand daran, NICHT zu kaufen... oder?

Odal
2008-05-23, 21:29:41
Was hat das damit zu tun? Es geht um die Beiträge. :confused:


achso nur wenn ich so der ATI/AMD Fanatiker wäre warum steck ich mir dann freiwillig auch ne G92 in die Kiste? Um den "Verhassten" NVidia Verein noch zu supporten? Irgendwie find ich darin keine Logik.

Ich sehe alles nüchtern und neutral als Kunde nicht wie andere hier.....

Odal
2008-05-23, 21:32:15
Weil sie ein Wirtschaftsunternehmen sind bspw.??

Mal ehrlich, es kann ihnen doch sch****egal sein, solange der Kunde zahlt, gibt es nunmal keinen GRUND, mehr zu bieten als unbedingt nötig.

und Dich hindert ja niemand daran, NICHT zu kaufen... oder?

Ich bin aber nicht SIE ich bin ICH....der Verein geht mir doch sowas von am Arsch vorbei...die brauchen auch keine Unterstützung um konkurenzfähig zu sein...

Ich spreche aus MEINER Sicht...mich juckt nicht ob NV 10 Millarden oder 20 Millarden Umsatz im Jahr machen...ICH hab NIX davon? klar?

Warum also zum Teufel sollte ich mich dafür interessieren was für SIE am besten ist...ich interessiere mich NUR dafür was für MICH am besten ist...

Chris2CB
2008-05-23, 21:32:25
Weil sie keine Kohle haben man

NV könnte es sich aber leisten wenigstens beim GT200 DX10.1 dranzustricken...anstgelle dessen speisen sie die kunden bzw. mich als kunde wieder mit dem Xten G80 Aufguss ab und tüchtig Kasse zu machen....

Jeder "Kunde" der das noch begrüßt kann man nicht ganz für voll nehmen...

und nein ich schiebe sicher keinen hass ich sehe nur nicht ein wieso die sich auf meine Kosten die Taschen immer voller stecken


Aha, gerade mal schnell genug für DX9 aber soll schon DX: schlagmich tot können.....


Allerdings sind es genau solche lustigen Spielchen die dafür sorgen das der PC Spiele Sektor immer mehr an Achtung verliert....früher an der Tanke mit dem Manta, heute online mit 320SP's.


ATI und Nvidia sollten dafür sorgen das 500GFlop in das 50€ Segement fällt damit das endlich mal Massentauglich wird.......

Tigershark
2008-05-23, 21:38:20
Ich bin aber nicht SIE ich bin ICH....der Verein geht mir doch sowas von am Arsch vorbei...die brauchen auch keine Unterstützung um konkurenzfähig zu sein...

Ich spreche aus MEINER Sicht...mich juckt nicht ob NV 10 Millarden oder 20 Millarden Umsatz im Jahr machen...ICH hab NIX davon? klar?

Warum also zum Teufel sollte ich mich dafür interessieren was für SIE am besten ist...ich interessiere mich NUR dafür was für MICH am besten ist...


Gut, allen anderen geht's sicher auch am ARSCH vorbei was DU willst, um mal bei Deiner Wortwahl zu bleiben....

Es ging aber doch auch darum, warum Du hier NV so darstellst als ob sie die Bosheit in Person wären, NUR weil sie ein Feature nicht implementieren, dass nichtig ist und DU es als einziger durchschaust. Alle anderen die trotzdem die Karten kaufen sind nicht mehr ganz bei Trost und dumm sind die eh alle.

Hallo??? Geht's noch?

Niemand will Dir hier Deine Meinung streitig machen glaube ich....aber wenn andere Leute anderer Meinung sind, dann wäre es ganz gut sie damit leben zu lassen....oder nicht? :-)

LovesuckZ
2008-05-23, 21:41:21
Weil sie keine Kohle haben man

NV könnte es sich aber leisten wenigstens beim GT200 DX10.1 dranzustricken...anstgelle dessen speisen sie die kunden bzw. mich als kunde wieder mit dem Xten G80 Aufguss ab und tüchtig Kasse zu machen....

Und? Dann kaufe dir eine 10.1 Karte.


Jeder "Kunde" der das noch begrüßt kann man nicht ganz für voll nehmen...


Und was ist mit XP User? Oder Leuten, die kein D3D10.x benutzen? :rolleyes:


und nein ich schiebe sicher keinen hass ich sehe nur nicht ein wieso die sich auf meine Kosten die Taschen immer voller stecken

Hä?

Odal
2008-05-23, 21:45:20
Gut, allen anderen geht's sicher auch am ARSCH vorbei was DU willst, um mal bei Deiner Wortwahl zu bleiben....

Es ging aber doch auch darum, warum Du hier NV so darstellst als ob sie die Bosheit in Person wären, NUR weil sie ein Feature nicht implementieren, dass nichtig ist und DU es als einziger durchschaust. Alle anderen die trotzdem die Karten kaufen sind nicht mehr ganz bei Trost und dumm sind die eh alle.

Hallo??? Geht's noch?

Niemand will Dir hier Deine Meinung streitig machen glaube ich....aber wenn andere Leute anderer Meinung sind, dann wäre es ganz gut sie damit leben zu lassen....oder nicht? :-)

jedes Gewinnorientierte Unternehmen ist aus Kundensicht die "Bosheit in Person"
Ich kritisiere auch niemanden der den G80 oder G92 gekauft hat....das einzige was ich kritisiere sind Leute die als Kunde NVidia darin supporten schlechtere Produkte auf den Markt zu werfen als sie es könnten nur um mehr Kasse zu machen...

mir erschließt sich nicht ganz der Sinn.....

Warum sollte man DX10.1 schlechtreden oder als unnütz hinstellen...was hätte man denn als Kunde für einen Verlust wenn der GT200 auch DX10.1 unterstützte? Was hätte man als Kunde für einen Verlust wenn der 9800GTX Chip was neues wäre und DX10.1 unterstützte?

Ich versteh hier so einige Menschen einfach nicht.

Wenn mir nen Bäcker nen 3 Tage altes Knüppelhartes Brot verkaufen würde nehm ich das und wamms dem das rechts und links um die Ohren und klopf ihm nicht auf die Schulter und sag "Hast du gut gemacht"

Godmode
2008-05-23, 21:53:42
Wenn ihr keine Fakten zum GT200 habt, dann hört bitte auf zu Diskutieren, eure 10.1 Diskussion führt ja doch zu nichts!:rolleyes:

LovesuckZ
2008-05-23, 21:54:56
Warum sollte man DX10.1 schlechtreden oder als unnütz hinstellen...was hätte man denn als Kunde für einen Verlust wenn der GT200 auch DX10.1 unterstützte? Was hätte man als Kunde für einen Verlust wenn der 9800GTX Chip was neues wäre und DX10.1 unterstützte?

Dann kaufe dir doch verdammt nochmal dein scheiß 10.1 Produkt.
Wenn Leute sich eben Karte ohne 10.1 kaufen, dann ist es deren Sache. Und ich kann es ihnen nichtmal verübeln: Woher sollen sie auch wissen, was sie für Vorteile haben, wenn AMD sie nichtmal anpreist? :rolleyes:

Tigershark
2008-05-23, 21:55:54
jedes Gewinnorientierte Unternehmen ist aus Kundensicht die "Bosheit in Person"
Ich kritisiere auch niemanden der den G80 oder G92 gekauft hat....das einzige was ich kritisiere sind Leute die als Kunde NVidia darin supporten schlechtere Produkte auf den Markt zu werfen als sie es könnten nur um mehr Kasse zu machen...

mir erschließt sich nicht ganz der Sinn.....

Warum sollte man DX10.1 schlechtreden oder als unnütz hinstellen...was hätte man denn als Kunde für einen Verlust wenn der GT200 auch DX10.1 unterstützte? Was hätte man als Kunde für einen Verlust wenn der 9800GTX Chip was neues wäre und DX10.1 unterstützte?

Ich versteh hier so einige Menschen einfach nicht.

Wenn mir nen Bäcker nen 3 Tage altes Knüppelhartes Brot verkaufen würde nehm ich das und wamms dem das rechts und links um die Ohren und klopf ihm nicht auf die Schulter und sag "Hast du gut gemacht"

Das klingt shcon eher nach einer Diskussionsgrundlage ;-)

Ich muss Dir da auch schon zustimmen - teilweise zumindest. Ich meine, es ist nunmal einfach so - wir jammern und jammern, aber geändert wird nix und TROTZDEM kaufen die Leute - siehe Sprit - also scheint es ja zu funktionieren. Frei nach dem Motto der Erfolg gibt ihnen recht.

Das Beispiel mit dem Bäcker ist eines - aber wenn ich jetzt bspw. die Automobilindustrie heranziehe - was meinst du wie viele Pläne von kleinen sparsamen Motoren bzw. alternativen Antrieben bei den großen Konzernen wie BMW, VW, Mercedes etc. in der Schublade vergammeln? Stört es die meisten Leute? Nein. Wieso nicht? Weil sie es nicht WISSEN. Same here.

Und ehrlich - 10.1 ist einfach nicht so bahnbrechend, als dass man eine gesteigerte Performance wegen dessen Fehlens negieren würde. Sicher wäre es nice to have - aber es nicht zu haben ist halt auch kein Beinbruch. Ich denke das wollen die meisten hier auch sagen. :-)

Kolos
2008-05-23, 22:02:06
Auch wenns bisher nicht unterstüzt wird von Spielen, finde ich dennoch, dass nvidia direct3d10.1 hätte integrieren sollen, allein schon aus technologischer Sicht. Schließlich hat es Ati auch schon getan und so könnte es auch öfters in Spielen genutzt werden falls es die Grafikkarten unterstützen. Irgendjemand muss halt immer der erste sein, siehe nvidia mit SM 3.0.

Gast
2008-05-23, 22:03:10
Irgendwie scheinen sich die Fronten hier zu verhärten und etwas einseitig zu werden.

Man kann natürlich die verschiedenen Sichtweisen betrachten. Aber letzlich zählt der Kunde - also ihr alle und nicht NVIDIA/AMD - und daher ist jeder Kompromiss erstmal mehr oder weniger zu kritisieren.

1. Ich will eine Single-Chip-GraKa (solange die bekannten Nachteile der X2-Versionen nicht gelöst sind) -> GT200 oder RV770
2. Ich will brachiale Speed -> GTX 280
3. Ich will DX10.1 -> 4870
4. Ich will ein exzellentes Verhältnis Leistung/Stromverbrauch -> noch offen
5. Ich will ausgetüftelte Stromsparmechanismen -> 4870ja/ GTX 280 ?
6. Ich will erstklassige und effiziente AA-Modi -> ist wahrscheinlich bei beiden etwas dabei
...

Pro-AMD:
NVIDIA bringt nun den 3. Aufguss des G80 mit über 1Mrd. Transistoren, baut die Architektur anscheinend nicht unwesentlich um und schafft es nicht DX10.1 zu implementieren?!

Pro-Nvidia:
Die GTX 280 liefert absolute Speed. Nichts anderes zählt.

Diese zwei Punkte wären bei beide möglich gewesen. Als absoluter High-End-Freak ist die Situation so für mich nicht befriedigend und ich prangere dies an.

Aber wie überall muss man mit diesem Kompromiss wohl leben.

deekey777
2008-05-23, 22:18:43
@deekey777
du musst nicht zugeben das du eine besondere zuneigung zum duden pflegst :rolleyes:

warum muss ich mich jetzt mit dem GPU2 client auseinander setzen wenn du doch selber sagst, das wenn gewisse limitierende faktoren nicht gegeben wären der RV670 den G80/G92 zersägen würden. du sagst es ja selber, was ...
Wo steht was von "zersägen"?

Aber da du auf dem Weg der Besserung bist:
Stell dir vor, dass der aktuelle GPU2-Client, der ein Highperformance-Client ist, ein ganz neuer Ferrari ist, der sich noch weit vor seiner Fertigstellung befindet (in der Software nennt man das "Betatest"). Da es in diesem Zeitpunkt in erster Linie um die Stabilität geht, tankt man diesen nicht mit Super Plus, sondern mit einem Kraftstoff der eine Oktanzahl von 33 hat. Man prüft also nur, wie er sich fährt, aber nicht wie schnell er fährt.

Darum füttert man die HD Radeons mit sehr kurzen WU, die eine HD3870 nicht ausreizen. Dazu kommt der CPU-Overhead.
Also merke:
- Der GPU2-Client ist im Beta-Stadium, seine WUs sind relativ einfach und reizen die Hardware nicht aus.
- CAL verursacht einen CPU-Overhead, womit es zu einer CPU-Abhängigkeit kommt.

Das, was NV gezeigt hat, ist eine Wischi-Waschi-Folie, damit sich einige darüber aufgeilen können. Mit der Realität hat es nicht viel zu tun, denn bisher gibt es keinen GPU2-Client für G80. Dafür aber einen GPU2-Client für HD-Serie.

LovesuckZ
2008-05-23, 22:25:38
Auch wenns bisher nicht unterstüzt wird von Spielen, finde ich dennoch, dass nvidia direct3d10.1 hätte integrieren sollen, allein schon aus technologischer Sicht. Schließlich hat es Ati auch schon getan und so könnte es auch öfters in Spielen genutzt werden falls es die Grafikkarten unterstützen. Irgendjemand muss halt immer der erste sein, siehe nvidia mit SM 3.0.

Dann kaufe dir dein 10.1 Produkt.

Hvoralek
2008-05-23, 23:03:18
@Tombman

meinst du das evtl. die möglichkeit besteht, das dieses Diagramm die nV Karten besser als in es in wirklichkeit der Fall ist darstellt? Ist ja immerhin eine nVidia Presentation!Abgesehen davon, dass die Clients wohl schwer vergleichbar sind und sich GPGPU- Gedöns sowieso kaum auf Spiele wird übertragen lassen, sehe ich nicht so recht, wie man da groß gezielt irreführen sollte. Auswahl der Benchmarks/ Einstellungen? :wink:

Die ersten 8800gt's basierten doch auf dem g80 oder irre ich mich da? Der ist auch erst kurz vor der 8800gt auf g90 Basis erschienen.M.W. gibt es 8800 GTs nur auf G92- Basis. Bei G80 hätte man wohl ziemlich selektieren müssen, um genug Chips mit 600/1500 MHz zu bekommen, das sind fast 8800- Ultra- Taktraten. Meinst Du vll. die Neuauflage der GTS 640 mit sieben Clustern? Die war auf G80- Basis.

Und wenn nicht, man hätte zumindest ähnlich perfomante Mainstream Grafikkarten in 90nm herstellen können und nicht eine einzige abgespeckte Variante der 8800gtx. Das wär schon alles möglich gewesen aber Nvidia hatte keinen Grund dazu und hat lieber auf den kostengünstigeren 65nm prozess gewartet.Ähnliche Leistung wie die 8800 GT wäre in 90 nm zu dem Preis nicht machbar gewesen. Wie gesagt: G92 ist noch komplexer als G80, wäre in 90nm also noch größer geworden, mit nur sieben Clustern wohl etwa gleich groß (und teuer). Die Taktraten wären für einen 90- nm- Chip der Größe wohl auch nicht so einfach zu erreichen gewesen. Das hätte einen alternativen High- End- Chip ergeben, aber keine Mittelklasse.

Man hätte allerdings wohl einen grob halbierten G80 in 90 oder 80nm anbieten können. Damit hätte man etwas ähnliches wie eine 9600 GSO gehabt, was sich im Preisbereich um 200€ wohl gut gemacht hätte. Das Segment wird in der letzten Zeit allerdings von beiden Herstellern ziemlich stiefmütterlich behandelt und bei neuen Modellreihen erst viel zu spät mit brauchbaren Modellen bedient. G84 war ja nicht der einzige Reinfall, RV530 und RV630 waren genauso großer Schrott, G73 i.O., kam aber erst neun Monate nach G70. Brauchbare Modelle um 200€ gab es zuletzt immer erst deutlich später auf kleineren Fertigungsprozessen (G92, RV670, G73, RV560/570). Vernünftige Mittelklassekarten einigermaßen bald nach den High- End- Modellen gab es zuletzt 2004 - Das gilt allerdings für beide Hersteller.

Wenn erst 1 Jahr später eine große Bandbreite entsprechender Mainstream-Produkte der quasi selben Generation (8800gtx) erscheinen, dann läuft da defenitiv was falsch im Graka-Markt. Das gabs früher so nicht und früher hat es ja auch funktioniert. Der g90 oder g92 (wie auch immer) ist legidlich ein g80 Aufguss, der architektonisch fast vollkommen identisch ist mit dem g80, nur halt ein anderer Fertigungsprozess.Wie gesagt: Das läuft seit Jahren so. Ärgerlich ist es immer, wenn durch diese Verzögerungen der Mittelklassebereich durch frühere High- End- Modelle mit einem deutlich geringeren Techlevel abgedeckt werden muss. Zumindest das steht diesmal nicht zu befürchten. Es fehlt "nur" D3D10.1, und das wird auch GT200 nicht bieten. Allerdings könnten diesmal sogar schneller brauchbare kleinere Ableger kommen, 55nm ist mittlerweile schon einige Zeit nutzbar. Mit einem 1:1- Shrink würde ich noch nicht rechnen, aber ein leicht abgespeckter GT200 in 55nm mit ~ 300 mm² würde sich im Herbst doch ganz gut machen - auch mit Blick auf das Weihnachtsgeschäft.

Der R600 war defeinitiv mehr oder weniger ein Reinfall und wie du schon sagst, hatte AMD darauf keinen großen Einfluss. Das ist ja auch nicht das Problem. Das Problem ist, wie der neue Besitzer AMD damit umgeht. Nvidia hat es auch geschafft aus dem nv30 desaster wieder rauszukommen indem sie sich angestrengt haben und ihre hausaufgaben gemacht haben. Siehe da, aufeinmal lag nvidia mit dem nv40 wieder vorne. Und das vor allem deswegen weil ATI sich anschickte Nvidia immer mehr vom Grafikkartenmarkt zu verdrängen. Genau das ist Konkurenz. Aber was macht denn Ati bzw. AMD nach dem R600 Flop? Ich sehe keine derartigen Bestrebung wie früher bei Nvidia aus dieser Situation herauszukommen und bestrebt zu sein die Leistungskrone zu erobern. Heute geht es AMD in erster Linie nur noch um den Profit. Die scheißen auf HighEnd. Die werden sich davor Hüten neue technologien zu entwickeln um Performancereiter zu werden. Der RV770 scheint alles andere als ein Performancekiller zu werden, viel mehr hat man sich bei diesem Chip darauf konzentriert ihn billig und einfach herzustellen, damit man Kohle damit macht.Nvidia hat damals auch zwei Jahre gebraucht, um nach NV3x (Den Vergleich finde ich übrigens unpassend. So schlecht ist R600 nun wirklich nicht) wieder etwas Brauchbares abzuliefern. Da sind sie aber nicht deshalb gut herausgekommen, weil sie so genial oder risikofreudig wären, sondern, weil sie durch ihren guten Namen und Marketing auch ihre Schrott- FX- Karten gut verkaufen und Geld damit verdienen konnten. Was sollte AMD Deiner Meinung nach machen? Geld ausgeben, das sie nicht haben, um High- End- Prestige- Duelle zu gewinnen, und in zwei Jahren mit wehenden Fahnen pleite gehen? Wenn sie es schaffen, erst einmal mit geringem Aufwand den Markt <300€ ordentlich zu bedienen, damit wieder schwarze Zahlen zu schreiben und später wieder dickere Chips zu entwerfen, ist mir das allemal lieber. Zumal gute Angebote gerade in dem Preissegment das sind, was die weitaus meisten Leute nachfragen, auch Dir scheint ja viel daran zu liegen. Ich sehe auch nicht, warum Fortschritt nur mit 500- mm²- Chips auf 600- €- Karten als Zugpferd möglich sein soll. RV670/ 770 im Vergleich zu GT200 zeigen doch gerade, dass auch mit Mittelklassemodellen Entwicklung möglich ist. Würde mich nicht wundern, wenn man sogar ohne High- End- Einzelchips in D3D11 einsteigen sollte - und ich habe da keine Bedenken. Natürlich braucht es für zügige Weiterentwicklung Wettbewerb. Das hat ja NV2x gut veranschaulicht. Wettbewerb kann aber auch im Segment um 200€ stattfinden.

|MatMan|
2008-05-23, 23:13:55
Das, was NV gezeigt hat, ist eine Wischi-Waschi-Folie, damit sich einige darüber aufgeilen können. Mit der Realität hat es nicht viel zu tun, denn bisher gibt es keinen GPU2-Client für G80. Dafür aber einen GPU2-Client für HD-Serie.
Ich glaube kaum, dass nVidia hier aus der Luft gegriffene Zahlen veröffentlicht, die sich später als falsch herausstellen.
Jedenfalls liest sich ein Statement der Entwickler (http://folding.typepad.com/news/2008/05/gpu-news-gpu1-g.html) des CUDA-GPU2-Clients auch dementsprechend:
"We're very excited about the performance (more details on that later). "

LovesuckZ
2008-05-23, 23:21:43
Man hätte allerdings wohl einen grob halbierten G80 in 90 oder 80nm anbieten können. Damit hätte man etwas ähnliches wie eine 9600 GSO gehabt, was sich im Preisbereich um 200€ wohl gut gemacht hätte.

Nein, denn er wäre um die 333mm² groß.


Ich sehe auch nicht, warum Fortschritt nur mit 500- mm²- Chips auf 600- €- Karten als Zugpferd möglich sein soll. RV670/ 770 im Vergleich zu GT200 zeigen doch gerade, dass auch mit Mittelklassemodellen Entwicklung möglich ist. Würde mich nicht wundern, wenn man sogar ohne High- End- Einzelchips in D3D11 einsteigen sollte - und ich habe da keine Bedenken. Natürlich braucht es für zügige Weiterentwicklung Wettbewerb. Das hat ja NV2x gut veranschaulicht. Wettbewerb kann aber auch im Segment um 200€ stattfinden.

AMD's Karten haben den Markt zum Einbruch gebracht. Leistung, die man für 300-400€ verkaufen konnte, geht jetzt für 100-200€ weg. Man muss so dermaßen über die Masse gehen, dass überhaupt keine finanziellen Mittel für Weiterentwicklung zur Verfügung stehen. Ich sehe hier auch keine Entwicklung. Durch den Einbruch hat man kurzfristig viel Leistung für wenig Geld erhalten. Aber mittel bis langfristig wird es den Markt so geschwächt haben, dass sich die Leistung immer kläckchenweise erhöhen wird. Nichts mehr mit Verdopplung der Leistung und neue Features.

Hvoralek
2008-05-23, 23:32:45
Nein, denn er wäre um die 333mm² groß.Also ziemlich genau so groß wie G92. In welchem Preisbereich werden doch gleich G92- Karten ungefähr verkauft?

Ich nehme an, Du beziehst Dich auf 90nm. In 80nm hätte so ein Teil dann schon deutlich unter 300 mm² gemessen.

AMD's Karten haben den Markt zum Einbruch gebracht. Leistung, die man für 300-400€ verkaufen konnte, geht jetzt für 100-200€ weg. Man muss so dermaßen über die Masse gehen, dass überhaupt keine finanziellen Mittel für Weiterentwicklung zur Verfügung stehen. Ich sehe hier auch keine Entwicklung. Durch den Einbruch hat man kurzfristig viel Leistung für wenig Geld erhalten. Aber mittel bis langfristig wird es den Markt so geschwächt haben, dass sich die Leistung immer kläckchenweise erhöhen wird. Nichts mehr mit Verdopplung der Leistung und neue Features.Dir ist schon aufgefallen, dass AMD ursprünglich die 3850 bei $200 Listenpreis und die 3870 bei $300 ansetzen wollte und die damals kurzfristig nach unten korrigiert wurden wegen der 8800 GT? Bist Du Dir sicher, dass Du diesen Preiskampf so negativ siehst? Dann müsste ich mir den heutigen Tag wohl rot im Kalender anstreichen.

Sorkalm
2008-05-23, 23:33:23
Nein, denn er wäre um die 333mm² groß.

Geht doch mit dem G92 auch, oder in welchem Preisbereich werden 8800 GT und 8800 GTS angeboten?

Eine Grafikkarte mit solcher Performance kann man auch gut für mehr als 200€ verkaufen.

Schlammsau
2008-05-23, 23:35:43
AMD's Karten haben den Markt zum Einbruch gebracht. Leistung, die man für 300-400€ verkaufen konnte, geht jetzt für 100-200€ weg. Man muss so dermaßen über die Masse gehen, dass überhaupt keine finanziellen Mittel für Weiterentwicklung zur Verfügung stehen. Ich sehe hier auch keine Entwicklung. Durch den Einbruch hat man kurzfristig viel Leistung für wenig Geld erhalten. Aber mittel bis langfristig wird es den Markt so geschwächt haben, dass sich die Leistung immer kläckchenweise erhöhen wird. Nichts mehr mit Verdopplung der Leistung und neue Features.

Das ist Marktwirtschaft! ;)
Nur wenn Konkurrenz vorhanden ist, fallen die Preise! nVidia hatte ja lange genug die Preise hoch gehalten.....ich kann mich gut an zahlreiche Threads hier erinnern, wo ziemlich laut über die hohen Preise der G80 GPU´s gemeckert wurde. Sie konnten es aber auch, da keine Konkurrenz da war. Erst seit der RV670 erschienen war, fielen die Preise.
Ich finde es ziemlich kläglich von dir, jetzt ATi die Schuld an dem Preisverfall zu geben. :|
Mal abgesehen davon, wenn die Preise nicht gefallen wären, wie teuer würde dann der GT200 werden? 1000-1500$? :rolleyes:
Es geht nicht mehr so schnell mit der Entwicklung vorran, weil der Bedarf nicht mehr so Gross ist. Welches Game lässt sich den nicht fast perfekt mit einer 200€ Karte zocken? Mir fällt nur Crysis ein!
Wie war es den mit Far Cry.....2 Jahre nach release, lief es noch nicht einmal gut auf Mainstream Karten.

Snoopy1978
2008-05-23, 23:38:12
1. Ich will eine Single-Chip-GraKa (solange die bekannten Nachteile der X2-Versionen nicht gelöst sind) -> GT200 oder RV770
2. Ich will brachiale Speed -> GTX 280
3. Ich will DX10.1 -> 4870
4. Ich will ein exzellentes Verhältnis Leistung/Stromverbrauch -> noch offen
5. Ich will ausgetüftelte Stromsparmechanismen -> 4870ja/ GTX 280 ?
6. Ich will erstklassige und effiziente AA-Modi -> ist wahrscheinlich bei beiden etwas dabei


Na das sind ja gleich 6 Wünsche auf einmal,so geht das nicht.Vor allem 2. und 4. beissen sich da etwas.Das wäre wie als ob du einen 500 PS Motor haben möchtest der aber nur 3 Liter auf 100 Kilometer schlucken soll.
Vor allem 3. kann ich nicht nachvollziehen,viele schreien nach DX 10.1 und kabbeln sich hier verbal das man denken könnte hier unterhalten sich 10 jährige.
Vor allem wärst du auch bereit den Preis für das alles was du forderst zu bezahlen?Oder soll sich Nvidia da zurückhalten?

Unyu
2008-05-23, 23:49:09
6. Ich will erstklassige und effiziente AA-Modi -> ist wahrscheinlich bei beiden etwas dabei
Welche neuen AA-Modi bietet AMD mit dem RV770?


Und was ist mit XP User? Oder Leuten, die kein D3D10.x benutzen? :rolleyes:

Eben, mich juckt D3D10 kaum, hier wird einem gleich Schlimmstes vorgeworfen, wenn man nicht gleich das heute nutzlose .1 mit in den Himmel lobt.

LovesuckZ
2008-05-23, 23:49:12
Also ziemlich genau so groß wie G92. In welchem Preisbereich werden doch gleich G92- Karten ungefähr verkauft?

Und den Finanzreport von nVidia lesen. ;)


Ich nehme an, Du beziehst Dich auf 90nm. In 80nm hätte so ein Teil dann schon deutlich unter 300 mm² gemessen.

Beim gleichen Transistor/mm² Verhältnis des G84 läge man bei ca. 285mm² (505 Millionen Transistoren).


Dir ist schon aufgefallen, dass AMD ursprünglich die 3850 bei $200 Listenpreis und die 3870 bei $300 ansetzen wollte und die damals kurzfristig nach unten korrigiert wurden wegen der 8800 GT? Bist Du Dir sicher, dass Du diesen Preiskampf so negativ siehst? Dann müsste ich mir den heutigen Tag wohl rot im Kalender anstreichen.

AMD muss keine Preise senken. Sie hätten durch das Tal gehen können - so wie nVidia. Sie haben aus dem CPU Markt nichts gelernt. Die jetzigen niedrigen Preise werden zukünftig sehr große Probleme bereiten. Hohe Margen sollte das Ziel sein. Über die Masse können sie bei einem Konkurrenten, der deutlich mehr verkauft, nicht gehen. nVidia musste nachziehen, da AMD deutlich billiger war. Schlussendlich ist der Markt eingebrochen. Und weder AMD (11 Millionen Verlust!) noch nVidia (deutlich Absturz der Margen) konnten irgendwelche positiven Aspekte daraus ziehen.

Odal
2008-05-23, 23:53:00
genau wo wären wir ohne konkurenzkampf...ich hätte mir nicht mal so eben ne 88gt für 125€ kaufen können sondern garantiert das doppekte für zahlen müssen.....warum sollte man das befürworten....

niedrige preise sind gut...verdienen tun die immer noch dran...und konkurenz hält nicht nur die preise niedrig sondern sorgt auch für inovationen und fortschritt