Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread
Seiten :
1
2
3
4
[
5]
6
7
8
9
10
11
12
13
14
Original geschrieben von Birdman
LOL?
Hier hat Herstellerspezifische Liebe wohl zu diesem Widerspuch in sich geführt...
Wenn du (und angeblich die meisten anderen Gamer) AA und AF in den hohen Auflösungen nicht brauchst, wieso willst du denn eine einer Meinung nach nochmals schnellere ATi Karte kaufen?
In deinen Settings ist ja eine TI4600 die schnellste Karte die es gibt. (siehe entsprechende Reviews hier auf 3dc wo die GF4 Karten bei CPU Limitierung fast immer "deutlich" vor allem andern liegen)
Birdman, es ging um die Auflösung.... ich nutze 4xAA und 16xAF bei 1024x768 und sehe für mich keinen Nutzen auf 1600x1200 hochzuschalten... bringt nichts für mich...
ice cool69
2004-04-17, 19:48:54
Das ist technisch doch gar nicht möglich, du wirst mit AA/AF immer weniger Leistung haben als ohne, weils eben mehr Rechenleistung braucht.
Einer Karte der das egal ist muss unendlich viel Rechenpower haben. ;)
SKYNET
2004-04-17, 19:52:10
Original geschrieben von ice cool69
Das ist technisch doch gar nicht möglich, du wirst mit AA/AF immer weniger Leistung haben als ohne, weils eben mehr Rechenleistung braucht.
Einer Karte der das egal ist muss unendlich viel Rechenpower haben. ;)
bei NV60 und R6xx wird das egal sein schätze ich mal.
ice cool69
2004-04-17, 19:53:00
Nein wird es nicht, wie willst du das begründen?
Edit: Damit es mehr oder weniger egal ist ob man mit oder ohne AA/AF spielt müsste der Rechenaufwand % von Generation zu Generation abnehmen. Da sich aber die Füllrate bei TRI-AF grundsätzlich halbiert sehe ich da keine Möglichkeit.
Mehrpack
2004-04-17, 20:03:46
hi,
vielleicht wäre es möglich irgendwann in paar jahren AFTMU`s zu verbauen?
ginge das technisch eigentlich, so in der richtung das von einem chip TMU einfach von haus aus ohne leistungsverlust 4x AF kann???
Mehrpack
Asmodeus
2004-04-17, 20:05:34
Naja, wenn man heutige Spiele wie FarCry dann auf NV60 spielt, ist es von der Framerate her sicher "egal" ob man mit oder ohne AA/AF spielt. ;)
Bei aktuellen Spielen des Jahres 2005/2006 wird es aber nicht anders aussehen, als heute, auch da wird eingeschaltetes AA/AF immer zu spürbaren Performanceverlust führen.
Allgemein wird sich z.B. die AA-Problematik in den nächsten Jahren meiner Meinung nach sogar eher noch verschärfen, wenn man kommende Entwicklungen mit in Betracht zieht. Seit Jahren sitzen wir nun schon vor 75 dpi Ausgabegeräten, auch da wird sich in Zukunft einiges tun. Und um z.B. auf einem 300 dpi Monitor noch Supersampling in akzeptabler Performance realisieren zu können, werden sich die Grafikchipdesigner noch einiges einfallen lassen müssen.
Carsten.
Aquaschaf
2004-04-17, 20:32:20
Die Auflösungen der Bildschirme werden AFAIK noch für eine ganze Weile ähnlich wie Heute bleiben.
Asmodeus
2004-04-17, 20:36:26
Original geschrieben von Aquaschaf
Die Auflösungen der Bildschirme werden AFAIK noch für eine ganze Weile ähnlich wie Heute bleiben.
Da hast Du sicher recht, aber 2006 könnte es schon so weit sein, das HR-Displays langsam in den Blickpunkt einer breiteren Masse rücken.
Carsten.
Tesseract
2004-04-17, 20:59:11
Original geschrieben von ice cool69
Das ist technisch doch gar nicht möglich, du wirst mit AA/AF immer weniger Leistung haben als ohne, weils eben mehr Rechenleistung braucht.
Einer Karte der das egal ist muss unendlich viel Rechenpower haben. ;)
oder AA/AF ist einfach so tief in die architektur integriert das die abschaltung die architektur einfach ineffizienter arbeiten lässt
wie zB bilieare filterung auf einer TriTMU
oder 32bit vs. 16bit farbtiefe auf heutigen karten (die ausgabe ist gemeint)
Aquaschaf
2004-04-17, 21:30:56
Sollte sich ein Hersteller dazu entschließen einen Chip mit 16xTri-AF TMU's, der ausreichend AA-Samples produziert auf einer Karte mit vollkommen überdimensionierter Speicherbandbreite verbauen hätte man AA/AF dann wirklich for free.
SKYNET
2004-04-17, 23:12:16
Original geschrieben von Aquaschaf
Sollte sich ein Hersteller dazu entschließen einen Chip mit 16xTri-AF TMU's, der ausreichend AA-Samples produziert auf einer Karte mit vollkommen überdimensionierter Speicherbandbreite verbauen hätte man AA/AF dann wirklich for free.
GDDR3 mit 0.3ns speicher ;)
macht 3333MHz * 2 = 6666MHz DDR
sollte wohl ausreichend bandbreite sein *hrhr*
Original geschrieben von Mehrpack
hi,
vielleicht wäre es möglich irgendwann in paar jahren AFTMU`s zu verbauen?
ginge das technisch eigentlich, so in der richtung das von einem chip TMU einfach von haus aus ohne leistungsverlust 4x AF kann???
Mehrpack
Das wird garantiert nicht passieren, weil Pixelshader nicht unbedingt AF-Samples zum Rechnen brauchen.
Den reichen oft auch bilineare Samples. Und um "DX7-AF" zu beschleunigen wird wohl kein Chiphersteller in Zukunft Transistoren verschwenden.
Original geschrieben von ice cool69
LOL also jetzt fängt wieder die Träumerei an.
Der gezeigte Chip ist ein Knaller und alles was nvidia machen wird ist vielleicht 3 Monate später eine 6850 ultra nachzureichen mit 450-500 MHz, aber was ihr euch hier zusammenträumt entbehrt jeglicher Grundlage.
Hehe bist du dir da so sicher?
Ich verat dir was. Die verschickten NV40 Exemplare sind alle A1 Versionen mit 400 MHZ.
Die Ladenvariante wird aber A2 sein. Ich würde mal vermuten das dies mit Absicht so gemacht wurde.
Winter[Raven]
2004-04-18, 14:11:38
Original geschrieben von Gast
Hehe bist du dir da so sicher?
Ich verat dir was. Die verschickten NV40 Exemplare sind alle A1 Versionen mit 400 MHZ.
Die Ladenvariante wird aber A2 sein. Ich würde mal vermuten das dies mit Absicht so gemacht wurde.
Regarding the NV40 - I think you're all forgetting this is A1 silicon which has been available for sometime now. A2 silicon was available at review time, but NVIDIA decided against it.
There's a reason the clockspeeds suddenly went from 475Mhz to 400Mhz - the final ones will be at or over 475Mhz, but NVIDIA's in their "let's make ATI more confident in themselves than they should be" mood.
Now, in this thread at Beyond3D, Uttar suggests that we may not yet have seen the 6800 Ultra's true form...
*eg*
danke Winter[Raven]...
genau das meinte ich.
Die maximale Perormance wurde noch nicht gezeigt. Ob es am Ende auch die beste Performance sein wird muss sich zeigen.
Allerdings würde ich bei annähernd gleicher Perforance wg. der Features immer zum NV40 greifen.
Die Entwicklungsarbeit muss einfach belohnt werden. Ich werde sicher nicht denjenigen belohnen, der sich ausruht und meint FP24 oder SM2.0 seien genug.
(del676)
2004-04-18, 14:20:41
uttars edit:
EDIT: Seriously, aren't you wondering why Vegetto's sample, which IS for real, and which was in fact a A2, ran at 475Mhz no problem with no mention of a monster cooler? A1 is weeks, if not months old. There never was any last-minute clockspeed drop (AFAIK).
(del676)
2004-04-18, 14:22:51
siehe auch: http://www.beyond3d.com/forum/viewtopic.php?t=10946
Well it's time, some of this info in not new and it was speculated before, now is just confirmed.
The card that was running those games was an NV40 ( it was an A2 revision ) clocked at 475mhz Core and 1.2ghz memory ( gddr3 ) and 256mb. The card IT IS 16x1 as the fillrate shows it. With 3dmark2001 give results of 7010 Mpixels/s for single texturing and 7234 Mpixels/s for multi texturing ( pretty impressive don't? )
achja, der witzigste teil kommt ja später
and for a matter of speed, remember that A2 is no the final revision, so the final "could" be a little faster. Well that's all... at least all I can say now, there is something else but I risk too much and I have a promise, maybe later in this month, but I have said everything I know, hope you like it, and again excuse my bad english
LovesuckZ
2004-04-18, 14:29:31
Sollten die Hersteller keine "ultradicken" neuen Karten vorstellen, bleibt bei den Taktraten alles gleich.
Der Unterschied zwischen A1 und A2 Stepping liegt wohl in der besseren Taktung. Vorteile koennten die zum A1 Stepping geringere Stromaufnahme und dadurch der kühlere Chip sein.
Winter[Raven]
2004-04-18, 14:44:46
Original geschrieben von LovesuckZ
Sollten die Hersteller keine "ultradicken" neuen Karten vorstellen, bleibt bei den Taktraten alles gleich.
Der Unterschied zwischen A1 und A2 Stepping liegt wohl in der besseren Taktung. Vorteile koennten die zum A1 Stepping geringere Stromaufnahme und dadurch der kühlere Chip sein.
Ich würds abwarten Love, es könnte so kommen, das die NV40 jetzt mit 400 ausgeliefert kommen, und dann ein neues Bios geben wird, der vielleicht den Vcore höher setzt.
Ich trau derzeit Nvidia kein Wort was die von sich geben.
A1 soll Final sein?, das glaubst du doch sichelrich selber nicht Love. Es wurden immer A2-A3 als Finale genützt.
MadManniMan
2004-04-18, 14:47:01
Jawoll! Klasse! Jetzt werden schon wieder Posts getrasht! :massa:
Na das ist mir doch echt mal nen grünen Daumen wert! :up:
Argo Zero
2004-04-18, 14:48:35
Original geschrieben von MadManniMan
Jawoll! Klasse! Jetzt werden schon wieder Posts getrasht! :massa:
Na das ist mir doch echt mal nen grünen Daumen wert! :up:
Wenn du nichts sinvolles zur Diskussion beizutragen hast werden diese Posts getrasht.
MadManniMan
2004-04-18, 14:57:03
Original geschrieben von Argo Zero
Wenn du nichts sinvolles zur Diskussion beizutragen hast werden diese Posts getrasht.
Und n Punkt gibts auch noch, gelle? ;)
Errm, ich möchtes dir mal so erklären: ich habe einen Post gemacht, den ich eigentlich grad noch editieren wollte. Ich wollte Argumente für/wider den NV40+++ Kram sammeln und viele Quotes einbauen. Aber ging ja nichmehr, ne? :freak:
Wie dem auch sei, der Post is jetz übern Jordan und ich geh schlecht gelaunt auf Arbeit =)
LovesuckZ
2004-04-18, 14:57:52
Original geschrieben von Winter[Raven]
Ich würds abwarten Love, es könnte so kommen, das die NV40 jetzt mit 400 ausgeliefert kommen, und dann ein neues Bios geben wird, der vielleicht den Vcore höher setzt.
Es wird im Juni eine neue Karte angekündigt, die 512MB Speicher hat. Die wird, dementsprechend wir gut ATi ist, höher getaktet sein.
Ich trau derzeit Nvidia kein Wort was die von sich geben.
Dazu müssten sie sich erst mal äußern :|
A1 soll Final sein?, das glaubst du doch sichelrich selber nicht Love. Es wurden immer A2-A3 als Finale genützt.
Niemand weiß, was Final sei. Es gab karten auf der Cebit und GDC, die liefen mit 475/600. Der User in beyond3d.com Forum, dessen kleine Sneak stimmte ja vollkommen, hat eben solch eine Karte gehabt, gesehen oder kannte jemanden, der sie besatz.
ATi hat die selben Probleme wie Nvidia bezueglich der Verfügbarkeit des hoeheren Speichers. Ob es nun für ATi ein Vorteil, den höheren Coretakt zu besitzen, ist finden wir frühsten am 14.Mai heraus.
Argo Zero
2004-04-18, 15:02:37
Original geschrieben von MadManniMan
Und n Punkt gibts auch noch, gelle? ;)
Errm, ich möchtes dir mal so erklären: ich habe einen Post gemacht, den ich eigentlich grad noch editieren wollte. Ich wollte Argumente für/wider den NV40+++ Kram sammeln und viele Quotes einbauen. Aber ging ja nichmehr, ne? :freak:
Wie dem auch sei, der Post is jetz übern Jordan und ich geh schlecht gelaunt auf Arbeit =)
Nein. Solche Postings sind nunmal gefundenes Fressen für Leute die sich darauf angesprochen fühlen.
Und für dicke Postings gibt es auch einen Text Editor damit wir uns nicht nochmal missverstehen :)
LovesuckZ
2004-04-18, 15:08:40
Der erste Onlinehändler, der eine 6800/U listet, kommt aus Frankreich. Die
normale Variante (http://www.1000ordi.fr/products.php?p=eb7de3) soll 349€ und die Ultraversion (http://www.1000ordi.fr/products.php?p=7182b4) stolze 549€ kosten.
Natürlich sieht es mit der erfügbarkeit dagegen noch sehr schlecht, aeh, rot aus.
Quelle (http://www.beyond3d.com/forum/viewtopic.php?p=260631#260631)
Quasar
2004-04-18, 15:28:05
Das sind exakt die Preise, die nV als "target" angab. Die dürften sich sehr schnell regulieren, sobald mehr als ein Hersteller liefern kann.
betasilie
2004-04-18, 15:32:36
Original geschrieben von LovesuckZ
Der erste Onlinehändler, der eine 6800/U listet, kommt aus Frankreich. Die
normale Variante (http://www.1000ordi.fr/products.php?p=eb7de3) soll 349€ und die Ultraversion (http://www.1000ordi.fr/products.php?p=7182b4) stolze 549€ kosten.
Natürlich sieht es mit der erfügbarkeit dagegen noch sehr schlecht, aeh, rot aus.
Quelle (http://www.beyond3d.com/forum/viewtopic.php?p=260631#260631)
549€ für die Ultra? :-( In den Staaten ist der Preis aber bei 399€ geblieben? Da könnte ich mir nämlich nächsten Monat eine mitbringen lassen.
Exxtreme
2004-04-18, 15:34:34
Original geschrieben von betareverse
549€ für die Ultra? :-( In den Staaten ist der Preis aber bei 399€ geblieben? Da könnte ich mir nämlich nächsten Monat eine mitbringen lassen.
Das ist halt der Europa-Aufschlag. :-( Hier zahlt man immer etwas mehr. Ist eine Mischkalkulation.
Edit: Das machen sehr viele Hersteller.
Quasar
2004-04-18, 15:37:18
399 US-$ plus Steuer und wenn du Pech beim mitbringen hast, kriegste nochmal 16% EUSt. drauf.
ice cool69
2004-04-18, 15:41:30
Dann kommst du aber immer noch besser weg als bei uns.
Achja ich hatte gehört die Karte kostet in den USA 499$, wie kommt ihr denn jetzt wieder auf 399$?
deekey777
2004-04-18, 15:42:41
Original geschrieben von Exxtreme
Das ist halt der Europa-Aufschlag. :-( Hier zahlt man immer etwas mehr. Ist eine Mischkalkulation.
Edit: Das machen sehr viele Hersteller.
Ist zum Schutz europäischer Grafikchipentwicklern wie Matrox... ;D
Hat denn irgendjemand von euch einen anderen Preis erwartet?
LovesuckZ
2004-04-18, 15:43:25
Original geschrieben von deekey777
Ist zum Schutz europäischer Grafikchipentwicklern wie Matrox... ;D
Kommen die nicht auch aus Canada?
Exxtreme
2004-04-18, 15:46:43
Original geschrieben von deekey777
Ist zum Schutz europäischer Grafikchipentwicklern wie Matrox... ;D
Matrox ist aus Kanada. Und die Preise sind hier höher damit die Hersteller die Produkte woanders billiger anbieten können.
StefanV
2004-04-18, 15:50:53
Original geschrieben von LovesuckZ
Kommen die nicht auch aus Canada?
Montreal, wenn ich mich nicht irre, haben sogar 'nen eigenen Swimming Pool.
Europäer sind/waren ST Micro mit dem Power VR Kyro...
Original geschrieben von MadManniMan
Jawoll! Klasse! Jetzt werden schon wieder Posts getrasht! :massa:
Na das ist mir doch echt mal nen grünen Daumen wert! :up:
Dass Argo da schon mal etwas übereifrig ist, ist mir auch schon aufgefallen. Hoffentlich nicht nur wenns, gegen NVidia geht...
Winter[Raven]
2004-04-18, 16:19:16
Nehmen wir Teoretisch mal an, die GF 6800Ultra kommt wirklichmit einem A2 oder A3 Stipping mit >= 475 mhz. Wieviel Prozent würden diese 75 mhz bringen auf den A1 Stepping?
Gigabyte gibt bei seiner Ultra folgendes an ... Chiptakt: 400 zu 500 mhz Speichertakt.
Original geschrieben von Winter[Raven]
Nehmen wir Teoretisch mal an, die GF 6800Ultra kommt wirklichmit einem A2 oder A3 Stipping mit >= 475 mhz. Wieviel Prozent würden diese 75 mhz bringen auf den A1 Stepping?
Gigabyte gibt bei seiner Ultra folgendes an ... Chiptakt: 400 zu 500 mhz Speichertakt.
100 % = 400 MHz
-> 475 MHz = 118,75 %. Ich geb's ja zu, Prozentrechnung ist teuflisch schwer ... :freak2:
Winter[Raven]
2004-04-18, 16:30:05
Original geschrieben von Gast
100 % = 400 MHz
-> 475 MHz = 118,75 %. Ich geb's ja zu, Prozentrechnung ist teuflisch schwer ... :freak2:
Also 18% ...
betasilie
2004-04-18, 16:32:26
Original geschrieben von Exxtreme
Das ist halt der Europa-Aufschlag. :-( Hier zahlt man immer etwas mehr. Ist eine Mischkalkulation.
Edit: Das machen sehr viele Hersteller.
Dieser Zuschalg ist dann aber exorbitant höher geworden, wenn man das mal mit früher vergleicht, als der €-Kurs nicht so war, wie er jetzt ist. :motz:
Ein ganz große Sauerei ist das. Das sind fast 400DM !!! mehr, als in den USA.
Weiß jemand wieviel die Ultra in Japan kostet (in €)?
betasilie
2004-04-18, 16:34:27
Original geschrieben von Quasar
399 US-$ plus Steuer und wenn du Pech beim mitbringen hast, kriegste nochmal 16% EUSt. drauf.
Ich würde die dann im Handgepäck mitbringen und auch vorher testen lassen. Nicht, dass ich da noch einen Garantiefall habe.
reunion
2004-04-18, 16:37:33
Original geschrieben von Winter[Raven]
Also 18% ...
Nein, kein Chip skaliert linear mit dem Takt, 18% höherer Takt bedeuten noch lange nicht 18% mehr Leistung...
StefanV
2004-04-18, 16:41:29
Original geschrieben von Winter[Raven]
Also 18% ...
Nein, im besten Fall 9%.
LordDeath
2004-04-18, 16:41:31
Original geschrieben von Winter[Raven]
Also 18% ...
hängt von der spielesituation ab. es kann auch mal sein, dass der speicher limitiert, so dass die 18% in der praxis nicht erreicht werden. aber 18% ist hier der maximalwert den man in bestimmten situationen als performancevorsprung messen könnte.
Winter[Raven]
2004-04-18, 16:41:56
Original geschrieben von reunion
Nein, kein Chip skaliert linear mit dem Takt, 18% höherer Takt bedeuten noch lange nicht 18% mehr Leistung...
ist mir klar reunion, ich wollte den GAST korregieren ;). Den nach seiner Rechnung kommen 118.75 % raus ;).
@ SP
Jou, in irgendeinerm Test stadt was von 12% mehr Mhz rechnet sich in 9% mehr Performance.
Also bei ~475 mhz erreicht man >= 9% mehr Performance.
Original geschrieben von Winter[Raven]
ist mir klar reunion, ich wollte den GAST korregieren ;). Den nach seiner Rechnung kommen 118.75 % raus ;).
@ SP
Jou, in irgendeinerm Test stadt was von 12% mehr Mhz rechnet sich in 9% mehr Prformance.
Ja, wenn 400 MHz Standard sind, leistet die Karte mit 475 MHz theoretisch 118,75 %. D.h., wenn man rechnen kann und (!) mitdenkt, dass das +18,75 % ergibt. Was gibt es da zu "korrigieren"?
Werte, auf die man sich, was den realen Gewinn angeht, stützen kann, findet man im hiesigen NV40-Benchmarkartikel unter "Overclocking". :-)
Original geschrieben von Winter[Raven]
ist mir klar reunion, ich wollte den GAST korregieren ;). Den nach seiner Rechnung kommen 118.75 % raus ;).
@ SP
Jou, in irgendeinerm Test stadt was von 12% mehr Mhz rechnet sich in 9% mehr Performance.
Also bei ~475 mhz erreicht man >= 9% mehr Performance.
9/12 = 0,75
-> 0,75*18,75 % ergibt also den Wert zu 14,0625%. Oh Wunder, 14,0625 >= 9%. :-P (btw.: bitte exakt fomulieren: >=9% sind reichlich sinnfrei in deinem Kontext, denn 10000% >= 9% ...)
Quasar
2004-04-18, 17:01:50
Original geschrieben von betareverse
Ich würde die dann im Handgepäck mitbringen und auch vorher testen lassen. Nicht, dass ich da noch einen Garantiefall habe.
Dann viel Glück. Mir ist's schonmal passiert, daß ich mit meinem Handgepäck in den "roten Bereich" gewunken wurde... Muss wohl an meiner Verbrechervisage liegen X-D
deekey777
2004-04-18, 17:12:44
Original geschrieben von Exxtreme
Matrox ist aus Kanada. Und die Preise sind hier höher damit die Hersteller die Produkte woanders billiger anbieten können.
Erwischt... Wer ist denn aus Frankreich?
StefanV
2004-04-18, 17:14:32
Original geschrieben von deekey777
Erwischt... Wer ist denn aus Frankreich?
Guillemot, haben sich Hercules einverleibt.
AFAIK auch ST Micro
Blub, 100% sind ja eigentlich ne konstante über dies erstmal nicht drüber geht ^^ aber schaut mal diesen Benchmark an in dem die "color writes" deaktiviert wurden und nur "Z writes" aktiviert sind
http://www.xbitlabs.com/articles/video/display/nv40_18.html
wie kommts das sie bei einer 32x0 @ 400MHz(Z-Betrachtung) Architektur übers Maximum rausschiest ^^
Max Füllrate wäre ja 32 x 400 = 12800MP/s
Original geschrieben von Gast
Max Füllrate wäre ja 32 x 400 = 12800MP/s MZ, bitte :)
Original geschrieben von MadManniMan
Wie dem auch sei, der Post is jetz übern Jordan und ich geh schlecht gelaunt auf Arbeit =) Zur Arbeit =)
Original geschrieben von reunion
Nein, kein Chip skaliert linear mit dem Takt, 18% höherer Takt bedeuten noch lange nicht 18% mehr Leistung... Hängt davon ab, wo der Flaschenhals sitzt.
Original geschrieben von Stefan Payne
Nein, im besten Fall 9%. Im besten Fall durchaus 18%. Solch einen Fall wird man allerdings schwer finden.
Quasar
2004-04-18, 17:39:02
Und on-Topic, aths?
Meßfehler im Tool bei xBit-Labs?
Wo steht denn nun schon wieder das sie in den USA 399$ kosten soll? Ich habe stehts nur von 499$ gelesen.
399$ wären auch keine 550€ trotz Europazuschlag ;)
399$
Tja, das wären dann 319€ beim heutigen Kurs =)
Morgen wird die firma A. aus gießen und/oder die Firma M. aus Bremen uns mal wieder überraschen - hoffentlich!
up
6800U-Import-Gast
2004-04-18, 18:48:03
Hallo,
kennt jmd. die genauen Zoll-Kosten, MwST etc. für den Wareneinfuhr von Computerzeugs nach EU ?
(Kauf von US-Firma)
Was ist wenn ich als privat z.B. die 6800U von einer US-Privatperson beziehe ? Send as GIFT/Present.
Auch Zoll, auch MwST ??
Original geschrieben von 6800U-Import-Gast
Hallo,
kennt jmd. die genauen Zoll-Kosten, MwST etc. für den Wareneinfuhr von Computerzeugs nach EU ?
(Kauf von US-Firma)
Was ist wenn ich als privat z.B. die 6800U von einer US-Privatperson beziehe ? Send as GIFT/Present.
Auch Zoll, auch MwST ??
Ja zumindest in Ö ists so. 20% vom Warenwert bei elektronischen Geräten (auch wenns ein Geschenk ist, da der Wert 150€ überschreitet)
http://www.zoll-d.de/b0_zoll_und_steuern/b0_verbrauchsteuern/h0_biersteuer/i0_ein_und_ausfuhr/a0_einfuhr/
betasilie
2004-04-18, 19:59:27
Original geschrieben von Quasar
Dann viel Glück. Mir ist's schonmal passiert, daß ich mit meinem Handgepäck in den "roten Bereich" gewunken wurde... Muss wohl an meiner Verbrechervisage liegen X-D
Ich würde sie ja mitbringen lassen. ;) Ich selber werde auch immer rausgewunken, keine Ahnung wieso. :biggrin:
Ich habe aber gerade gelesen, dass die Karte 499$ kosten soll. Was denn jetzt?
Jetzt fällt es mir wieder ein...
Computerteile sind überhaupt nicht vom Zoll zu definieren =)
Naja wenn ein Paperlaunch ist oder Schrott ist - kein Problem =)
Aber was ist denn nun die 6800?
Vielleicht ein kunstwerk? =)
Tja, man muß nämlich erst bestimmen, was man überhaupt einführt!
Die EU = ein Tollhaus!
es geht um die sgn. TARIC
TARIC (http://europa.eu.int/comm/taxation_customs/dds/cgi-bin/tarsect?ProdLine=00&Type=&Action=1&Lang=DE&SimDate=20040418&YesNo=1&Indent=-1&Flag=1&Test=tarsect&Periodic=0&Download=0&Taric=&taric=Bl%C3%A4ttern&Country=----------&Day=18&Month=04&Year=2004)
die man hier eingibt
TARIC-Abfrage (http://europa.eu.int/comm/taxation_customs/dds/cgi-bin/tarchap?Lang=DE)
BTW, viel Spaß beim grübeln! =)
up
ShadowXX
2004-04-18, 20:05:42
Original geschrieben von betareverse
Ich würde sie ja mitbringen lassen. ;) Ich selber werde auch immer rausgewunken, keine Ahnung wieso. :biggrin:
Ich habe aber gerade gelesen, dass die Karte 499$ kosten soll. Was denn jetzt?
Leo hatte seine 399$ Aussage doch selbst irgendwo in diesem Thread auf 499$ korrigiert...
Ich selber habe von 550Euro für Europa aus meheren Quellen gehört und dieses wurde durch einen französischen Händler inzwischen indirekt bestätigt...(auch im Thread)
Geh also lieber von 499$ aus...und dann lohnt sich der US Import (auf welchem wege auch immer) IMHO nicht mehr...
(del676)
2004-04-18, 20:10:43
Original geschrieben von ShadowXX
Leo hatte seine 399$ Aussage doch selbst irgendwo in diesem Thread auf 499$ korrigiert...
Ich selber habe von 550Euro für Europa aus meheren Quellen gehört und dieses wurde durch einen französischen Händler inzwischen indirekt bestätigt...(auch im Thread)
Geh also lieber von 499$ aus...und dann lohnt sich der US Import (auf welchem wege auch immer) IMHO nicht mehr...
kommt immer auf die Verfügbarkeit an ;)
Winter[Raven]
2004-04-18, 20:11:54
Kann mal bitter einer den nachfolgenden Text übersetzen? Dave schreibt echt wie ne Vorlone aus B5, in Rätzel in einer Rätzel.
DW - I would say that we do know what the shipping version of the Ultra is. Whether there is something else is another matter, but they would not have announced the Ultra at these specifications if they a.) didn't have reasons for doing so, b.) weren't going to ship the Ultra at these speeds.
Unless you want the high end to be a complete loss leader (and these products are supposed to be able to command the highest margins) then you have to pla the yield game.
Rätsel bitte ;)
"Er meint es ist klar wie die Verkaufsversion der Ultra (NV40U) aussieht. Sollte da etwas anderes sein ist folgendes noch zu bendenken, er meint sie hätten die Ultra nicht mit diesen Specs vorgestellt, wenn a. sie keinen anderen Grund dafür gehabt haben, b. würden die Ultra nicht mit diesen Specs liefern."
Quasi geht er davon aus, das die Ultra von den Specs her so bleibt wie sie Vorgestellt worden ist.
Im 2. Teil gibt er zu bedenken dass High End ja auch gewisse Margen bringen muss, wenn man keine Verluste einfahren will, muss man das "Yield-Rate" Spiel spielen. (Steig ich nicht ganz durch, er spielt wohl auf die geschnippelten Versionen an oder meint, das man ansonsten absolut auf High End gehen würde)
Quasar
2004-04-18, 20:40:42
Original geschrieben von Winter[Raven]
Kann mal bitter einer den nachfolgenden Text übersetzen? Dave schreibt echt wie ne Vorlone aus B5, in Rätzel in einer Rätzel.
"Ich würde sagen, wir wissen, was/welches die ausgelieferte Version der 6800 Ultra ist. Ob es da noch etwas anderes gibt, ist ein andere Thema, aber sie [nVidia] hätten die 6800 Ultra nicht mit diesen Specs angekündigt, wenn sie nicht a) keine guten Gründe gehabt hätten, das genau so zu tun oder b) sie nicht die Absicht hätten, sie auch so [wie angekündigt] auszuliefern.
Wenn man nicht will, daß das High-End zum absoluten Margen-Killer [Verlust-Führer] (Diese Produkte sind i.A. in der Lage, die höchsten Margen zu erbringen) wird, muss man das Yield-Spielchen eben mitspielen."
So?
Winter[Raven]
2004-04-18, 21:21:14
Irgendwie ist es blöd. Uttar sagt die Vrkaufsversion kommt mit >=475 mhz, der Dave meint nein. Ich blick jetzt garnicht mehr durch.
Am besten die beiden Halten ihren Mund, und wir lassen und von Nvidia (4Ever *eg*) überaschen wenn die wirlich >=475mhz verwenden.
wann soll eigentlich die 6800 normale karte rauskommen?
LovesuckZ
2004-04-18, 21:32:18
Original geschrieben von Gast
wann soll eigentlich die 6800 normale karte rauskommen?
Man sagt, später als die Ultra Variante.
die normale würd mich ja wohl interessieren so preislich gesehen. Außerdem soll bei der Karte der Stromverbrauch nicht so hoch sein.
Aquaschaf
2004-04-18, 21:38:33
Ich glaub nach wie vor nicht, dass sich jemand der sich Highend-Grafikkarten kauft besonders darum kümmert wieviel Strom seine Karte verbraucht.
Winter[Raven]
2004-04-18, 21:43:46
Was mich bisschen Stürzig macht ist diese Aussage:
Albatron said that their 'Geforce6800UV' has core clock running at 600Mhz and the ram is reaching 1Ghz.
Derzeit wissen die AIB wie es scheint selber ned richtig was die Sache ist, Albatron sagt 600/1ghz, Gigabyte sagt 400/1ghz, MSI spricht von höherem Takt.
Bei Aopen wird bei der ultra nur ein Molexstecker benützt.
http://www.technoa.co.kr/content/latestnews/2004/04/17/aopen.jpg
Negativ,alle Ultras haben 2 Stecker.
http://english.aopen.com.tw//Products/images/VGA/images/GeForce%206800Ultra-460.jpg
ps: warum macht ihr euch verrückt,besteht euer Leben nur aus Grafikkarten ?
K29!ll3r
2004-04-18, 22:24:50
Andere Frage: Wie geht das nun schon wieder mit den PCI Express Varianten der GeForce 6800?? Ich hab den Durchblick verloren... Wird es eine geben, die sowohl auf AGP wie PCI X Mainboards läuft (geht das überhaupt?)?? ODer wird es da etwas a la GeForce PCX 6800 geben?
Winter[Raven]
2004-04-18, 22:29:21
Original geschrieben von K29!ll3r
Andere Frage: Wie geht das nun schon wieder mit den PCI Express Varianten der GeForce 6800?? Ich hab den Durchblick verloren... Wird es eine geben, die sowohl auf AGP wie PCI X Mainboards läuft (geht das überhaupt?)?? ODer wird es da etwas a la GeForce PCX 6800 geben?
NV45 = PCI Express NV40 + Fixes und vielleicht höhere Taktung.
K29!ll3r
2004-04-18, 22:32:11
Dann ist NV 40 also eine reinrassige AGP Karte?
Winter[Raven]
2004-04-18, 22:36:32
Original geschrieben von K29!ll3r
Dann ist NV 40 also eine reinrassige AGP Karte?
So zusagen. ;D
Wenn ich das richtig verstehe, ja, man kann sie natürlich mittels Bridge Chip auf n PCIE (gibts da eigentlich schon ne geläufige abkürzung für PCI Express? :)) Board verbauen...
Mehrpack
2004-04-18, 22:47:46
Original geschrieben von Mike
Wenn ich das richtig verstehe, ja, man kann sie natürlich mittels Bridge Chip auf n PCIE (gibts da eigentlich schon ne geläufige abkürzung für PCI Express? :)) Board verbauen...
hi,
yop.
bloss ich frage mich was wohl eher kommen wird, nv45 oder nv40 mit bridge auf pci-express.
wird wohl auch drauf ankommen, was nv mit dem nv45 geplant hat.
ob wirklicher refresh oder nur nv40 mit pci-express.
bloss das letzte was ich gehört habe wär letzteres.
abkürzung? keine ahnung.
Mehrpack
K29!ll3r
2004-04-18, 22:51:28
Die Abkürzung ist doch PCI X...
Sorry für OT, aber wird es Mainboards geben, welche PCI express + AGP unterstützen?
Denn ich möchte mir demnächst die 6800U oder eben R420 kaufen und erst später ein neues Board mit neuer CPU etc.
Mehrpack
2004-04-18, 22:56:49
Original geschrieben von K29!ll3r
Die Abkürzung ist doch PCI X...
Sorry für OT, aber wird es Mainboards geben, welche PCI express + AGP unterstützen?
Denn ich möchte mir demnächst die 6800U oder eben R420 kaufen und erst später ein neues Board mit neuer CPU etc.
hi,
wenn ich mich richtig errinnere ist PCI-X ein im serverbereich erweiterter PCI standart der vorallen für bandbreiten lastige karten eingesetzt wird.
imho sollte er zwar auch mal für den coustumermarkt kommen, aber wurde dann zu gutesten von PCI-Express verworfen, die Pläne.
Mehrpack
Original geschrieben von Mehrpack
hi,
wenn ich mich richtig errinnere ist PCI-X ein im serverbereich erweiterter PCI standart Ein Standard :)
PCI-Express wird PCI-E abgekürzt, während PCI-X, wie du schon geschrieben hast, nicht für PCI-Express steht.
Original geschrieben von K29!ll3r
Dann ist NV 40 also eine reinrassige AGP Karte? Vermutlich intern "AGPx16".
Original geschrieben von Winter[Raven]
Irgendwie ist es blöd. Uttar sagt die Vrkaufsversion kommt mit >=475 mhz, der Dave meint nein. Ich blick jetzt garnicht mehr durch.
Falsch...400 Mhz ist der Referenztakt von Nvidia. Die Boardhersteller werden jetzt individuell übertakten und darauf die Garantie geben. (Vermutlich werden die Preise auch deutlich variiieren)
=> Spekulationsforum
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=137484
http://www.pcunleash.com/bbs/zboard.php?id=PerformanceBenchmark&page=1&sn1=&divpage=1&sn=off&ss=on&sc=on&select_arrange=headnum&desc=asc&no=228
Original geschrieben von Gast
Blub, 100% sind ja eigentlich ne konstante über dies erstmal nicht drüber geht ^^ aber schaut mal diesen Benchmark an in dem die "color writes" deaktiviert wurden und nur "Z writes" aktiviert sind
http://www.xbitlabs.com/articles/video/display/nv40_18.html
wie kommts das sie bei einer 32x0 @ 400MHz(Z-Betrachtung) Architektur übers Maximum rausschiest ^^
Max Füllrate wäre ja 32 x 400 = 12800MZ/s
Frage an die Experten ^^ Messfehler oder was istda passiert ?
MadManniMan
2004-04-19, 12:47:53
Original geschrieben von Aquaschaf
Ich glaub nach wie vor nicht, dass sich jemand der sich Highend-Grafikkarten kauft besonders darum kümmert wieviel Strom seine Karte verbraucht.
Hm... doch! Bei mir persönlich ist es bisher zwar so gewesen, daß ich nie mehr als 400 Mark für ne Graka ausgegeben habe, aber just hab ich mir nen TFT für 470,- gegönnt - ok, der Monitor wird/soll länger halten, als so manche Generation an Grafikkarten, doch wenn die neuen Karten dementsprechend attraktiv werden, hab ich auch keine Hemmungen, um die 300,- auszugeben. Und das ist für mich schon High-End.
Zudem ist mein System auf Silence getrimmt, damit recht warm - 100Watt+ wären ausgehend von meiner Karte etwa 50W mehr und mein NT hat auch noch zu halten - insofern ist es mir nur relativ egal, nicht kommplett.
Original geschrieben von Argo Zero
Nein. Solche Postings sind nunmal gefundenes Fressen für Leute die sich darauf angesprochen fühlen.
Und für dicke Postings gibt es auch einen Text Editor damit wir uns nicht nochmal missverstehen :)
Bisher hatte ich meine Posts immer so geschrieben - nur ohne das Ungeschick, aus Versehen schon (viel) zu früh den "Rohling" abzuschicken.
Und von daher nochmal zum Thema:
IMHO wird nV nicht die 68U als 68U vorgestellt haben, wenn sie nicht für das Referenzdesign 400/550 MHz vorgesehen hätten. Daß die Hersteller im Endeffekt auch Varianten mit 450/600 MHz bringen werden, ist für mich unzweifelhaft - wobei ich persönlich auf derlei Angebote nicht eingehen würde, da diese zumeist überteuert sind - und wer weiß, ob er nicht mit einer Standardkarte mehr erreicht hätte? Für Nicht-Übertakter mit dickem Geldbeutel brächte sowas sicherlich was, ich selbst ... nee :)
deekey777
2004-04-19, 13:15:57
Benzin in Feuer giessen:
http://www.pcgames.de/?article_id=305161
"Auf dem Launch-Event des NV40 in Genf wurde eine Präsentation gezeigt, die unter anderem Benchmarkvergleiche des Geforce 6800 Ultra mit dem FX 5950 Ultra enthielt. Darin waren auch relative Benchmarks für Doom 3 zu finden. Danach ist ein Board mit 6800 Ultra in 1.024x768 rund doppelt so schnell wie ein FX 5950 Ultra. Der Abstand vergrößert sich weiter, wenn die Auflösung auf 1.280x1.024 bzw. 1.600x1.200 erhöht wird. Unklar ist, ob Kantenglättung oder anisotropes Filtern bei diesen Benchmarks aktiv war. Wir vermuten allerdings, dass beides deaktiviert war. Die hohe Leistung bei Doom 3 ist unter anderem darin begründet, dass der 6800 Ultra Pixel-Shader-Programme deutlich schneller abarbeitet und dass bei reinen Stencil-Passes sogar bis zu 32 Werte möglich sind."
Hm, es wurde 100%ig unter ARB2 Pfad getestet, welchen die FXen gar nicht so mögen.
MadManniMan
2004-04-19, 13:20:23
Original geschrieben von Gast
Frage an die Experten ^^ Messfehler oder was istda passiert ?
Puh, ich würde spontan auf eine verdammt gute Kompression tippen - wobei ich hier die entgültige Aussage den Proggern überlassen möchte.
Nebenbei spräche das für eine wirklich gute Stencil-leistung =)
DrumDub
2004-04-19, 13:21:30
Original geschrieben von deekey777
Hm, es wurde 100%ig unter ARB2 Pfad getestet, welchen die FXen gar nicht so mögen.
hehe... was interessiert nvidia das geschwätz von gestern. :D
man will ja schließlich den nv40 pushen und nicht die alte generation. ist ja genauso wie bei den ps3.0 shaots von farcry, wo low-quality screenshots gegen ps3.0 geziegt wurden.
agesehen davon: was haben pixel shader mit doom3 zu tun? stencil-shadows ist klar.
Mehrpack
2004-04-19, 13:28:00
Original geschrieben von aths
Ein Standard :)
PCI-Express wird PCI-E abgekürzt, während PCI-X, wie du schon geschrieben hast, nicht für PCI-Express steht.
Vermutlich intern "AGPx16".
hi,
arg, es kommt ein tag da werd ich wohl auch begreifen das es standard heisst, aber das T ist so verführerisch hrhr.
Mehrpack
ice cool69
2004-04-19, 14:59:16
Schade dass die 399$ nicht stimmen, dann hätt ich mir das Teil gekauft. :(
deekey777
2004-04-19, 15:41:32
Original geschrieben von DrumDub
hehe... was interessiert nvidia das geschwätz von gestern. :D
man will ja schließlich den nv40 pushen und nicht die alte generation. ist ja genauso wie bei den ps3.0 shaots von farcry, wo low-quality screenshots gegen ps3.0 geziegt wurden.
agesehen davon: was haben pixel shader mit doom3 zu tun? stencil-shadows ist klar.
ARB2 setzt voll auf die FP32 bei der Pixelberechnung.
ice cool69
2004-04-19, 16:17:19
Ist FP32 jetzt eigentlich bei der NV40 genauso schnell wie FP16 oder langsamer?
deekey777
2004-04-19, 16:18:02
Original geschrieben von ice cool69
Ist FP32 jetzt eigentlich bei der NV40 genauso schnell wie FP16 oder langsamer?
Der NV40 ist das jetzt von sowas von egal. ;D
askibo
2004-04-19, 16:36:46
Original geschrieben von ice cool69
Ist FP32 jetzt eigentlich bei der NV40 genauso schnell wie FP16 oder langsamer?
FP16 Shader sind immer noch schneller, da sie weniger Ressourcen verbrauchen.
http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=13
Original geschrieben von ice cool69
Ist FP32 jetzt eigentlich bei der NV40 genauso schnell wie FP16 oder langsamer? Liest irgendjemand aus dem Thread meine Artikel?
Godmode
2004-04-19, 16:47:09
Original geschrieben von aths
Liest irgendjemand aus dem Thread meine Artikel?
Scheint anscheindend leider nicht so zu sein :(
deekey777
2004-04-19, 16:47:21
Original geschrieben von aths
Liest irgendjemand aus dem Thread meine Artikel?
Seite 2 (http://www.3d-center.de/artikel/nv40_technik/index2.php)
"Wo wir gerade bei "kostenlos" sind: FP16-NRM ist oft "frei". NRM ist eine Instruktion (eigentlich ein Makro) um einen Vektor zu normalisieren (das heißt, seine Länge auf 1 zu setzen.) Das ist die einzige NV40-Instruktion, wo FP16 schneller ist als FP32. Sogar FX12 (ein Fixpoint-Format für DirectX8-Shader) ist nicht mehr schneller als FP32. Beim NV30 und NV35 waren FX12-Berechnungen noch sehr viel schneller als die gleiche Rechnung mit Floating Point.
Normalisierungs-Berechnungen werden oft bei Bumpmapping-Berechnungen genutzt. Bisher gibt es zwei Möglichkeiten, zu normalisieren: Entweder eine vorberechnete Cubemap zu nutzen, oder eine Dot-Operation gefolgt von RSQ und MUL. Gut, dass NRM_PP ("PP" steht für "partial precision", FP16) jetzt so schnell ist. Es wäre schöner, wenn ein full precision NRM ebenso schnell wäre.
Wenn es um die "Real World Performance" geht, bleibt der NV40 mit FP16 insgesamt schneller. Das kleinere FP-Format braucht weniger Bandbreite und weniger Platz im Register-File, so dass das File mehr Register halten kann.
NV35-Pipes können zumindestens zwei Dot-Operationen pro Takt ausführen. NV40 ist auf eine begrenzt, weil Shader Unit 1 zwar multiplizieren, aber nicht addieren kann. nVidia meint, ihre Shader-Analyse zeige dass in den meisten Fällen keine zwei ADDs oder DOTs gebraucht werden, so dass sie das nicht im NV40 einbauten.
Letztlich ist der NV40 weniger "statisch" als man vielleicht denken mag. Wenn Shader Unit 1 eine Textur-Operation ausführt, blockiert das eigentlich den Arithmetikteil. Aber hin und wieder fällt mindestens noch eine zusätzliche skalare Instruktion im gleichen Takt ab. Außerdem sieht es so aus, als enthielten die TMUs noch Logik für Skalierungen. Das kann die Shader-Units entlasten. Aber nochmals, unsere Beschreibungen und Bilder sollten nicht als Wiedergabe der tatsächlichen Pipeline, wie sie als Hardware-Aufbau aussieht, verstanden werden. Vielleicht gibt es gar keine zwei Shader Units, dafür eine große. Das wissen wir nicht, unser Ziel ist zu erläutern, was eine einzelne Pipeline pro Takt machen kann.
Obwohl eine NV40-Pipe weniger Rohpower hat als NV35-Pipes, schaffte es nVidia doch, die Effizienz erheblich zu steigern. Anders gesagt, wegen der großen Anzahl der Pipes ist die GPU dann sehr schnell. nVidia versprach, dass es kein hand-optimiertes Shader-Replacement mehr für Benchmark geben würde. Solche "Optimierungen" seien nicht länger erforderlich.
Wie schon gesagt, das ist der 6800 Ultra von sowas von egal.
PS: Alle lesen anscheinend jetzt den Artikel...
ice cool69
2004-04-19, 17:23:34
Sorry aths, das habe ich irgendwie überlesen. Natürlich habe ich deinen Artikel gelesen!!!
dildo4u
2004-04-19, 19:00:25
http://www.hardinfo.dk/show.asp?page=4348 geiler test endlich mal mit na wirklich würdigen cpu A64FX-53 ;-)
verfi*kt geile 20000 punkte bei 3Dmark 2001 bei 1600*1200 sweeet
Quasar
2004-04-19, 19:31:44
Original geschrieben von ice cool69
Ist FP32 jetzt eigentlich bei der NV40 genauso schnell wie FP16 oder langsamer?
Langsamer, teils sogar deutlich.
deekey777
2004-04-19, 19:44:53
Original geschrieben von Quasar
Langsamer, teils sogar deutlich.
Wenn aths tot wäre, würde er sich im Grab ununterbrochen drehen!
the_MAD_one
2004-04-19, 19:49:20
Original geschrieben von dildo4u
http://www.hardinfo.dk/show.asp?page=4348 geiler test endlich mal mit na wirklich würdigen cpu A64FX-53 ;-)
verfi*kt geile 20000 punkte bei 3Dmark 2001 bei 1600*1200 sweeet
lol, geile Balken. Haben die die Balkenlänge ausgewürfelt oder wie?
Original geschrieben von Quasar
Langsamer, teils sogar deutlich.
Beweise deine Behauptung, ansonsten lies doch mal was Leonidas und Aths zum NV40 herausgefunden haben.
Und nimm mal dein "Schild" ernst und tu was da draufsteht...
LovesuckZ
2004-04-19, 19:53:57
Original geschrieben von Gast
Beweise deine Behauptung, ansonsten lies doch mal was Leonidas und Aths zum NV40 herausgefunden haben.
Hm, er hat recht. Reich ich als Beweis?
Ansonsten lese dir doch einfach mal die ganzen Previews durch. Eigenständigkeit war ein wichtiger Bestandteil der Aufklaerung...
Und nimm mal dein "Schild" ernst und tu was da draufsteht...
Ihr Gaeste seid immer wieder für ein Lächeln gut, Danke!
askibo
2004-04-19, 20:10:07
Original geschrieben von deekey777
Wenn aths tot wäre, würde er sich im Grab ununterbrochen drehen!
Zitat aus aths Artikel (c&p aus deinem posting):
Wenn es um die "Real World Performance" geht, bleibt der NV40 mit FP16 insgesamt schneller. Das kleinere FP-Format braucht weniger Bandbreite und weniger Platz im Register-File, so dass das File mehr Register halten kann.
und nochmal:
Shadermarkbenches mit FP32 und und FP16
http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=13
deekey777
2004-04-19, 20:16:22
Original geschrieben von askibo
Zitat aus aths Artikel (c&p aus deinem posting):
Wenn es um die "Real World Performance" geht, bleibt der NV40 mit FP16 insgesamt schneller. Das kleinere FP-Format braucht weniger Bandbreite und weniger Platz im Register-File, so dass das File mehr Register halten kann.
und nochmal:
Shadermarkbenches mit FP32 und und FP16
http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=13
Guckst du, bitte, auf die Seite 55.
Ich bleibe aber der Meinung, dass es der NV40 scheixxegal ist und zwar wegen dieses Satzes:"nVidia versprach, dass es kein hand-optimiertes Shader-Replacement mehr für Benchmark geben würde. Solche "Optimierungen" seien nicht länger erforderlich."
PS: Warum ich das mit aths' Tod geschrieben habe: Es steht alles im Artikel!
Quasar
2004-04-19, 20:27:46
Original geschrieben von deekey777
Wenn aths tot wäre, würde er sich im Grab ununterbrochen drehen!
Original geschrieben von Gast
Beweise deine Behauptung, ansonsten lies doch mal was Leonidas und Aths zum NV40 herausgefunden haben.
Und nimm mal dein "Schild" ernst und tu was da draufsteht...
Meine Behauptung stützt sich darauf* (http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=21).
Entschuldigt bitte, wenn ich nicht pauschal das Nachbete, was mir eure Götter vorsetzen.
*Bitte mal genau lesen...
edit:
Noch einer -> (http://www.xbitlabs.com/articles/video/display/nv40_19.html) und der Link zu TechReport ist ja schon gepostet worden.
BTW, mir ist bekannt, daß nV Stein und Bein schwört, daß FP32 jetzt ohne Geschwindigkeitseinbruch möglich ist. Ich habe die entsprechenden PDFs selbst gelesen.
askibo
2004-04-19, 20:30:30
Original geschrieben von deekey777
Guckst du, bitte, auf die Seite 55.
Ich bleibe aber der Meinung, dass es der NV40 scheixxegal ist und zwar wegen dieses Satzes:"nVidia versprach, dass es kein hand-optimiertes Shader-Replacement mehr für Benchmark geben würde. Solche "Optimierungen" seien nicht länger erforderlich."
PS: Warum ich das mit aths' Tod geschrieben habe: Es steht alles im Artikel!
Es ist der NV40 eben nicht egal ob sie mit FP32 Shadern oder PP Shadern gefüttert wird (sieht man das nicht an meinem Link?). Mit FP32 ist sie langsamer als mit FP16 Shadern. Wenn ein Programmiere also die maximale Leistung der Karte will tut er auch in Zukunft gut daran nicht unnötg FP32 zu verwenden.
Und was hat das mit der Handoptimierung der Shader für Benchmarks zu tun. ???
ice cool69
2004-04-19, 20:50:49
Solange man den Unterschied nicht sieht ist es ja auch egal ob FP32 oder FP16.
Soweit ich weiß ist man aber bei Shadern 3.0 dazu gezwungen FP32 zu verwenden, jedenfalls wenn man sein Spiel als Shader 3.0-Spiel anpreisen möchte.
deekey777
2004-04-19, 20:54:53
Original geschrieben von askibo
Es ist der NV40 eben nicht egal ob sie mit FP32 Shadern oder PP Shadern gefüttert wird (sieht man das nicht an meinem Link?). Mit FP32 ist sie langsamer als mit FP16 Shadern. Wenn ein Programmiere also die maximale Leistung der Karte will tut er auch in Zukunft gut daran nicht unnötg FP32 zu verwenden.
Und was hat das mit der Handoptimierung der Shader für Benchmarks zu tun. ???
Sie ist mit FP16 insgesamt schneller, das ist jedem klar. Na und? Bei der Shaderperformance ist dies zu vernachlässigen, da es eigentlich gar nicht mehr nötig ist, zusätzlich auf PP auszuweichen. Mehr wollte ich nicht sagen. Darum wird nVidia in Zukunft auf keine handoptimierte Shader nachliefern, um mit diesen die Originalshader zu ersetzen. Dazu muss auch beachtet, dass die PP im Vergleich zu der voller Genauigkeit zwar schneller ist, aber visuell schlechter - das sagt nVidia selbst.
@Quasar: Doppelt hält besser! ;D
ice cool69
2004-04-19, 21:05:12
Optimierungen in Richtung FP16 erwarte ich nur wenn ATI nVidia deutlich schlagen kann.
Denke aber auch dass es eine 6850 Ultra geben wird für den Fall dass ATI wirklich ne Ecke schneller sein sollte, das ist ja wohl logisch.
Godmode
2004-04-19, 21:14:35
Original geschrieben von ice cool69
Optimierungen in Richtung FP16 erwarte ich nur wenn ATI nVidia deutlich schlagen kann.
Denke aber auch dass es eine 6850 Ultra geben wird für den Fall dass ATI wirklich ne Ecke schneller sein sollte, das ist ja wohl logisch.
Könnte mir auch gut vorstellen dass NV ne 6850 bringt, mit 600 MHz und mehr Ram Takt, ein paar Reviewboards rausgeschickt und fertig ist der Relaunch
deekey777
2004-04-19, 21:15:48
Original geschrieben von ice cool69
Solange man den Unterschied nicht sieht ist es ja auch egal ob FP32 oder FP16.
Soweit ich weiß ist man aber bei Shadern 3.0 dazu gezwungen FP32 zu verwenden, jedenfalls wenn man sein Spiel als Shader 3.0-Spiel anpreisen möchte.
Zum Satz 1: Stimme ich voll zu, ob sich der unnötige Aufwand lohnt?
ZUm Satz 2: Seite 5 des "Inside nVidia NV40"-Artikels (http://www.3d-center.de/artikel/nv40_technik/index5.php)
"Kurzgefasst wird die GeForce 6800 Ultra keine gute Wahl sein, um "echte Shader 3.0-Spiele" zu spielen. Nun ist es im Moment das einzige Produkt mit Shader Model 3.0-Support, aber die nächsten Generationen (NV50+) werden 3.0-Shader sehr viel schneller laufen lassen."
ice cool69
2004-04-19, 21:26:43
Naja Far Cry soll ja mit Shader 3.0-Patch deutlich schneller laufen, weshalb ja auch deutlich mehr Details eingebaut werden können.
Natürlich werden auf NV50/R500 Shader 3.0-Spiele schneller laufen, weil so ziemlich alles auf diesen schneller laufen sollte als auf dem NV50, für mich irgendwie eine Nullaussage. :D
Eine Anomalie?! siehe 1024er und 1600er Werte:
http://www.hardinfo.dk/show.asp?page=4366
deekey777
2004-04-19, 22:50:55
Original geschrieben von Gast
Eine Anomalie?! siehe 1024er und 1600er Werte:
http://www.hardinfo.dk/show.asp?page=4366
Brille auf? Liegt daran, dass die Tester von Tabellen/Diagrammbalken keine Ahnung haben.
Dieser Shader 3.0 Patch ist eher ein "Übersetzer" für die NV40 + einige Spielchen, damit die Bildqualität der einer R3x0 gleicht - ohne dass die Performance leidet.
ice cool69
2004-04-19, 23:29:33
Falsch, soweit ich weiß wird mit dem neuen Patch deutlich mehr Grafikqualität möglich sein.
Wenn ich mich recht erinnere wird z. B. displacement bum mapping, sowie durchgehend real time lightning geboten.
Hab nochmal ne Frage zu den Stromanschlüssen. In den News steht:
... Der zweite Fehler betrifft die Stromzufuhr zur Karte: Wir schrieben hierzu in der originalen Fassung des Artikels, daß die Empfehlung von nVidia ein Stromkabel mit Y-Adapter sei - was ein Fehler ist. Die richtige Empfehlung seitens nVidia lautet: Zwei extra Stromkabel, welche ansonsten unbelegt sind. Zwar funktioniert technisch die Karte laut nVidia auch in der von uns genannten (und eingesetzten) Variante, allerdings will man für die Lösung mit nur einem Stromkabel samt Y-Adapter keine Garantie für den Dauereinsatz übernehmen. Wir bitten diese beiden Fehler zu entschuldigen, im Artikel wurden die entsprechenden Stellen korrigiert.
Y-Kabel schön und gut. Aber ein Strang aus dem NT mit 2 Steckern wäre dann ok oder wie ?
StefanV
2004-04-20, 00:45:24
Original geschrieben von Gast
Hab nochmal ne Frage zu den Stromanschlüssen. In den News steht:
... Der zweite Fehler betrifft die Stromzufuhr zur Karte: Wir schrieben hierzu in der originalen Fassung des Artikels, daß die Empfehlung von nVidia ein Stromkabel mit Y-Adapter sei - was ein Fehler ist. Die richtige Empfehlung seitens nVidia lautet: Zwei extra Stromkabel, welche ansonsten unbelegt sind. Zwar funktioniert technisch die Karte laut nVidia auch in der von uns genannten (und eingesetzten) Variante, allerdings will man für die Lösung mit nur einem Stromkabel samt Y-Adapter keine Garantie für den Dauereinsatz übernehmen. Wir bitten diese beiden Fehler zu entschuldigen, im Artikel wurden die entsprechenden Stellen korrigiert.
Y-Kabel schön und gut. Aber ein Strang aus dem NT mit 2 Steckern wäre dann ok oder wie ?
Nein, 2 Stränge, die direkt vom NT kommen, an denen aber nichts weiter dran hängt.
Winter[Raven]
2004-04-20, 00:54:45
Original geschrieben von Stefan Payne
Nein, 2 Stränge, die direkt vom NT kommen, an denen aber nichts weiter dran hängt.
Falsch ... Zeckensack meinte es reicht auch ne 1Strang ;).
Die Anzeichen auf 475 mhz verdichten sich oder soll cih vielleicht sagen AMTLICH?
hot news - Reference core for 6800U is 475
http://www.pcunleash.com/bbs/view.php?id=PerformanceBenchmark&no=236
Interessant ist ja dass die Normalen GF 6800 Karten mit 512 MB DDR1 kommen sollen .... :O
the_MAD_one
2004-04-20, 01:00:18
Original geschrieben von Stefan Payne
Nein, 2 Stränge, die direkt vom NT kommen, an denen aber nichts weiter dran hängt.
Wie soll man denn das machen? IIRC hat ein normales Netzteil maximal 3 Stränge(je 2 von den Festplattensteckern und einen Floppystecker pro Strang), normalerweise hat man davon mindestens einen belegt, eher 2(durschnittsrechner mit einer Festplatte, CD Brenner, extra CD oder DVD Laufwerk und Floppylaufwerk), von Rechnern mit mehr komponennten ganz zu schweigen, wie z.B. meiner. Ich hab 2 Festplatten(hängen am 1. Strang zusammen mit meiner R9700Pro), nen CD Brenner, ein DVD Laufwerk, ein Floppylaufwerk(die 3 hängen zusammen am 2. Strang) und ne Lüftersteuerung(hängt am 3. Strang, kann ich aber mit nem adaper noch an den 1. oder 2. mit dranhängen, wär aber wohl nicht so gut). Ich könnte also bestenfalls einen Netzteilstrang komplett für die GF6800 Ultra nehmen, und wenn die jetzt damit instabil laufen sollte wär Nvidia fein raus weil sie sich darauf berufen könnten das man 2 unbelegte Stränge nehmen soll? Find ich irgendwie nicht so prall.
Omnicron
2004-04-20, 01:33:09
Original geschrieben von Winter[Raven]
Interessant ist ja dass die Normalen GF 6800 Karten mit 512 MB DDR1 kommen sollen .... :O
"One of variation of be normal 6800 would have 12 pipeline and has 512MB of DDR-1 ram."
Die 6800 mit 512MB wird es wohl auch geben, aber sicher als Nischenprodukt wie es z.b. auch die FX5200 mit 256MB gibt.
Karlsson
2004-04-20, 02:05:01
Zeckensack und ich hatten diese Diskussion schon mal in diesem Thread.
Nochaml kurz: Molex max I = 5A – bei 12V sind das 60 Watt. Bei Pmax (GF68U) ~ 110 Watt braucht man somit 2 Stecker, wobei unklar war, wie viel über den AGP geht.
Da die GF68 nonU allerdings via 1Molex gespeist wird (max.5A/60Watt) und 60 Watt allein nicht reichen dürften, um diese zu versorgen, gehe ich mittlerweile davon aus, dass auch ein Teil der Spannung via AGP gespeist wird (Pmax 42 Watt).
Subtrahiert man die Maximalleistung von 42 Watt (AGPmax) von der Pmax der GF68U (~110Watt) so verbleiben ~68 Watt, die via Strang versorgt werden müssen, also das 1,13 Fache eines Stranges, sprich, ein Strang ist zu wenig.
Ergo: Die GF68U braucht zwei Stränge, an denen insgesamt ~68 Watt Leistung "übrig" ist. Aber keine "vollen" zwei.
SKYNET
2004-04-20, 03:50:23
Original geschrieben von Winter[Raven]
Falsch ... Zeckensack meinte es reicht auch ne 1Strang ;).
Die Anzeichen auf 475 mhz verdichten sich oder soll cih vielleicht sagen AMTLICH?
http://www.pcunleash.com/bbs/view.php?id=PerformanceBenchmark&no=236
Interessant ist ja dass die Normalen GF 6800 Karten mit 512 MB DDR1 kommen sollen .... :O
also wird die NV45 sicherlich 550MHz haben wenn die aussage da stimmt.
evtl. sogar 600MHz, was natürlich der absolute overkill währe :D
zeckensack
2004-04-20, 04:42:33
Original geschrieben von Winter[Raven]
Falsch ... Zeckensack meinte es reicht auch ne 1Strang ;).Daran kann ich mich nicht erinnern.
Original geschrieben von the_MAD_one
Wie soll man denn das machen? IIRC hat ein normales Netzteil maximal 3 Stränge(je 2 von den Festplattensteckern und einen Floppystecker pro Strang), normalerweise hat man davon mindestens einen belegt, eher 2(durschnittsrechner mit einer Festplatte, CD Brenner, extra CD oder DVD Laufwerk und Floppylaufwerk), von Rechnern mit mehr komponennten ganz zu schweigen, wie z.B. meiner. Ich hab 2 Festplatten(hängen am 1. Strang zusammen mit meiner R9700Pro), nen CD Brenner, ein DVD Laufwerk, ein Floppylaufwerk(die 3 hängen zusammen am 2. Strang) und ne Lüftersteuerung(hängt am 3. Strang, kann ich aber mit nem adaper noch an den 1. oder 2. mit dranhängen, wär aber wohl nicht so gut). Ich könnte also bestenfalls einen Netzteilstrang komplett für die GF6800 Ultra nehmen, und wenn die jetzt damit instabil laufen sollte wär Nvidia fein raus weil sie sich darauf berufen könnten das man 2 unbelegte Stränge nehmen soll? Find ich irgendwie nicht so prall.
So sehe ich das auch. Selbst die teuren Antec NT zum Beispiel haben nur 3 Stränge.
Karlsson
2004-04-20, 05:42:49
Elektroingenieur oder Analphabet? :freak:
Original geschrieben von Gast
Y-Kabel schön und gut. Aber ein Strang aus dem NT mit 2 Steckern wäre dann ok oder wie ?
Ja das waere ok, da das Problem an den Steckerkontakten liegt und an einem Strang mit 2 Steckern kein solcher Kontakt in Reihe zum Verbraucher liegt.
Desti
2004-04-20, 13:26:52
Keine Ahnung obs den Link schon in diesem riesen Thread gibt:
http://202.85.169.139/gate/gb/www.hkepc.com/hwdb/nv40-3.htm
Verbrauch über den zusätzlichen Stromanschluss:
2D 5V 1.86A,9.3W,12V1.97A,23.64W,gesammt: 32.94W
3D GPU3DMark 03 Game 4 Mother Nature,Fill-Rate (Mutil Texture)
5V 3.01A,15.05W,12V 4.50A,54W,gesammt 70W
Desti
2004-04-20, 13:29:50
Keine Ahnung obs den Link schon in diesem riesen Thread gibt:
http://202.85.169.139/gate/gb/www.hkepc.com/hwdb/nv40-3.htm
Verbrauch über den zusätzlichen Stromanschluss:
2D
5V 1,86A, 9,3W
12V 1,97A, 23,64W
32,94W
3D
5V 3.01A, 15,05W
12V 4,5A, 54W
70W
the_MAD_one
2004-04-20, 14:12:18
Original geschrieben von Gast
So sehe ich das auch. Selbst die teuren Antec NT zum Beispiel haben nur 3 Stränge.
Weis ich, weil ich so eins hab.(hab ein Antec Truepower Trueblue 480W)
Original geschrieben von ow
Ja das waere ok, da das Problem an den Steckerkontakten liegt und an einem Strang mit 2 Steckern kein solcher Kontakt in Reihe zum Verbraucher liegt.
Das ist doch gut. Dann rechts ja wenn ich einen Strang mit zwei freien Steckern reserviere.
Ice-Kraem
2004-04-20, 15:18:12
Original geschrieben von Gast
Das ist doch gut. Dann rechts ja wenn ich einen Strang mit zwei freien Steckern reserviere.
jo werde ich auch machen. ich habe ein 350w enermaxx netzteil, denke das wird das packen, hier mein sys:
Intel Pentium IV 2,4@2,8; Asus P4PE Deluxe; 1024mb 400er Infineon; ASUS Geforce 4 TI4600 (geliehen, ansonsten ne geforce 3@ti500); Soundblaster LIVE 5.1; MaXtor 40GB; Philips CD/RW; Benq DVD; Logitech MX500
meint ihr das nt packt das?
p.s.: wie kann ich die signatur aktivieren?
ice cool69
2004-04-20, 17:19:31
475 MHz? Dann ist das Teil noch viel mehr bandbreitenlimitiert als bisher, falls sie nicht auch noch schnelleren Speicher einsetzen (was wohl insgesamt auf eine Preiserhöhung hinauslaufen würde).
Was sollen 512MB bringen? Gebraucht werden momentan 128 MB und Spiele ab Far-Cry profitieren vielleicht ein bischen von 256MB, aber 512 MB wird zu Lebzeiten dieser Generation NICHTS bringen!!!
Wenn, dann ne Ultra mit 512 MB ausrüsten, was aber wohl auch unnötig ist.
Edit: weiß jemand wo ich mir all die Techdemos zum NV40 runterladen kann? Ich hab grad mal ein Unreal3Engine-Movie in grottiger Qualität.
klaus
2004-04-20, 21:38:11
Also vorweg muss ich sagen, dass ich es angesichts der Leistungen der 6800 Ultra kaum erwarten kann, endlich meine alt-ehrwürdige 64-MB-GeForce4 in Rente zu schicken, erst recht weil ich nun weiß, wofür ich die letzten zwei, drei Chipgenerationen übersprungen habe. Die Vorfreude ist noch schlimmer als die eines Kindes vor Weihnachten. :bounce: Erfreulich ist vor allem, dass die Karte einen nur mäßig höheren Stromverbrauch hat als die der letzten Generation, wobei der Energiebedarf aus ökologischer Sicht zweifelsohne desaströs ist. Deshalb kann ich folgende Aussage auch überhaupt nicht nachvollziehen:
Original geschrieben von Aquaschaf
Ich glaub nach wie vor nicht, dass sich jemand der sich Highend-Grafikkarten kauft besonders darum kümmert wieviel Strom seine Karte verbraucht.
Ich bin bestimmt nicht der Einzige, der high-end-Ansprüche an seine hardware stellt, aber trotzdem nicht die ökologischen Folgen seines Konsums außer Acht lässt. Nur äußerst naive oder ignorante Menschen sehen beim Thema Stromverbrauch nur die Stromkosten, die sie an die Energieversorger überweisen müssen. Der Preis, den wir am Ende für die Produktion und den Betrieb unserer Konsumgüter (z.B. PCs) zahlen müssen, ist weitaus höher. Doch nach dem, was uns die Zerstörung unserer Umwelt kostet, fragt ja niemand, denn es geht ja nur um den Verbrauch freier Ressourcen, die können ruhig hemmungslos ausgebeutet, verschmutzt und zerstört werden, es tut dem eigenen Portemonnaie ja nicht weh...
Zum Punkt Stromverbrauch noch meine Frage: Wird der niedrigere Stromverbrauch der 6800U im 2D-Betrieb durch eine automatisch verringerte Taktung erreicht? Da es diese Funktion ja schon bei den 5800ern gab, ist diese Frage wahrscheinlich überflüssig, jedoch habe ich nirgends etwas darüber gelesen, wie es sich bei der neuen Karte verhält.
Meine zweite Frage bezieht sich auf Far Cry: Ist die in einigen Tests festgestellte hässliche shader-Qualität (Eckiges Muster auf Bodenfliesen, welches bei ATI nicht vorhanden ist) auf ein Treiberproblem zurückzuführen und wenn ja, wann kriegen die Entwickler das in den Griff?
Original geschrieben von Gast
So sehe ich das auch. Selbst die teuren Antec NT zum Beispiel haben nur 3 Stränge.
Das stimmt so wohl auch nicht. Denn ich habe jetzt extra mal mein Gehäuse aufgeschraubt um nachzusehen, wieviele Stränge mein kürzlich gekauftes Antec True 430 hat. Im Detail sieht das so aus:
1. Strang: 4-Pin-Molex * 4-Pin-Molex * Floppy
2. Strang: 4-Pin-Molex * Floppy
3. Strang: 4-Pin-Molex * S-ATA
4. Strang: 4-Pin-Molex * S-ATA
und zusätzlich:
5. Strang: 2x Fan-only-4-Pin-Molex
6. Strang: P4-Stecker
7. Strang: 12V-Extra-Stecker (oder was auch immer das ist)
Somit hat dieses Antec vier separate Stränge mit jeweils mindestens einem 4-Pin-Molex-Stecker daran.
Aquaschaf
2004-04-20, 22:13:14
Original geschrieben von klaus
Ich bin bestimmt nicht der Einzige, der high-end-Ansprüche an seine hardware stellt, aber trotzdem nicht die ökologischen Folgen seines Konsums außer Acht lässt. Nur äußerst naive oder ignorante Menschen sehen beim Thema Stromverbrauch nur die Stromkosten, die sie an die Energieversorger überweisen müssen. Der Preis, den wir am Ende für die Produktion und den Betrieb unserer Konsumgüter (z.B. PCs) zahlen müssen, ist weitaus höher. Doch nach dem, was uns die Zerstörung unserer Umwelt kostet, fragt ja niemand, denn es geht ja nur um den Verbrauch freier Ressourcen, die können ruhig hemmungslos ausgebeutet, verschmutzt und zerstört werden, es tut dem eigenen Portemonnaie ja nicht weh...
Das ist kein Grund auf eine "sparsame" High-End-Karte Wert zu legen.
Wenn ich Energie sparen will fahre ich nicht jede kleine Strecke mit dem Auto, achte darauf dass ich nicht mehr als nötig heize, schalte Geräte nur an wenn ich sie brauche und benutze z.B. auch Energiesparlampen.
Aber ob meine Grafikkarte unter Last jetzt 54W oder 110W verbraucht - da High-End-Karten sicher einen beachtlichen Anteil der kapitalistischen und bösartigen Energieverschwendung ausmachen - ist nebensächlich.
Entweder verhält man sich so, dass man dort Energie spart wo es am meisten Nutzen bringt ohne einem um alzu viel Komfort zu bringen.
Oder man ist konsequent und spart Strom, dann sage ich aber kauft man sich doch gleich keinen PC - zumindest spielt man nicht damit, da das Rohstoffe verschwendet.
Ich werfe niemanden direkt etwas vor, aber meiner Erfahrung nach geht es bei Dingen wie "Stromsparen beim Grafikkartenkauf" eher um Profilierung als um tatsächliches Interesse an der Umwelt.
Wenn du Energie sparen willst, schalte deine Kiste aus.
Wenn du Energie sparen willst, verbringe keine Zeit im Internet um sparsame Grafikkarten zu suchen - vielleicht verbrauchst du mit der Suche mehr Strom als du durch die Grafikkarte wieder "einsparst".
klaus
2004-04-21, 00:56:35
Mal abgesehen davon, dass man Deine Ausführungen nur schwerlich nachvollziehen kann, versuche ich dennoch, darauf einzugehen.
Original geschrieben von Aquaschaf
Das ist kein Grund auf eine "sparsame" High-End-Karte Wert zu legen.
Was, bitte, soll kein Grund sein, auf eine sparsame High-End-Karte Wert zu legen? Und was ist Deiner Meinung nach ein Grund, auf eine sparsame High-End-Karte Wert zu legen?
Wenn ich Energie sparen will fahre ich nicht jede kleine Strecke mit dem Auto, achte darauf dass ich nicht mehr als nötig heize, schalte Geräte nur an wenn ich sie brauche und benutze z.B. auch Energiesparlampen.
Vorbildlich!
Aber ob meine Grafikkarte unter Last jetzt 54W oder 110W verbraucht ... ist nebensächlich.
Ach so. Jetzt erklär' doch bitte auch, warum ausgerechnet der Energieverbrauch von Grafikkarten keine Rolle spielt!
...da High-End-Karten sicher einen beachtlichen Anteil der kapitalistischen und bösartigen Energieverschwendung ausmachen...
Tipp: Mit so etwas disqualifizierst Du Dich nur selbst.
Entweder verhält man sich so, dass man dort Energie spart wo es am meisten Nutzen bringt ohne einem um alzu viel Komfort zu bringen.
Oder man ist konsequent und spart Strom, dann sage ich aber kauft man sich doch gleich keinen PC - zumindest spielt man nicht damit, da das Rohstoffe verschwendet.
Wer sagte denn was vom Spielen? Wenn Du mit dem PC automatisch Spiele assoziierst, lässt mich das - ebenso wie Deine wirren Ausführungen hier - auf ein niedriges Alter und einen entsprechend unreifen Intellekt schließen.
Ich werfe niemanden direkt etwas vor, aber meiner Erfahrung nach geht es bei Dingen wie "Stromsparen beim Grafikkartenkauf" eher um Profilierung als um tatsächliches Interesse an der Umwelt.
Worauf gründet denn Deine "Erfahrung"?
Wenn du Energie sparen willst, schalte deine Kiste aus.
Wenn du Energie sparen willst, verbringe keine Zeit im Internet um sparsame Grafikkarten zu suchen - vielleicht verbrauchst du mit der Suche mehr Strom als du durch die Grafikkarte wieder "einsparst".
Auch wenn es Dir aufgrund fehlender Argumente schwer fällt, solltest Du versuchen, sachlich zu bleiben. Wenn ich mit der indirekten Anspielung auf das gegenwärtig bestehende mangelnde Umweltbewußtsein einen wunden Punkt bei Dir getroffen habe sollte, musst Du Dich nicht gleich in Zynismus ergehen. Damit zeigst Du nur, dass Du zu eben jenen Ignoranten gehörst.
Original geschrieben von Aquaschaf
Aber ob meine Grafikkarte unter Last jetzt 54W oder 110W verbraucht - da High-End-Karten sicher einen beachtlichen Anteil der kapitalistischen und bösartigen Energieverschwendung ausmachen - ist nebensächlich.
LOL was für ein HUMBUG ;D
ALSO MIR IST DAS ALLES ANDERE ALS EGAL ;)
... und 54w sind auch nicht wenig
Tesseract
2004-04-21, 01:15:27
Original geschrieben von klaus
Wer sagte denn was vom Spielen? Wenn Du mit dem PC automatisch Spiele assoziierst, lässt mich das - ebenso wie Deine wirren Ausführungen hier - auf ein niedriges Alter und einen entsprechend unreifen Intellekt schließen.
mal abgesehen davon das reife und tatsächliches alter nur bedingt in unmittelbaren zusammenhang stehen müssen und die affinität zu computerspielen noch nichts über das alter einer person aussagt sind spiele nun mal das absolute haupteinsatzgebiet einer solchen art von hardware
wer sich eine derartige high-end karte kauft ist entweder spieler, hat einen fehlkauf getätigt weil der das bezahlte nicht wirklich braucht oder gehört zur relativ kleinen gruppe von leuten die die leistungsfähigkeit der graka anders nutzen können (zB entwickler wie es hier im forum einige gibt)
Showtime
2004-04-21, 02:25:56
Frage an Klaus. Du hast gesagt, dass du nicht unbedingt spielen willst mit deinem PC, was ja auch richtig ist. Aber beantworte mir mal bitte, wozu du dir eine GeForce 6800 Ultra kaufen würdest, wenn nicht zum spielen? Wenn man dir eine NV40 umsonst anbieten würde, würdest du sie ablehnen, weil sie dir zu viel Strom verbaucht, und damit die Umwelt zu stark belastet?
Versteh mich nicht falsch, Umweltschutz ist schön und gut, aber wenn du schon beim Stromverbrauch der Grafikkarten rot siehst, der einen extrem niedrigen Anteil an der Umweltverschmutzung hat, dürftest du eigentlich gar keinen PC haben.
Du darfst dir eigentlich auch nur PC Teile in der Bulk Version kaufen, ohne Packung und Beschreibung und all dem Zubehör, denn das belastet schliesslich die Umwelt, bei soviel Plastik, wie da immer dabei ist. Und diese Belastung durch das Material ist sicher größer als der erhöhte Strombedarf bei Grafikkarten.
Ich schließe mich daher der Meinung von Aquaschaf an. An die Umwelt beim Grafikkartenkauf zu achten, grenzt schon fast an Fanatismus.
MadManniMan
2004-04-21, 03:42:36
Errm, hört denn keiner richtig zu? Was ist mit den Argumenten Abwärme und NT-Neukauf?
:ratlos:
MarcWessels
2004-04-21, 03:49:45
Original geschrieben von ice cool69
Was sollen 512MB bringen? Gebraucht werden momentan 128 MB und Spiele ab Far-Cry profitieren vielleicht ein bischen von 256MB,(...)
40% sind's.
nagus
2004-04-21, 08:44:35
falls das schon gepostet wurde: http://www.tommti-systems.de
alle GeforceFX benchmarks vs. Ati sind FAUL. bei gleichen shadern schauts wahrscheinlich so aus, dass mit der 9800xt sogar an den scores der FX6800ultra kratzt... so viel zur supa-tollen neuen fx-serie von nvidia... ps2 leistung is relativ "ungeil" für eine nex-gen-gpu, IMHO
Original geschrieben von nagus
falls das schon gepostet wurde: http://www.tommti-systems.de
alle GeforceFX benchmarks vs. Ati sind FAUL. bei gleichen shadern schauts wahrscheinlich so aus, dass mit der 9800xt sogar an den scores der FX6800ultra kratzt... so viel zur supa-tollen neuen fx-serie von nvidia... ps2 leistung is relativ "ungeil" für eine nex-gen-gpu, IMHO
aaaaaaaaaaaaaaaaaaaaaaaalt.
Und wo ist ein Nachweis für die Performance von Far Cry v1.0, wo noch alles über 2.0-Shader lief?
Ich könnte mir fast sogar vorstellen, daß das ein bissel schneller auf der 6800 läuft, da hier ja weniger Shader mit höchstwahrscheinlich auch weniger Speicherzugriffen (mehr in einem Pass) laufen. Und bekanntlich liegt die Stärke des NV40 ja eher in arithmetischen Shadern, s. den bei FanATIkern vormals so beliebten ShaderMark. =)
Hoffentlich schiesst du dir mit dieser Behauptung mal nicht selbst ins Bein...
;Q
Gerhard
2004-04-21, 08:55:58
Wenn ich mich aber z.B. an die xbit-Benchmarks erinnere ist die Shaderleistung beim 1.x Shadern geringer als von 2.x Shadern (ganz anderst als beim NV3.x, möglicherweise auch aufgrund von unoptimierten Treibern). Es ist meiner Meinung also durchaus möglich das der NV40 sogar durch den "alten" Patch ausgebremst wird.
Siehe: http://www.xbitlabs.com/articles/video/display/nv40_19.html
Lustiger Troll
2004-04-21, 09:09:02
Der 60.72 läuft nicht mit FC 1.0, ist jedenfalls bei meiner FX 5950 so, alles ist so komisch Blau, ich denke mal das hat nichts mit den Shadern zu tun sondern lediglich wie diese Beleuchtet werden, anscheinend wird ein anderes Lightnigverfahren verwendet, der Treiber und/oder Das Spiel scheint mir in dem Fall noch ziemlich Buggy zu sein. Wenn ich in FC 1.1 die 1.0 Originalshader mit dem 60.72 verwende geht die Taschenlampe nicht mehr, wenn das 1.1 Lightning mit den Shadern der 1.0 Version probiere zum Laufen zu bringen fehlen sogar ganze Shader sichtbar, jedoch sobald ich die TL einschalte hab ich eine Unterirdische Performance von 2-6 FPS, obwohl weder die TL noch der Shadereffekt zu sehen ist :???:. Das sagt mir die Shader sind da nur sieht man sie halt nicht, weil sie fehlerhaft beleuchtet werden, je nach Winkel sieht man sie und mal nicht. Hoffe das ist nicht zu abwegig aber einer wird mich sicher mal endlich aufklären der mehr Ahnung von dem ganzen kram hat als ich. *zudemirugrüberschau*
Original geschrieben von nagus
falls das schon gepostet wurde: http://www.tommti-systems.de
alle GeforceFX benchmarks vs. Ati sind FAUL. bei gleichen shadern schauts wahrscheinlich so aus, dass mit der 9800xt sogar an den scores der FX6800ultra kratzt... so viel zur supa-tollen neuen fx-serie von nvidia... ps2 leistung is relativ "ungeil" für eine nex-gen-gpu, IMHO
Wo steht das was von alle Benchmarks?
Hier wurde ein Problem der FarCry Engine aufgezeigt.
Bei gleichen Shader ist der NV40 im Schnitt mehr als doppelt so schnell wie eine 9800XT wie Benches belegen.
So viel zu deinem supa-tollen Troll-Versuch.
LovesuckZ
2004-04-21, 09:49:06
Original geschrieben von nagus
ps2 leistung is relativ "ungeil" für eine nex-gen-gpu, IMHO
"ungeil" ;D
Naja, lieber Nagus, ist die 6800U so gut, dass du noch keine Cheatz entdeckt hast? Letztes Jahr warst du aktiver.:(
Original geschrieben von nagus
falls das schon gepostet wurde: http://www.tommti-systems.de
alle GeforceFX benchmarks vs. Ati sind FAUL. bei gleichen shadern schauts wahrscheinlich so aus, dass mit der 9800xt sogar an den scores der FX6800ultra kratzt... so viel zur supa-tollen neuen fx-serie von nvidia... ps2 leistung is relativ "ungeil" für eine nex-gen-gpu, IMHO ~ 2x, gelegentlich 3x so schnell wie 9800 XT ist "ungeil"?
Exxtreme
2004-04-21, 09:53:39
Original geschrieben von nagus
falls das schon gepostet wurde: http://www.tommti-systems.de
alle GeforceFX benchmarks vs. Ati sind FAUL. bei gleichen shadern schauts wahrscheinlich so aus, dass mit der 9800xt sogar an den scores der FX6800ultra kratzt... so viel zur supa-tollen neuen fx-serie von nvidia... ps2 leistung is relativ "ungeil" für eine nex-gen-gpu, IMHO
Hmmm, es sieht so aus, daß das Spiel eine Nvidia-Karte erkennt und dann mit hochqualitativen Shadern "spart". In dem Fall kann Nivida nichts machen. Die Benchmarks sind aber trotzdem hinfällig. Es wäre interessant gewesen bei der NV40-Karte die NV-DeviceID durch eine von ATi zu tauschen.
da wir gerade bei den deviceIDs sind und farcry...
mir ist aufgefallen das mich farcry auf meiner FX5600go um die PS2.0 effekte bringt (bei Version 1.0)
simulier ich nun mit 3DAnalyze eine 5900ultra sind sie da...
kann das mal wer mit den kleinen FXen nachprüfen?
also 5600/5700
Asmodeus
2004-04-21, 10:03:37
Was ich bei der ganzen Sache nicht verstehe, warum die Jungs von Crytech das nicht gleich von vornherein bekannt gegeben haben, dass bei unterschiedlicher Hardware unterschiedliche Shadertypen verwendet werden. Eigentlich muss man sich doch bewusst gewesen sein, dass ein Referenzspiel wie FarCry nach Erscheinen ausgiebig für Benchmarks genutzt wird.
Edit:
Oder hat sie einfach auch keiner Mal danach gefragt? ;)
Carsten.
Demirug
2004-04-21, 10:07:18
Original geschrieben von Gast
aaaaaaaaaaaaaaaaaaaaaaaalt.
Und wo ist ein Nachweis für die Performance von Far Cry v1.0, wo noch alles über 2.0-Shader lief?
Ich könnte mir fast sogar vorstellen, daß das ein bissel schneller auf der 6800 läuft, da hier ja weniger Shader mit höchstwahrscheinlich auch weniger Speicherzugriffen (mehr in einem Pass) laufen. Und bekanntlich liegt die Stärke des NV40 ja eher in arithmetischen Shadern, s. den bei FanATIkern vormals so beliebten ShaderMark. =)
Hoffentlich schiesst du dir mit dieser Behauptung mal nicht selbst ins Bein...
;Q
Nimmt man die ATI Shader aus der Demo dann erreicht die 6800U bei den 1.1 Shader etwa die doppelte Geschwindigkeit gegenüber der 9800XT. Bei den 2.0 Shadern ist es die 2,28 fache Geschwindigkeit im Mittel. Das ganze wird im echten Spiel dann aber unter umständen noch durch die Bandbreite limitiert. Die 1.1 Shader sollte dort anfälliger (weil kürzer) als die 2.0 Shader (weil länger) sein.
Lustiger Troll
2004-04-21, 10:07:22
Original geschrieben von Asmodeus
Was ich bei der ganzen Sache nicht verstehe, warum die Jungs von Crytech das nicht gleich von vornherein bekannt gegeben haben, dass bei unterschiedlicher Hardware unterschiedliche Shadertypen verwendet werden. Eigentlich muss man sich doch bewusst gewesen sein, dass ein Referenzspiel wie FarCry nach Erscheinen ausgiebig für Benchmarks genutzt wird.
Edit:
Oder hat sie einfach auch keiner Mal danach gefragt? ;)
Carsten.
Far Cry 1.0 hatt das ja auch nicht gemacht, erst der Patch het das verschlimbessert.
Demirug
2004-04-21, 10:09:44
Original geschrieben von Exxtreme
Hmmm, es sieht so aus, daß das Spiel eine Nvidia-Karte erkennt und dann mit hochqualitativen Shadern "spart". In dem Fall kann Nivida nichts machen. Die Benchmarks sind aber trotzdem hinfällig. Es wäre interessant gewesen bei der NV40-Karte die NV-DeviceID durch eine von ATi zu tauschen.
Das ist doch bekannt das beim erkennen von bestimmten Vendor/DeviceIDs eine Effekt-Technik-Ersetzungliste aktiv wird. Es könnte sogar sein das diese irgendwo als Datei zu finden ist.
Lustiger Troll
2004-04-21, 10:10:29
Original geschrieben von Demirug
Nimmt man die ATI Shader aus der Demo dann erreicht die 6800U bei den 1.1 Shader etwa die doppelte Geschwindigkeit gegenüber der 9800XT. Bei den 2.0 Shadern ist es die 2,28 fache Geschwindigkeit im Mittel. Das ganze wird im echten Spiel dann aber unter umständen noch durch die Bandbreite limitiert. Die 1.1 Shader sollte dort anfälliger (weil kürzer) als die 2.0 Shader (weil länger) sein.
Da brauchst du gar keine Shader aus der Demo nehmen, du kanst ganz einfach nach dem Patchen die Shaders1.pak löschen und hast dieselben Shader wie ATI, nur eben mit dem 60.72 einen Lichtbug, könte das an HDR liegen?
Exxtreme
2004-04-21, 10:11:09
Original geschrieben von Demirug
Das ist doch bekannt das beim erkennen von bestimmten Vendor/DeviceIDs eine Effekt-Technik-Ersetzungliste aktiv wird. Es könnte sogar sein das diese irgendwo als Datei zu finden ist.
Hmmm, ich dachte, man orientiert sich bei DX eher nach den gemeldeten Caps und nicht nach GPUs. :|
Demirug
2004-04-21, 10:15:59
Original geschrieben von Exxtreme
Hmmm, ich dachte, man orientiert sich bei DX eher nach den gemeldeten Caps und nicht nach GPUs. :|
Normalerweise macht man das auch so. Die Vendor/Device IDs sowie die Treiber Version sind eigentlich nur dazu da das man im Falle von bekannten Treiberbugs diese umgehen kann.
So gab es immer mal wieder das Problem das beim Fixed-Funktion Setup bestimmte einstellungen von einem Treiber als OK abgesegnet wurden (es gibt da eine Prüffunktion) aber dann trotzdem falsch gerendert wurden. In diesem Fall kann man über die ID/s + Treiberversion eine negativ Liste führen das eben diese Technik dann nicht benutzt werden darf und eine alternative zum Einsatz kommen muss.
Asmodeus
2004-04-21, 10:16:08
Original geschrieben von Exxtreme
Hmmm, ich dachte, man orientiert sich bei DX eher nach den gemeldeten Caps und nicht nach GPUs. :|
Ich könnte mir vorstellen, dass es in der Regel auch so ist. Nur bei den FX Karten (5950 usw.) sind die Caps ja genauso vorhanden wie bei den ATI Karten (9800 usw.) nur die Performance kann halt bei den FX Karten nicht mithalten, deshalb wird wohl neben den Caps noch die ID abgefragt, um die Sache umgehen zu können.
Könnte mir jedenfalls vorstellen, dass dies der Grund ist.
Carsten.
deekey777
2004-04-21, 10:46:29
Original geschrieben von nagus
falls das schon gepostet wurde: http://www.tommti-systems.de
alle GeforceFX benchmarks vs. Ati sind FAUL. bei gleichen shadern schauts wahrscheinlich so aus, dass mit der 9800xt sogar an den scores der FX6800ultra kratzt... so viel zur supa-tollen neuen fx-serie von nvidia... ps2 leistung is relativ "ungeil" für eine nex-gen-gpu, IMHO
Tommti hat nur das bestätigt, was schon HardOCP mit den Screenshots zeigte: Die 6800 verwendet weniger PS 2.0 als eine 9800 (aber mehr als eine 5950). Wer sagt, dass es so für immer bleibt? Vielleicht werden diese "fehlenden" PS 2.0 durch PS 3.0 erstezt, was erst mit DX9c möglich ist.
(Technisch gesehen steht hier nur Müll, aber ihr wisst, was ich sagen will.)
Exxtreme
2004-04-21, 10:57:12
Original geschrieben von Demirug
Normalerweise macht man das auch so. Die Vendor/Device IDs sowie die Treiber Version sind eigentlich nur dazu da das man im Falle von bekannten Treiberbugs diese umgehen kann.
OK, das ist ja verständlich wenn man Treiberbugs umgeht. Aber Features anhand eines GPU-Herstellers wegkürzen obwohl diese GPU diese beherrscht?
Original geschrieben von Lustiger Troll
Da brauchst du gar keine Shader aus der Demo nehmen, du kanst ganz einfach nach dem Patchen die Shaders1.pak löschen und hast dieselben Shader wie ATI, nur eben mit dem 60.72 einen Lichtbug, könte das an HDR liegen?
ja da die shader ja als klartext vorliegen könnte sich vielleicht mal jemand der sich damit auskennt diese anschaun und mal einschätzen ob diese schon gut optimiert oder halt unoptimiert sind...
wär ja mal ein guter "mod" die shader per hand zu optimieren...
Lustiger Troll
2004-04-21, 11:17:55
Original geschrieben von Odal
wär ja mal ein guter "mod" die shader per hand zu optimieren...
LOL viel Spass, hast du mal die shaders.pak entpackt, da sind an die 1000 Shader drinn.
Demirug
2004-04-21, 11:29:53
Original geschrieben von Exxtreme
OK, das ist ja verständlich wenn man Treiberbugs umgeht. Aber Features anhand eines GPU-Herstellers wegkürzen obwohl diese GPU diese beherrscht?
Genau das soll man ja eigentlich nicht machen. Ich habe nichts dagegen wenn man beim ersten Start (oder noch einem Treiber/Karten wechsel) einen kurzen Bench laufen lässt und dann die Settings eben entsprechend voreinstellt. Aber es sollte eben immer die möglichkeit bleiben das man die maximale Qualität die möglich ist auch bekommen kann.
AYAlf
2004-04-21, 11:52:43
wie soll ich es sagen...
... die farcry benches sind also alle lug und trug. ich dachte wenigstens, mit dem neuen flagschiff von nvidia, muss nicht gecheatet werden. das bei der fx reihe die haelfte der 2.x shader benutzt wurden (ca. 50+) und bei ati (ca. 100+) wahr ja hinlaenglich bekannt und nachweissbar. auch anhand der spieleigenen log datei. aber das nun auch die 6800 variante mit weniger 2.0 shadern arbeitet und auf die leichter zu berechnenden 1.x shader ausweicht ist wirklich :bäh: .
Demirug
2004-04-21, 12:00:49
Original geschrieben von AYAlf
wie soll ich es sagen...
... die farcry benches sind also alle lug und trug. ich dachte wenigstens, mit dem neuen flagschiff von nvidia, muss nicht gecheatet werden. das bei der fx reihe die haelfte der 2.x shader benutzt wurden (ca. 50+) und bei ati (ca. 100+) wahr ja hinlaenglich bekannt und nachweissbar. auch anhand der spieleigenen log datei. aber das nun auch die 6800 variante mit weniger 2.0 shadern arbeitet und auf die leichter zu berechnenden 1.x shader ausweicht ist wirklich :bäh: .
Das Problem ist das Farcry keinen Möglichkeit beinhaltet auf unterschiedlichen Karten die Verwendung der gleichen Technik für alle Effekte zu erzwingen. Damit ist die Vergleichbarkeit nicht mehr gegeben.
Lman @ work
2004-04-21, 12:03:04
Und wenn man mit dem 3DA die VendorID faked?
(wollte TheCounter nicht mal einen Farcry Patch basteln, der auch den FXen 2.0 Shaer erlaubt?, die Statements hatte er ja schon entdeckt)
Original geschrieben von AYAlf
wie soll ich es sagen...
... die farcry benches sind also alle lug und trug. ich dachte wenigstens, mit dem neuen flagschiff von nvidia, muss nicht gecheatet werden. das bei der fx reihe die haelfte der 2.x shader benutzt wurden (ca. 50+) und bei ati (ca. 100+) wahr ja hinlaenglich bekannt und nachweissbar. auch anhand der spieleigenen log datei. aber das nun auch die 6800 variante mit weniger 2.0 shadern arbeitet und auf die leichter zu berechnenden 1.x shader ausweicht ist wirklich :bäh: .
Wie soll ich es sagen...
...Der Far Cry Patch v1.1 ist lug und trug. Bei Verwendung von 2.0-Shadern würde die 6800U die R9800XT noch viiieeeel weiter hinter sich lassen, da sie hier ja in ihrem nativen Format rechnen kann und ihre Bandbreitenlimitierung (nur ~12,27 Pixel Pro Takt) weniger zum Tragen käme.
Vielleicht solltest du erstmal die letzten beiden Seiten lesen, bevor du hier rumtrollst, AYAlf.
;Q
Original geschrieben von Lman @ work
Und wenn man mit dem 3DA die VendorID faked?
(wollte TheCounter nicht mal einen Farcry Patch basteln, der auch den FXen 2.0 Shaer erlaubt?, die Statements hatte er ja schon entdeckt)
Brauchst nur Version 1.0 von Far Cry herzunehmen.... dann haste deine Shader.
;Q
K29!ll3r
2004-04-21, 13:25:17
Weiss man schon, ob der Refresh der 6800 U nur noch PCI Express sein wird?
deekey777
2004-04-21, 14:18:03
Zu der FC Diskussion: Wartet doch ab, wenn die Tabelle zu dieser Szene auf Tommti-Systems in etwa so aussieht: NVIDIA DeviceID: (>) 5 PS 3.0 , (=<)39 PS 2.0/2.x, ... Die 6800 Ultra trifft aber keine Schuld, sondern eher Far Cry, da die mit dem Patch gelieferten PS 3.0 hätten bis zum DX9c Release warten können.
(Ich bringe die NV-Fraktion zum Kochen: Vielleicht sind die 5 fehlenden PS 2.0 etwas zu schwer ;D )
klaus
2004-04-21, 15:40:26
Original geschrieben von Showtime
Versteh mich nicht falsch, Umweltschutz ist schön und gut, aber wenn du schon beim Stromverbrauch der Grafikkarten rot siehst, der einen extrem niedrigen Anteil an der Umweltverschmutzung hat, dürftest du eigentlich gar keinen PC haben.
Du darfst dir eigentlich auch nur PC Teile in der Bulk Version kaufen, ohne Packung und Beschreibung und all dem Zubehör, denn das belastet schliesslich die Umwelt, bei soviel Plastik, wie da immer dabei ist. Und diese Belastung durch das Material ist sicher größer als der erhöhte Strombedarf bei Grafikkarten.
Ich schließe mich daher der Meinung von Aquaschaf an. An die Umwelt beim Grafikkartenkauf zu achten, grenzt schon fast an Fanatismus.
Merkt Ihr's noch?!
"Und der Energieverbrauch im IT-Bereich wächst weiter. Das Fraunhofer-Institut für Systemtechnik und Innovationsforschung prognostiziert, dass im Jahr 2010 in Deutschland jährlich 55 Milliarden Kilowattstunden für Geräte der Informations- und Kommunikationstechnik benötigt werden - satte 45 Prozent mehr als noch im Jahr 2001. Um allein diesen Bedarf zu decken, würden dann insgesamt sieben große Kraftwerke benötigt."
Der vollständige Text ist hier (http://www.ea-nrw.de/_infopool/info_details.asp?InfoID=1468) nachzulesen. Falls Aquaschaf und Showtime die Bedeutung dieses Artikels nicht erfassen können, empfehle ich, im Physik- oder Heimatkundeunterricht einmal Eure Lehrer zu diesem Thema zu befragen.
Hmm, genau das Problem, welches auf nagus' link (danke Dir) gezeigt wird, meinte ich. Doch weiß ich jetzt noch nicht, ob ich demnächst mit einer 6800U Fra Cry mit der gleichen Shaderqualität spielen könnte wie mit einer ATI R3xx/4xx???
Würde jemand freundlicherweise noch auf meine Frage (auf S. 57) bezüglich des 2D-Betriebs der 6800U eingehen?
DrumDub
2004-04-21, 16:10:26
Original geschrieben von klaus
Würde jemand freundlicherweise noch auf meine Frage (auf S. 57) bezüglich des 2D-Betriebs der 6800U eingehen?
geringere taktung+senkung des vcore, so wars zumindest beim nv3x. ob vram auch abgesenkt wird, weiß ich nicht.
32w 2-betrieb vs. 111w im 3d-betrieb.
Aquaschaf
2004-04-21, 16:37:57
Original geschrieben von klaus
Mal abgesehen davon, dass man Deine Ausführungen nur schwerlich nachvollziehen kann, versuche ich dennoch, darauf einzugehen.
Wofür brauchst du eine High-End-Grafikkarte? Für professionelle Anwendungen benutzt man andere Lösungen, was bleibt da neben Spielen? Wenn Strom sparen so wichtig ist, kann man es einfach bleiben lassen sich einen High-End-PC zuzulegen. Wer so etwas kauft muss sich bewusst sein, dass es logischerweise viel Strom verbraucht.
54W oder 110W, macht 56W Unterschied - allerdings nur, wenn man die High-End-Grafikkarte zum Spielen benutzt. Sonst kommt man nicht auf diesen Verbrauch. Spielt man 10 Stunden pro Woche macht das im Jahr 29KWh Unterschied. Ein 5 Personen Haushalt verbraucht im Jahr ungefähr 5000KWh + Ölverbrauch + Benzinverbrauch. In Relation gesetzt sehe ich da nicht, dass man gerade bei der Grafikkarten-Wahl besonders effektiv Energie sparen kann.
Aquaschaf
2004-04-21, 16:45:34
Original geschrieben von klaus
Merkt Ihr's noch?!
"Und der Energieverbrauch im IT-Bereich wächst weiter. Das Fraunhofer-Institut für Systemtechnik und Innovationsforschung prognostiziert, dass im Jahr 2010 in Deutschland jährlich 55 Milliarden Kilowattstunden für Geräte der Informations- und Kommunikationstechnik benötigt werden - satte 45 Prozent mehr als noch im Jahr 2001. Um allein diesen Bedarf zu decken, würden dann insgesamt sieben große Kraftwerke benötigt."
Momentan liegt der Anteil bei 10%. Wie viel davon auf die Kosten vom PC geht weiß ich nicht. Auch wenn 2010 nicht so weit entfernt ist, solchen Prognosen sollte man skeptisch gegenüber sein - wenn man sich Prognosen aus der Vergangenheit für die heutige Zeit ansieht. Wen das stört - der muss sich wie gesagt keine High-End-Maschine kaufen, aber sich aufs Strom-sparen und gleichzeitig High-End-Leistung fixieren zu wollen ist eben nicht vereinbar.
Showtime
2004-04-21, 16:46:50
Original geschrieben von klaus
Merkt Ihr's noch?!
"Und der Energieverbrauch im IT-Bereich wächst weiter. Das Fraunhofer-Institut für Systemtechnik und Innovationsforschung prognostiziert, dass im Jahr 2010 in Deutschland jährlich 55 Milliarden Kilowattstunden für Geräte der Informations- und Kommunikationstechnik benötigt werden - satte 45 Prozent mehr als noch im Jahr 2001. Um allein diesen Bedarf zu decken, würden dann insgesamt sieben große Kraftwerke benötigt."
Und wieviel Prozent davon werden von Grafikkarten verursacht? "Informations- und Kommunikationstechnik" ist ein weites Feld, der Artikel sagt daher nichts über den Grafikkartenverbrauch aus.
Wozu hast du denn so einen verhältnismäßig aktuellen PC, wenn du auch alles, was man heutzutage mit seinem PC anstellen kann, mit einem schwächeren System anstellen kann. Ich selbst habe einen 1.4Ghz Athlon und eine GeForce3 (noch), und kann selbst FarCry in 800x600 auf mittleren Details spielen. Viel größere Hardware Fresser gibt es noch nicht, außer irgendwelche komplizierten Berechnungen, für die du dann aber keine GeForce4 bräuchtest.
Wenn schon Umweltschutz, dann auch konsequent.
Was sollen überhaupt Äußerungen wie "Merkt Ihr's noch?!"? Fühlst du dich persönlich angegriffen, wenn es um Umweltschutz geht? Ich bin gerne bereit, mit dir darüber zu diskutieren, aber bitte in "normalem" Ton. Ist übrigens ziemlich OT, vielleicht sollten wir das irgendwo anders weiterführen...
Stebs
2004-04-21, 16:49:27
Original geschrieben von deekey777
... Die 6800 Ultra trifft aber keine Schuld, sondern eher Far Cry, da die mit dem Patch gelieferten PS 3.0 hätten bis zum DX9c Release warten können.
Naja scheint aber so als hätten sie den PS 3.0 Teil im Patch 1.1 nicht so richtig hingekriegt:
Original geschrieben von nggalai
Kollege hat's ausprobiert: Mit den 9.0c-Runtimes und Patch 1.1 werden offenbar keine PS3 verwendet, bei Far Cry.
93,
-Sascha.rb
-Übrigens danke für diese interessante Erkenntnis Nggalai! :)
Heisst also warten auf Patch 1.2, bis Mai haben sie ja eh noch Zeit. Aber dann bitte auch mit der Möglichkeit für jeden, selber die Pixelshader-version zu wählen!
Schliesslich könnte ja auch ein Geforce FX 5200 Besitzer auf die Idee kommen PS 2.0 mal kurz anzuschalten um zu sehen was er verpasst und ob er dafür Geld für eine neue Graka ausgeben will. In dem Fall sind ihm die 5 FPS dabei egal...
Natürlich sollte Farcry defaultmäßig für jeden DAU anhand einer Hardwareliste den sinnvollsten Modus benutzen, nur sollte dieser Modus nicht Pflicht sein!
-Sowas gabs doch nun schon zum x-ten mal (z.B. mit MMX, TnL etc), wann lernen Entwickler endlich dass das Erkennen von Caps, bestimmten DeviceIDs oder gar nur Vendors zwar meistens ganz gut hinhaut (und sinnvoll ist), es aber immer wieder Situationen geben kann (neue Hardware etc.) wo man diese Erkennung umgehen will oder muss?
PS. Haben die Jungs von Crytek eigentlich noch Zeit sich um sowas zu kümmern, jetzt nach der erneuten Hausdurchsuchung und mit dem ganzen Ärger mit dem Kopierschutz (imho eine Unverschämtheit)?
-Jenen haben zwar nicht sie verbrochen sondern Ubisoft aber einiges an Ärger und Arbeit wird dennoch wohl auf Crytek zurückfallen.
Thowe
2004-04-21, 19:46:20
Original geschrieben von klaus
...
Wer sagte denn was vom Spielen? Wenn Du mit dem PC automatisch Spiele assoziierst, lässt mich das - ebenso wie Deine wirren Ausführungen hier - auf ein niedriges Alter und einen entsprechend unreifen Intellekt schließen.
:nono: Das muss nicht sein, das lässt sich auch deutlich freundlicher formulieren.
9800ProZwerg
2004-04-21, 21:12:43
Mich persönlich interessiert eher die Benchmarks einer
6800 Non-Ultra! Gibt es irgendwo schon welche?
misterh
2004-04-21, 21:46:28
Ich kann mir vorstellen, dass die angaben des jetztige genannte 6800U in wirklichkeit eine 6800 noU wäre. Grund ist doch unter dem anderen die treiber erkennung von code! würde doch schon herausgefunden oder?
tokugawa
2004-04-21, 22:29:14
Original geschrieben von Aquaschaf
Wofür brauchst du eine High-End-Grafikkarte? Für professionelle Anwendungen benutzt man andere Lösungen, was bleibt da neben Spielen?
Spiele entwickeln zum Beispiel.
Und auch "Profis" verwenden durchaus gern privat "Consumer-Hardware". Sogar auf dem Computergrafik-Institut meiner Uni verwenden sie unter anderem "Consumer-Hardware". Ist durchaus in der Lage, anständige Lösungen zu produzieren.
The Jackal
2004-04-22, 04:35:13
Meiner Meinung nach ist irgendwo der Punkt jetzt erreicht wo es mit dem Strombedarf nicht mehr weiter geht.
2 freie Stromstränge für eine GraKa. :freak:
Da müssen längerfristig andere Lösungen her, wie zb. ein "ATX-GraKa" Stecker her.
Oder das sich die Hersteller mal gedanken darüber machen.
Ich weiß nicht in wie weit der PCI-Express Stecker belastbar ist, gehe davon aber aus das er nicht viel mehr Strom liefert als der jetzige AGP.
Zum glück gibt es noch "kleinere" Modele wie die 6800 nonU die ja nur mit einem Stromversorger auskommen soll.
Bleibt noch die Hoffnung das der R420/423 wegen der kleineren Transistorzahl nur einen Stecker braucht.
Ein kleiner Gedankengang:
GeForce 4 4600 AGP-Strom reicht Jahr 2001/2
GeForce FX 5800/5900/5950 zusatz Versorgung nötig Jahr 2002/2003
GeForce 6800 2 zusätzliche Versorgungen nötig Jahr 2004/2005
GeForce 7xxx spekulazion 16x2 ca. 250 mio Trans wird noch 2 Versorgungen reichen Jahr 2005/2006
GeForce 8xxx 3 Versorgungen ca. 220-260W ca. 320 mio Tranz Jahr 2006/2007
So Leute ich würde schon mal wenn einer vor hat ein neues Haus zu bauen anfangen zu überlegen wo man den Rechner hinstellt und da schon mal das 6qmm Stromkabelleitungen einplanen, vieleicht besser ein Herdanschluß mit 32A abgesichert. Man denke das Haus steht dann ja auch so an die 20 Jahre bis neue Leitungen reinkommen. :freak:
tombman
2004-04-22, 05:50:10
ALso ich wette bald kommen eigene Netzteile mit Steckdosenanschluß ... wie bei Voodoo 6000 :)
StefanV
2004-04-22, 08:46:09
Original geschrieben von The Jackal
Ich weiß nicht in wie weit der PCI-Express Stecker belastbar ist, gehe davon aber aus das er nicht viel mehr Strom liefert als der jetzige AGP.
75W PCI-ex16 Slot, ~45W AGP (das meiste allerdings aus der 3,3V Leitung (6A) -> ~20W).
WeyounTM
2004-04-22, 09:16:33
Original geschrieben von Gast
es wundert mich ja gar nicht, das dieser Typ sich Klaus nennt.
Klaus, mach den Rechner aus und fahr Fahrrad.
Netter Gastflame :eyes:
Man muss so ein Thema ja nicht gleich verbissen sehen, aber die Frage des Stromverbrauchs bei Highend-PC-Komponenten oder eben auch der Benzinverbrauch bei Autos, ist legitim. Dumm ist nur, dass der Grossteil der konsumierenden Bevölkerung nicht wirklich zur "Einsicht" bereit ist und somit (leider) nur über Preiserhöhungen halbwegs zu sensibilisieren ist. Ökosteuer lässt grüssen.
klaus
2004-04-22, 10:08:50
Original geschrieben von Yosh
Man muss so ein Thema ja nicht gleich verbissen sehen, aber die Frage des Stromverbrauchs bei Highend-PC-Komponenten oder eben auch der Benzinverbrauch bei Autos, ist legitim. Dumm ist nur, dass der Grossteil der konsumierenden Bevölkerung nicht wirklich zur "Einsicht" bereit ist und somit (leider) nur über Preiserhöhungen halbwegs zu sensibilisieren ist. Ökosteuer lässt grüssen.
So sieht's aus.
pp@work
2004-04-22, 12:41:15
http://www.hartware.net/news_36197.html
"Demnach wird die GeForce 6800 mit einem Chiptakt von 375 MHz und einem Speichertakt von 350 MHz laufen. Die RAM-Bausteine werden eine Zugriffszeit von 2.8ns besitzen."
Lustiger Troll
2004-04-22, 13:42:57
Das schlimmste find ich aber das sie auf der Ultra GDDR3 mit 2 ns haben die laut Samsung für 500 Mhz sind und die dann noch OCen, lol, ich frag mich wieso sie nicht Hynix nehmen. Ich hoffe mal das die verschiedenen Hersteller wie Gainward oder Leadtek da GDDR3 mit zumindestens 1,6 ns raufmachen oder sogar 1,2 ns *träum* :D.
AYAlf
2004-04-22, 13:50:33
Original geschrieben von Gast
Brauchst nur Version 1.0 von Far Cry herzunehmen.... dann haste deine Shader.
;Q
richtig gast .. nur dan hab ich keine performanz mehr ;D
und das ist auch nachweissbar ... zumindest konnte ich es mir auf einem amd 3000+, geforce fx 5900, 1024 ddr anschauen.
MadManniMan
2004-04-22, 14:17:57
Whoa, mit nur 350 Mhz beim Ram kommt mir die nU langsam wirklich unterbestückt vor :|
...kurz rechn0rn! -> 350/550 = 0,63 -> 63% der Bandbreit der 6800U ... 0,75*(375/400) = 70%.
Ergo 70% Der Füllrate bei 63% der Bandbreite ... aber Leo meinte ja, daß das optimale Füllraten-Bandbreitenverhältnis der 68U bei 1:1 läge, also müßte sie die nU mit 1:075 zufreiden geben können :grübel:
Tja, dennoch befürchte ich dann so langsam, daß die tatsächliche (reine!) 4*RGMS-Leistung in der Bereich der 98XT rutscht.
Was meint ihr?
Tesseract
2004-04-22, 14:19:13
Original geschrieben von tombman
ALso ich wette bald kommen eigene Netzteile mit Steckdosenanschluß ... wie bei Voodoo 6000 :)
GeVolts :D
LovesuckZ
2004-04-22, 14:22:13
Original geschrieben von MadManniMan
Was meint ihr?
Dass die 6800nU bandbreitenlimitiert sein wird? :)
Nunja, da der NV40 mit 4AA meisten ca. 100% schneller ist, sollte sich der Vorteil bei 20-30% einpendeln. Nicht viel, aber dafür kostet die karte auch kein halbes Monatseinkommen :)
MadManniMan
2004-04-22, 14:24:42
Original geschrieben von LovesuckZ
Nicht viel, aber dafür kostet die karte auch kein halbes Monatseinkommen :)
Hehe, bei mir im Moment fast ein Ganzes :D
Ok bis später, ich muß arbeit0rn!
Lustiger Troll
2004-04-22, 14:29:43
Original geschrieben von MadManniMan
Was meint ihr?
Willst du meine ehrliche Meinung? Solange es nichts offizielles gibt denke ich nicht das sie bei einer NU nur 350 Mhz DDR Ram verbauen, wenn schon dann 400 Mhz od. 450 Mhz, sonst müsste das mit den 600 Mhz Chiptakt von Aopen oder so ja auch Stimmen :D. Quelle gibt Hartware.net auch keine an, IMO nur grosses blabla um ein paar Hits einzukassieren.
LovesuckZ
2004-04-22, 14:34:24
Original geschrieben von Lustiger Troll
Willst du meine ehrliche Meinung? Solange es nichts offizielles gibt denke ich nicht das sie bei einer NU nur 350 Mhz DDR Ram verbauen, wenn schon dann 400 Mhz od. 450 Mhz, [...]
Die Taktraten wurden von einen Entwickler von albatron gegenüber der Seite Clubic.com (http://www.clubic.com/n/n12402.html) bestätigt. Ist also schon offiziel, nur nicht von nvidia.
Die ersten kleinen Mengen kommen, laut inq.com, Ende Mai in den handel und mit der breiten verfügbarkeit sei frühsten im Juni zu rechnen.
Lustiger Troll
2004-04-22, 15:05:09
Original geschrieben von LovesuckZ
Die Taktraten wurden von einen Entwickler von albatron gegenüber der Seite Clubic.com (http://www.clubic.com/n/n12402.html) bestätigt. Ist also schon offiziel, nur nicht von nvidia.
Die ersten kleinen Mengen kommen, laut inq.com, Ende Mai in den handel und mit der breiten verfügbarkeit sei frühsten im Juni zu rechnen.
Ok, dann wird es stimmen :), find ich aber ein wenig schwach da nur so lahme Rams zu verbauen was müssen wir den beim NV43 und NV44 erwarten? 200 od 250 Mhz?
ShadowXX
2004-04-22, 15:26:13
Dort steht übrigens auch, dass auch Albatron 400/550 bei der Ultra verwenden wird....
Original geschrieben von MadManniMan
Whoa, mit nur 350 Mhz beim Ram kommt mir die nU langsam wirklich unterbestückt vor :|
...kurz rechn0rn! -> 350/550 = 0,63 -> 63% der Bandbreit der 6800U ... 0,75*(375/400) = 70%.
Ergo 70% Der Füllrate bei 63% der Bandbreite ... aber Leo meinte ja, daß das optimale Füllraten-Bandbreitenverhältnis der 68U bei 1:1 läge, also müßte sie die nU mit 1:075 zufreiden geben können :grübel:
Tja, dennoch befürchte ich dann so langsam, daß die tatsächliche (reine!) 4*RGMS-Leistung in der Bereich der 98XT rutscht.
Was meint ihr?
Naja, Füllrate und Bandbreite so abgesenkt schätze ich mal, daß die Karte so ca. 10% schneller als eine 9800XT sein wird....
Eigentlich hatte ich mir mehr erhofft, aber ganz so schlecht für eine neue Mid-Range Karte ist das ja eigentlich auch nicht ;)
Original geschrieben von JFZ
Naja, Füllrate und Bandbreite so abgesenkt schätze ich mal, daß die Karte so ca. 10% schneller als eine 9800XT sein wird....
Eigentlich hatte ich mir mehr erhofft, aber ganz so
Ich denke eher so 30-50% werden's noch sein.
Original geschrieben von ow
Ich denke eher so 30-50% werden's noch sein.
Vermutlicher Preis, ow? :)
[dzp]Viper
2004-04-22, 16:44:22
Original geschrieben von Gast
Vermutlicher Preis, ow? :)
auch wenn ich nicht oh we bin :D
300 bis maximal 350€
Original geschrieben von [dzp]Viper
auch wenn ich nicht oh we bin :D
300 bis maximal 350€
Hm :)
Der Grund für den Wechsel ist der Umstieg auf einen 19" TFT. 1280x1024 sind 66% mehr Pixel als 1024x768. Ich glaube da macht meine 9700Pro schlapp, nicht?
[dzp]Viper
2004-04-22, 16:49:31
Original geschrieben von Gast
Hm :)
Der Grund für den Wechsel ist der Umstieg auf einen 19" TFT. 1280x1024 sind 66% mehr Pixel als 1024x768. Ich glaube da macht meine 9700Pro schlapp, nicht?
solange du nicht mehr als 2 AA und 4 AF hinzuschaltest, kannst du in der 1280x1024 eigentlich sogut wie alle neueren Spiele mit maximalen Details spielen...
Also da würde ich mir keine Sorgen machen :)
InsaneDruid
2004-04-22, 16:50:29
Ich glaube da macht meine 9700Pro schlapp, nicht?
Kann man so pauschal nicht sagen, kommt auf das Game und FSAA/AF Settings an. In meinem Clan zocken einige mit 97pros bzw 98nps auf 1280er TFTs, auch mit FSAA/AF, eigentlich keine Probs. Bei Farcry wirds langsam eng.
Weobei ich sagen muss.. wozu ne fett schnelle Graka wenns der TFT in einen Pixelbrei verwandelt?
Original geschrieben von InsaneDruid
Kann man so pauschal nicht sagen, kommt auf das Game und FSAA/AF Settings an. In meinem Clan zocken einige mit 97pros bzw 98nps auf 1280er TFTs, auch mit FSAA/AF, eigentlich keine Probs. Bei Farcry wirds langsam eng.
Weobei ich sagen muss.. wozu ne fett schnelle Graka wenns der TFT in einen Pixelbrei verwandelt?
Eben, bei Far Cry wird es eng, das ist es ja. :) Wie es dann bei Doom3, HL2, Stalker sein wird, kann man sich ausmalen.
Die Vorurteile gegenüber TFTs lassen wir mal lieber. Dazu gibt es ja bereits eine Diskussion.
Aquaschaf
2004-04-22, 16:53:35
Original geschrieben von Yosh
Netter Gastflame :eyes:
Man muss so ein Thema ja nicht gleich verbissen sehen, aber die Frage des Stromverbrauchs bei Highend-PC-Komponenten oder eben auch der Benzinverbrauch bei Autos, ist legitim. Dumm ist nur, dass der Grossteil der konsumierenden Bevölkerung nicht wirklich zur "Einsicht" bereit ist und somit (leider) nur über Preiserhöhungen halbwegs zu sensibilisieren ist. Ökosteuer lässt grüssen.
Ihr wollt also einen Porsche mit dem Verbrauch eines Kleinwagens? Wollt ihr wenig Benzin verbrauchen kauft ihr euch eben keinen Porsche. Das ist bei Hardware nicht anders, wer Strom sparen will - bitte. Dann bitte einfach verzichten.
Aquaschaf
2004-04-22, 16:57:49
Original geschrieben von tokugawa
Spiele entwickeln zum Beispiel.
Und auch "Profis" verwenden durchaus gern privat "Consumer-Hardware". Sogar auf dem Computergrafik-Institut meiner Uni verwenden sie unter anderem "Consumer-Hardware". Ist durchaus in der Lage, anständige Lösungen zu produzieren.
Im Vergleich zu der Verwendung fürs Spielen ist das aber ein sehr kleiner Anteil. Wer die Rechenleistung braucht, muss eben den Stromverbrauch in Kauf nehmen. Wenn auch nicht aus ökologischen Gründen; die Hardwarehersteller haben durchaus Interesse an möglichst kleinem Verbrauch - da in dem Fall mit Abwärme gleichzusetzen. Aber die können leider auch nicht zaubern, die Regel das mehr Rechenleistung mehr Strom kostet bleibt.
Original geschrieben von Gast
Eben, bei Far Cry wird es eng, das ist es ja. :) Wie es dann bei Doom3, HL2, Stalker sein wird, kann man sich ausmalen.
Die Vorurteile gegenüber TFTs lassen wir mal lieber. Dazu gibt es ja bereits eine Diskussion.
Das einzige was eng werden könnte, ist imo Doom3. Naja die Alpha ging in 1024x768 noch mit 2xAA, mal sehen was uns erwartet...
InsaneDruid
2004-04-22, 17:04:18
Original geschrieben von Gast
Eben, bei Far Cry wird es eng, das ist es ja. :) Wie es dann bei Doom3, HL2, Stalker sein wird, kann man sich ausmalen.
Die Vorurteile gegenüber TFTs lassen wir mal lieber. Dazu gibt es ja bereits eine Diskussion.
Naja bei Farcry bedeutet "eng werden" nicht das es NICHT geht. Kann man schon noch gut zocken, nur eben nicht mehr so uneingeschränkt wie GPL mit 1600*1200*6xFSAA*16xtriAF :)
Und über ungelegte Eier wie HL2 und Dumm3 würd ich mir erstmal keine Gedanken machen.
Das blödeste was man machen kann ist Hardware im Gutdünken VORAUS zu kaufen. Möcht nicht wissen wie viele GF3 User sich ach wie sicher fühlten auf ihrer Karte das ganz doll zocken zu können.
Stalker performt, zumindest was man so hört aus dem Leak und auch durch die diversen Liveshows auf Messen, eigentlich sogar sehr gut, da würd ich mir noch weniger Gedanken machen.
LordDeath
2004-04-22, 17:14:25
die 6800nonultra soll doch nur 12 pipelines besitzten. demnach sollte es nicht so bandbreitenlimitiert werdern, wie einige jetzt denken!
LovesuckZ
2004-04-22, 17:21:16
Original geschrieben von LordDeath
die 6800nonultra soll doch nur 12 pipelines besitzten. demnach sollte es nicht so bandbreitenlimitiert werdern, wie einige jetzt denken!
Wenn gleichzeitig die Speicherbandbreite runtergesetzt wird, dann wird die Karte genauso in die Falle "Bandbreienlimitierung" laufen.
LordDeath
2004-04-22, 17:24:20
Original geschrieben von LovesuckZ
Wenn gleichzeitig die Speicherbandbreite runtergesetzt wird, dann wird die Karte genauso in die Falle "Bandbreienlimitierung" laufen.
ich wollte damit nur meinen, dass bei 12 pipelines die faustregel, dass chiptakt und speichertakt 1:1 sein sollten nicht mehr gelten!
Original geschrieben von InsaneDruid
Naja bei Farcry bedeutet "eng werden" nicht das es NICHT geht. Kann man schon noch gut zocken, nur eben nicht mehr so uneingeschränkt wie GPL mit 1600*1200*6xFSAA*16xtriAF :)
Und über ungelegte Eier wie HL2 und Dumm3 würd ich mir erstmal keine Gedanken machen.
Das blödeste was man machen kann ist Hardware im Gutdünken VORAUS zu kaufen. Möcht nicht wissen wie viele GF3 User sich ach wie sicher fühlten auf ihrer Karte das ganz doll zocken zu können.
Stalker performt, zumindest was man so hört aus dem Leak und auch durch die diversen Liveshows auf Messen, eigentlich sogar sehr gut, da würd ich mir noch weniger Gedanken machen.
Jo :)
Dachte nur, daß der Sprung auf 1280x1024 eventuell zuviel Leistung kosten könnte :)
AA kann ich immer gerne hergeben, dafür aber AF nicht, und dennoch hatte ich eben leichte "Sorgen" :)
MarcWessels
2004-04-22, 18:03:54
Original geschrieben von Gast
Jo :)
Dachte nur, daß der Sprung auf 1280x1024 eventuell zuviel Leistung kosten könnte :)
AA kann ich immer gerne hergeben, dafür aber AF nicht, und dennoch hatte ich eben leichte "Sorgen" :)
Mit einem Framerateneinbruch von 40% würde ich aber SCHON rechnen.
AYAlf
2004-04-23, 00:49:33
Original geschrieben von Gast
Eben, bei Far Cry wird es eng, das ist es ja. :) Wie es dann bei Doom3, HL2, Stalker sein wird, kann man sich ausmalen.
Die Vorurteile gegenüber TFTs lassen wir mal lieber. Dazu gibt es ja bereits eine Diskussion.
zumindest bei fc wird es auch knapp fuer die 6800u
LovesuckZ
2004-04-23, 07:43:49
Original geschrieben von AYAlf
zumindest bei fc wird es auch knapp fuer die 6800u
Stimmt, weil 60FPS reichen einige nicht und dann meckern sie schon beim Einbruch auf 59...
6800 Ultra von Leadtek
Leadtek stellte heute sein neues Flaggschiff vor: die WinFast A 400 Ultra TDH MyVIVO basiert auf dem Nvidias neuem Geforce 6800 Ultra-Grafikchip und ist mit 256 MByte GDDR3-Speicher ausgestattet. Zudem garantiert Leadtek durch den Einsatz des "Air Surround Fan" auch bei höchster Belastung Lautstärkewerte unter 30 dB. Das MyVIVO-Feature (my Video-in-Video-out) ermöglicht im Zusammenspiel mit der enthaltenen Software umfangreiche Videoverarbeitung und -nachbereitung. Die Karte soll Ende Mai im Softwarepaket mit zahlreichen Multimediaprogrammen und den Action-Titeln "Prince of Persia - Sands of Time" und "Splinter Cell 2" für 559 Euro im Handel erhältlich sein.
http://www.pcgames.de/screenshots/medium/WinFastA400ultra
FXManni
2004-04-23, 12:54:48
Hi,
auf der Homepage von Leadtek is die WinFast A 400 Ultra TDH
auch schon aufgeführt, hoffentlich kommt bald die non ultra.
Link:www.Leadtek.de (http://www.Leadtek.de)
Mfg FXManni
tokugawa
2004-04-23, 15:54:11
Original geschrieben von FXManni
Hi,
auf der Homepage von Leadtek is die WinFast A 400 Ultra TDH
auch schon aufgeführt, hoffentlich kommt bald die non ultra.
Link:www.Leadtek.de (http://www.Leadtek.de)
Mfg FXManni
Wow, ganz schön monströser Kühler. Langsam erreichen bzw. überholen die Grafikkartenkühler anscheinend CPU-Kühler in Sachen Dimensionen :o
BlueRaven
2004-04-23, 16:04:18
z.Zt hat ASUS für mich das beste Design in Silber mit BlueLEDs schlicht und dennoch sehr anziehend.
Ich hoffe das die Karten bald zu haben sind, noch lange kann ich echt nicht mehr warten.
bye
BlueRaven
joehler
2004-04-23, 16:47:00
ich habe dem Belinea 106030 Monitor. Der hat den "normalen" blauen Stecker, mir fällt gerade nicht der Name ein. Nun, wird es ein Adapter geben, dass ich den Monitor an die Leadtek WinFast A 400 Ultra anschliessen könnte?
WeyounTM
2004-04-23, 16:47:21
Original geschrieben von Aquaschaf
Ihr wollt also einen Porsche mit dem Verbrauch eines Kleinwagens? Wollt ihr wenig Benzin verbrauchen kauft ihr euch eben keinen Porsche. Das ist bei Hardware nicht anders, wer Strom sparen will - bitte. Dann bitte einfach verzichten.
Auch wenn es leidlich OT ist: Nein, es geht ums Prinzip :D ! Nicht um irgendeine Pseudo-Neid-Debatte. Was wäre an einem Porsche, der 300km/h fährt und wenig Benzin verbraucht denn auszusetzen? Genauso an einer Graka oder einem Prozzi, der verdammt viel leistet (Highend) aber nicht gleich einen eigenes AKW braucht.
Polemisch fragend: bekommen manche Leute erst dann einen "Kick" und fühlen sich "toll", wenn beide Dinge gewahrt sind? Also hohe Leistung und hoher Ressourcenverbrauch? Weil "man kann es sich ja leisten"?
Aquaschaf
2004-04-23, 17:21:57
Die Dinge widersprechen sich nun einmal, zwar wäre so ein Auto schön - aber mehr als ein Kleinwagen wird ein Sportwagen immer verbrauchen. Bei Hardware ist es ja nicht einmal so, dass mehr Strom verbraucht wird als nötig wäre um die Leistung zu erreichen(wie gesagt, es liegt auch im Interesse der Hardwareindustrie möglichst wenig Abwärme zu verursachen). Deswegen ist es unsinnig sich darüber aufzuregen.
WeyounTM
2004-04-23, 17:32:47
Nun, vor 30 Jahren hätte wohl niemand gedacht, dass es jemals solch eine Rechenpower wie heute geben würde. Wer weiss, ob der Markt aber nicht irgendwann solche Dinger entwickeln muss, um zu bestehen. Ich würde mir da ein wenig mehr Innovation wünschen =)
Hellfire-Torrod
2004-04-23, 17:46:01
Die Taktraten der nonUltra sind bekannt. Demnach soll der chiptakt bei 375 mhz und der Speichertakt bei 350 mhz(700 DDR) liegen.
3dchip (www.3dchip.de)
CrazyIvan
2004-04-23, 17:54:02
Original geschrieben von Aquaschaf
Die Dinge widersprechen sich nun einmal, zwar wäre so ein Auto schön - aber mehr als ein Kleinwagen wird ein Sportwagen immer verbrauchen. Bei Hardware ist es ja nicht einmal so, dass mehr Strom verbraucht wird als nötig wäre um die Leistung zu erreichen(wie gesagt, es liegt auch im Interesse der Hardwareindustrie möglichst wenig Abwärme zu verursachen). Deswegen ist es unsinnig sich darüber aufzuregen.
Wenn überall in der Industrie auf möglichst wenig Abwärme geachtet würde, dann gäbe es nur noch Pentium-Ms. Gerade intel ist doch das beste Beispiel dafür, dass man bewusst höheren Stromverbrauch für das Marketingargument No.1 eintauscht.
Im Allgemeinen ist es derzeit einfach nicht rentabel, R&D übermäßig auf sowas zu verwenden. Gerade daher sollte ja ein Umdenken im Markt erfolgen, um Nachfrage zu erzeugen.
Quasar
2004-04-23, 18:37:06
Original geschrieben von AYAlf
richtig gast .. nur dan hab ich keine performanz mehr ;D
und das ist auch nachweissbar ... zumindest konnte ich es mir auf einem amd 3000+, geforce fx 5900, 1024 ddr anschauen.
Bestreitet doch keiner, daß die 2.0-Shader auf der Radeon schneller als auf der FX laufen. =)
Nur wird der Abstand zwischen Radeon und 6800 ohne 1.1-Shader bei letzterer NOCH größer werden, als er's schon ist. =)
Grund:
Je mehr gerechnet wird, desto besser für die 6800.
;Q
MarcWessels
2004-04-23, 19:56:34
Ende Mai erst??? Watt n Scheiß... :(
InsaneDruid
2004-04-23, 20:09:22
Original geschrieben von MarcWessels
Ende Mai erst??? Watt n Scheiß... :(
[Stimme v. Cpt. Jean-Luc Godard]
Um Gottes Willen!, was sollen wir denn jetzt bloß machen?
[/Stimme v. Cpt. Jean-Luc Godard]
;D
Aquaschaf
2004-04-23, 20:32:06
Original geschrieben von CrazyIvan
Wenn überall in der Industrie auf möglichst wenig Abwärme geachtet würde, dann gäbe es nur noch Pentium-Ms. Gerade intel ist doch das beste Beispiel dafür, dass man bewusst höheren Stromverbrauch für das Marketingargument No.1 eintauscht.
Im Allgemeinen ist es derzeit einfach nicht rentabel, R&D übermäßig auf sowas zu verwenden. Gerade daher sollte ja ein Umdenken im Markt erfolgen, um Nachfrage zu erzeugen.
Die Pentium-Ms bieten eben nicht die maximal mögliche Leistung. Wem deren Leistung ausreicht, der hat seine stromsparende Hardware ;)
tokugawa
2004-04-24, 03:19:46
Original geschrieben von Aquaschaf
Die Pentium-Ms bieten eben nicht die maximal mögliche Leistung. Wem deren Leistung ausreicht, der hat seine stromsparende Hardware ;)
Die Pentium-Ms könnten locker auf das Niveau der schnellsten Pentium-4's geschraubt werden. So weit davon entfernt sind sie ja nicht.
tokugawa
2004-04-24, 03:24:41
Original geschrieben von Aquaschaf
Die Dinge widersprechen sich nun einmal, zwar wäre so ein Auto schön - aber mehr als ein Kleinwagen wird ein Sportwagen immer verbrauchen. Bei Hardware ist es ja nicht einmal so, dass mehr Strom verbraucht wird als nötig wäre um die Leistung zu erreichen(wie gesagt, es liegt auch im Interesse der Hardwareindustrie möglichst wenig Abwärme zu verursachen). Deswegen ist es unsinnig sich darüber aufzuregen.
Sieh's mal so: so mancher Sportwagen verbraucht vermutlich weniger als ein Kleinwagen von vor 50 Jahren oder so. Naja ok, vielleicht nicht unbedingt Kleinwagen, aber "kleinerER Wagen".
Die Energieeffizienz hat sich ziemlich gesteigert in der Automobilbranche. Und in der Automobilbranche ist nicht mal ein solch rapides technisches Wachstum wie in der IT-Branche - folglich sollte theoretisch eben die "Effizienter-Machung" (was für'n Wort :D) in der IT Branche eigentlich noch besser sein - leider ist sie das nicht.
OK, wird auch physikalische Grenzen haben, da Energieeffizienz bei strombetriebenen Sachen halt generell höher liegt als bei Verbrennungsenergie (daher ist bei Verbrennungsenergie höheres Optimierungspotential prozentuell gesehen)... aber trotzdem, die Bereiche wie Leckströme und ähnliches sollten IMO definitiv mehr Beachtung bekommen.
Aquaschaf
2004-04-24, 09:20:59
Original geschrieben von tokugawa
Die Pentium-Ms könnten locker auf das Niveau der schnellsten Pentium-4's geschraubt werden. So weit davon entfernt sind sie ja nicht.
Sie werden dann aber auch mehr Strom verbrauchen ;)
ShadowXX
2004-04-24, 09:37:23
Übrigens...
Alternate listet jetzt die 6800U und 6800nU von Gainward...
Allerdings kostet die 6800U stolze 849,- Euro (und ja..es ist eine 256MB Version).
Die nonUltra wird mit 399,- Euro gelistet...
Die 849,- sind ja wohl doch etwas mehr als die anvisierten ca. 550Euronen...
Mal sehen ob sich da noch was tut...
Quasar
2004-04-24, 09:52:01
Mal wieder die überteuerte WaKü-Version?
dildo4u
2004-04-24, 09:58:17
Original geschrieben von Quasar
Mal wieder die überteuerte WaKü-Version? denke nich dafür ist die zu "billig" Alternate an sich ist schon immer etwas teuerer wird whol eine dieser Gainward Goldkarten sein mit garantierten OC werten das hast sich GW schon immer sher gut bezahlen lassen
Quasar
2004-04-24, 10:03:15
"CoolFX" stand bei Gainward bislang aber immer für WaKü. :|
dildo4u
2004-04-24, 10:04:44
Original geschrieben von Quasar
"CoolFX" stand bei Gainward bislang aber immer für WaKü. :| Warum sollte die karte CoolFX heissen wenns kein FX mher is is whol eher ein platzhalter
(del676)
2004-04-24, 10:05:04
Original geschrieben von ShadowXX
Allerdings kostet die 6800U stolze 849,- Euro (und ja..es ist eine 256MB Version).
Die 849,- sind ja wohl doch etwas mehr als die anvisierten ca. 550Euronen...
hast du das letzte jahr verschlafen?
gainward verkauft immer wieder diese wakü-karten um 850€
(del676)
2004-04-24, 10:07:02
und wenn man auf Info klickt steht da:
"Bemerkungen: mit Wasserkühlung"
allerdings scheinen mir die 400/1100 takt noch ned zu stimmen - weil dafür braucht man keine wakü :)
dildo4u
2004-04-24, 10:09:06
Original geschrieben von Ulukay
und wenn man auf Info klickt steht da:
"Bemerkungen: mit Wasserkühlung" slebst wenn das ist zu teuer ick sag mal max 150€ für die wakü bleiben immer noch 700€ wunder tut mich das bei diesem monster chip nicht
LovesuckZ
2004-04-24, 10:12:39
Original geschrieben von dildo4u
slebst wenn das ist zu teuer ick sag mal max 150€ für die wakü bleiben immer noch 700€ wunder tut mich das bei diesem monster chip nicht
Deswegen sagt man auch überteuert :)
(del676)
2004-04-24, 10:13:04
Original geschrieben von dildo4u
slebst wenn das ist zu teuer ick sag mal max 150€ für die wakü bleiben immer noch 700€ wunder tut mich das bei diesem monster chip nicht
du willst wohl mit allen mitteln die 6800u in den dreck ziehen wie?
wenn du mal mitdenkst und dich daran erinnerst dass die 5900 coolfx AUCH 850€ kostete (und die normale ultra NICHT mit 700€ kam) dürfte dir ein licht aufgehen und du könntest deinen sinnlosen ANTI-6800U feldzug vielleicht einstellen?
Quasar
2004-04-24, 10:14:16
Original geschrieben von dildo4u
Warum sollte die karte CoolFX heissen wenns kein FX mher is is whol eher ein platzhalter
Warum hiessen bei Gainward die MX-Karten "Pro" und die Ti-Karten "Ultra"?
Richtig, weil Gainward sich einen Sch.... um die Namensgebung von nV schehrt.
LovesuckZ
2004-04-24, 10:14:22
Original geschrieben von ShadowXX
Die nonUltra wird mit 399,- Euro gelistet...
... mit 256MB Ram.
dildo4u
2004-04-24, 10:17:17
ick will gar nix in den dreck ziehn ick weiss selber das beide die neue ati und der 6800U weit über 500€ liegen werden nur denk ick das ati das mit dem vergleichsweise kleinen chip mehr profit machen wird und auch es dann auch leichter im preiskampf hat
(del676)
2004-04-24, 10:17:57
Original geschrieben von dildo4u
ick will gar nix in den dreck ziehn ick weiss selber das beide die neue ati und der 6800U weit über 500€ liegen werden nur denk ick das ati das mit dem vergleichsweise kleinen chip mehr profit machen wird
550€
aus basta - wenn du glaubst die neue generation wird 700€ kosten dann kann ich dir aber auch nicht mehr helfen
ShadowXX
2004-04-24, 10:28:22
Original geschrieben von Ulukay
und wenn man auf Info klickt steht da:
"Bemerkungen: mit Wasserkühlung"
allerdings scheinen mir die 400/1100 takt noch ned zu stimmen - weil dafür braucht man keine wakü :)
jo...das mit der Wasserkühlung hab ich übersehen.
Ich hoffe auch, das die ohne WaKü nur 550 kosten werden...
Aber erst mal werde ich sowieso den r420 abwarten...sicherheitshalber...
(del676)
2004-04-24, 10:30:17
Original geschrieben von ShadowXX
Aber erst mal werde ich sowieso den r420 abwarten...sicherheitshalber...
das müsstest du wahrscheinlich so oder so :)
ShadowXX
2004-04-24, 10:36:27
Original geschrieben von Ulukay
das müsstest du wahrscheinlich so oder so :)
Naja...850Euro würde selbst ich nicht für eine GraKa ausgeben, selbst wenn Sie Kaffee kochen könnte...(das wäre übrigens mal ein wirklich ultimatives Feature...)
Du spielt aber wahrscheinlich sowieso auf die Lieferbarkeit an...da hast du recht.
Mir ging es bei dem Satz mehr um den Vergleich der beiden...
Ich bin mal gespannt, ab wann denn die ersten nv40/r420 wirklich "kaufbar" sind...momentan heisst bei nv ja meist: ende Mai...
Original geschrieben von ShadowXX
Naja...850Euro würde selbst ich nicht für eine GraKa ausgeben, selbst wenn Sie Kaffee kochen könnte...(das wäre übrigens mal ein wirklich ultimatives Feature...)
Wie teuer wäre es eigentlich, so eine WaKü-Gainward zur Cappucinomaschine umzubauen? Bei den horrenden Preisen von den Dingern könnte man mit einer "CappucinoFX" sogar bei knapp vierstelligen Preisen noch sparen...
Multifunktion rulez!
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.