PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : A New Hope: Detonator 51.75??


J@NuS
2003-09-11, 19:43:01
Vielleicht Interessiert es ja den Einen oder Anderen!?

http://www.guru3d.com/forum/showthread.php?&threadid=63181

Gruss
Timo aka J@NuS

Die gelbe Eule
2003-09-11, 19:45:22
ja so einige, siehe benchmark thread zu hl2

Mephisto
2003-09-12, 12:30:55
Gibt's denn schon irgendwo?
Danke!

Exer
2003-09-12, 12:54:18
If you see the Pixel Shader 2.0 test, the score goes up about 25% and the Vertex Shader score is about 12% faster.


na das is ja schonmal was - jetzt muss nur noch amazon meine defekte karte tauschen und dann passt das schon.
:D

http://www.amdmb.com/article-display.php?ArticleID=257

was ich allerdings nicht ganz verstehe ist , warum der tester hier meint , dass würde in zukünftigen titeln nichts bringen. ps 2.0 war doch das größte nv problem

wenn valve den treiber wirklich nicht zulässt wäre das imho nicht ok. das sollte noch immer jeder user selbst entscheiden dürfen.
ist ja schön wenn ati und valve zusammenarbeiten aber dieser marketingkrieg mit veröffentlichten benchmarks und dem deto 50 , der natürlich dann kurz darauf erscheint ( muss ? ) ist schon etwas lächerlich.

nagus
2003-09-12, 13:01:32
NVnewsForum:


Well... to make sure you don't get your hopes up too much, I'll give you the worst case scenario I know about
PS2.0.-only test of an upcoming highly anticipated game sequel ( which is NOT HL2, Deus Ex 2, Doom 3, Max Payne 2, and so on - and I won't say what it is :P ) : -2%

You heard me right. -2%.

+200 3DMarks03.

Fairly nice performance boost in a few specific DX9 apps, maybe through special-case optimizations ( *sigh* )


Uttar

Mark3Dfx
2003-09-12, 13:04:34
Original geschrieben von nagus
NVnewsForum:


Well... to make sure you don't get your hopes up too much, I'll give you the worst case scenario I know about
PS2.0.-only test of an upcoming highly anticipated game sequel ( which is NOT HL2, Deus Ex 2, Doom 3, Max Payne 2, and so on - and I won't say what it is :P ) : -2%

You heard me right. -2%.

+200 3DMarks03.

Fairly nice performance boost in a few specific DX9 apps, maybe through special-case optimizations ( *sigh* )


Uttar

Dont feed the Troll! :nono:

J@NuS
2003-09-12, 13:32:56
ich find das ganze thema mittlerweile ziemlich erbärmlich. sehr hochgepushed und irgendwie nicht sehr aussagekräftig und unlogisch. wenn valve sich tatsächlich gegen nvidia sperren sollte und sich auf ati konzentriert, wäre das wirtschaftlich volle grütze und valve würde sich selber finanziel schaden.

was so ein projekt wie hl2 an geldern verschlinkt kann man sich meist gar nicht vorstellen (programmierer monatlich: mind. ca. 3.500 euro, freelancer: mind. ca.180 euro/std., dazu projektleiter, grafikdesigner, sounddesigner, layouter, marketingfuzzis, marketingkampagne (ist sie das schon:bäh: ), vertrieb, storywriter, softwarelizenzen etc. etc. und das über eine zeit von mehreren monaten/jahren ohne in dieser zeit der entwicklung einen cent einzunehmen obwohl man monatlich rechnungen zu begleichen hat??. und dann noch mit solchen krummen statements die zielgruppe spalten um damit wiederum eine absatzminimierung zu riskieren? aus teilmarketingsicht sicher ganz gut um im "gerede" zu bleiben....aber obs die endverbraucher auch so sehen und sich das geld dann von alleine in die kassen spühlt?

naja....id hatte seinen presserummel mit der leakdemo von doom3 und valve produziert ihn halt jetzt auf einem anderen weg bzw. bekommt ihn so produziert. welcher weg jetzt besser ist.....und welcher weg insziniert wurde und welcher nicht.....wird sich zeigen (jaja...die bösen ati jungs warens ja bei doom...waren sies wirklich?).

weiterhin denke ich, dass hier eine menge "stille post" mit im spiel ist und ich mich auf aussagen von dritten und nachbarn von nachbarn dessen onkel die tante von dem valve hauptmann am eingangstor ist (geht das so überhaupt =)), gehört haben soll das nvidia da schlechte "Karten" hat, auf keinen fall verlasse.

weiterhin find ich das geflame von wegen ati oder nvidia nur noch lame. beide hersteller liefern derzeit karten im highendbereich mit sehr geiler performance. anfangs war es ati die erst mit der catalyst 3.x serie gute treiber aufwiesen. nachdem nvidia mit den 5900ern nun ein anderes architekturkonzept vorlegt, hinkt es bei denen am treiber. wie auch bei ati werden die nvidiamannen das schon richten.

wünsche euch allen ein schickes wochenende und kann nur nochmal wiederholen: scheisst auf benchmarks, spielt die spiele und solange die so laufen wie sie sollen.....whats the prob?

Gruss
Timo aka J@NuS

Keel
2003-09-12, 13:57:48
Original geschrieben von Exer
na das is ja schonmal was - jetzt muss nur noch amazon meine defekte karte tauschen und dann passt das schon.
:D

http://www.amdmb.com/article-display.php?ArticleID=257

was ich allerdings nicht ganz verstehe ist , warum der tester hier meint , dass würde in zukünftigen titeln nichts bringen. ps 2.0 war doch das größte nv problem

wenn valve den treiber wirklich nicht zulässt wäre das imho nicht ok. das sollte noch immer jeder user selbst entscheiden dürfen.
ist ja schön wenn ati und valve zusammenarbeiten aber dieser marketingkrieg mit veröffentlichten benchmarks und dem deto 50 , der natürlich dann kurz darauf erscheint ( muss ? ) ist schon etwas lächerlich.

Ohne den Text gelesen zu haben, denke ich, dass das schnell erklärt ist. PS2.0 an und für sich werden sicher bald benutzt werden, aber diese +25 % gelten garantiert nicht für jedes Spiel. Vermutlich waren diese 25 % sogar nur in einem Bench oder nur in einem speziellen Spiel in einer bestimmten Situation, daher wird das in künftigen Spielen nix bringen.
Den Test finde ich auch recht sinnlos, was sollen denn die neuen Treiber schon für UT bringen? Ist ja so ein shaderintensives Game, ne? Und die einzigen halbwegs großen Verbesserungen bei den Shadern sind hier nur in 3dQuark zu erkennen, womit die Sache sich ja schon von selbst geklärt hat. ;)

Ich finde es IMHO absolut ok, wenn Valve den Det50 zum Benchen nicht zulassen will, wenn NV da wirklich so extrem viel cheatet. Tja, Valve kann sich sowas halt leisten, deren Spiel ist zu wichtig und außerdem steht hinter denen noch M$. (unglaublich, dass ich M$ mal als positiv empfinden würde)

Marketing-Krieg: Das findest du lächerlich, was? Hmm, das entbehrt nicht einer gewissen Ironie. Was glaubst, was NV seit Jahren schon viel krasser macht? Hast du schonmal versucht, dir vorzustellen was ein ATI-User denkt, wenn er diese ganzen TWIMTBP-Titel sieht (was aber scheinbar kaum was nützt :D)? ATI schlägt hier scheinbar mal zurück - na und? Was macht NV die ganze Zeit?

LovesuckZ
2003-09-12, 14:03:41
Original geschrieben von Keel
Ich finde es IMHO absolut ok, wenn Valve den Det50 zum Benchen nicht zulassen will, wenn NV da wirklich so extrem viel cheatet. Tja, Valve kann sich sowas halt leisten, deren Spiel ist zu wichtig und außerdem steht hinter denen noch M$. (unglaublich, dass ich M$ mal als positiv empfinden würde)


Man(n) ist solange unschuldig, bis die Schuld bewiesen ist. Anprangerungen sind wohl keine Legimitation einen Treiber nicht zu zulassen. Da Valve keine konkreten Beweise bringt (Screenshots etc.) ist das alles nur "ATi-Schutz".

Gast
2003-09-12, 15:00:35
Original geschrieben von LovesuckZ


Man(n) ist solange unschuldig, bis die Schuld bewiesen ist. Anprangerungen sind wohl keine Legimitation einen Treiber nicht zu zulassen. Da Valve keine konkreten Beweise bringt (Screenshots etc.) ist das alles nur "ATi-Schutz". [/SIZE]

Daß dein Beitrag genau in die gegenteilige Kerbe schlägt macht ihn auch nicht gerade ... ähhm ..."seriöser".

LovesuckZ
2003-09-12, 15:35:28
Original geschrieben von Gast
Daß dein Beitrag genau in die gegenteilige Kerbe schlägt macht ihn auch nicht gerade ... ähhm ..."seriöser".

Irgendwie scheinen Gaeste keine Ahnung von Diskussionen zu haben.
Er sollte seine Behauptung auch untermauern und nicht irgendein ein Muell daher reden. Kein beweis? Tja, dann lassen wir das mit den Thesen. Für mich sieht es zur zeit nur danach aus, dass der 51.75 deutlich die Leistung in HL2 steigern und Valve dies aus einem Grund wohl nicht gefallen werde: ATi.
Tja, und das passiert eben, wenn man seine Thesen nicht mit Argumenten stuetzt.

J@NuS
2003-09-12, 17:29:55
@Keel
Marketing Krieg:
Hmmm...ich seh es als Unterschied ob jemand Werbung in ein Spiel einbaut (NV-TWIMTBP) und es keine Sau interessiert (sowas wie Bandenwerbung an der Bushaltestelle) und da Kohle für an die Publisher abdrückt, oder ob jemand im Vorfelde eine kleine Art von Aufhetzung inszeniert, die scheinbar auf falschen Informationen beruht....obwohl wie gesagt, der "Hetzer" hier ja immer als Valve bezeichnet wird und wenn dem so wäre, würden Sie sich ins eigene Fleisch schneiden.

Und aufgrund dieser Dunkelinformationen ersehe ich dieses Ganze als "albern" und werde "abwarten und Tee trinken"!


=)

Gruss
Timo aka J@NuS

shane~
2003-09-12, 17:38:49
Ich finde dieses ’heiß Gemache’ in der Community langsam aber sicher total lächerlich. ’HL 2 – Benchmark’ hier, ’Deto 51.75’ da und ’Treiber – Cheating’ dort – in jeden Forum wird drüber bis zum abwinken diskutiert und das auf einem immer tiefer sinkenden Niveau!
Egal in welchem Forum man derzeit unterwegs ist, überall das gleiche:

HL2 - „ätsch, ich hab 'ne ATi und du bist der Looser“ oder
Deto 50sonstwas - „Nvidia ist nur am cheaten“ oder
„sche..e ist die FX in HL2 schlecht, jetzt hol ich mir ne ATi“ usw.

Ich glaub, würden sich solche Fanatiker auf der Straße treffen, die würden sich glatt auf die Fre… hauen. Wartet’s doch einfach ab!

Ich denke, das HL2 auch auf einer FX5800/5900 (die kleineren FX mal außen vor) vernünftig gezockt werden kann. Und ich denke auch, dass die neuen Deto’s hier und da gegenüber den bisherigen einiges bringen werden. Das man dabei nicht unbedingt überall Wunder erwarten kann, ist auch klar. ;)

Zudem bleibt ja die Entwicklung nicht stehen. Es dauert nun mal eine Zeit, bis eine neue Architektur komplett ausgereizt ist und Fehler beseitigt werden, siehe GF4, ’Flicker-fix’ oder auch bei ATi, die neuesten CATs (um nicht zu Nvidia-lastig zu sein :)).

Und was das ‚Cheating’ betrifft, ich finde es *völlig* legitim, das Treiber, auch für einzelne Games, optimiert werden. Wird in der normalen Softwarebranche auch nicht anders gemacht (SSE, 3DNow!, usw.).

Auch die, im Falle von Nvidia, vorgenommen Optimierungen in UT2003 sehe ich nicht als Cheating an, auch wenn die Bildqualität, nachgewiesener maßen, leicht darunter leidet. Aber mal ehrlich, fällt das beim zocken auf? Mir jedenfalls nicht. ATi machts beim anisotropen Filter genauso, und hier gleich bei allen (D3D-) Games. Und? Scheint in diesen Tagen niemand zu stören.

Zum Thema - Cheating bei den 3DMurks – Benches, wen interessiert das? Mittlerweile sollte doch jedem, der ein bissl Ahnung hat, klar sein, das man *diese* Benchmarks nicht wirklich dazu verwenden kann, *irgendetwas* miteinander zu vergleichen. Also was solls. Das einzige was man daraus schließen kann, ist, dass Optimierungen generell möglich sind, wie im Falle von 3DMurks03 besonders zu sehen (z.B. im Vergleich vom ersten zum aktuellen Deto für die FX) und ohne, das die BQ *offensichtlich* darunter leidet (’Pixelfanatiker’ werden das anders sehen…).

Wenn ich mir ein neues Game hole, erwarte ich, dass es fehlerfrei und akzeptabel läuft, egal ob irgendwelche Shader ersetzt werden oder anderweitig optimiert wird. Solange, wie die BQ nicht auf einmal ‚schwarz’ anstatt ‚weiß’ ist, kann ich damit leben.

Letztendlich ist das, was hier gerade passiert, genau das, was Valve und ATi bezwecken wollen: sie sind Thema Nr. 1… und Nvidia wird in dem Fall m. M. nach (bis jetzt) grundlos niedergemacht.

Gruß shane~

Keel
2003-09-12, 17:53:22
Original geschrieben von LovesuckZ


Man(n) ist solange unschuldig, bis die Schuld bewiesen ist. Anprangerungen sind wohl keine Legimitation einen Treiber nicht zu zulassen. Da Valve keine konkreten Beweise bringt (Screenshots etc.) ist das alles nur "ATi-Schutz". [/SIZE]

Da hast du natürlich absolut recht. Natürlich muss das erstmal bewiesen sein. Ich gebe zu, dass sich bei mir auf Grund der Ereignisse seit dem NV30 eine recht pessimistische Stimmung breitgemacht hat.

@ J@NuS

Bei vielen TWIMTBP-Games ist das auch der Fall, allerdings würde ich Stalker (naja, noch nicht so ganz) und Doom 3 da durchaus schon ernster nehmen. Sprüche wie "NV30 was designed to play D3" sind da schon eine recht aggressive Werbung, bei Stalker scheint sich ähnliches abzuzeichnen.

@ shane~

"Ich denke, das HL2 auch auf einer FX5800/5900 (die kleineren FX mal außen vor) vernünftig gezockt werden kann. Und ich denke auch, dass die neuen Deto’s hier und da gegenüber den bisherigen einiges bringen werden."

Die Frage ist, zu welchem Preis? NV hat in letzter Zeit ja gezeigt, wie sie oftmals "optimieren". Und ich will mir keine 300 € teure GraKa kaufen, um dann mit reduzierter Bildqualität spielen zu machen. Früher hätte ich das vielleicht noch gemacht, aber jetzt nicht mehr.

Ach, und noch etwas: Mir geht es darum, dass es ziemlich offensichtlich wird, wer in in absehbarer Zukunft noch die bessere Performance bieten wird. Warum sollte ich denn die offensichtlich schlechtere GraKa der besseren vorziehen? Da sehe ich keinen Sinn drin. (ach so: nix hier mit tolles AMD/Intel oder NV/ATI: ich will das bestmögliche für mein Geld haben, und das ist atm bei den GFX-Entwicklern scheinbar ATI).

"Und was das ‚Cheating’ betrifft, ich finde es *völlig* legitim, das Treiber, auch für einzelne Games, optimiert werden. Wird in der normalen Softwarebranche auch nicht anders gemacht (SSE, 3DNow!, usw.)."

Wer sagt denn etwas dagegen? Es geht um ganz andere Sachen...

"Auch die, im Falle von Nvidia, vorgenommen Optimierungen in UT2003 sehe ich nicht als Cheating an, auch wenn die Bildqualität, nachgewiesener maßen, leicht darunter leidet. Aber mal ehrlich, fällt das beim zocken auf? Mir jedenfalls nicht. ATi machts beim anisotropen Filter genauso, und hier gleich bei allen (D3D-) Games. Und? Scheint in diesen Tagen niemand zu stören."

1. Näh, es gibt durchaus User, die das Mitbanding sehen. Auf diesen Effekt muss manch einer nicht mal achten, um ihn zu sehen.
2. Tri ist tri, da hat NV kein "bri" draus zu machen.
3. Es wäre in dem Augenblick kein Cheat mehr, wenn sie ganz_einfach_nur einen Schalter in dem Treiber einbauen würden, mit dem das jeder selbst entscheiden kann.

Err, wer hat denn hier schon 3dQuark ernsthaft erwähnt?

"Wenn ich mir ein neues Game hole, erwarte ich, dass es fehlerfrei und akzeptabel läuft, egal ob irgendwelche Shader ersetzt werden oder anderweitig optimiert wird. Solange, wie die BQ nicht auf einmal ‚schwarz’ anstatt ‚weiß’ ist, kann ich damit leben."

Uff, na du bist la leicht zufriedenzustellen. Ok, das ist deine Sache, dem kann ich mich aber beim besten Willen nicht anschließen.

Exer
2003-09-12, 17:58:45
„sche..e ist die FX in HL2 schlecht, jetzt hol ich mir ne ATi“ usw.

naja. wenn man 500+ € in eine highend grafikkarte investiert , dann sollte man damit auch lange auskommen.

ich hab atm echt ne krise .. meine fx war defekt und es dauert wohl noch bis sie bei amazon ankommt.
theoretisch sollte ich also z.b auf ne hercules 9800 pro umsteigen können.

das ganze thema ist echt verwirrend , je mehr man darüber liest , um so schlimmer wird es.

was bringt mir z.B. ne fx5900 ultra , wenn sie wirklich schlecht performt , was alle neuen dx9 titel angeht ?
hier gehts schließlich nicht um 2-3 frames sondern um bis zu 50%. selbst wenn die ergebnisse übertrieben sind , sind sie doch vernichtend.

und ich hab auch keine Ahnung ob die neuen treiber dann wirklich was bringen - tomb raider soll z.B. nicht sehr viel schneller geworden sein.

die einen sagen fx , schnellste karte - die anderen heulen einen mit shader 2.0 geschwindigkeit zu. und ich hab noch 2-3 tage zeit um zu entscheiden , was das kleinere übel ist. :D

obwohl naja , irgendwie ist es ja eh egal. wenn ich mir ne radeon hole dann kommen sicher seltsame stalker benches und die radeons schmieren ab oder so.

:D

shane~
2003-09-12, 19:32:56
@Keel

Die Frage ist, zu welchem Preis? NV hat in letzter Zeit ja gezeigt, wie sie oftmals "optimieren". Und ich will mir keine 300 € teure GraKa kaufen, um dann mit reduzierter Bildqualität spielen zu machen.

Wo haben sie den optimiert? UT2003 und das wars (3DMurks mal außen vor). Und meine Meinung dazu kennst du. Bei ATi gehts dir nicht anders, eher schlechter, zumindest was anisotrophes Filtern betrifft (siehe http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/).

nix hier mit tolles AMD/Intel oder NV/ATI: ich will das bestmögliche für mein Geld haben, und das ist atm bei den GFX-Entwicklern scheinbar ATI).

Ja, aber nur scheinbar:

"Interestingly, in Anand's article addressing the HL2 performance issue, Valve specifically gave instructions to NOT use the Release 50 drivers which seems rather odd to me. If they could improve HL2's performance, then they would want that to be known, right? (http://www.athlonmb.com)"

Das impliziert ja schon fast, das die FX mit den 50er Dets enorm Boden gutmachen wird oder aber die BQ unter den Optimierungen leidet, was aber dann der 'Valve - ATi - Connection' eigentlich auch nur recht sein könnte. Naja, wer weis, wer weis... :)

Letztendlich wird man nie die beste Karte haben, und wenn, dann nur für kurze Zeit.

Ich bin mit meiner FX5900 zufrieden, Performance ist OK, TV-Out ist der Beste, den ich bis jetzt gesehen hab und ob neue DX9 Games laufen oder nicht, wird sich zeigen.

3. Es wäre in dem Augenblick kein Cheat mehr, wenn sie ganz_einfach_nur einen Schalter in dem Treiber einbauen würden, mit dem das jeder selbst entscheiden kann.


hab irgendwo gelesen, das dies mit den neuen Dets geschehen wird... weis nur nicht mehr wo ...abwarten!

...wie die BQ nicht auf einmal ‚schwarz’ anstatt ‚weiß’ ist, kann ich damit leben."

Das war Sinnbildlich gemeint... es wird irgendwo immer gewisse Unterschiede in der BQ aufgrund von diversen Optimierungen zwischen ATi und Nvidia geben.

Err, wer hat denn hier schon 3dQuark ernsthaft erwähnt?

Das war mal so allgemein, weils mir alles auf den Nerv geht. Egal.

@Exer

...wenn ich mir ne radeon hole dann kommen sicher seltsame stalker benches und die radeons schmieren ab oder so.

*so* wird es kommen :D

Gruß shane~

Keel
2003-09-12, 20:07:42
Wo haben sie den optimiert? UT2003 und das wars (3DMurks mal außen vor). Und meine Meinung dazu kennst du. Bei ATi gehts dir nicht anders, eher schlechter, zumindest was anisotrophes Filtern betrifft (siehe http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/).

Q3 (alle custom timedemos), praktisch jeder halbwegs wichtige synthetische Bench (ja sogar Demirugs Aniso-Tester!).
Ich sagte nicht, dass ATI nicht bescheißen würde (sie tun es eindeutig), aber ein gewisser Unterschied zwischen ATI und dem was NV treibt besteht doch zumindest.

Ja, aber nur scheinbar:

"Interestingly, in Anand's article addressing the HL2 performance issue, Valve specifically gave instructions to NOT use the Release 50 drivers which seems rather odd to me. If they could improve HL2's performance, then they would want that to be known, right? (http://www.athlonmb.com)"

Das impliziert ja schon fast, das die FX mit den 50er Dets enorm Boden gutmachen wird oder aber die BQ unter den Optimierungen leidet, was aber dann der 'Valve - ATi - Connection' eigentlich auch nur recht sein könnte. Naja, wer weis, wer weis... :)

Erstmal, das KANN es heißen, MUSS aber nicht. Und wie ich es bereits sagte, wenn die BQ darunter leidet, bin ich damit nicht einverstanden. Es ist meine Sache, wieviel BQ ich zugunsten der Performance opfere, da hat mir NV nicht dazwischenzufunken.

hab irgendwo gelesen, das dies mit den neuen Dets geschehen wird... weis nur nicht mehr wo ...abwarten!

Nein, sorry, aber das gilt definitiv NICHT! Das hieß es schon vor Monaten! Und nur mal so btw. (du hast es vermutlich nicht mitbekommen): NV bezeichnete dies anfangs als Bug. Mittlerweile bezeichnen sie es als Feature (sogar offiziell). Also nein, da trau ich NV definitv nicht über den Weg, das ist offensichtliche Verarschung. Sowas kannte ich bisher nur von M$: "It's not a bug - it's a feature."

Das war Sinnbildlich gemeint... es wird irgendwo immer gewisse Unterschiede in der BQ aufgrund von diversen Optimierungen zwischen ATi und Nvidia geben.

"Gewisse Unterschiede": das ist das Problem. Das ist eine äußerst dehnbare Formulierung. Natürlich setze ich mich nicht mit einer Lupe vor den Bildschirm, aber gewisse Sachen sind schon so offensichtlich, dass das nicht mehr verantwortbar ist.

doom1
2003-09-12, 20:49:06
vor allem sagt mir der Tets auf amdmb das der Deto 44.67 wohl kein schlechter ist :D

J@NuS
2003-09-12, 21:14:57
Hai!

Haut euch das mal rein:
http://www.gamestar.de/news/pc-spiele/action/13825/

Gruss
Timo aka J@NuS

Riptor
2003-09-12, 21:32:01
Dann mal ab ins Benchmark-Forum und den Fanatikern eins auf die... ... ;) Sorry, aber es wird so oder so schon genug geflamt, aber es ist klar, dass das ein Debakel für Valve bzw. ATI wird. Damit meine ich für die Leute, die durchblicken! Der Rest wird weiter rumrennen "Ati roxxxoort" etc. und den Bengeln muss man dann mal wieder in den Allerwertesten treten, damit die durchblicken... Arm, arm, was gerade abgeht, seit 3Dfx vs. nVidia derzeit der Höhepunkt im "Prestige-Kampf"... *kopfschüttel*

shane~
2003-09-12, 22:02:39
@Keel

... aber ein gewisser Unterschied zwischen ATI und dem was NV treibt besteht doch zumindest.

OK, da geb ich dir Recht. Da heißt es abwarten, was die neuen Dets beinhalten.
Vielleicht hat Nvidia draus gelernt, wie es ATi zurzeit scheinbar hat.

Aber: Dieses Problem, egal ob ATi, Nvidia oder sonst wer, werden wir immer wieder sehen, je nach dem wer gerade die schnellste Karte am Markt hat. Ist nur eine Frage der Zeit. :D

Erstmal, das KANN es heißen, MUSS aber nicht.

yepp, schrieb ich ja eigentlich auch so...

Es ist meine Sache, wieviel BQ ich zugunsten der Performance opfere, da hat mir NV nicht dazwischenzufunken.

Auch in diesem Punkt gebe ich dir Recht. Applikationsspezifische Optimierungen mit der Möglichkeit, diese selbst zu aktivieren/deaktivieren!

ATi funkt dir da aber genauso dazwischen, oder ist "eindeutiges Beschei..." etwa was anderes? *G*

hab irgendwo gelesen, das dies mit den neuen Dets geschehen wird... weis nur nicht mehr wo ...abwarten!
Nein, sorry, aber das gilt definitiv NICHT! Das hieß es schon vor Monaten!

Wie schon gesagt, abwarten! Oder kannst du das nach jetzigem Kenntnisstand wiederlegen?

---

Im Endeffekt bringt diese Diskussion nichts, jeder hat seine Meinung und sollte danach handeln.

Ich jedenfalls werde mir nicht extra wg. HL2 'ne ATi holen, nur weil mir das irgendwelche, im Moment nicht unabhängige Benchmarks so suggerieren wollen.

Ich kann natürlich die Leutz verstehen, die gerade jetzt vor einer Kaufentscheidung stehen. Würde mir vielleicht auch so gehen.

Aber jetzt nur wg. HL2 von NV auf ATi wechseln, ohne unabhängige Benches mit den neuesten Treibern zu kennen, halte ich für schwachsinnig, wenn Doom3 oder Stalker rauskommt, geht die schei.. womöglich wieder von vorne los (wenn vielleicht auch anders herum).

na dann,

Gruß shane~

winter
2003-09-12, 22:55:19
Wenn ich mir das hier so durchlese krieg ich echt das :kotz:
Was soll dieses ganze Treiber-Cheat-PS2.0-HL2-Doom3-rumgeLAME
Bin ich denn hier der einzige der mit seiner Grafikkarte vollauf zufrieden ist, auch wenn sie nicht der neuste Modell ist? Immerhin war es eine der ersten GF4 Ti 4200 die es in DT zu kaufen gab. Sie ist immernoch schnell. Aber was kümmerts mich, ob ich jetzt nun 300 oder 40 fps hab, das spiel wird dadurch nicht *anders*. Und wenn die NV karten wirklich so ablamen (was ich irgendwie nicht glauben kann) schaltet man halt die details runter. Und AA muss auch nicht wirklich sein (gegen AF sach ich jetzt mal nix, weil man den Unterschied wirklich merkt ;) Ich versteh nich wie man sich alle 2 Monate ne neue Graka kaufen kann, nur um Schneller zu sein als die anderen. Ich verkauf meine graka erst, wenn das erste Spiel, das ich wirklich Spielen will, unspielbar wird. Sonst ist es definitiv sinnlos sich eine neue Graka zu kaufen. Aber nehmen wir mal an, das müsste sein... Wie verhalten sich denn die beiden großen Hersteller?? Vorallem Nvidia flamet was das zeug hält und macht sich damit immer lächerlicher. Die benehmen sich wie kleinkinder. Für mich ist es doch nicht Kaufentscheident, ob der Hersteller mit seinem Besten Modell 300 Punkte mehr in irgendeinem Synthetischen Benchmark erreicht hat als sein Konkurrent. Außerdem erwarte ich von einer Grafikkarte mehr als das darstellen von Benchmarks, die nicht einmal Interaktiv zu benutzen sind (Techdemo Levels wie SSamSE und HL2 sind da doch schon wieder beeindruckend). Was ich von meiner Grafikkarte erwarte, ist, das alle spiele, die ich spiele Akzeptabel laufen. Dieses Kriterium erfüllt Momentan sogar noch eine GF4MX. Jetzt steigt die Hürde auf TI4200 an, wo die Shader erst richtig benutzt werden. Sicher, ich hätte wie jeder andere auch gerne die schnellste grafikkarte, aber das EINZIG und ALLEIN aus dem Grunde, dass sie länger hält. Meine letzte Grafikkarte war eine TNT2 M64, und meine nächste ist noch nicht abzusehen (warte aber wahrscheinlich bis DX 10).

Das nur als kleine Meinungswiedergabe von mir.

PS: Rechtschreibfehler werden nicht ausgebessert, da ich mich grade sehr aufrege ;)

StefanV
2003-09-12, 23:04:00
Original geschrieben von LovesuckZ
Irgendwie scheinen Gaeste keine Ahnung von Diskussionen zu haben.
Er sollte seine Behauptung auch untermauern und nicht irgendein ein Muell daher reden. Kein beweis? Tja, dann lassen wir das mit den Thesen. Für mich sieht es zur zeit nur danach aus, dass der 51.75 deutlich die Leistung in HL2 steigern und Valve dies aus einem Grund wohl nicht gefallen werde: ATi.
Tja, und das passiert eben, wenn man seine Thesen nicht mit Argumenten stuetzt.

Nur so zur Info:

Mich kotz dieses Gästegebashe in letzter Zeit einfach nur an!!

Sie sind genauso user wie JEDER andere auch, solange sie ihre 'Freiheit' nicht zum beleidigen nutzen, sehe ich KEINEN Grund sie dumm von der Seite anzumachen, besonders dann, wenn die Gäste weder unhöflich waren noch Müll geredet haben!!!

LS, in diesem Fall hat der Gast seine Meinung kundgetan, entweder du akzeptierst seine Meinung, du gehst auf ihn ein und fragst nach, was er wollte oder du machst nix!

Deine Reaktion ist absolut unangemessen gewesen!!!

Quasar
2003-09-12, 23:16:17
OT:
Mir sind heute mind. zwei Gast-Postings sehr negativ aufgefallen, da sie ausschließlich persönliche Angriffe zum Inhalt hatten und nichtmal einen Ansatz von Argument boten.
Manche Gäste sind anders, andere wiederum anders. Allein, wie soll man sie auseinanderhalten?

Auch wenn es unfair und pauschalisierend sein mag: Ich behandle Gäste zwar nicht per se unhöflich, aber als eine einzige "Entität".

Wer ohne Gesicht aus der Menge heraus spricht, kann nicht verlangen, individuell behandelt zu werden, da er durch sein Gast-Dasein ja von vorneweg jedwege Individualisierung ablehnt.

sorry an alle Gäste, denen ich Unrecht tue, früher war ich auch gegen geschlossene Foren.

StefanV
2003-09-12, 23:22:01
Original geschrieben von Quasar
OT:
Mir sind heute mind. zwei Gast-Postings sehr negativ aufgefallen, da sie ausschließlich persönliche Angriffe zum Inhalt hatten und nichtmal einen Ansatz von Argument boten.
Manche Gäste sind anders, andere wiederum anders. Allein, wie soll man sie auseinanderhalten?

Auch wenn es unfair und pauschalisierend sein mag: Ich behandle Gäste zwar nicht per se unhöflich, aber als eine einzige "Entität".

Wer ohne Gesicht aus der Menge heraus spricht, kann nicht verlangen, individuell behandelt zu werden, da er durch sein Gast-Dasein ja von vorneweg jedwege Individualisierung ablehnt.

sorry an alle Gäste, denen ich Unrecht tue, früher war ich auch gegen geschlossene Foren.
1. ja, es gibt die Gäste, die beleidigen, doch sind das WIRKLICH Gäste??
Meist hab ich so meine Zweifel, auch wenn es schon einige Spezies gibt, die nur einen meisen Tonfall haben und dessen Ausdrucksweise zu wünschen übrig lässt...

2. auseinanderhalten?
Tja, das ist halt ein Problem...
Ich gehe halt davon aus, daß jedes Posting von einem anderen ist...

3. nunja, wenn du alle Gäste als einen behandelst, was macht dich dann besser als die, die aus dem nichts rumbrüllen und andere schief von der Seite anmachen??
Das man sie schwer unterscheiden kann, ist ein großer Nachteil, auch gibts hin und wieder auch welche, die was sinniges Posten bzw sich nicht daneben benehmen...

PS: bin im großen und ganzen auch für Gäste, solange man mein 'Vertrauen' nicht missbraucht...
Wobei ich das je nach Forum unterschiedlich sehe...

thop
2003-09-12, 23:31:25
programmierer monatlich: mind. ca. 3.500 euroDa würd ich doch eher bei 10.000+ € anfangen, und da Vlve in den USA sind vermutlich 15.000$.

Abgesehen davon läuft die ganze Diskussion darauf hinaus dass die nV User es nicht akzeptieren können und nicht akzeptieren wollen dass nV mit der FFX Serie ein mieser Wurf gelungen ist.

Gast
2003-09-12, 23:42:47
Original geschrieben von Quasar
OT:


Wer ohne Gesicht aus der Menge heraus spricht, kann nicht verlangen, individuell behandelt zu werden, da er durch sein Gast-Dasein ja von vorneweg jedwege Individualisierung ablehnt.



Sehe ich genauso, deswegen beachte ich Gast posts nicht (überlese sie einfach).

(del676)
2003-09-12, 23:54:18
Original geschrieben von thop
Da würd ich doch eher bei 10.000+ € anfangen, und da Vlve in den USA sind vermutlich 15.000$.

Abgesehen davon läuft die ganze Diskussion darauf hinaus dass die nV User es nicht akzeptieren können und nicht akzeptieren wollen dass nV mit der FFX Serie ein mieser Wurf gelungen ist.

och wie süß

nvidia käufer sind also nur deppen :eyes:

tip: rote brille abnehmen

Kai
2003-09-13, 03:13:24
Original geschrieben von Ulukay
och wie süß

nvidia käufer sind also nur deppen :eyes:

tip: rote brille abnehmen

Das hat doch keine Sau gesagt. Es geht um nVidia, nicht um die Käufer ihrer Produkte.

Damals beim Pentium musste schon viel passieren, damit ich als eingefleischter Intelianer zu einem Athlon wechsle - und wie einige vielleicht noch wissen hab ich das auch getan ... das gleiche versuche ich momentan mit nVidia/ATI. Ich habe nie an der Integrität der nVidia-Produkte gezweifelt, aber mir persönlich reicht's jetzt. Warum wurde ja schon oft genug diskutiert und darum geht's ja hier auch gar nicht, aber ich für meinen Teil habe genug von den Wunder-Detonatoren.

Aja nochwas -> wenn ich nochmal soviel Trollereien hier rausklatschen muss, mache ich den Thread direkt dicht.

Radeonator
2003-09-13, 04:16:18
Programmierer verdienen ab ~ netto 1300 und das ist leider kein Witz!!! Die Zeiten wo Progger unsummen geboten bekamen sind vorbei...

Zum Rest bzw OnTopic : Abwarten und Teerauchen, aufregen kann man sich dann ja immer noch ;)

J@NuS
2003-09-13, 09:13:01
Man ist das Geil hier!
Ich glaub ich poste öfter was, worüber man sich den Schädel spalten kann ohne das irgendwas schon in den Regalen steht und vom allgemeinen Pöbel (uns) begutachtet wurde.

NVIDIA vs. ATI: Muhahahahahahahahahaha......

Hat nicht noch einer nen Amiga 500? Ich hab noch nen Atari ST rumstehen! Auf in den Kampf! OBERLOL!
Oder C64 vs. Atari XL oder Schneider oder Spectrum? Sega Saturn vs. PSone ist auch gern genommen. Oder Feuerzeug vs. Streichholz.

So, ich bau jetzt mein PC-Gerümpel mitsamt meiner absolut beschissenen Geforce5900Ultra von Gainward mit der ich absolut zufrieden bin und die auf meiner Kiste performanter läuft als eine 9800pro Excalibur von HIS (...hatte dazu mal was irgendwo im Forum geschrieben... jaja..ich weiss...es geht um HL2 und kommende Games...aber dazu kann ich, genau wie jeder andere, noch gar nix sagen), in meinen neuen XaserIII-Alu Tower!

Auf wiederschaun!

Gruss
Timo aka J@NuS

Exxtreme
2003-09-13, 09:14:50
Original geschrieben von Kai
Das hat doch keine Sau gesagt. Es geht um nVidia, nicht um die Käufer ihrer Produkte.

Damals beim Pentium musste schon viel passieren, damit ich als eingefleischter Intelianer zu einem Athlon wechsle - und wie einige vielleicht noch wissen hab ich das auch getan ... das gleiche versuche ich momentan mit nVidia/ATI. Ich habe nie an der Integrität der nVidia-Produkte gezweifelt, aber mir persönlich reicht's jetzt. Warum wurde ja schon oft genug diskutiert und darum geht's ja hier auch gar nicht, aber ich für meinen Teil habe genug von den Wunder-Detonatoren.

Aja nochwas -> wenn ich nochmal soviel Trollereien hier rausklatschen muss, mache ich den Thread direkt dicht.
Und wie läuft die Radeon bis jetzt?

(del676)
2003-09-13, 10:41:06
Original geschrieben von Kai
Das hat doch keine Sau gesagt. Es geht um nVidia, nicht um die Käufer ihrer Produkte.

Damals beim Pentium musste schon viel passieren, damit ich als eingefleischter Intelianer zu einem Athlon wechsle - und wie einige vielleicht noch wissen hab ich das auch getan ... das gleiche versuche ich momentan mit nVidia/ATI. Ich habe nie an der Integrität der nVidia-Produkte gezweifelt, aber mir persönlich reicht's jetzt. Warum wurde ja schon oft genug diskutiert und darum geht's ja hier auch gar nicht, aber ich für meinen Teil habe genug von den Wunder-Detonatoren.

Aja nochwas -> wenn ich nochmal soviel Trollereien hier rausklatschen muss, mache ich den Thread direkt dicht.

ja toll dass man DICH hat lange überzeugen müssen - mir isses egal was ich drin hab, ich hatte mehrere intel mehrere amd mehrere atis und mehrere nvidias

und weil ich zur zeit grad eine nvidia habe bin ich anscheinend einer der idioten die nix akzeptieren wolln oder was? solche dummen aussagen kotzen mich an

Kai
2003-09-13, 11:14:57
Original geschrieben von Ulukay
ja toll dass man DICH hat lange überzeugen müssen - mir isses egal was ich drin hab, ich hatte mehrere intel mehrere amd mehrere atis und mehrere nvidias

und weil ich zur zeit grad eine nvidia habe bin ich anscheinend einer der idioten die nix akzeptieren wolln oder was? solche dummen aussagen kotzen mich an

Du bist ja lustig, warum regst du dich eigentlich so auf? Hat denn irgendwer behauptet das du krank im Hirn bist, nur weil du ne nVidia-Karte hast? Mir persönlich geht's sogar quer irgendwo vorbei was du für ne Karte in deinem Rechner hast, ich habe lediglich von mir gesprochen.

Jedem das seine, mir das meine - so einfach ist das. Was wäre das denn hier für ein Forum wenn nicht jeder seine persönlichen Erfahrungsberichte zum besten geben kann, ohne gleich angejammert zu werden das man damit irgendwelche denunzierenden Absichten verfolgt. Wüsst ich's nicht besser, würde ich sagen du bist unzufrieden (aber ich weiss es ja besser, denn sonst hätt'ste ja keine nVidia-Karte, oder?)

Ich bin mal gespannt was hier abgeht, wenn der Deto50 wirklch eure Erwartungen erfüllt. Vorgewarnt sind wir jedenfalls schonmal (Als Mods)

@ Exxtreme:

Hätte nicht gedacht das sie so gut läuft. Respekt, seit der Radeon1 hat sich ne Menge auf dem ATI-Sektor getan - und ich verteidige mitnichten meinen Einkauf, hab ich noch nie gemacht. Hatte ja ebenfalls mehrere Karten und war nie scheu zu sagen was mir an denen nicht passt. Was mich mal interessieren würde, wären Config-Guides für die Karte, was Treiber, Bios, etc. angeht. Gibt's da in der Richtung etwas? Wie gesagt, bin normalerweise nVidianer und ich fühle mich ein bisschen unsicher. Du weisst schon: "Was könnte noch bremsen?" usw ...

Keel
2003-09-13, 11:17:19
OK, da geb ich dir Recht. Da heißt es abwarten, was die neuen Dets beinhalten.
Vielleicht hat Nvidia draus gelernt, wie es ATi zurzeit scheinbar hat.

Das hoffe ich auch. Lieber zu spät als nie.

Auch in diesem Punkt gebe ich dir Recht. Applikationsspezifische Optimierungen mit der Möglichkeit, diese selbst zu aktivieren/deaktivieren!

ATi funkt dir da aber genauso dazwischen, oder ist "eindeutiges Beschei..." etwa was anderes? *G*

Keinesfalls was anderes. Das was ATI da mit dem winkelabhängigen AF macht und auch das mit der Tri-Filterung ist nach meiner Auffassung Beschiss. Sobald ATI einen Schalter dafür einbaut und mir die Kontrolle über solche Einstellungen überlässt, ist es kein Cheat mehr. Gleiches gilt für NV, keine Frage.

Wie schon gesagt, abwarten! Oder kannst du das nach jetzigem Kenntnisstand wiederlegen?

Öh, jetzt hab ich den Faden verloren. Was soll ich widerlegen?
Falls du das in UT meinst: NV hat das mit dem "Bri"-AF beibehalten, sie bezeichnen es ja selbst als legale Optimierung. Grundsätzlich habe ich nichts dagegen, solange ich die Kontrolle über solche Einstellungen habe.

Ich jedenfalls werde mir nicht extra wg. HL2 'ne ATi holen, nur weil mir das irgendwelche, im Moment nicht unabhängige Benchmarks so suggerieren wollen.

Ok, das ist wahr. Mir persönlich ist HL2 schon ziemlich wichtig, auch wenn ich meinen Neukauf nicht ausschließlich daran festmachen werde. Aber ich befürchte, dass z.B. auch bei FarCry (einem sehr shaderlastigen Spiel) die Situation zwar vielleicht nicht so krass wie atm bei den in der Tat nicht unabhängigen Benches ist, aber dennoch wieder eindeutig zugunsten ATIs.

Aber jetzt nur wg. HL2 von NV auf ATi wechseln, ohne unabhängige Benches mit den neuesten Treibern zu kennen, halte ich für schwachsinnig, wenn Doom3 oder Stalker rauskommt, geht die schei.. womöglich wieder von vorne los (wenn vielleicht auch anders herum).

Oh keine Sorge, ich habe nicht vor, nur wegen ein paar Zahlen von Valve gleich loszustiefeln und mir eine neue GraKa zu kaufen. Mir bleibt durchaus noch etwas Zeit.
Zu deinem letzten Satz: Oh, das wird sogar mit Sicherheit passieren. :D

Exxtreme
2003-09-13, 11:27:40
Original geschrieben von Kai
@ Exxtreme:

Hätte nicht gedacht das sie so gut läuft. Respekt, seit der Radeon1 hat sich ne Menge auf dem ATI-Sektor getan - und ich verteidige mitnichten meinen Einkauf, hab ich noch nie gemacht. Hatte ja ebenfalls mehrere Karten und war nie scheu zu sagen was mir an denen nicht passt. Was mich mal interessieren würde, wären Config-Guides für die Karte, was Treiber, Bios, etc. angeht. Gibt's da in der Richtung etwas? Wie gesagt, bin normalerweise nVidianer und ich fühle mich ein bisschen unsicher. Du weisst schon: "Was könnte noch bremsen?" usw ...

Na dann herzlichen Glückwunsch. :)

Also die Treiber laufen out-of-the-box schon sehr gut. Da muss man eigentlich nichts tweaken.

Als Ergänzung kannste den aTuner und/oder das rTool noch installieren.

Wenn du dich richtig austoben willst, dann ist der R3D-Tweaker (http://www.rage3d.com/r3dtweak/) das Richtige. :)

shane~
2003-09-13, 14:04:30
@Keel

Öh, jetzt hab ich den Faden verloren. Was soll ich widerlegen?

Es ging darum, das ich gelesen hab, das bei den neuen Dets wieder ein application-Setting kommen soll. Ob man damit nun befähigt wird, die Optimierungen in UT2k3 zu deaktivieren ist eine andere Frage. Ist ja nun auch egal, demnächst wissen wir mehr...

Also wenn ich mir überhaupt Gedanken über 'ne neue Graka mach, dann darüber, ob es der NV40 oder R420 (oder was auch immer) wird. Ich investiere doch kein Geld in eine nun schon bald zwei Jahre alte Architektur (9700>9800XT). ;D

Und dann Warte ich wirklich, bis für die Karten ausgereifte Treiber verfügbar sind, zumindest nehme ich mir das vor... :eyes:

@J@NuS

... mein PC-Gerümpel mitsamt meiner absolut beschissenen Geforce5900Ultra von Gainward ...

*ggg*


Gruß shane~

mapel110
2003-09-13, 14:31:08
Messungen im c´t-Labor bestätigen zudem, dass sich die Tomb-Raider-Leistung mit dem neuen Treiber nur um rund 5 Prozent verbessert.
http://www.heise.de/newsticker/data/ad-13.09.03-004/

Quasar
2003-09-13, 15:09:01
Hat hier wieder jemand getrasht?

Komisch, LS's Posting war doch überhaupt nicht moderierungswürdig:

Nvidia zeigt sich einmal mehr als ausgesprochen schlechter Verlierer und stellt mit Erleichterung fest, dass Valve den Erstverkaufstag von Half Life 2 gerade von November 2003 auf Februar 2004 verschoben hat: Da habe man längst wieder neue Treiber und vor allem neue Grafikchips fertig.

???

Warum wurde das verschoben? OT? Dann dürften sich u.A. auch mal diverse Mods an die eigene Nase fassen.

mayo
2003-09-13, 15:38:48
Original geschrieben von mapel110
Messungen im c´t-Labor bestätigen zudem, dass sich die Tomb-Raider-Leistung mit dem neuen Treiber nur um rund 5 Prozent verbessert.
http://www.heise.de/newsticker/data/ad-13.09.03-004/

Geforce FX Besitzer können aber immernoch hoffen, dass die Leistungssteigerung bei HL2 grösser ist, da im 45.23 keinerlei Tweaking für HL2 enthalten ist, aber vielleicht für Tomb Raider, so dass der Deto 51.75 natürlich bei Tomb Raider nicht mehr so viel bringt.

[dzp]Viper
2003-09-13, 16:04:15
Original geschrieben von mayo
Geforce FX Besitzer können aber immernoch hoffen, dass die Leistungssteigerung bei HL2 grösser ist, da im 45.23 keinerlei Tweaking für HL2 enthalten ist, aber vielleicht für Tomb Raider, so dass der Deto 51.75 natürlich bei Tomb Raider nicht mehr so viel bringt.

och nö ..... noch ein gerücht was irgendjemand aufstellt, nur weil der 51.75 es in TRAOD nichts bringt ...

HILFE ..

mapel110
2003-09-13, 16:26:00
Original geschrieben von [dzp]Viper
och nö ..... noch ein gerücht was irgendjemand aufstellt, nur weil der 51.75 es in TRAOD nichts bringt ...

HILFE ..

na und? lass doch das gerücht wahr sein. dann hat halt nvidia trotz schon vorhandener optimierung eine grottige performance.
aber warten wir auf montag.

/edit
boah eh, hab doch glatt "war" anstatt "wahr" geschrieben. also langsam :grenade:

betasilie
2003-09-13, 16:32:52
Original geschrieben von Exxtreme
Wenn du dich richtig austoben willst, dann ist der R3D-Tweaker (http://www.rage3d.com/r3dtweak/) das Richtige. :)
Dann hat er auch gleich sein Refresh-Lock-Problem im Griff. ;)

Kai
2003-09-13, 20:57:22
Dieses Tool funktioniert bei mir irgendwie einfach nicht :| Ich will es nach der Installation starten, aber es passiert nix -> und dann kommt ne Meldung, das betroffene Programm würde nimmer reagieren :ratlos:

Exxtreme
2003-09-13, 21:05:37
Original geschrieben von Kai
Dieses Tool funktioniert bei mir irgendwie einfach nicht :| Ich will es nach der Installation starten, aber es passiert nix -> und dann kommt ne Meldung, das betroffene Programm würde nimmer reagieren :ratlos:
Mach mal einen Neustart. :)

Vielleicht hätte ich hinschreiben sollen, daß der R3D-Tweak schon immer leicht eigen gewesen ist. ;)

Kai
2003-09-13, 21:33:17
Original geschrieben von Exxtreme
Mach mal einen Neustart. :)

Wenn es über den Autostart läuft, geht es - aber ich will nicht, das es über den Autostart läuft. :-(

Exxtreme
2003-09-13, 21:38:13
Original geschrieben von Kai
Wenn es über den Autostart läuft, geht es - aber ich will nicht, das es über den Autostart läuft. :-(
Da kann ich leider auch nicht helfen. Ich nutze das Tool nicht weil es mir (und einigen anderen) das System zerschossen hat.

mapel110
2003-09-13, 21:46:30
bah, nen nvidia thread im nvidia forum und es geht um ati treiber und ati tweaker :stareup:

kai is schuld :bäh:

wieso so ein rotztool von tweaker? wer hat dir den empfohlen? nimm lieber radeonator 2.0. refresh-fix haben übrigens auch die ati treiber.

http://www.mapel110.privat.t-online.de/ati-treiber-refresh.JPG

/edit
mach auf jeden fall ddc support aus.

Gast
2003-09-13, 22:34:56
Also ehrlich eins vorweg:
Wie mancheiner hier Gäste anmacht hat eher was weg von Stammtischmentalität..., sehr bedenklich!
Ich bin sehr froh über eure Gastfreundschaft und möchte mich gern dafür bedanken!
Anonym bin ich eigentlich auch nicht, denn ich unterschreibe meine Meinung seit Jahren mit "up"!
Ich war auch registriert aber kann nicht mehr einloggen weil ich mein Kennwort durch einen verlaufenen Account verloren hab. Leider...

Aber endlich zum Thema (nl. den Detonator-Treibern!):
Mir fällt da eine Passage vom Demiurg aus seinem hervorragenden Beitrag zur CineFX Architektur:
[url=http://www.3dcenter.org/artikel/cinefx/index5.phpCineFX Architektur[/url]
Irgendwo im NV30 muss noch etwas vorhanden sein, was ihn bei 2.0-PS behindert.

Es wäre doch toll, wenn es den Programmeuren gelingt das Problem treibertechnisch zu lösen.
Nebenbei, die Nachricht des Tages ist doch, daß HL² scheinbar erst nächstes Jahr erscheint und wir erst die Demo samt Benchmark kriegen !?
(siehe Heise Newsticker von heute!)
Da bleibt satt Zeit und ehlich gesagt: So spannend war es lange nicht!

up

3rr0r
2003-09-13, 23:13:43
erst im februar 2004 also, damit ist dieses spiel endgültig für mich gestorben, da haben die (valve,ati,nvida) so eine hype darum gemacht und dann verschieben sie es, wenn interessiert heute was ich in 6 monaten für hw brauche damit ich ein spiel spielen kann, das wäre etwa wenn man und das ist nur symbolisch gemeint: unreal mit ner voodoo1 karte gebencht hat als es rauskamm, und sagt das die zu lahm sind das man da mindestens eine voodoo 2 oder 3 braucht dann rennt jeder in den laden holt sich so eine graka und dann auf einmal wird das spiel um fast ein halbes jahr verschoben und bis dahin sind heute zumindestens sicher wieder 2-3 graka modelle raus also für den moment reicht meine 5900 ultra , nächstes jahr kaufe ich sowieso ein komplett neues system,mit pci express amd 64fx nforce 3 und einem nv45 und wenn ich bis dann spielen kann wenn interessiert so ein abefu..ter benchmark von hl2 der heute aus meiner sicht unwichig ist wenn das spiel ja erst viel später kommt, und würde das spiel ogl laufen hätte ati keine chance nur weil nvidia nicht das machen wollte was microsoft machen wollte, es ist nicht valve und ati die cheaten, es ist ati und microsoft,bei valve kann ich mir das nicht vorstellen bei ati und M$ dagegen schon.
das sind meine meinungen und es muss nichts stimmen was ich hier geschrieben habe, aber es kann.!!!:chainsaw:


früher konnte man ja auch zwischen software,opengl und d3d auswählen dann hätten sich valve und nvidia sicher nicht so in den haaren und es wäre sicher nicht viel länger als 5 mal so lange zum proggen wie mit ati karten weil opengl beide karten unterstützen

Wishnu
2003-09-14, 00:18:29
Original geschrieben von 3rr0r
früher konnte man ja auch zwischen software,opengl und d3d auswählen dann hätten sich valve und nvidia sicher nicht so in den haaren und es wäre sicher nicht viel länger als 5 mal so lange zum proggen wie mit ati karten weil opengl beide karten unterstützen

Unter OpenGL hätten sie doch das gleiche Prob mit den Shadern gehabt...

Kai
2003-09-14, 00:49:26
Was den Release nächstes Jahr angeht: Die Nachricht kam von Heise. Von HEISE! (und wir alle wissen was das im Zusammenhang mit "brandheissen" Game-Infos bedeutet. Solange Valve nix anderes sagt kommt das Spiel diesen November.

3rr0r
2003-09-14, 01:05:01
mhh so weit ich weiss hat der pixelshader 2.0 von d3d nix mit den shadern von opengl zu tun

Gast
2003-09-14, 02:51:13
Der absolute Hammer ist ja, daß D3 (openGL!) auf der FX besser zu laufen scheint als aii =)

Exxtreme
2003-09-14, 07:56:46
Original geschrieben von Gast
Der absolute Hammer ist ja, daß D3 (openGL!) auf der FX besser zu laufen scheint als aii =)
Aber auch nur mit INT12 + FP16. =)

Gast
2003-09-14, 13:47:30
Original geschrieben von Exxtreme
Aber auch nur mit INT12 + FP16. =)

Aber warum? Erst bewirbt man die FX mit CineFX usw. und dann ist alles was ein bisschen weiter geht als DX 8 nur in der Sparausführung vorhanden.

Razor
2003-09-14, 13:49:15
Original geschrieben von Kai
Was den Release nächstes Jahr angeht: Die Nachricht kam von Heise. Von HEISE! (und wir alle wissen was das im Zusammenhang mit "brandheissen" Game-Infos bedeutet. Solange Valve nix anderes sagt kommt das Spiel diesen November.
War nicht mal was von ende September die Rede ?
???

Razor

(del676)
2003-09-14, 13:52:33
Original geschrieben von Razor
War nicht mal was von ende September die Rede ?
???

Razor

nein
warum?
ganz einfach: sie müssen bis Februar so viel ATI Karten wie möglich verkaufen (wahrscheinlich gibts die "Packages" jetzt schon, das game wird nachgeliefert)

weil wenn HL2 dann final is, und der Det50 da is dann is der Vorsprung weg - dann geht der ganze Werbeeffekt flöten

btw. aber wenn man wirklich zum SP gamen online sein muss dann hab ich mir schon 60€ gespart :D

Razor
2003-09-14, 14:01:40
Ähm... also irgendwie weiß ich Deinen Post jetzt so gar nicht zu interpretieren...
War das vielleicht sarkastisch gemeint ?
???

Razor

(del676)
2003-09-14, 14:41:52
Original geschrieben von Razor
Ähm... also irgendwie weiß ich Deinen Post jetzt so gar nicht zu interpretieren...
War das vielleicht sarkastisch gemeint ?
???

Razor

nein völlig ernst
schon alleine die tatsache das es HL2 + ATI Karten Packages geben wird muss sagt doch wohl schon alles oder?

[dzp]Viper
2003-09-14, 15:00:38
Original geschrieben von Ulukay
nein völlig ernst
schon alleine die tatsache das es HL2 + ATI Karten Packages geben wird muss sagt doch wohl schon alles oder?

es gab auch schon unreal + 3dfx packages ... also nix neues ;)

es ist nix anderes, wie als wenn einer anderen graka die vollversion eines spieles beiliegt ...genau das selbe ..

3rr0r
2003-09-14, 15:08:49
Original geschrieben von Ulukay
nein
warum?
ganz einfach: sie müssen bis Februar so viel ATI Karten wie möglich verkaufen (wahrscheinlich gibts die "Packages" jetzt schon, das game wird nachgeliefert)

weil wenn HL2 dann final is, und der Det50 da is dann is der Vorsprung weg - dann geht der ganze Werbeeffekt flöten

btw. aber wenn man wirklich zum SP gamen online sein muss dann hab ich mir schon 60€ gespart :D

und du denkst das ati bis februar den vorsprung wider gut macht, das glaube ich in der momentanen lage nicht ich denke der nv40 wird grundlegend geändert und bis dahin sicher eine wirkliche full dx9 karte auf der hl sicher mehr abrockt als auf einer ati 9600pro :D, aber lassen wir uns mal überaschen vielleicht bringt es nv fertig das die nv3x irgendwann doch mal volles dx9 unterstützt (treiber, bios).

3rr0r
2003-09-14, 15:13:41
Original geschrieben von [dzp]Viper
es gab auch schon unreal + 3dfx packages ... also nix neues ;)

es ist nix anderes, wie als wenn einer anderen graka die vollversion eines spieles beiliegt ...genau das selbe ..

nicht ganz weil das meistens demoversionen sind war damals bei hl auch so da war bei meiner voodoo banshee auch nur half-life : day one dabei und nicht die vollversion. zudem ist es etwas anderes wenn ich ein vorhandenes spiel mit einer graka bundle oder schon ein jahr zuvor sage das dieses spiel für ati karten ist und das es auf der konkurenz nur scheisse läuft, du kaufst die graka nur wegen dem game und das ist genau die strategie die ati hier verolgt.

Razor
2003-09-14, 16:04:50
Original geschrieben von Ulukay
nein völlig ernst
schon alleine die tatsache das es HL2 + ATI Karten Packages geben wird muss sagt doch wohl schon alles oder?
Zumindest sollte man den derzeitig veröffentlichten Benches nicht zuviel Gewicht beimessen. Ein öffentlich erhältliches Game (meinetwegen auch ein Bench oder eine Demo) und ein öffentlich erhältlicher Treiber (gerne auch Beta) wäre da schon wesentlich 'pausibler'.

So ist's einfach nur ein Furz im Wind !

Razor

Razor
2003-09-14, 16:05:49
Original geschrieben von [dzp]Viper
es gab auch schon unreal + 3dfx packages ... also nix neues ;)

es ist nix anderes, wie als wenn einer anderen graka die vollversion eines spieles beiliegt ...genau das selbe ..
Du weißt aber schon, dass U1 damals gewaltigst 3dfx-optimiert war ?
Oder wolltest Du damit Ulukay bestätigen ?
???

Razor

Razor
2003-09-14, 16:07:25
Original geschrieben von 3rr0r
...vielleicht bringt es nv fertig das die nv3x irgendwann doch mal volles dx9 unterstützt (treiber, bios).
Was genau wird von derzeitigen Treibern nicht bei DX9 unterstützt ?
(oder besser: was weniger, als bei ATI ?)
???

Razor

Demirug
2003-09-14, 16:12:30
Original geschrieben von Razor
Was genau wird von derzeitigen Treibern nicht bei DX9 unterstützt ?
(oder besser: was weniger, als bei ATI ?)
???

Razor

FP-Rendertargets.

Benedikt
2003-09-14, 16:22:31
Original geschrieben von Demirug
FP-Rendertargets.

Da gab's mal eine Thread auf beyond3d, wenn ich mich richtig erinnere, da kam die Behauptung auf NV3x würde gar keine (multiple-)FP-Rendertargets unterstützen...

Kommt da noch was in zukünftigen Treibern?

MfG

BW

Kai
2003-09-14, 16:42:18
Original geschrieben von Razor
So ist's einfach nur ein Furz im Wind !


Der Furz im Wind hat nVidia aber offenbar ziemlich gestunken.


the company claimed that the "performance numbers are invalid" because they do not use the v50 drivers, which will be released before Half-Life 2 is publicly available.

Quelle (http://www.gamespot.com/pc/action/halflife2/printable_6074973.html)


Wenn schon Benches, dann bitte mit einem Treiber der öffentlich erhältlich ist, wie bei ATI auch. Ich glaube ja auch das der Deto50 mehr reisst als das was wir bisher gesehen haben, aber ich weiss nicht, ich hab so ein Gefühl ... so ein dummes Gefühl das ich mir nach dem Release der 50er Deto's wieder die Finger wundmoderieren darf :-(

ow
2003-09-14, 16:47:49
Original geschrieben von Kai
Der Furz im Wind hat nVidia aber offenbar ziemlich gestunken.


Quelle (http://www.gamespot.com/pc/action/halflife2/printable_6074973.html)


Wenn schon Benches, dann bitte mit einem Treiber der öffentlich erhältlich ist, wie bei ATI auch. Ich glaube ja auch das der Deto50 mehr reisst als das was wir bisher gesehen haben, aber ich weiss nicht, ich hab so ein Gefühl ... so ein dummes Gefühl das ich mir nach dem Release der 50er Deto's wieder die Finger wundmoderieren darf :-(


Ist der Bench öffentlich? Nein.
Also wenn schon Benches, dann doch bitte mit finalen öffentlich verfügbaren Benchmarks und nicht unter 'Ati-kontrollierter' Umgebung.

Razor
2003-09-14, 17:09:25
Original geschrieben von Demirug
FP-Rendertargets.
Was ist das ?
Wofür braucht man das ?
(sorry für meine Unkenntnis)

Razor

Razor
2003-09-14, 17:12:00
Original geschrieben von Kai
Der Furz im Wind hat nVidia aber offenbar ziemlich gestunken.

Quelle (http://www.gamespot.com/pc/action/halflife2/printable_6074973.html)
Klar, ich wäre auch angepisst, wenn ich feststellen würde, dass ich mit jemanden zusamen arbeiten würde, dies dann aber doch nicht so ist. Offenbar wurden die Optimierungen im Deto50 zusammen mit Valve erarbeitet und nun einseitig einfach fallen gelassen.

IMO nicht gerade die 'feine' Art, oder ?

Zu dem Rest kannst Du die Antort von ow, als die Meinige betrachten.

Razor

Demirug
2003-09-14, 17:18:09
Original geschrieben von Benedikt
Da gab's mal eine Thread auf beyond3d, wenn ich mich richtig erinnere, da kam die Behauptung auf NV3x würde gar keine (multiple-)FP-Rendertargets unterstützen...

Kommt da noch was in zukünftigen Treibern?

MfG

BW

FP-Rendertargets beherscht der Chip schon (unter OpenGL geht es)

Das mit Multiplen stimmt teilweise. nVidia benutzt da eine etwas andere Technik.

Demirug
2003-09-14, 17:19:45
Original geschrieben von Razor
Was ist das ?
Wofür braucht man das ?
(sorry für meine Unkenntnis)

Razor

Die braucht man wenn man Fliesspunktwerte in einen Buffer rendern möchte.

Benutzen kann man dieses um die Genauigkeit bei einigen Spezialeffekten zu erhöhen.

aths
2003-09-14, 18:32:37
Original geschrieben von ow
Ist der Bench öffentlich? Nein.
Also wenn schon Benches, dann doch bitte mit finalen öffentlich verfügbaren Benchmarks und nicht unter 'Ati-kontrollierter' Umgebung. Naja, ATI wird sich kaum erlauben, ein grob verfälschendes Ergebnis produzieren zu lassen. Der Deto50 mag u.U. was bringen, NVs Einwand halte ich da natürlich für berechtigt, aber an der genrelle Überlegenheit der ATI-Karten in HL2 wird das wohl kaum was ändern.

ow
2003-09-14, 19:27:25
Original geschrieben von aths
Naja, ATI wird sich kaum erlauben, ein grob verfälschendes Ergebnis produzieren zu lassen.

Mag sein, aber Rausreden kann man sicher später doch immer "bench war noch nicht final, also performance auch noch nicht....".

Ich will unabhängige Benches mit den finalen Produkten (Bench&Treiber) sehen, alles andere ist zu sehr manipulierbar (ob das geschehen ist oder nicht sei mal dahingestellt).

StefanV
2003-09-14, 20:23:26
Original geschrieben von Razor
Klar, ich wäre auch angepisst, wenn ich feststellen würde, dass ich mit jemanden zusamen arbeiten würde, dies dann aber doch nicht so ist. Offenbar wurden die Optimierungen im Deto50 zusammen mit Valve erarbeitet und nun einseitig einfach fallen gelassen.

IMO nicht gerade die 'feine' Art, oder ?

Zu dem Rest kannst Du die Antort von ow, als die Meinige betrachten.

Razor

Wie wäre es mit einer anderen Möglichkeit:

Der nV30/35 ist nicht wirkich schneller und der Bench den Tatsachen, welche auch den Leistungsdaten der Chips entsprechen.

Nur nV ist sich zu fein dafür, den Fehler einzugestehen bzw versucht die eingenen 'Anhänger' hinzuhalten, bis man die nächste Generation ausliefern kann...

Razor
2003-09-15, 04:42:28
Original geschrieben von Demirug
Die braucht man wenn man Fliesspunktwerte in einen Buffer rendern möchte.

Benutzen kann man dieses um die Genauigkeit bei einigen Spezialeffekten zu erhöhen.
Thx für die Erklärung...
Nur würde dies nicht einer durchgehenden FP-Einheit wiedersprechen, wenn so etwas (unter D3D) nicht möglich ist ?

Razor

Razor
2003-09-15, 04:46:24
Original geschrieben von aths
Naja, ATI wird sich kaum erlauben, ein grob verfälschendes Ergebnis produzieren zu lassen.
Auch nicht angedenk ihrer demnächst erscheinenden Hardware und dem langsam dahin schwindenen Vorteil ?
Ich denke, dass sie ALLES machen werden, wenn sie dies zu ihrem Vorteil nutzen können !
(wie es wohl jeder in der Situation tunt würde und wohl auch macht ;-)

Ob sie das tun, mag dahin gestellt sein. Nur überprüfen kann man dies nicht.
Und noch eines: "Im Krieg (auch der Werbung) und in der Liebe ist ALLES erlaubt !"
:D
Original geschrieben von aths
Der Deto50 mag u.U. was bringen, NVs Einwand halte ich da natürlich für berechtigt, aber an der genrelle Überlegenheit der ATI-Karten in HL2 wird das wohl kaum was ändern.
Nicht, wenn Valve die Engine so geproggt hat, dass dies nicht möglich ist...

Razor

Razor
2003-09-15, 04:50:38
Original geschrieben von Stefan Payne
Der nV30/35 ist nicht wirkich schneller und der Bench den Tatsachen, welche auch den Leistungsdaten der Chips entsprechen.
Lies Dir nochmal die Ausführungen zu CineFX durch und auch die spekualtiven Tech-Specs zum NV35 und wiederhol das nochmal.
Original geschrieben von Stefan Payne
Nur nV ist sich zu fein dafür, den Fehler einzugestehen bzw versucht die eingenen 'Anhänger' hinzuhalten, bis man die nächste Generation ausliefern kann...
Klar.
Und der Leistungsunterschied zwischen HL2 umd AM3 ist nur deswegen so groß, weil ATI bei Valve NICHT 'interveniert' hat, meinetwegen die Engine von HL2 so 'wunderbar' geproggt wurde.

Also ich (bei Dir mag das ja anders sein ;-) brauche ein wenig mehr Fakten (und nicht dieses halbseidene Marketing-Gewäsch), um die Situation beurteilen zu können...

Razor

[dzp]Viper
2003-09-15, 08:37:11
Original geschrieben von Razor
Du weißt aber schon, dass U1 damals gewaltigst 3dfx-optimiert war ?
Oder wolltest Du damit Ulukay bestätigen ?
???

Razor

zu meiner Voodoo 3 gabs unrealtournamet dazu ... die vollversion ... ;)

StefanV
2003-09-15, 11:44:36
Original geschrieben von Razor
Lies Dir nochmal die Ausführungen zu CineFX durch und auch die spekualtiven Tech-Specs zum NV35 und wiederhol das nochmal.

Tja, dazu kommt noch die Latenz dazu, was man besonders im Vergleich von K6-2+/3(+) im Vergleich zu allem anderen, bei gleichem Takt, sieht...
und natürlich daran, daß W95 schon ab 350MHz absemmelt

Original geschrieben von Razor
Klar.
Und der Leistungsunterschied zwischen HL2 umd AM3 ist nur deswegen so groß, weil ATI bei Valve NICHT 'interveniert' hat, meinetwegen die Engine von HL2 so 'wunderbar' geproggt wurde.

Also ich (bei Dir mag das ja anders sein ;-) brauche ein wenig mehr Fakten (und nicht dieses halbseidene Marketing-Gewäsch), um die Situation beurteilen zu können...

Razor

Razor, schonmal dran gedacht, daß AM3 mehr auf DX8 ausgelegt ist und HL2 deutlich mehr PS2.0 Shader und sonstige DX9 Features nutzt und AM3 mehr PS1.1 nutzt?!?!

Exxtreme
2003-09-15, 12:25:36
Original geschrieben von Stefan Payne
Tja, dazu kommt noch die Latenz dazu, was man besonders im Vergleich von K6-2+/3(+) im Vergleich zu allem anderen, bei gleichem Takt, sieht...
und natürlich daran, daß W95 schon ab 350MHz absemmelt

Dieser Bug hatte ganz andere Gründe und hat nichts mit Latenzen zu tun.

StefanV
2003-09-15, 12:31:53
Original geschrieben von Exxtreme
Dieser Bug hatte ganz andere Gründe und hat nichts mit Latenzen zu tun.

Indirekt schon ;)

Direkt wars, weil M$ den Loop Befehl benutzt hat, um irgendwas bei Windows 95 zu timen (meine Meinung: welcher Volltrottel kam nur auf diese dämliche Idee??).

Doch, wie man als progger weiß, ist Loop langsamer als die 'Ersatzbefehle'...

Dummerweise war NextGEN beim NX686, auf welchem ja der K6 basiert, anderer Meinung und hat beides gleich schnell gemacht, so daß beide Befehle in einem Takt ausgeführt wurden...

Exxtreme
2003-09-15, 12:40:47
Original geschrieben von Stefan Payne
Indirekt schon ;)

Direkt wars, weil M$ den Loop Befehl benutzt hat, um irgendwas bei Windows 95 zu timen (meine Meinung: welcher Volltrottel kam nur auf diese dämliche Idee??).

Doch, wie man als progger weiß, ist Loop langsamer als die 'Ersatzbefehle'...

Dummerweise war NextGEN beim NX686, auf welchem ja der K6 basiert, anderer Meinung und hat beides gleich schnell gemacht, so daß beide Befehle in einem Takt ausgeführt wurden...
Nix indirekt aber ansonsten hast du recht mit dem Loop-Befehl. Deswegen hat Intel diesen besonders langsam gelassen (AFAIK 5,irgendwas Takte beim P3) damit es ja nicht zu Schwierigkeiten kommt.

Gast
2003-09-15, 14:04:01
http://www.heise.de/newsticker/data/uma-13.09.03-000/

ps2.0 wird durch aquamark demnach kaum genutzt

StefanV
2003-09-15, 14:38:56
Original geschrieben von Exxtreme
Nix indirekt aber ansonsten hast du recht mit dem Loop-Befehl. Deswegen hat Intel diesen besonders langsam gelassen (AFAIK 5,irgendwas Takte beim P3) damit es ja nicht zu Schwierigkeiten kommt.

AFAIK waren es 7, genau wie beim Athlon :)

Hat aber auch nur bis ~1Ghz gelangt ;)