PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Cheatet nVidia auch in den Treibern?


Exxtreme
2001-11-10, 20:19:05
Zieht euch mal dies rein:
www.within3d.de

Schaut euch mal die Screenshots an.

Gruß
Alex

Kai
2001-11-10, 20:27:06
Bei mir sieht das nicht so verwaschen aus. Ausserdem - wenn da ein Ansio beigeschaltet gewesen sein soll, heisse ich Fritz!

Die Radeon-Shots kommen mir dagegen sogar schon etwas zu scharf vor ... Zuer Erinnerung: sowas lässt sich sehr leicht manipulieren. (evtl. ein ATI User der sich wegen der Radeon-Affäre persönlich angegriffen fühlt? Wer weiss?)

Andre
2001-11-10, 20:40:23
Hallo Fritz ! :D

Kai
2001-11-10, 20:41:41
Sieht doch jeder das da kein Aniso beigeschaltet ist. Muss ich wieder Pics posten? :-(

Skinner
2001-11-10, 21:06:27
Würde auch mal sagen das da kein Filtering aktiviert ist :)
200FPS für 8fach Filter ist ein bissel viel ;)

Ich komme da nur auf 170 mit 8Fach ;D

nggalai
2001-11-10, 21:07:30
Im 3DGPU-Forum hauen sie sich auch schon die Köpfe ein, deswegen ... ich finds echt nur noch lustig. :)

ta,
.rb

GarretWork
2001-11-10, 21:13:53
Ich habe ne Geforce 2MX und dannach eine ATI Radeon VE gehabt und ich muss selbst sagen, dass beide Cheaten.

Exxtreme
2001-11-10, 21:24:54
Originally posted by nggalai
Im 3DGPU-Forum hauen sie sich auch schon die Köpfe ein, deswegen ... ich finds echt nur noch lustig. :)

ta,
.rb

Cool, bei www.rage3d.com auch.
http://www.rage3d.com/board/showthread.php?s=&threadid=33589174&perpage=20&pagenumber=1


Gruß
Alex

Skinner
2001-11-10, 21:29:00
Also ich behaupte einfach mal, das die beiden Bilder vertauscht wurden :)

Exxtreme
2001-11-10, 21:31:07
Originally posted by Skinner
Also ich behaupte einfach mal, das die beiden Bilder vertauscht wurden :)


:) :D :rofl: :D :)

Doomtrain
2001-11-10, 21:51:12
Originally posted by Skinner
Also ich behaupte einfach mal, das die beiden Bilder vertauscht wurden :)

Hättest du wohl gerne!!!

ow
2001-11-10, 21:53:41
Was mich da verblüfft ist die Tatsache, das die wohl nicht in der Lage sind, 2x im Screenshot denselben Frame zu zeigen.

Da gibt´s nämlich extra den Image Quality Test in 3DMark:

Skinner
2001-11-10, 21:54:37
Ist aber so....

Ceiser Söze
2001-11-10, 22:10:13
Mal abwarten wie sich das Ganze entwickelt (an alle GF3-User: Postet doch auch mal ein Paar Pics zum Vergleich). Ich glaube zwar auch nicht recht daran (dafür sehen die GF3-Shots zu schlecht aus) und darum habe ich ja auch vorerst auf ein Urteil verzichtet. Aber es kann ja nichts schaden, das Ganze einfach mal zu erwähnen... ;)

Skinner
2001-11-10, 22:12:12
*arg*

Das Bild in meinen letzten Posting ist von einer GF3

nggalai
2001-11-10, 22:21:45
Offenbar hat Sharkfood die unglaubliche Entdeckung gemacht, dass ATi und NVIDIA nicht diesselben MIP-map LOD Bias und -Thresholds verwenden!!!!!

*end_sarcasm*

Je nach Treiberversion ist die Bildqualität bei GF im control panel entweder auf "best image quality" oder "blend" eingestellt, nachm frischen installieren. Man kann aber problemlos auf best quality switchen, oder aber, wenn man so will, auch auf best performance setzen. Was daran verwerflich sein soll ...

Andererseits geht im Moment im 3DGPU-Forum echt die Post ab. Offenbar finden Viele trotz Sharkfoods Ruf die Sache so interessant, dass sie ihre Fan-Käppi aufzusetzen und die Fan-Käppi-Träger der Opposition fröhlich beschimpfen müssen.

Ich sag's ja--wenn's nicht so lustig wäre, wär's schon fast traurig.

ta,
.rb

ow
2001-11-10, 22:27:06
Zum Testen der Filterqualität empfehle ich den 3D Winbench2000.
Der entlarvt alle Cheats.

Screenshot zum mipmap-lod-bias:

aths
2001-11-10, 22:55:48
Skinner, zu deinem Bild, hast du das mit anisotropic filtering oder ohne geschossen?

nggalai
2001-11-10, 23:13:58
Hi aths, hi everybody,

tEd hat im Beyond3d-Forum eine ganze Reihe GF3 screenshots gepostet:

http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=1283

ta,
.rb

aths
2001-11-11, 01:39:51
Sieht so aus, als wäre der "Cheat" ein Cheat, so dass der Cheat kein Cheat ist...

BTW ich sag ja immer, dass "64"-tap (8x) am besten aussieht :)

Kai
2001-11-11, 01:41:37
Originally posted by aths


BTW ich sag ja immer, dass "64"-tap (8x) am besten aussieht :)

Hmm, ja - auf Shots schon :) Aber beim daddeln merke ich echt keinen Unterschied .. (Bis auf die Performance :D)

Skinner
2001-11-11, 10:33:23
Originally posted by aths
Skinner, zu deinem Bild, hast du das mit anisotropic filtering oder ohne geschossen?

Mit :)

Originally posted by Kai
Hmm, ja - auf Shots schon Aber beim daddeln merke ich echt keinen Unterschied .. (Bis auf die Performance )
[/B]

Also die Bildqualität ist doch deutlich besser, das merkt man auch beim daddeln ;)

Korak
2001-11-11, 12:42:50
Originally posted by Skinner


Also die Bildqualität ist doch deutlich besser, das merkt man auch beim daddeln ;)

Me merkt das nur in CS sonst nirgends. In anderen Games höchstens im Singleplayer, aber da auch nur selten.

Unregistered
2001-11-11, 13:16:54
Hehe für mich ist das einfach nur die allgemein übliche Geforce-Qualität.

Gruss P.

skampi
2001-11-11, 14:48:54
Hehe, ich verweise gerne nochmal auf meine Posting vor ca. 2 Wochen.

http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=5893&highlight=Erwischt

Die Entrüstung, die mir da engegenschlug. Verleumdung! Und speziellen Gruß an "Razor";)

gruß
skampi

Haarmann
2001-11-11, 15:12:18
Mal Ruhe bewahren und abwarten...
Ev isses ja auch wieder nur ein Feature ;-) oder aber halt ein Bug. Und Bugs passieren halt hie und da. Also warten wirs mal ab - ich bin mir sicher, dass man davon noch hören wird, wenns wirklich stimmt was die Leute bemerkt haben wollen.
Cheat isses erst, wenns wirklich zu sehen ist und kein Bug mehr sein kann.

P.S. Mich kann man ja definitiv nicht als NV Freund definieren.

ow
2001-11-11, 17:10:10
Was soll der Quatsch?

Ist doch nur der erbärmliche Versuch irgendwelcher ATi Fraks, NV schlecht zu machen.

Haarmann
2001-11-11, 17:52:07
Is wohl ne GF3 mit 30 fps ... Gelle OW...
Ich plädiere fürs Abwarten.
Interessant wärs für mich mal, A is das echt nur die Einstellung im Treiber, und viel Relevanter, was hatte der 20.80 da als Default drin...

Labberlippe
2001-11-12, 12:23:42
He Jungs wo bleibt der Aufschrei, achso bei nv ist es wieder einmal legitim.
Da ist man mal ein paar Tage nicht online und dann sowas.
Im Treiber sollte auch hier eine niedrigere MipMap Stufe verwendet werden.
Freilich den kann man immer noch verändern, aber wieviel Tester checken dieses?
Richtig, fast keiner.
Was bringts?
Bessere Werte beim benchen.

Gruss Labberlippe

Unregistered
2001-11-12, 12:47:52
Originally posted by Labberlippe
He Jungs wo bleibt der Aufschrei, achso bei nv ist es wieder einmal legitim.
Da ist man mal ein paar Tage nicht online und dann sowas.
Im Treiber sollte auch hier eine niedrigere MipMap Stufe verwendet werden.
Freilich den kann man immer noch verändern, aber wieviel Tester checken dieses?
Richtig, fast keiner.
Was bringts?
Bessere Werte beim benchen.

Gruss Labberlippe


vollunterschreib

Razor
2001-11-12, 13:14:49
Also, nun mal langsam Jungs...
;-)

Soweit ich mir das mal angeschaut hab' sind da folgende Dinge zu brücksichtigen:

1) welche Treiber wurden benutzt ?
2) welche Einstellungen lagen dem zugrunde (MipMap=BestImageQuality=Default) ?
3) gibt es irgendwelche offiziellen Berichte, außer diesem Forum-Gequatsche ?

Solange solche Dinge nicht fest stehen, ist alles andere reiner Humbug !
Also abwarten und...
;-)

In diesem Sinne

Razor

P.S.: Spezielle Grüße auch an Dich, skampi !
;-)

Kai
2001-11-12, 13:33:06
Nu iss aber gut. Wenn diese Sensationsfanatiker die diese "Enthüllung" verbrochen haben zu "blöd" sind nen Treiber zu bedienen, tut's mir wahnsinnig leid.

Den roten Kopf müsste ich nicht kriegen ;) Diese Angelegenheit ist meiner Meinung nach absolut nicht mit der ATI "Affäre" vergleichbar ... (über die ich mich auch nicht aufgeregt habe, weil es mir im eigentlichen Sinne ziemlich wurscht ist).

Andre
2001-11-12, 13:44:16
Originally posted by Labberlippe
He Jungs wo bleibt der Aufschrei, achso bei nv ist es wieder einmal legitim.
Da ist man mal ein paar Tage nicht online und dann sowas.
Im Treiber sollte auch hier eine niedrigere MipMap Stufe verwendet werden.
Freilich den kann man immer noch verändern, aber wieviel Tester checken dieses?
Richtig, fast keiner.
Was bringts?
Bessere Werte beim benchen.

Gruss Labberlippe

Um nochmal den Unterschied zu verdeutlichen, Labberlippe.
Bei ATI wurde OHNE Einstellmöglichkeit des Users die Bildqualität von Q3 runtergesetzt - ich habe keine Chance ausser dem Umbenennen von Q3, hier einzugreifen.
Bei NV habe ich definitv die Möglichkeit Mipmap-Stufen einzustellen - und ich bezweifle vehement, dass diese Einstellung per default auf best performance oder blend stehen soll.
Ich habe mind. 20 Detos installiert und bei allen wird die Einstellung auf Best Quality gestellt.
Das ist der kleine aber feine Unterschied.
Und wenn die Tester es nicht raffen, in die Treiberoptionen reinzugucken, dann sollten die sich nen neuen Job suchen.

Razor
2001-11-12, 13:48:21
@Andre

Die Tester werden das u.U. noch tun...
(Checkliste für Test's)

Aber offensichtlich hat sich dieser Gerüchte-Köchler da 'nen bischen verhaun'...
(ob das nun absichtlich war, oder nicht, mag mal dahin gestellt sein ;-)

In diesem Sinne

Razor

Haarmann
2001-11-12, 14:51:11
Abwarten hat mal wieder gelohnt ;-)

Offenbar isses echt nur eine Treibereinstellung. Und das det per Default ned mehr auf schön aussehen steht, geht mir eigentlich am A... vorbei. Kann doch jeder umstellen.
Es gibt nur einen Treiber, so diese Voreinstellung ein klarer Cheatversuch wäre, und das ist 20.80. Ein Treiber, der nur zum Zwecke des Benchens an HW Seiten ging.
Ansonsten dürfen doch die Defaults sein, wie sie wollen. Es ist zwar wünschenswert, dass die auf HQ sind, aber sicher nicht zwingend. Dahingehend ist das nicht mit ATIs Bug zu vergleichen (Bisher hat mir noch niemand bewiesen, dass der neue ATI Treiber im Q3 langsamer sein soll).

Also ruhig Blut - aber Laberlippe hat trotzdem recht mit seiner Äusserung ;-).

Labberlippe
2001-11-12, 15:14:31
Hi

Mir geht es hier einfach ums Grundprinzip.
Die Radeon wurde sofort verteufelt, auch wie es sich noch nicht als 100% Cheat entlarvt hatte. (Was mittlerweile ja ist. )

Hier werden die nVIDIA Kritiker gleich als Sensationsgeier hingestellt oder gar behauptet dies sei von einen ATi User als fake erstellt worden um ATi besser dazustehen lassen.
Immer die gleichen Argumente, die ganze Welt hasst nVIDIA und verschwört sich gegen diese Firma.
Kritik wird gennerell abgelehnt.
Es wird solange versucht die eigene Meinung allen einzhämmern, bis der Kontrahent entnervt aufgibt.


Genau das sind solche Punkte wo ich nur den Kopfschütteln kann.
Hier ist der Fall nicht so schlimm wie bei ATI, da man ja die Option im Treiber verändern kann.
Ihr wisst aber auch ganz genau das nur eine Handvoll Seiten wirklich ernsthaft Testen.
Die anderen machen einen kurzen Test und installieren die Treiber Standart.
Schon haben wir einen Überflieger von den Frames.
Wenn immer mit Qualität getetstet wird dann sieht man sehr wohl Unterschiede.

Ihr habt Links gepostet und da sieht man deutlich das ATi die bessere Bildqualität hat, wenn man die GeForce Karten auf die gleichen Settings bringt, bricht die Framerraten ein.
Aber solche Tests werden überlesen und andere als unfähig bezeichnet.

Das ist typisches Scheuklappen denken, S3 Texturkompression geht noch immer nicht aber es leigtim.
Wenn das bei einen anderen Hersteller wäre würde es nur so an Kritik hageln.

Wenn man den Test liest zwischen einer Radeon und GeForce2(einer war auch hier) geht meistens die positive Bewertung der Bildqualität an ATi.
Bei Dronez und Aquanox hat ATi auch die Nase vorn. Cheat?

Kritik ja, Aussagen mir Vorsicht geniessen ja, aber dieser Thread zeigt deutlich wo der Hase liegt.
Betreff: nv Jünger und "Unterstellungen".
Genau die, die am lautesten gegen ATI gemeckert haben, sind jetzt am ruhigsten.

Gruss Labberlippe

Vollstrecker
2001-11-12, 15:24:50
a

Labberlippe
2001-11-12, 15:33:01
Originally posted by Vollstrecker
labber doch nicht labberlippe.

Finde ich schon, aber Du könntest auch Argumentieren statt sinnlos labbern.
Wie gesagt ich persönlich finde das die Radeon schärfer zeichnet, was auch hier im Radeon vs. GeForce2 Test mehrmals bestätigt wurde.

Gruss Labberlippe

Andre
2001-11-12, 15:34:17
Ich spreche mal für mich:

Ich habe beim ATI-Cheat nicht sehr laut geschrien, habe sogar betont, dass ich es eigentlich gut finden würde, wenn ATI NV mal den Hintern heiss macht.
Auch kann ich in meinen Aussagen keinerlei Fanatismus für NV erkennen, ich versuche mich fast immer relativ neutral zu halten.
Dennoch ist doch wohl eines klar:

Wenn ein Cheat für Dich schon bei einer mickrigen Treibereinstellung liegt, dann hätten wir eigentlich nur noch Cheater.
Denn wenn man will, kann man jede Einstellung nach dieser Definiton als Cheat bezeichnen.
Du stimmst mir zu, dass das zu weit geht ?

Ich lehne Kritik nicht ab, aber jeder der sie äussert muss damit leben, dass ich sie nach logischen Fehlern untersuche und entsprechende Anmerkungen dazu mache.

Ich will doch gar nicht die Fehler von NV verleugnen, habe ich nie getan, aber die Tour von ATI damit zu entschuldigen, dass NV es nicht besser macht, ist und bleibt absolut lächerlich.

Razor
2001-11-12, 17:16:33
@Laberlippe

Nicht aufregen...
;-)

Noch einmal:
(und nur damit hier einiges klar gestellt ist)

- 3D-Quali bei beiden gleich
- SQ: gf3 = sehr gut / R200 = ?
- DX7-Performance: R200 auf Ti200-Nivau
- DX8-Performance: R200 besser als Ti500
- OpenGL-Performance: R200 auf Ti200-Nivau
- Q3-'Optimierung' kann bei R200 NICHT beeinflußt werden !

Und das soll hier keine neue Diskussion anbringen, sondern lediglich die bisherigen Fakten darlegen...

OK ?

Razor

P.S.: Warum soll ich jetzt wild mit den Armen rudern ? Jeder, der 'ne gf3 hat kann das selber nachprüfen, oder ? (und davon gibt's schon so einige ;-)

nggalai
2001-11-12, 17:26:38
Ich lehne Kritik nicht ab, aber jeder der sie äussert muss damit leben, dass ich sie nach logischen Fehlern untersuche und entsprechende Anmerkungen dazu mache.

Ich will doch gar nicht die Fehler von NV verleugnen, habe ich nie getan, aber die Tour von ATI damit zu entschuldigen, dass NV es nicht besser macht, ist und bleibt absolut lächerlich.

*unterschreib*

ta,
-Sascha.rb

Labberlippe
2001-11-12, 17:44:10
Den Cheat von ATi hatte ich auch verurteilt.
Ich schrieb auch im oberen Posting das dieses nicht so schwerwiegend ist, da man dieses ja im Treiber umstellen kann.

Das einzige was ich nicht abkann, sind solche Aussagen.

"evtl. ein ATI User der sich wegen der Radeon-Affäre persönlich angegriffen fühlt? Wer weiss?"

"Wenn diese Sensationsfanatiker die diese "Enthüllung" verbrochen haben zu "blöd" sind nen Treiber zu bedienen, tut's mir wahnsinnig leid."

"Ist doch nur der erbärmliche Versuch irgendwelcher ATi Fraks, NV schlecht zu machen."


Versteht Ihr was ich meine?
Solche Sprüche, da ist noch nichts richtig belegt oder wiederlegt worden, aber immer eines mit der Kelle rauf.

Als Cheat sehe ich das ganze auch nicht, aber wie gesagt, sobald Kritik kommt......

@Andre, ich bin ja Deiner Meinung, mir ging es jetzt eher um die Gangart.


Gruss Labberlippe

Razor
2001-11-12, 17:47:35
@Laberlippe

Ich hab's extra 'vorsichtig' formuliert:
"Aber offensichtlich hat sich dieser Gerüchte-Köchler da 'nen bischen verhaun'...
(ob das nun absichtlich war, oder nicht, mag mal dahin gestellt sein ;-) "

Oder ?
;-)

Razor

Labberlippe
2001-11-12, 17:50:19
Originally posted by Razor
@Laberlippe

Ich hab's extra 'vorsichtig' formuliert:
"Aber offensichtlich hat sich dieser Gerüchte-Köchler da 'nen bischen verhaun'...
(ob das nun absichtlich war, oder nicht, mag mal dahin gestellt sein ;-) "

Oder ?
;-)

Razor

Yepp das vermutlich schon, aber alle kann man nicht in einen Topf werfen.
Vielleicht war auch ein Fehler beim installieren.?
Nur solche Aussagen (wie oben angeführt und gleich schreien das böse frustrierte ATi ler Ihr Werk treiben ist Heavig.

Wie gesagt mir gings nur ums Prinzip
Na da bin ich mal auf das Statement der anderen gespannt.
Deswegen habe ich ja Deinen Satz nicht mit angeführt, da er noch vorsichtig formuliert war.
die anderen Sätze sehe ich als einen festen Witz an.

Gruss Labberlippe

Razor
2001-11-12, 17:55:00
@Laberlippe

Ausnahmsweise bin ich wohl nicht gemeint gewesen...
;-)

Ich würde doch mal wirklich allen hier vorschlagen, einfach mal abzuwarten und zu schaun', ob's nicht bald irgendetwas offizielleres, als 'ne Forums-Diskussion dazu gibt.

In diesem Sinne

Razor

ow
2001-11-12, 19:21:04
Originally posted by Andre

und ich bezweifle vehement, dass diese Einstellung per default auf best performance oder blend stehen soll.
Ich habe mind. 20 Detos installiert und bei allen wird die Einstellung auf Best Quality gestellt.
D


Absolut exakt, bei mir dasselbe.
Standard ist 'höchste Bildqualität', mit ALLEN von mir getesteten Dets.

RAL
2001-11-12, 20:40:48
same here, war immer auf "best quality".
Laberlippe: Also jemandem, der nichtmal diese Einstellung checkt, bevor er Gerüchte um schlechtere Bildqualität in die Welt setzt, kann ich nur Unfähigkeit oder Vorsatz bescheinigen, siehst du das anders? Die Treibereinstellung checken wäre ja wohl das erste was man macht, wenn einem etwas seltsames in der Bildqualität auffällt.

Labberlippe
2001-11-12, 20:48:43
Originally posted by RAL
same here, war immer auf "best quality".
Laberlippe: Also jemandem, der nichtmal diese Einstellung checkt, bevor er Gerüchte um schlechtere Bildqualität in die Welt setzt, kann ich nur Unfähigkeit oder Vorsatz bescheinigen, siehst du das anders? Die Treibereinstellung checken wäre ja wohl das erste was man macht, wenn einem etwas seltsames in der Bildqualität auffällt.

Keine Frage "Unfähigkeit" kann man solchen Testern sicher vorwerfen.
Aber nehmen wir zum beispile mal div. benches her.
Quake3 mit der Timedemo bei 140fps hast Du keine Zeit zum gucken mehr oder erkennst Du bei vollen Speed die Bildqualität?
Manche mahcen einfach schnell nen Test notieren sich die Werte und das wars.

Aber wie gesagt als cheat kann man das gane nicht werten, aber ein netter Versuch sicher.

Gruss Labberlippe

RAL
2001-11-12, 20:57:16
Klar, also wenn bei allen Treiberversionen die Einstellung "best quality" default ist und nur bei einem einzigen, den man zum benchen verschickt, diese Einstellung eine Stufe tiefer steht, ist das wahrscheinlich ein Betrugsversuch und wird leicht übersehen, sehe ich auch so. Frage ist nur, ob es so ist...gibt es diesen Treiber wirklich?

Vollstrecker
2001-11-12, 21:11:46
a

StefanV
2001-11-12, 21:31:07
@Vollstrecker

Keine Beleidigungen und keine Flames bitte!!

Kai
2001-11-12, 21:36:47
Originally posted by Labberlippe
Hier werden die nVIDIA Kritiker gleich als Sensationsgeier hingestellt oder gar behauptet dies sei von einen ATi User als fake erstellt worden um ATi besser dazustehen lassen.

Wenn's anders herum abgelaufen wäre, wäre es ganz genauso gekommen - nur umgekehrt! Ist doch klar, das man gleich an einen persänlichen "ATI'ler Rachefeldzug" denkt ...

Vollstrecker
2001-11-12, 21:39:44
a

Vollstrecker
2001-11-12, 21:58:07
a

Thowe
2001-11-12, 22:02:18
Ich hoffe ihr wisst das gerade ihr es seit die solche Aktionen hervorufen?

Solange alle schreien ich hab den längsten Balken (in Quake3 und Murks) ;)

Der erste der hier in der Lage ist etwas objektives zu schreiben, eine ATI 8500 und eine GF3 sein eigen nennt und diese Karten mit allem was ihm wichtig ist getestet hat und mit den Treibern die ihm das beste Ergebnis bringt ...

Der kann ja gerne einen Erfahrungsbericht schreiben, aber solange ihr nicht beide Lager kennt seit ihr nichts weiter als das Wort das ihr hier ..... einsetzen mögt.

Die Darstellungsqualität einer Grafikkarte ist nicht zu pauschalisieren, steht sie doch in Abhängenkeit von den Spielen die man spielt und von den Einstellmöglichkeiten/Features der Karte. Das empfinden dieser ist letztendlich aber subjektiv!

Die Geschwindigkeit einer Grafikkarte ist doch auch völlig egal, solange alles in ausreichender zu spielen ist.

Aber ihr könnt gerne weiterhin übereinander herziehen, vielleicht gibt es ja demnächst ein "Sandkastenforum". Da könnt ihr euch dann richtig austoben ... "Schneeballschlacht rulez".

Ich zumindest bin diesen sinnlosen Diskussionen längst müssig, gebe aber die Hoffnung nicht auf das es ein paar "Erwachsene" es doch noch mal lernen sich an die eigene Nase zu packen und zu erkennen das sie auch nicht besser sind. Gleiches Recht für alle? Klar "Auge um Auge, Zahn um Zahn".

Hossa, lasst uns wieder in unsere Höhlen gehen.


...

Meine Grafikkarte ist Scheisse, aber scheissen ist ein tägliches Bedürfnis.

Andre
2001-11-12, 22:03:10
Originally posted by Labberlippe
Versteht Ihr was ich meine?
Solche Sprüche, da ist noch nichts richtig belegt oder wiederlegt worden, aber immer eines mit der Kelle rauf.

Als Cheat sehe ich das ganze auch nicht, aber wie gesagt, sobald Kritik kommt......

@Andre, ich bin ja Deiner Meinung, mir ging es jetzt eher um die Gangart.


Gruss Labberlippe

Ok, da sind wir einer Meinung.
Aber manche können sich eben nicht anders ausdrücken - ich sehe sowas eher nüchtern.
Ich ignoriere diese Postings bzw. als Mod greife ich nach Bedarf ein - und lege umso mehr Wert auf das Urteil derjenigen, die Ahnung von der Materie haben UND sich ausdrücken können.

Xmas
2001-11-12, 22:03:42
Vollstrecker, wenn du in deinem Posting keine Beleidigung und keine Flames finden kannst, tust du mir leid...

Andre
2001-11-12, 22:07:46
@ Vollstrecker

Wenn Du Deine Meinung mal in ordentlichen Worten ausdrücken würdest, würden Dich manche auch ernst nehmen.
Und ich schließe mich Stefan an, diese ATI/NV-Flame-Postings sind so sinnvoll, wie ne Kuh aufm Mond.
Also lass es einfach.

aths
2001-11-12, 22:14:06
"Hier werden die nVIDIA Kritiker gleich als Sensationsgeier hingestellt oder gar behauptet dies sei von einen ATi User als fake erstellt worden um ATi besser dazustehen lassen."

Hm. Ich diskutiere gelegentlich, um mit meinen dürren technischen Kenntnissen zu protzen. Von keiner Firma bekomme ich Geld oder Vergünstigungen, wenn ich Produkt oder Namen XYZ hoch halte.

Das Forum ist mir zwar im Großen und Ganzen tendenziell zu nVidia-freundlich, aber das bessert sich ja auch :) Zumal diese Tendenz mit (heutiger) Marktführerschaft erklärbar ist.

Mir reicht die reine Anwender-Sicht ausdrücklich nicht. Ich möchte verstehen, was da nun intern abläuft, und was Feature soundso nun eigentlich heißt. So wie ich das sehe, ist das hier den meisten unwichtig. Viele greifen höchstens Marketing-Schlagworte auf, womit eine Diskussion schlecht möglich ist.

Exxtreme
2001-11-12, 22:20:22
Tja, das haben nun alle davon. Ich denke, daß nVidia und ATI jetzt sehr stark auf Speed optimieren - wenn auch manchmal mit "unorthodoxen" Methoden siehe ATI's Treibercheat. Und warum? Kaum ein Tester schert sich um Signalqualität, Bildqualität, Ausstattung usw. Das fast einzige Merkmal, das zwischen gut/schlecht unterscheidet, sind FPS. Schaut mal in die Reviews der Hardware-Sites rein. Eine Seite Einführung, eine für die technischen Daten, eine für die Features und dann ellenlang Benchmarktabellen, die oft sehr viel mehr umfassen als die o.g. Seiten. Da wird auf Zehntel FPS genau gemessen, auch wenn es keine Praxisrelevanz hat. Schaut euch mal die Reviews in den einschägigen Zeitschriften an, vor Allem die Bewertungsschlüssel. Meistens 60% Speed, 30% BQ und 10% Ausstattung.
Tja, eine GraKa, die auch nur wenige Prozentpunkte langsamer ist, ist halt "nur" noch die No. 2.
Lustig ist, daß einige hier im Forum die R8500 eher mit der GF3Ti 200 vergleichen. Das sind halt die Leute, die sich den Zwiebelmurks-Leitspruch zu Herzen genommen haben: "Framerate is Life". Die Tester haben gesagt, daß FPS das Wichtigste sind, also ist dies so, und die R8500 ist nicht schneller als die GF3 Ti 200. <sarkasmus> Zum Glück jemand, der einen das Denken abnimmt </sarkasmus>. Wenn euch ausschliesslich die Framerate interessiert bitteschön, kauft euch eine GraKa mit vielen FPS - mit allen Vor- und Nachteilen. Aber bitte nicht hinterher meckern wegen was auch immer. Die Situation sieht IMHO jetzt so aus: Die Käufer/HW-Tester wollen fast ausschliesslich viele FPS haben, also bekommen sie die auch - ohne Rücksicht auf Verluste.
Meine Meinung.


Grüsse
Alex

Labberlippe
2001-11-12, 22:20:35
Originally posted by RAL
Klar, also wenn bei allen Treiberversionen die Einstellung "best quality" default ist und nur bei einem einzigen, den man zum benchen verschickt, diese Einstellung eine Stufe tiefer steht, ist das wahrscheinlich ein Betrugsversuch und wird leicht übersehen, sehe ich auch so. Frage ist nur, ob es so ist...gibt es diesen Treiber wirklich?

Eben es bleibt halt die Frage ob der Anwender nicht selbst einen Fehler in seiner Konfiguration hat.
Vielleicht hat er auch kaum eine Ahnung was er auf seinen System macht aber verteufeln sollte man auch nicht gleich alles.
Ich schätze da müsten mir eingige Recht geben.
Aufgrund von den vorherigen Postings habe ich auch mal ne stärkere Gangart eingelegt.
Also nix für ungut.

Gruss Labberlippe

Labberlippe
2001-11-12, 22:25:32
Originally posted by Vollstrecker
es gibt diesen Treiber nicht, denn ich kann es bestätigen. Ich hab bis jetzt soweit ich mich erinnere alle Detos installiert und wieder deinstalliert, und das immer und immer wieder (Hab GF3), und bis jetzt war die MipMap Detailstufe immer auf höchste Bildqualität eingestellt, denn ich bräuchte dort nicht zu ändern nach einer Treiberinstallation. Das war auf jeden Fall ein Betrugversuch, nur um NV schlecht darzustellen, nur weil die Hohlköpfe von ATI es nicht verstehen wollen, dass Sie den Kampf gegen NV schon längst verloren haben, in Bilduali sowohl auch in Speed, denn das ist nun mal die Wahrheit und wenn manche Leute hier wie der Labbelippe nicht die Wahrheit verkraften können, tut es mir auch sehr leid für denen.

1. Du kannst mich auch direkt Ansprechen und nicht von der Seite.

2. Du bist einer der typischen parolen werfer, Argumentation hast Du bis jetzt noch keine vernünftige gebracht.
Wenn Du dann noch nachfragst in welchen Postings Du beleidigen bist, dann zweifle ich mal daran ob Du überhaupt deine Posts durchliest bevor Du auf Submit gehst.

Zur Info: Vorrausgesetzt das war Absicht dann kann man dieses nicht ATi vorwerfen, geschweige denn allen anderen ATi "Fan".
Dronez zeigt deutlich das die Schrift der R8500 besser ist.
Performance mässig reichen momenten alle Karten R8500, Ti200/500-
Wie gesagt für meine Anwendungen kommt nur eine R8500 in Frage, welche auf alle Fälle meine nächste Karte sein wird.

Überdenk mal Deine Ausdrucksform, wird Dir viel erleichtern im Leben.

Gruss Labberlippe

Labberlippe
2001-11-12, 22:27:23
Originally posted by Kai


Wenn's anders herum abgelaufen wäre, wäre es ganz genauso gekommen - nur umgekehrt! Ist doch klar, das man gleich an einen persänlichen "ATI'ler Rachefeldzug" denkt ...

Naja aber sicher nicht solche Ansagen wie hier.
(Zumindest von mir)

Aber keine Frage nv hätte auch die volle Breitseite bekommen. :-)

Gruss Labberlippe

Labberlippe
2001-11-12, 22:28:27
Originally posted by Vollstrecker
Guter Stefan Payne, diesmal war ich sogar sehr artig und habe auch keinen beleidigt, zitiere doch mal bitte an welcher stelle meines Postings ich jemanden beleidigt habe, damit ich es verstehen kann, und so, dass ich Zukunft so etwas sein lasse.

Jetzt bin ich aber mal gespannt. Und Bitte missbrauche deine Position als Moderator nicht, in dem du jemanden vorwirfst, er würde unartig sein, wenn immer etwas gegen ATI argumentiert wird. OK !!! Du Schlumpf !!! Nur weil du eine Postingsgrösse von 7203 hast, heisst das lange nicht, dass du hier immer recht haben muss !!!

Mit ohne freundlichen Grüssen von Atakan Dana (Vollstrecker)

Das Posting kann aber nicht Dein ernst sein, was?

Gruss Labberlippe

Labberlippe
2001-11-12, 22:31:06
Originally posted by Thowe
Ich hoffe ihr wisst das gerade ihr es seit die solche Aktionen hervorufen?

Solange alle schreien ich hab den längsten Balken (in Quake3 und Murks) ;)

Der erste der hier in der Lage ist etwas objektives zu schreiben, eine ATI 8500 und eine GF3 sein eigen nennt und diese Karten mit allem was ihm wichtig ist getestet hat und mit den Treibern die ihm das beste Ergebnis bringt ...

Der kann ja gerne einen Erfahrungsbericht schreiben, aber solange ihr nicht beide Lager kennt seit ihr nichts weiter als das Wort das ihr hier ..... einsetzen mögt.

Die Darstellungsqualität einer Grafikkarte ist nicht zu pauschalisieren, steht sie doch in Abhängenkeit von den Spielen die man spielt und von den Einstellmöglichkeiten/Features der Karte. Das empfinden dieser ist letztendlich aber subjektiv!

Die Geschwindigkeit einer Grafikkarte ist doch auch völlig egal, solange alles in ausreichender zu spielen ist.

Aber ihr könnt gerne weiterhin übereinander herziehen, vielleicht gibt es ja demnächst ein "Sandkastenforum". Da könnt ihr euch dann richtig austoben ... "Schneeballschlacht rulez".

Ich zumindest bin diesen sinnlosen Diskussionen längst müssig, gebe aber die Hoffnung nicht auf das es ein paar "Erwachsene" es doch noch mal lernen sich an die eigene Nase zu packen und zu erkennen das sie auch nicht besser sind. Gleiches Recht für alle? Klar "Auge um Auge, Zahn um Zahn".

Hossa, lasst uns wieder in unsere Höhlen gehen.


...

Meine Grafikkarte ist Scheisse, aber scheissen ist ein tägliches Bedürfnis.

Der Meinung bin ich auch.
Wenn man es genau nimmt liegen die Top Karten nicht weit auseinander, differenzen wird es immer geben.
Mal ist die eine Karte bei der Engine vorne mal bei der anderen.
Jeder hat nunmal seine eigenen Favouriten.
Ich habe gute Erfahrung mit den ATi Karten ander mit nVIDIA.

Gruss Labberlippe

Labberlippe
2001-11-12, 22:35:19
Originally posted by aths
"Hier werden die nVIDIA Kritiker gleich als Sensationsgeier hingestellt oder gar behauptet dies sei von einen ATi User als fake erstellt worden um ATi besser dazustehen lassen."

Hm. Ich diskutiere gelegentlich, um mit meinen dürren technischen Kenntnissen zu protzen. Von keiner Firma bekomme ich Geld oder Vergünstigungen, wenn ich Produkt oder Namen XYZ hoch halte.

Das Forum ist mir zwar im Großen und Ganzen tendenziell zu nVidia-freundlich, aber das bessert sich ja auch :) Zumal diese Tendenz mit (heutiger) Marktführerschaft erklärbar ist.

Mir reicht die reine Anwender-Sicht ausdrücklich nicht. Ich möchte verstehen, was da nun intern abläuft, und was Feature soundso nun eigentlich heißt. So wie ich das sehe, ist das hier den meisten unwichtig. Viele greifen höchstens Marketing-Schlagworte auf, womit eine Diskussion schlecht möglich ist.

Eben ich sehe eher das ganze von den "normalen" Endkunden aus.
Nicht jeder braucht einen Grafikboliden ala Ti500.
Andere Karten haben auch Vorteile, ich kann zwar nicht mit den kompletten Technischen wissen mithalten aber die Grundbegriffe kenne auch ich.
Ich denke schon das ich aufgrund meiner Erfahrung beurteilen kann, was brauchbar ist und was nicht.
Es ist halt leider so das die Kunden nur das Kaufen oder die jenigen am lautesten Schreien welche sich die Info von der Verpackung holen und mit fps kontern.
Das wird sich aber nie ändern, solange div. Zeitschriften und Seiten nicht die Kunden aufklären wird die Sache auch nicht besser.

Gruss Labberlippe

Exxtreme
2001-11-12, 22:37:03
Originally posted by Vollstrecker
Guter Stefan Payne, diesmal war ich sogar sehr artig und habe auch keinen beleidigt, zitiere doch mal bitte an welcher stelle meines Postings ich jemanden beleidigt habe, damit ich es verstehen kann, und so, dass ich Zukunft so etwas sein lasse.

Jetzt bin ich aber mal gespannt. Und Bitte missbrauche deine Position als Moderator nicht, in dem du jemanden vorwirfst, er würde unartig sein, wenn immer etwas gegen ATI argumentiert wird. OK !!! Du Schlumpf !!! Nur weil du eine Postingsgrösse von 7203 hast, heisst das lange nicht, dass du hier immer recht haben muss !!!

Mit ohne freundlichen Grüssen von Atakan Dana (Vollstrecker)

Ey Junge, ich glaube du solltest dir ein anderes Forum suchen. Hier bist du IMHO eindeutig falsch. Auch wenn hier manchmal echt die Fetzen fliegen, Beleidigungen haben HIER NICHTS ZU SUCHEN!! Wir sind hier nicht bei Heise. ;) Also entweder du passt dich an oder such dir lieber ein anderes Forum.
Meine Meinung.


Grüsse
Exxtreme

Andre
2001-11-12, 23:34:09
Und meine auch.

StefanV
2001-11-12, 23:43:03
Originally posted by Vollstrecker
Guter Stefan Payne, diesmal war ich sogar sehr artig und habe auch keinen beleidigt, zitiere doch mal bitte an welcher stelle meines Postings ich jemanden beleidigt habe, damit ich es verstehen kann, und so, dass ich Zukunft so etwas sein lasse.

Jetzt bin ich aber mal gespannt. Und Bitte missbrauche deine Position als Moderator nicht, in dem du jemanden vorwirfst, er würde unartig sein, wenn immer etwas gegen ATI argumentiert wird. OK !!! Du Schlumpf !!! Nur weil du eine Postingsgrösse von 7203 hast, heisst das lange nicht, dass du hier immer recht haben muss !!!

Mit ohne freundlichen Grüssen von Atakan Dana (Vollstrecker)

1. Oh, und dennoch benutzt du kraftausdrücke??

2. Du hast nicht JEMANDEN beleidigt, sondenr eine GRUPPE.

3. Hier wird viel wert auf einen Guten umgangston gelegt

4. das ich über 7000 Postings hab, bedeuten nur, daß ich viel geschrieben hab.
Daraus könnte man schließen, daß ich viel spamme (was ich nicht tue).
Oder aber, daß ich viel weiß und dementsprechend viel sagen kann.

Daraus kann man schließen, daß ich vielen geholfen hab.

nggalai
2001-11-12, 23:51:13
> Absolut exakt, bei mir dasselbe.
Standard ist 'höchste Bildqualität', mit ALLEN von mir getesteten Dets.

Die Originatoren dieser ganzen Diskussion sind mitlerweile so weit, dass sie entweder behaupten, dass Leute, welche die schlechte Bildqualität nicht reproduzieren können einfach nur einer eigenen Agenda folgen (i.e. lügen), noch Registry-Reste drin haben, welche den LOD-Bias auf "best quality" stellen, oder aber nachm installieren der Treiber erst im control panel "best quality" angewählt haben, i.e. dass der Treiber eben NICHT auf best quality defaultet, sondern erst auf zutun des Users.

*schluterzuck*

Ich kann jedenfalls dieses Phänomen auch mit sauberen ghost-images und ohne Nachprüfen im Control Panel nicht reproduzieren und warte mal auf was "offizielleres".

ta,
-Sascha.rb

Thowe
2001-11-13, 00:03:47
Originally posted by nggalai
[i]>
Ich kann jedenfalls dieses Phänomen auch mit sauberen ghost-images und ohne Nachprüfen im Control Panel nicht reproduzieren und warte mal auf was "offizielleres".

ta,
-Sascha.rb

hast aber auch noch nicht die 22.80 getestet ... wenn du denn die Zeit findest.

AlfredENeumann
2001-11-13, 00:12:25
Originally posted by Labberlippe


Eben ich sehe eher das ganze von den "normalen" Endkunden aus.

...

Das wird sich aber nie ändern, solange div. Zeitschriften und Seiten nicht die Kunden aufklären wird die Sache auch nicht besser.



Das unterschreibe ich dir voll und ganz. Ich fand den Test auf Chip.de dementsprechend OK. Wo man auch mal die sache von einer anderen seite gesehen hat. Dementsprechend das Statement zu 3D:

3D-Leistung
Betrachtet man aktuelle DirectX-7- oder OpenGL-1.2-Spiele, so wäre die GeForce3 Ti 500 der Radeon 8500 mehr oder weniger überlegen. Nur reicht die Performance aller getesteten Grafikkarten in diesem Segment bei Weitem aus. Vielmehr wurde versucht, die Leistung in kommenden Top-Titeln auf der DirectX-8- oder OpenGL-1.3-Schnittstelle zu beurteilen.

In diesem Fall heißt der Sieger Radeon 8500, was an dem Spiel Aquanox deutlich wird - wobei wohl erst zukünftige Spiele endgültig Klarheit bringen werden. Sobald auf Nvidia-Grafikkarten alle DirectX-8-Benches reibungslos ablaufen und ATI endlich saubere Treiber programmiert, wird eine Neubeurteilung der aktuellen Grafikkarten fällig sein.


Ich finde dieses hin- und her bei Grafikkarten dieser Preis-/Leistungsklasse eh hirnverbrannt. Schnell sind die Karten alle. Egal wo. Der eine liebt DIE Ausstattung der andere GAR KEINE. Ist doch sch... egal. Wenn jeder glücklich mit seiner Karte ist, warum muß man ihm diese madig machen?

Genauso ist es wenn hier eingie Aussagen verbreiten, die sie mal irgendwo gelesen haben, oder nur vom hörensagen kennen. Ich habe auf keiner Webseite jemals gelesen das z.B. die Treiberprobleme EXACT beschrieben wurden. Es hieß immer nur z.B. "lief nicht" oder "lief erst nach mehreren Versuchen" oder "stürzte ab". Das passiert mit anderen Karten auch. Aber hat sich jemand mal die mühe gemacht nachzuprüfen, ob es vielleicht auch an was anderes gelegen haben könnte? Sind die Treiber eines Herstellers und ALLER seiner Karten deshalb schlecht?

nggalai
2001-11-13, 00:14:29
Hi Thowe,

> hast aber auch noch nicht die 22.80 getestet ... wenn du denn die Zeit findest.

Ah, liest Du auch Beyond3D? ;)

Ehrlich gesagt, ich will da echt nicht nochmehr Zeit drin investieren. Wenn aber einer hier gerade Lust hat, wäre ich an Infos betreffend der 22.80er-Situation interessiert--hätte ich Sharkfoods Sachen aufmerksamer durchgelesen, hätte ich das wohl auch eher mit dem Treiber statt mitm 22.50er ausprobiert.

ta,
.rb

nggalai
2001-11-13, 00:18:11
Zu deinem anderen Posting:

*100% unterschreib*

und meine Grafikkarten sind auch scheisse. *nickt*

ta,
.rb

Thowe
2001-11-13, 00:19:48
Originally posted by nggalai
Hi Thowe,

> hast aber auch noch nicht die 22.80 getestet ... wenn du denn die Zeit findest.

Ah, liest Du auch Beyond3D? ;)

Ehrlich gesagt, ich will da echt nicht nochmehr Zeit drin investieren. Wenn aber einer hier gerade Lust hat, wäre ich an Infos betreffend der 22.80er-Situation interessiert--hätte ich Sharkfoods Sachen aufmerksamer durchgelesen, hätte ich das wohl auch eher mit dem Treiber statt mitm 22.50er ausprobiert.

ta,
.rb

Klar, Beyond3D ist doch immer noch die beste Site für Experten und Experten

z.B. der hier (http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=3&threadid=1305) ist gut "Nvidia's new mobile chip to fight the PowerVR MBX"

Thowe
2001-11-13, 00:22:16
Originally posted by nggalai
Zu deinem anderen Posting:

*100% unterschreib*

und meine Grafikkarten sind auch scheisse. *nickt*

ta,
.rb

:D

Haarmann
2001-11-13, 00:23:41
Ich hab auch schon mal behauptet, dass nicht jeder NV Treiber per default auf best Quality steht...
Ich kann ja mal meine ca 50-100 NV Treiber durchwühlen. 5.08 is fast sicher ein heisser Kandidat dafür. Auch der 1.88 oder 2.08 is fast sicher nicht auf HQ.

RAL,

relevant ist in der Beziehung eigentlich nur eben der 5.08 und der 20.80. Aber ich denke hier hat niemand den 20.80 je zu sehen bekommen... mit nem 5.08 für 9x kann ich aushelfen.

Vollstrecker,

Also bei mir begannen die Detos irgendwie mit Versionen, die nicht für GF3 Karten geschrieben waren... mein ältester im Archiv is glaubs 1.1... aber glaub mirs auch der geht mit einer GF3.

Globaler gesagt... Eine Graka, die soviel Bilder hergibt, wie der Monitor ausgibt, ist gleich gut, wie eine, die 10 mal soviele Bilder ausgeben könnte... was die aber ned tut, weil der Monitor ned mehr ausgibt.

Leonidas
2001-11-13, 03:11:52
Originally posted by Labberlippe
He Jungs wo bleibt der Aufschrei, achso bei nv ist es wieder einmal legitim.
Da ist man mal ein paar Tage nicht online und dann sowas.
Im Treiber sollte auch hier eine niedrigere MipMap Stufe verwendet werden.
Freilich den kann man immer noch verändern, aber wieviel Tester checken dieses?
Richtig, fast keiner.
Was bringts?
Bessere Werte beim benchen.

Gruss Labberlippe



1. Geht die Sache wieder mal aufs Konto unterbelichteter synthetischer Benchmarks. Solange es nur 3DMark und den DroneZ-Benchmark (der nicht das Spiel ist) betrifft, interessiert das eigentlich überhaupt nicht.

2. Diese unbelichteten Benchmarks haben unüblicherweise nicht mal eine eigene MipMapping-Einstellung, sowas macht eigentlich kein Spiele-Progger heutzutage mehr.

3. Das man als Benchmarker vor einem Benchmark die jeweiligen Treiber auf die gleiche Qualität setzen sollte, versteht sich irgendwo von selbst. Von den Herstellern zu fordern, daß die das tun, ist irgendwo ein Eingriff in die Freiheit der Hersteller. Solange mir die Hersteller in den Treibern nicht Optionen disablen oder fest setzen, ist mir egal, ob die defaults scheisse sind. Jeder ernsthafte Benchmarker setzt die sowieso auf das, was er für richtig hält.

4. Es bringt bessere Werte beim Benchmarken, weil die Benchmarker einen Fehler machen, richtig. Und zwar einen Anfängerfehler. IMHO nicht vergleichbarb mit ATi´s Cheat. Es ist ähnlich ATi´s Option "convert 32 bit textures to 16 bit", aber außer uns hat sich da auch noch niemand jemals drüber aufgeregt und drauf hingewiesen, daß man das ausschalten muß beim Benchmarken.

Leonidas
2001-11-13, 03:14:16
Originally posted by Labberlippe
Hi

Mir geht es hier einfach ums Grundprinzip.
Die Radeon wurde sofort verteufelt, auch wie es sich noch nicht als 100% Cheat entlarvt hatte. (Was mittlerweile ja ist. )


Gruss Labberlippe



Ok, das stimmt natürlich. Wir müssen uns alle am Riemen reißen und aufpassen, uns nicht in irgendwelche Muster zu verrennen. Sondern den Sachen immer auch hübsch einen zweite Chance geben - was sich anfänglich als schwach anhörte, kann letztlich doch ok sein ... und umgedreht.

Razor
2001-11-13, 11:11:35
@Vollstrecker

PFUI !

@Exxtreme
Lustig ist, daß einige hier im Forum die R8500 eher mit der GF3Ti 200 vergleichen. Das sind halt die Leute, die sich den Zwiebelmurks-Leitspruch zu Herzen genommen haben: "Framerate is Life". Die Tester haben gesagt, daß FPS das Wichtigste sind, also ist dies so, und die R8500 ist nicht schneller als die GF3 Ti 200.
Wenn dem so wäre, dann wäre die Radeon8500 tatsächlich schneller als 'ne Ti500 !
;-)

Aber Fakt ist (zur Zeit):
-DX7: R200 = Ti200
-DX8: R200 > Ti500 (zumindest synthetisch ;-)
-OpenGL1.2: R200 = Ti200
-OpenGL1.3: R200 ? Ti200

Korrekt ?
;-)

@Laberlippe

Sicher 'reichen' Radeon8500/Ti200/Ti500...
Aber hier geht es doch um was naderes, oder ?
;-)

Und klar braucht nicht jeder eine Ti500, aber alle die Wert auf maximale Performance (aktueller Games) legen und das entsprechende Kliingeld haben, werden sich so etwas zulegen...

@nggalai

Ich deinstalliere grundsätzlich die alten Treiber und prüfe auch nach, ob wirklich alles weg ist !
(man weiß ja nie ;-)

Und noch nie, gab's 'geminderte' Quality...
Ich gebe Dir vollkommen recht, erst mal was 'offizielles' abzuwarten, bevor hier wieder scharf geschossen wird.

@Thowe

Die 22.80 sind bei mir in Betrieb (Win98SE) und auch hier keine Prob's...

@AlfredENeumann

Die Radeon8500 ist in DX8 einer Ti500 überlegen, zumindest aber ebenbürtig (Vertex-Shader besser, Pixel-Shader schlechter). Aber die Ergebnisse in OpenGL 1.3 dürften wohl noch ausstehen, oder gibt es da schon konkrete Benches ?

Gerade das Preissegment dieser Karten ist hier wichtig, denn jeder, der 'nur' MultiMonitor-Betrieib oder andere MM-Fähigkeiten haben möchte, kann sich auch sehr viel günstigere Karten zulegen, denn da braucht's nicht zwingend eine Radeon8500 oder Ti200/Ti500. Das Peissegment ist für High-End-Karten und dort verlangt man eben auch eine entsprechende Geschwindigkeit.

@Haarmann

Ich hab nur ca. 30 inoffizielle und so 10 offizielle Treiber (seit Beginn ;-) von nVidia...
;-)

Und nirgendwo hat's derartige Prob's gegeben !
Und übrigens, der 5.08 ist OK und den 20.80 gab's erst nachdem die 21.8x offiziell waren...

Ach ja, den 1.x kann man aber nur mit 'ner gf3 betreiben, wenn die INF entsprechend 'gepatcht' wird, gell ?
;-)

***

Nun regt euch mal alle nicht so auf. Leo wird schon berichten, wenn's darüber was zu berichten gibt (hat er bisher immer getan ;-). Also wartet doch einfach ab, was sich da tut.

In diesem Sinne

Razor

Haarmann
2001-11-13, 11:33:57
Nönö Razor,

Die GF3 kann ich auch ohne inf Patch mit nem 1.10er laufen lassen. Sagst der Karte einfach, es sei ne TnT ;-). Etwas anderes kennt der Treiber eh ned.
Du sagst DH is ned soo wichtig... Gleichzeitig sagste immer was von OpenGL. Ich kenne noch immer keinen Profi der ohne Dual Head arbeitet... Das bezieht Architekten, Fahrleitungsings und Animationsfritzen mit ein. Wohlbemerkt verfügen diese Leute alle über die Lizenzen zu der jeweils benutzten SW.
Wie gesagt ich rede hier von Profis, deren Beruf es ist, mit sowas 9h am Tag oder mehr zu arbeiten.

28 W2K und 44 W9x Treiber sinds nur...

Die NT 4 hab ich schon mal gekillt... brauchte eh nie ein NT4 - das war mir zu schlecht. Lieber die NT5 Beta ;-)

Razor
2001-11-13, 13:04:31
@Haarmann

Die GraKa wird anhand der HardwareID in den Treibern identifiziert...
Wie soll dann also 'ne gf3 von solchen Treibern, denen diese HardwareID nicht bekannt ist, ohne Patch funzen ?

Ich sagte, daß DH für mich nicht wichtig ist (und ich bin kein 'Profi', zumindest in Deinem Sinne ;-). Aber gerade die von Dir genannten Zielgruppen setzten ganz andere Hardware ein, wie die, über die wir hier diskutieren (oft sind's net mal PC's ;-).

NT4 rulez noch immer (in der Firma, allerdings nicht für die Server ;-).
So hab' ich auch daran noch durchaus Interesse...
(vor allem, was meinen Heim-Arebitsplatz -WinNT Partition- angeht ;-)

Und hier dann noch mal detailliert 'meine' Treibersammlung:
(hab' sogar die Diamond Monster3D/Stealth/Viper, 3dfxV2, SpeaV7Mirage und Hercules Dynamite -und diverse andere- gefunden ;-)

Ohne die Diamond-Treiber die jeweils maximal unterstützten Chip's
Riva128 (NV3): Win9x (1) NT4 (1) - Version ?
RivaTNT (NV4): Win9x (1) NT4 (1) - Version 0.48
RivaTNT2 (NV5): Win9x (6) NT4 (4) W2k (1) - Version 1.09-2.08 ab 1.87 auch Win2k Unterstützung
GeForce (NV10): Win9x (7) NT4 (2) W2k (5) - Version 3.53-3.78
GeForce2 (NV15): Win9x (6) NT4 (3) W2k (2) - Version 5.08-5.32
GeForce2 (NV15): Win9x (10) NT4 (2) W2k (3) - Version 6.18-7.97 ab Version 7.xx auch NV20-Unterstützung
GeForce3 (NV20): Win9x (11) NT4 (0) W2k (1) - Version 10.50-14.70
GeForce3 (NV20): Win9x (6) NT4 (3) W2k (6) - Version 21.81-22.80

Also: Win9X = 47 / WinNT = 16 / Win2k-XP = 18
Also: AllOS = 81

Und das waren lange nicht alle, somit Deine geschätzten 100 gut hinkommen werden !
(aber die offiziellen waren laaaaange nicht so viel)
;-)

In diesem Sinne

Razor

ow
2001-11-13, 13:22:51
Originally posted by Razor
[B

Und das waren lange nicht alle, somit Deine geschätzten 100 gut hinkommen werden !
(aber die offiziellen waren laaaaange nicht so viel)
;-)

In diesem Sinne

Razor [/B]

Oh doch.
Die allermeisten Dets sind offiziell, es sind naemlich die Treiber der Kartenhersteller.

NVidia ist Chiphersteller und nicht fuer Treiber zustaendig, das sind die Kartenhersteller.

zB. ist der offizielle Treiber fuer meine GF2MX von Leadtek der Det.6.48.
Bei CL und Hercules waren die Dets. 6.34/6.35 offfiziell.


Auch wenn all diese Treiber als inoffiziell bezeichnet werden sind sie es nicht.

StefanV
2001-11-13, 13:45:52
@Razor

Die NV3 hatte eine eigene Treiberserie.

Die letzten waren 3.77.

Bei Starlancer laufen die 3.77er Treiber der Riva128 unglaublich gut...

Schötze 5-15fps.

Mit dem 2.77er Treiber kann ich Starlancer aber auch in 800x600 Spielen (oh Wunder!!)

BTW: Starlancer sieht zwar gut aus, ist aber grafisch nicht sehr anspruchsvoll, uralte Karten reichen, um das flüssig zu spielen.

Razor
2001-11-13, 14:38:17
@ow

Ich habe hier nur die Treiber von nVidia aufgezählt und kein einziger davon war von irgendwelchen Herstellern...
(und es waren nur diejenigen, die ich mir gedownt habe ;-)

@Stefan

Der NV3 wurde auch von den nVidia-Treibern (bis NV10) unterstützt. Erst bei den nachfolgenden gab's dann IMHO 'ne eigene Serie...
(was aber auch herzlich egal ist, da's nur 'ne Liste meiner gedownten Treiber war ;-)

Starlancer fand ich übrigens NIE so sonderlich dolle !
;-)

In diesem Sinne

Razor

aths
2001-11-13, 16:44:22
Ach, Razor spielt sich mal wieder auf... Wenn du an Vollstreckers Postings was auszusetzen hast, *argumentier* lieber dagegen. Deine Äußerung "PFUI" empfinde ich als anmaßend.

Zu den Cheats: Streng genommen ist es auch ein Cheat, Quincunx als "Anti-Aliasing" anzubieten. Es fliessen 5 Subpixel pro Pixel ein, von denen aber nur zwei jeweis neu berechnet wurden. Dann könnte man darüber diskutieren, wie weit die berüchtigte Darstellungsqualiät der GeForce bei DXT1 ein Cheat ist.

Ebenso könnte man einer Voodoo Cheaterei vorwerfen, weil sie bei Quake3 nicht trilinear filtert, sondern lediglich dithert.

Dieser angebliche neue nVidia-Cheat war auf den ersten Blick unglaubwürdig.

edit: Ok, Leute zu "maßregeln", die Leute "maßregeln", klingt ebenso anmaßend. (Es ist ein Teufelskreis.)

Kai
2001-11-13, 18:20:08
Bitte hört auf zu flamen (hiermit ist jeder gemeint). Bin schon stolz auf euch, das das Thread-Thema wenigstens noch in etwa durchgehalten hat ... bleibt bitte dabei, sonst verlagern wir die Diskussion lieber in einen neuen Thread.