Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia-Anhänger sind fantasche Jünger!
Na da fange ich mal einen gepflegten (!) Flamewar an.
Erinnern wir uns: 3Dfx rulte mit Voodoo1 und Voodoo2. Das war ein Problem: Man konnte seine gute Computer-Kenntnis nicht mehr durch Geheimtipps zur Schau stellen. JEDER Hans und Franz wusste, dass man eine Voodoo einbauen muss, wenn man eine gute 3D-Karte haben will. 3D-Karte wurde oft überhaupt nur 3Dfx-Karte genannt. ("Benötigt 3Dfx-Karte")
Gegen diesen Zustand regte sich Widerstand. Da behauptete nun wieder mal eine Firma, die Voodoo2 übertrumpfen zu wollen. Und Fortschritt durch 32 Bit. Aha! Etwas besseres, und vor allem *anderes* als dieses 3Dfx-Zeug. Schon hatte nVidia einige Herzen gewonnen.
Leider wurde es nichts mit dem Konkurrenten. nVidia kündigte an, 3dfx lieferte. Jetzt die Voodoo3. Das war streng genommen nur eine hoch getaktete Banshee mit Multitexturing. Kleine Texturen. Nicht mal AGP-Texturing. Die Krönung war die Beschränkung auf 16 Bit. Und das spaltete die Chats und Foren entgültig.
Und das war die Zeit, wo die nVidia-Fraktion ein für alle mal akuten Realitätsverlust bekam. Innerhalb der Voodoo3-Lebenszeit waren diese Kritikpunkte kein Nachteil.
Der Gipfel war dann die T&L-Manie. Aber das ist wieder eine andere Geschichte...
Ich will eigentlich nur auf eins hinaus: 3dfx-Fans wollen eine Voodoo einbauen und gepflegt zocken. Sie bekommen beim 3DMark keinen Harten, kümmern sich nicht um die Farbtiefe, sondern wollen einfach nur eine anständige Auflösung und Framerate.
nVidia-Fans hingegen verbrachten Nächte vor ihrem PC, um Screenshot-Vergleiche mit 400% Zoom ins Netz zu stellen. Gingen sie gegen 5 Uhr früh (mit großen Augenrändern) ins Bett, hatten sie sich wenigstens selbst bewiesen, wie toll 32 Bit bei Quake2 ist. Bei T&L wars das gleiche. Bald würden die Spiele kommen, wo man es braucht!
Den ersten Quake3 Test zockte ich noch auf einer Voodoo Graphics (also Voodoo1, die mit 4 MB RAM und auf 56 MHz getaktet, (original-Takt war 50 MHz)). Ehe ich so richtig anfing, zu Quaken, hatte ich ne Voodoo4 drin, und da macht es auch schon Spass. Ich will sagen, so schnell schiessen die Preussen nicht, und nichts wird so heiss gegessen, wie es gekocht wird.
Irgendwann werden Nicht-T&L-Karten zu langsam sein. Aber was heisst das schon, wenn es doch heute auch ohne T&L noch sehr gut geht? Irgendwann ist irgendwann. Erst mal gucken, dann mal schauen und dann mal sehen. Meinen die einen.
Diesen ständigen Streit um den "Nutzen" von bestimmten Features seitens der anderen, der nVidia-Fans, kann ich jedenfalls nur mit Fanatismus erklären.
Übrigens ist das gesamte Posting mit einem Augenzwinkern zu sehen.
[DSM]MavericK
2002-01-03, 15:16:07
Ich stimmt dir völlig zu
Allein schon der Titel ist lächerlich Aths und ich muss jetzt mal gegenflamen.
Ohne grosse Töne zu spucken kann ich behaupten, das die 3DFX'ler die fanatischsten aller Jünger sind, weil sie immer noch nicht damit zurecht kommen das ihre ach so fantastischen Grafikbretter eingestampft wurden ...
Andre
2002-01-03, 15:28:49
Originally posted by aths
Diesen ständigen Streit um den "Nutzen" von bestimmten Features seitens der anderen, der nVidia-Fans, kann ich jedenfalls nur mit Fanatismus erklären.
Und den ständigen Drang der 3DFXler NV/ATI-spezifische Features kaputtzureden, um ihre eigene veraltete Technik (an der 3DFX u.a. Pleite gegangen ist) und den nicht existenten Fortschritt zu rechtfertigen, kann ich mir ebenfalls nur mit Fanatismus erklären.
Man sollte mal manche Threads hier um Forum aufmerksam lesen und sich fragen, WER hier mit 400 % Zoom und 1000 Screenshots die Detailuntersuchungen anstellt, gell aths ?
Und wo wir grade dabei sind:
Warum fällt eigentlich kein 3DFXler über die Schwächen der Kyro her, sondern meistens nur über Probleme der NV-Karten ?
Hmm, spielt da etwas Hass/Mißgunst mit, weil ja der "Kult" durch NV gekauft wurde ?
Warum wird T&L immer im Zusammenhang mit NV kritisiert, aber nicht im Zusammenhang mit ATI ?
Jaja, das Ungleichgewicht der Urteile ist schon manchmal lustig.
Auch meine Aussage ist mir einem Zwinkern zu sehen.
Legolas
2002-01-03, 15:35:18
Fanatiker gibts auf beiden Seiten... das kommt nicht drauf an, was derjenige im Rechner hat. Jedes Produkt hat Vor- und Nachteile, solange man das erkennt kann man ja über die Produkte diskutieren. Zu Flamewars zwischen Fanatikern eskaliert das erst, wenn eine oder beide Seiten auf logische Argumente mit persönlichen Beleidungungen reagrieren... dann driftet man langsam in den Fanatismus ab
;)
BlackArchon
2002-01-04, 11:50:39
Originally posted by Andre
...Und wo wir grade dabei sind:
Warum fällt eigentlich kein 3DFXler über die Schwächen der Kyro her, sondern meistens nur über Probleme der NV-Karten ?
Weil es damals nur 3dfx und Nvidia gab?!?
Warum wird T&L immer im Zusammenhang mit NV kritisiert, aber nicht im Zusammenhang mit ATI ?
Weil Nvidia zuerst T&L eingeführt hatte?!?
Ich will 3dfx wieder... :...(
Razor
2002-01-04, 12:38:42
Ich wußte, daß hier nun so ein MIST gethreaded wird...
Schade eigentlich !
:-(
Razor
Unregistered
2002-01-04, 12:43:25
Ich halts nicht aus.....
Gruss Labberlippe
Frank
2002-01-04, 12:45:16
Originally posted by Razor
Ich wußte, daß hier nun so ein MIST gethreaded wird...
Schade eigentlich !
:-(
Razor
Als Mist würd ich das erstmal nicht bezeichnen. Man kann es doch sachlich ausdiskutieren wenn man will. Es hängt bloß von den jeweiligen Leuten ab.
Und zum Thema kann ich mich Andre&Lego nur anschliessen: Fanatismus gibts auf jeder Seite, und es wirklich auffallend, das bei 3dFX alles nur contra nVidia ist, wobei andere Hersteller selbe Grundstrukturen verfolgen (ATI).
Kai,
du hast trotzdem das gesamte Posting gelesen, vor allem den letzten Satz?
Andre,
bei unseren Screenshots, die ich nicht mal anfertige, geht es um FSAA, nicht um 32 Bit. Das ist etwas gaaaanz anderes. An Kyro-Karten gibt es nichts auszusetzen, außer dass sie nur 32 Bit Genauigkeit haben, nur DXTC1 können und kein Cube Bump Mapping beherrschen! Da die DX7 T&L von nVidia auf den Markt gedrückt wurde, ist es nur Recht, wenn sie dafür kritisiert werden.
Man sollte die Reihenfolge betrachten: Erst stellten nVidia-Jünger T&L als unersetzlich und unabdingbar für eine moderne Graka hin. Dann erst regte sich der (argumentatorische) Widerstand.
Übrigens durfte ich gestern eine Voodoo3 3500 bewundern. Das TV-Kabel ist Klasse - damit kann man mit einem mal ausholen gleich zwei Uneinsichtigen eins überbraten :)
Andre,
ernsthaft: Die Voodoo3 war in der Tat ziemlich innovationslos. Das halte ich aber für nicht weiter schlimm, da sie zu ihrer Zeit ein sehr guter Beschleuniger war, der alles bot, was der normaler Gamer brauchte. Vor allem Geschwindigkeit. Der Schritt von TNT auf TNT2 oder GF256 auf GTS war ähnlich innovationslos.
Der Fehler von 3dfx lag in der unheuren Verspätung des Rampages, und dann haben sie ja sogar noch für den letzten "Überbrückungschip" fast ein dreiviertel Jahr länger als geplant gebraucht. Sie waren monatelang am Markt praktisch nicht präsent. So konnten sie kein Geld verdienen, und das brach ihnen das Genick. Wer kauft eine Voodoo3, wenn dank der GTS eine GF256 bezahlbar geworden ist?
Dennoch halte ich das Ende von 3dfx vor gut einem Jahr für nicht zwingend logisch. Und man kann sagen, was man will: Dieses Einerlei aus GeForce und Radeon wird langsam eintönig.
Legolas
2002-01-04, 14:09:12
Der Voodoo 3 war vielleicht vordergründig innovationslos, aber für die anvisierte Zielgruppe (den Spieler) war dieser Chip damals eine sehr gute Wahl. Große Texturen wurden damals und auch noch ein Jahr danach sehr spärlich eingesetzt. Gleiches gilt für 32 Bit Rendering. Hier mein ich jetzt nicht Games, die zwar 32 Bit anbieten, sondern die darauf optimiert wurden. Denn auch Quake I bietet 32 Bit Rendering an. Es ist nur wg. der 8-bittigen Texturen absolut kein Unterschied zu sehen. Erst mehr als ein halbes Jahr nach dem Release des Voodoo 3 gab es mit Quake 3 (und vorher mit Q3Test) ein Spiel, wo man erste Unterschiede zw. 16 und 32 Bit Rendering gesehen hat. Wobei hier die Unterschiede dank der guten 16Bit Qualität des Voodoo 3 nicht sonderlich ins Gewicht fallen, und Q3 in höheren Auflösungen und 32 Bit sowieso erst mit der GF256DDR gut spielbar schnell wurde(zumindest für ein Onlinespiel, den da reichen 20fps nunmal nicht aus)
Alle Kumpels, die damals ne Voodoo 3 gekauft haben, haben diesen Kauf nie bereuht, und waren mit der Karte oft mehr als zufrieden. Über fehlende 32Bit Unterstützung hat niemand geklagt, eben weil es niemandem aufgefallen ist. Während der Lebenszeit des Voodoo 3 war es einfach noch nicht von nöten. In der besseren 16Bit Darstellung sehe ich allerdings einen ziemlich großen Vorteil für den Voodoo 3, eben weil damals fast alle Spiele auf 16 Bit optimiert waren, und so der Voodoo 3 die beste Darstellungsqualität in 16 Bit bot. Es wird zwar immer wieder argumentiert, daß man dafür auf Nvidia- und ATI Karten auf 32Bit schalten konnte, aber
1) Wurde das zum Launch des Voodoo 3 von nicht sehr vielen Spielen unterstützt, die aber sehr wohl mit dem Postfilter des Voodoo 3 gelaufen sind, und
2) Musste man dann die Auflösung herunterfahren, damit die Frameraten nicht zu stark abfallen
Da nun die Darstellungsqualität in damaligen Spielen in 32 Bit fast nicht von gutem 16Bit unterscheidbar war, bot der Voodoo 3 für diese Spiele insofern die bessere Lösung, daß man diese Qualität auch annähernd in 16 erreichte, und daß ohne den starken Performanceeinbruch, den man bei 32 Bit erlitt.
So war der 16 Bit Postfilter neben der Glidekompatibilität, die wegen der stark verbreitenden Unreal Engine damals noch sehr wichtig war, ein gutes Argument, die für eine Voodoo 3 sprachen.
So jetzt reichts aber, mal schauen, wer das ernsthaft durchließt :D:D ;)
Razor
2002-01-04, 14:28:26
Keine Bange, Legolas...
;-)
Razor
QUOTE]Originally posted by Legolas
[B]Der Voodoo 3 war vielleicht vordergründig innovationslos, aber für die anvisierte Zielgruppe (den Spieler) war dieser Chip damals eine sehr gute Wahl.
[/QUOTE]
Nun, dann hätte ich gern Infos über die hintergründigen Innovationen.
Große Texturen wurden damals und auch noch ein Jahr danach sehr spärlich eingesetzt.
Aber eingesetzt wurden sie.
Gleiches gilt für 32 Bit Rendering. Hier mein ich jetzt nicht Games, die zwar 32 Bit anbieten, sondern die darauf optimiert wurden. Denn auch Quake I bietet 32 Bit Rendering an. Es ist nur wg. der 8-bittigen Texturen absolut kein Unterschied zu sehen.
Es macht sehr wohl einen Unterschied, ob beim Beschreiben des Frambuffers gedithert wird oder nicht. Auch wenn der Unterschied nicht gross ist, vorhanden ist er.
Erst mehr als ein halbes Jahr nach dem Release des Voodoo 3 gab es mit Quake 3 (und vorher mit Q3Test) ein Spiel, wo man erste Unterschiede zw. 16 und 32 Bit Rendering gesehen hat.
Schon mal Unreal unter 16Bit und 32Bit (d3d/ogl) verglichen?
Wobei hier die Unterschiede dank der guten 16Bit Qualität des Voodoo 3 nicht sonderlich ins Gewicht fallen, und Q3 in höheren Auflösungen und 32 Bit sowieso erst mit der GF256DDR gut spielbar schnell wurde(zumindest für ein Onlinespiel, den da reichen 20fps nunmal nicht aus)
LOOOOOOOOOOOOOOOL.
Alle Kumpels, die damals ne Voodoo 3 gekauft haben, haben diesen Kauf nie bereuht, und waren mit der Karte oft mehr als zufrieden. Über fehlende 32Bit Unterstützung hat niemand geklagt, eben weil es niemandem aufgefallen ist.
Was ich nicht kenne, das kann mir nicht fehlen.
Hat sich damals ja auch keine über fehlendes FSAA beklagt, oder?
Während der Lebenszeit des Voodoo 3 war es einfach noch nicht von nöten. In der besseren 16Bit Darstellung sehe ich allerdings einen ziemlich großen Vorteil für den Voodoo 3, eben weil damals fast alle Spiele auf 16 Bit optimiert waren, und so der Voodoo 3 die beste Darstellungsqualität in 16 Bit bot.
Ein immer wieder gern verbreitetes Gerücht, da die 3dfx Fanatiker ja keine echten Argument haben. Die 16Bit der NV Chips sind 3dfx´ absolut gleichwertig (besseres Dithering aber dafür kein Postfilter).
Legolas:
Jetzt erkläre uns hier doch allen Mal, wieso die dem V3 fehlenden Funktionen zum Vorteil von 3dfx und zum Nachteil von NV ausgelegt werden.
Ich kann da keinen Vorteil in nicht unterstützen Fktn. sehen, genausowenig einen Nachteil für Chips, die diese Fktn. eben anbieten.
Legolas, ich stimme zu.
zu ow:
Soweit ich informiert bin, hat der Voodoo3-Chip ein paar zusätzliche Blending-Operationen im Gegensatz zur Voodoo2. Vom verbesserten Postfilter ganz abgesehen :)
Große Texturen wurden sogut wie nicht eingesetzt. Das ist festzuhalten. Ohne Texturkompression waren sie eh relativ nutzlos. Wenigstens bot Voodoo HW-Support für 8-Bit-Texturen.
Der Unterschied, ob gedithert wird oder nicht, ist sicherlich vorhanden. Die Frage ist, in wie weit die IQ darunter leidet. Dafür, dass UT in 16 Bit mit D3D ekelhaft aussieht, hat eine Voodoo ja Glide-Support. Das ist kein Argument, ow!
Warum lollst du bei den 20 fps?
Legolas legt keine Fehlenden Funktionen zum "Vorteil" von 3dfx oder Nachteil von nVidia um. Du behauptest, (und das scheinst du ganz gerne zu machen) wieder mal etwas, was gar nicht gesagt wurde. Legolas argumentiert, dass die zusätzlichen Features der TNT2 nur geringe Vorteile bot. Die die Voodoo3 mit anderen Vorteilen (besseres 16-Bit-Bild, Glide-Support) in seinen (und übrigens auch meinen) Augen mehr als ausgleicht.
Zum Dithering: Ich hab den 3Dmark2001 in geringer Auflösung und 16 Bit auf einer GF2MX gesehen. Da gefällt mir das 16-Bit-Bild des gleichen Programms auf einer Voodoo4 deutlich besser.
Razor
2002-01-04, 14:47:46
Nur mal zur Erinnerung: wir haben heute 2002 !!!
;-)
Razor
P.S.: 3dfx ist tot und das ist auch gut so !
Originally posted by Razor
P.S.: 3dfx ist tot und das ist auch gut so !
full ack:)
Frank
2002-01-04, 15:05:36
Irgendwie jetzt am Thema vorbei.
Geht es um 3DFX oder um nVidia?
zu 3DFX.
3dfx hat zweifelsohne gute Karten produziert. Gamerkarten. Nicht mehr und nicht weniger. Jetzt noch über Darstellungsqualitäten von Karten von 99 zu diskutieren halt ich für etwas übertrieben.
@Razor und ow
In Euren beiden letzten Postings zeigt Ihr genau das, was aths glaub ich ansprechen wollte.
Verstehen kann ich euch da marktpolitisch überhaupt nicht.
Nitemare
2002-01-04, 15:11:34
Ich bin derzeit eigentlich nur ein FAN von ATI weil ich Aktien hab von denen (haben gestern fast 20%zugelegt hat :D )
Sonst kauf ich mir immer das was gerade am besten ist (zumindest was ich finde das gerade das beste ist)
Wie kann man ein Fan von 3dfx sein ???
Die sind schon lange geschluckt worden!!!
Sind aber auch nicht tot! Sie leben weiter wie jonas im Bauch des Walfisches :D
Legolas
2002-01-04, 15:40:00
@ow
Wenn du den Unterschied eines 16Bit Quake I Screenshots von einem 32Bit Quake I Screenshot ohne Vergrößerung erkennen kannst, dann solltest du als Scharfschütze zur GSG 9 gehen, denn da braucht man Leute mit 200% Sehkraft ;) Es besteht vielleicht ein theoretischer Unterschied, aber praktisch, und nur das ist interessant, sieht man nix von den 16bit.
Was die 16Bit Qualität von Nvidia Karten angeht hab ich selber Erfahrungen damit gemacht... Wenn ich meine V5 5500 in 16 Bit mit meiner TNT vergleich, dann schaut die Voodoo um einiges besser aus.. die regelmässigen Ditheringmuster einer TNT sind einfach nur grausam im Vergleich zum Postfilter einer Voodoo 3/4/5
Und unter meinen Freunden hatten einige auch NVs. Also konnten die Voodoobesitzer sehr wohl ab und an 32Bit 'bestaunen', kannten also 32-Bit sehr wohl.
Und dann würde mich interessieren, welche Spiele 1999 auch nur ein paar große Texturen verwendet haben, außer Quake III, wo auch nur ein Bruchteil der Texturen die Größe von 256x256 Pixel überschreiten.
Und was Unreal angeht... schon mal auf ner Voodoo 3 in Glide gesehen??? Der D3D Modus liefert Fehlfarben usw. Mal davon abgesehen, daß damals Unreal auf einer TNT/TNT2 nicht unbedingt als durchgängig flüssig bezeichnet werden konnte...
Frank
2002-01-04, 15:46:24
mit einer TNT vergleichen Lego?
hmmm
"P.S.: 3dfx ist tot und das ist auch gut so !"
Kannst du begründen, warum du den Wegfall eines Wettbewerbers als "gut" bezeichnest? Razor oder ow?
Frank
2002-01-04, 15:50:16
zu den 16bit
auch eine TNT2 besitzt ein ähnliches Verfahren wie das von Matrox eingeführte "Vibrant Color Quality 2", welches in der ersten Ausführung grobgesagt nichts anderes ist, als dass die Karte immer in 32bit rechnet und bei 16 bit nur die Darstellung am Ende nochmal runterrechnet.
Legolas
2002-01-04, 15:51:38
Originally posted by Frank
mit einer TNT vergleichen Lego?
hmmm
Naja, die Bildqualität von TNT und TNT2 ist ja in etwas gleich.. Unterschiede hab ich zwischen TNT und TNT2 bzgl. der Darstellungsqualität nicht feststellen können.
Originally posted by Legolas
@ow
Wenn du den Unterschied eines 16Bit Quake I Screenshots von einem 32Bit Quake I Screenshot ohne Vergrößerung erkennen kannst, dann solltest du als Scharfschütze zur GSG 9 gehen, denn da braucht man Leute mit 200% Sehkraft ;) Es besteht vielleicht ein theoretischer Unterschied, aber praktisch, und nur das ist interessant, sieht man nix von den 16bit.
Merkst du eigentlich nicht, welchen Unsinn du schreibst??
Da behauptest du, keinen Unterschied zwischen 16 und 32Bit zu sehen, aber auf der anderen Seite soll es bei 16Bit der Postfilter bringen??
Also entweder sehe ich den Unterschied zwischen 16 und 32Bit, dann kann ich evtl. auch den Unterschied zwischen 16bit mit/ohne Postfilter sehen.
Oder ich sehe keinen Unterschied 16/32Bit, dann kann ich auch auf den Postfilter scheissen, weil der garantiert nicht mehr bringt als 32Bit.
Legolas
2002-01-04, 15:59:49
Ich sagte nur, daß man den Unterschied in Quake I praktisch nicht sehen kann.. hier hilft auch der Postfilter nicht.. Quake I sollte ein Extrembeispiel sein, da es noch auf eine 256 Farben Softwareengine hinoptimiert wurde..
Wenn allerdings mehrere Blendingoperationen unter 16bit ablaufen, dann kann es zu Artefakten kommen, was aber durch den Postfilter bis zu einem gewissen Grad verhindert wird.
Originally posted by Legolas
@ow
Und was Unreal angeht... schon mal auf ner Voodoo 3 in Glide gesehen??? Der D3D Modus liefert Fehlfarben usw. Mal davon abgesehen, daß damals Unreal auf einer TNT/TNT2 nicht unbedingt als durchgängig flüssig bezeichnet werden konnte...
Nein, aber auf meiner Banshee1.
Fehlfarben unter D3D? Bei mir nicht.
Und dass die D3D Umsetzung von Unreal recht bescheiden geriet ist ja wohl kaum NV anzulasten.
Dennoch läuft es auf K6-2 350 mit TNT noch recht passabel.
Legolas
2002-01-04, 16:08:09
Originally posted by ow
Nein, aber auf meiner Banshee1.
Fehlfarben unter D3D? Bei mir nicht.
Und dass die D3D Umsetzung von Unreal recht bescheiden geriet ist ja wohl kaum NV anzulasten.
Dennoch läuft es auf K6-2 350 mit TNT noch recht passabel.
Naja.. passabel ist dehnbar. Mit dem damals für Unreal maximal verfügbaren Patch 2.25f wars auf meinem PII 400 nicht sonderlich angenehm zu spielen. Meine alte V1 hat wenigstens durchgängig annähnernd 20 fps gebracht, bei der TNT ist die Framerate immer zwischen 2 und 60 fps geschwankt. Wenn man allerdings den 2.26 Final Patch nimmt, der aber erst ab Mitte 2000 verfügbar war, dann kann man es mit einer TNT passabel spielen
Originally posted by Legolas
Wenn allerdings mehrere Blendingoperationen unter 16bit ablaufen, dann kann es zu Artefakten kommen, was aber durch den Postfilter bis zu einem gewissen Grad verhindert wird.
Und durch 32Bit KOMPLETT verhindert.:D
Die nur etwas bessere Bildqualität von 32Bit gegnüber 16Bit ist bei den alten Games auch mit wesentlich weniger Leistungsverlust verbunden, als das hier gerne dargestellt wird.
Etwas bessere Quali - etwas weniger Geschwindigkeit.
Ist heute doch noch genauso.
Da sind´s dann halt AF oder AA, mit denen ich Speed gegen Qualität 'austausche'.
Originally posted by Legolas
Naja.. passabel ist dehnbar. Mit dem damals für Unreal maximal verfügbaren Patch 2.25f wars auf meinem PII 400 nicht sonderlich angenehm zu spielen. Meine alte V1 hat wenigstens durchgängig annähnernd 20 fps gebracht, bei der TNT ist die Framerate immer zwischen 2 und 60 fps geschwankt. Wenn man allerdings den 2.26 Final Patch nimmt, der aber erst ab Mitte 2000 verfügbar war, dann kann man es mit einer TNT passabel spielen
Also ich hab´s damals mit Patch 2.24 installiert und das war gut spielbar.
Allerdings war auch der TNT unter Glide (mit creative unified) WESENTLICH schneller als unter D3D (K6-2 400, 16 Bit, +25%), was einmal mehr bezeichnend für die Qualität des D3d-Renderers von Unreal ist.
Legolas
2002-01-04, 16:33:54
Originally posted by ow
Und durch 32Bit KOMPLETT verhindert.:D
Die nur etwas bessere Bildqualität von 32Bit gegnüber 16Bit ist bei den alten Games auch mit wesentlich weniger Leistungsverlust verbunden, als das hier gerne dargestellt wird.
Etwas bessere Quali - etwas weniger Geschwindigkeit.
Ist heute doch noch genauso.
Da sind´s dann halt AF oder AA, mit denen ich Speed gegen Qualität 'austausche'.
Der prozentuale Leistungseinbruch hat doch nichts damit zu tun, wie alt ein Spiel ist... Nur bei CPU-limitierung fällt er nicht so stark aus, weil nicht die Grafikkarte der Flaschenhals ist.. und auch in 32 Bit kann es Artefakte geben...theoretisch auch in 64Bit.. Artefakte gibt es immer, weil immer gerundet wird.. die Frage ist halt nur, ob man den Unterschied sieht, oder ob die Rundungsfehler so klein sind, daß sie nicht ins Auge fallen. Und genaus so ist das bei dem allergrößten Teil der Spiele aus dem Jahr 1999 beim Vergleich von 16 und 32 Bit Rendering.. Der Unterschied in der Bildqualität ist so marginal, daß man damit imho nicht 40% Leistungseinbruch rechtfertigen kann, zumal man dann in 16 Bit eine höhere Auflösung fahren kann, und somit das Dithering noch unscheinbarer wird. Das bei heutigen Spielen 32 Bit einen größeren Qualitätsschub bringt bestreitet ja keiner, hier lohnt ja 32Bit, da heutige Karten auch nicht mehr so stark einbrechen.
Und hier liegt auch der Unterschied zu FSAA und AF... damit bekommt man eine oft wesentlich bessere Bildqualität. Zumindest profitiert ein Spiel, daß auf 16 Bit optimiert wurde mehr vom FSAA als von 32 Bit Rendering.
Legolas
2002-01-04, 16:35:30
Originally posted by ow
Also ich hab´s damals mit Patch 2.24 installiert und das war gut spielbar.
Allerdings war auch der TNT unter Glide (mit creative unified) WESENTLICH schneller als unter D3D (K6-2 400, 16 Bit, +25%), was einmal mehr bezeichnend für die Qualität des D3d-Renderers von Unreal ist.
Man hat es schon halbwegs spielen können.. doch hab ich mangels Inet anschluss damals auf die unified Treiber verzichten müssen...
Aber es ist schon ärgerlich, wenn man 40fps hat, und dann kommt ein Gegner und die Framerate bricht für eine Sekunde auf 2 Fps ein und geht dann wieder auf 40...
Originally posted by Legolas
Der prozentuale Leistungseinbruch hat doch nichts damit zu tun, wie alt ein Spiel ist... Nur bei CPU-limitierung fällt er nicht so stark aus, weil nicht die Grafikkarte der Flaschenhals ist..
Du bist also der Meinung, das in allen nicht CPU-limitieren Games der prozentuale Leistungsabfall konstant ist??
Du hast schon recht seltsame Ansichten bisweilen..:D
und auch in 32 Bit kann es Artefakte geben...theoretisch auch in 64Bit.. Artefakte gibt es immer, weil immer gerundet wird.. die Frage ist halt nur, ob man den Unterschied sieht, oder ob die Rundungsfehler so klein sind, daß sie nicht ins Auge fallen. Und genaus so ist das bei dem allergrößten Teil der Spiele aus dem Jahr 1999 beim Vergleich von 16 und 32 Bit Rendering..
Rundungsfehler?? wie, wo?
Dithering kann ja nicht gemeint sein und Z-Buffer Fehler (wie sie zB. Q3 bei 16Bit Z zeigt) stehen auf einem anderen Blatt.
Also welche Rundungsfehler meinst du?
Der Unterschied in der Bildqualität ist so marginal, daß man damit imho nicht 40% Leistungseinbruch rechtfertigen kann,
Wo kommt denn die Angabe von "40%" her?
Oder wird der Masstab da wieder an heutigen Auflösungen angelegt??
Mehr als 20% (worst case) sind´s zwischen 640x16 und 800x32 auf meinem K6-2 400 mit TNT nicht.
zumal man dann in 16 Bit eine höhere Auflösung fahren kann, und somit das Dithering noch unscheinbarer wird.
Nun, da muss man abwägen.
Die Leistung des TNT in 800x32Bit ist praktisch identisch der in 1024x16Bit (auf mein System bezogen, wie´s mit einer GHz CPU aussieht..... aber das ist nicht der Masstab).
Das bei heutigen Spielen 32 Bit einen größeren Qualitätsschub bringt bestreitet ja keiner, hier lohnt ja 32Bit, da heutige Karten auch nicht mehr so stark einbrechen.
Und das wir heute überhaupt in 32Bit-Qualität spielen dürfen ist sicher nicht der Verdienst von 3dfx.
Und hier liegt auch der Unterschied zu FSAA und AF... damit bekommt man eine oft wesentlich bessere Bildqualität. Zumindest profitiert ein Spiel, daß auf 16 Bit optimiert wurde mehr vom FSAA als von 32 Bit Rendering.
Das ist richtig.
ow,
es besteht die Möglichkeit dass der Postfilter im Zuge des 64-Bit-Renderings eine Wiedergeburt erlebt.
Zu Unreal/UT: Vergleicht man das Glide (16 Bit) Monitorbild mit dem Screenshot, wird der Vorteil des 22-Bit-Postfilters deutlich. Ohne Filter auch bei 1024x768 noch die üblichen Dithering-Artefakte. Mit Postfilter zugegebenermaßen leichtes Color Banding, aber insgesamt ein besserer Eindruck als ohne.
Legolas
2002-01-04, 17:09:09
Du bist also der Meinung, das in allen nicht CPU-limitieren Games der prozentuale Leistungsabfall konstant ist??
Du hast schon recht seltsame Ansichten bisweilen..:D
Ich wollte damit eigentlich sagen, daß bei allen nicht CPU limitierten Spielen der Leistungsabfall zwischen 16 und 32 Bit gleich ist(wenn man dieselbe Grafikkarte zugrundelegt natürlich).. wenn schon in 16 die Grafikkarte limitiert, dann in 32 bit erst recht.
Bei CPU limitierten Games ist der Abfall von 16 zu 32 bit je nach Spiel und CPU-Leistung unterschiedlich groß, weil ja hier die Grafikkarte unter 16 Bit noch nicht zu 100%ausgelastet ist.
Rundungsfehler?? wie, wo?
Dithering kann ja nicht gemeint sein und Z-Buffer Fehler (wie sie zB. Q3 bei 16Bit Z zeigt) stehen auf einem anderen Blatt.
Also welche Rundungsfehler meinst du?
Mit Rundungsfehler meinte ich, daß eben nicht jeder Farbverlauf wirklichkeitsgetreu wiedergegeben werden kann.. auch nicht mit 32 oder 64 bit, weil es eben theoretisch unendlich viele Farben gibt.
Die Frage ist halt, ab wann unser Auge keinen Unterschied mehr zwischen 2 Farben erkennt, also ab welcher Farbtiefe man keine unnatürlichen Artefakte und Farbverläufe mehr erkennen kann.
Wo kommt denn die Angabe von "40%" her?
Oder wird der Masstab da wieder an heutigen Auflösungen angelegt??
Spätestens ab dem V3/TNT2 sollten 1024x768 Standard sein. Damalige Spiele konnte man zumindest in 16 Bit mit diesen Grakas flüssig spielen. Und da sie auch auf diese Farbtiefe durch entsprechende 16 Bit Texturen optimiert waren, ist ein Absenken der Auflösung, nur um mit der Erhöhung ein kleines bisschen mehr IQ zu bekommen, imho inakzeptabel, weil eben bei den meisten damals aktuellen Spielen 16 und 32 fast identisch aussahen. Insofern ist ein Absenken der Auflösung eine nicht unerhebliche Verschlechterung der IQ
Das ist richtig. Wahnsinn, daß du mir auch mal recht gibtst :D ;)
Originally posted by aths
[B]ow,
es besteht die Möglichkeit dass der Postfilter im Zuge des 64-Bit-Renderings eine Wiedergeburt erlebt.
Ich dachte eigentlich, dass du kein Freund von Weichzeichner-Funktionen bist?
Oder gilt das nur für Firmen, die etwas derartiges für AA nutzen?
Egal.
Kann schon sein dass du recht hast, auch ich glaube nicht, dass der Framebuffer mit vollen 64Bit beschrieben wird.
64Bit auf 32Bit zu dithern ist vermutlich Unsinn, da könnte sich dann schon ein 32Bit Framebuffer+Postfilter anbieten.
Zu Unreal/UT: Vergleicht man das Glide (16 Bit) Monitorbild mit dem Screenshot, wird der Vorteil des 22-Bit-Postfilters deutlich. Ohne Filter auch bei 1024x768 noch die üblichen Dithering-Artefakte. Mit Postfilter zugegebenermaßen leichtes Color Banding, aber insgesamt ein besserer Eindruck als ohne.
Den Postfilter und seine Wirkung kenne ich auch von meiner Banshee und stimme da mit dir überein. Besser mit als ohne.
Thowe
2002-01-04, 17:34:50
Kinders, das einzig wahre ist und bleibt die
Savage-Familie
Innovation pur
beste Bildqualität
beste Darstellungsqualität
da kommt keine
Voodoo
GeForce
Kyro
Radeon
mit ;)
Gerade die Savage 2000 hat mich immer wieder überrascht. :)
Korak
2002-01-04, 17:40:20
Originally posted by Thowe
Gerade die Savage 2000 hat mich immer wieder überrascht. :)
'Überrascht' ist genau die richtige Bezeichnung dafür :D
ow,
das ist lange her, dass du dich direkt auf eine meiner Antworten beziehst, und nicht nur aus Zitaten :)
"Ich dachte eigentlich, dass du kein Freund von Weichzeichner-Funktionen bist?
Oder gilt das nur für Firmen, die etwas derartiges für AA nutzen?
Egal."
Nicht ganz. Quincunx zeichnet alles weich. Der Voodoo-Postfilter ist ja so aufgebaut, dass kontrastreiche Übergänge genauso kontrastreich bleiben, wie sie nun mal sind. Die Dithering-Muster bringen Artefakte rein, die mit dem Postfilter ganz gut verschwinden. Das erhöht die Qualität. Dieses Plus gleicht das kleine Opfer (ein wenig zusätzliche Unschärfe) mehr als aus.
"Kann schon sein dass du recht hast, auch ich glaube nicht, dass der Framebuffer mit vollen 64Bit beschrieben wird.
64Bit auf 32Bit zu dithern ist vermutlich Unsinn, da könnte sich dann schon ein 32Bit Framebuffer+Postfilter anbieten."
64 Bit auf 32 Bit zu dithern ist kein Unsinn :) 64 Bit Rendering bedeutet ja, mit 48 Bit Farbe zu arbeiten. Normalerweise reicht es, wenn der Framebuffer die reinen Farbwerte (ohne Alpha) enthält. Man könnte 48 Bit Farbe, also 16-16-16 auf 10-12-10 dithern. Es wäre auch zu überlegen, ob nicht andere Formate noch günstiger sind.
Hast du bei der Banshee die Möglichkeit, auf den 2x2 Postfilter zu wechseln? Der 4x1 Filter fügt ja bekanntlich diese ekelhaften horizontalen Striche ein.
dagmundna
2002-01-04, 17:53:37
An alle 3Dfxler:
3Dfx war seinerzeit ja was, aber jetzt ist es tot, akzeptiert es!
Etienne
2002-01-04, 18:04:19
Bis jetzt hat TnL nichts gebracht... doch spätestens ab Unreal 2 wird TnL Pflicht.
Die Polygonoperationen wären für den Prozzi alleine tödlich...
Aber das ist zukunftsmusik. Drehen wir mal die Zeit zurück in die Vergangenheit. Da wird euch auffallen, dass zu der Zeit, als 3dfx die absoloute Rulerfirma war NIEMAND daran gedacht hätte, dass diese mal bankrott gehen würden und von der Konkurrenz aufgekauft werden würde. Heute sieht das anders aus. nVidia (Ja, ich bin ein nVidiot) hat sich zurzeit eine überaus dominierende und stabile Marktsituation geschaffen. Doch wer weiß ob denen nicht auch irgendwann ein dicker Fehler passiert, der sie ins Ende treibt?
Es sind alles Menschen. ATI konnte unglücklicher weise (oder auch glücklicherweise) ein starkes Gegenstück auf den Markt bringen, damit nVidia eins einsieht: Sie sind nicht die einzigen!!!
Und plötzlich ging es los. nVidia verbreitete in kürzester Zeit duzende neue Treiber!
Sie wollten ihre Produkte weiterverkaufen und taten zum ersten mal richtig was dafür und legten sich ins Zeug!
nun, wenn ATI nicht die R8500 rausgebracht hätte, hätten wir a) wahrscheinlich noch nicht viel von der GF 4 gehört und b) wahrscheinlich Preise um die 1000 DM.
Ich wäre mir nicht mal ganz sicher, ob die Ti Reihe dann rausgekommen wäre...
Tja leute, denkt mal scharf darüber nach, da das Thema schon interessant ist...
Nitemare
2002-01-04, 18:07:11
Mann, ist das SINNLOS hier!
Es gibt einen Unterschied zwischen 16 und 32 Bit, er ist nicht sehr gross aber es gibt ihn!
Da muss man doch nicht Seitenweise Argumente schreiben!
ENDE!!!
Legolas
2002-01-04, 18:20:21
Originally posted by aths
Hast du bei der Banshee die Möglichkeit, auf den 2x2 Postfilter zu wechseln? Der 4x1 Filter fügt ja bekanntlich diese ekelhaften horizontalen Striche ein.
2x2 Filter gibt es erst ab Voodoo 3
Legolas
2002-01-04, 18:21:01
Originally posted by Nitemare
Mann, ist das SINNLOS hier!
Es gibt einen Unterschied zwischen 16 und 32 Bit, er ist nicht sehr gross aber es gibt ihn!
Da muss man doch nicht Seitenweise Argumente schreiben!
ENDE!!!
Dann wäre ja das ganze Forum sinnlos :D:D
Thowe
2002-01-04, 18:43:26
Originally posted by Korak
'Überrascht' ist genau die richtige Bezeichnung dafür :D
Gelle. :D
Aber irgendwie mochte ich sie, auch wenn alle nVidia/3DFX-Fans sie damals schlecht reden wollten.
Originally posted by Legolas
Du bist also der Meinung, das in allen nicht CPU-limitieren Games der prozentuale Leistungsabfall konstant ist??
Du hast schon recht seltsame Ansichten bisweilen..:D
Ich wollte damit eigentlich sagen, daß bei allen nicht CPU limitierten Spielen der Leistungsabfall zwischen 16 und 32 Bit gleich ist(wenn man dieselbe Grafikkarte zugrundelegt natürlich).. wenn schon in 16 die Grafikkarte limitiert, dann in 32 bit erst recht.
Bei CPU limitierten Games ist der Abfall von 16 zu 32 bit je nach Spiel und CPU-Leistung unterschiedlich groß, weil ja hier die Grafikkarte unter 16 Bit noch nicht zu 100%ausgelastet ist.
Zu Zeiten des TNT gab es aber keine CPUs, die die Graka 100% ausreizen konnten. Deshalb ist der Leistungsverlust bei Umschaltung zu 32Bit sehr gering.
Wenn ich jetzt mit einem Ghz Athlon die TNT antreibe, dann ist der Unterschied 16/32Bit viel groesser (16Bit sehr viel schneller als auf 400MHz CPU, 32 Bit nur unwesentlich schneller (Graka-Limitierung)).
Aber wie oben schon gesagt darf ich keine GHz CPU als Masstab nehmen, um den Leistungsverlust von 32Bit zu zeigen.
Ich sollte das schon CPUs nehemn, die zeitgleich zum TNT aktuell waren.
Rundungsfehler?? wie, wo?
Dithering kann ja nicht gemeint sein und Z-Buffer Fehler (wie sie zB. Q3 bei 16Bit Z zeigt) stehen auf einem anderen Blatt.
Also welche Rundungsfehler meinst du?
Mit Rundungsfehler meinte ich, daß eben nicht jeder Farbverlauf wirklichkeitsgetreu wiedergegeben werden kann.. auch nicht mit 32 oder 64 bit, weil es eben theoretisch unendlich viele Farben gibt.
Die Frage ist halt, ab wann unser Auge keinen Unterschied mehr zwischen 2 Farben erkennt, also ab welcher Farbtiefe man keine unnatürlichen Artefakte und Farbverläufe mehr erkennen kann.
Theoretisch gibt es unendlich viele Farben, aber wieviel davon kann unser Auge denn wahrnehmen?
Da begrenzt irgendwo die menschlich Physionomie.
btw: ist bei Audio auch nicht anders, s. auch MP3.
Und ob´s sinnvoll ist Audio CDs statt mit 16Bit/44Khz mit 24Bit/96Khz aufzulösen, halte ich ebenfalls für fraglich, da spielen die Ohren nicht mehr mit (ausser die von Hunden, Fledermäuse,..:D);)
Wo kommt denn die Angabe von "40%" her?
Oder wird der Masstab da wieder an heutigen Auflösungen angelegt??
Spätestens ab dem V3/TNT2 sollten 1024x768 Standard sein. Damalige Spiele konnte man zumindest in 16 Bit mit diesen Grakas flüssig spielen.
Ja, 1024x16Bit schafft auch mein TNT ohne Verlust (gegenüber 640x16).
Aber der TNT2 dürfte hier viele Games auch in 32Bit noch bewältigen ohne auf unspielbare Frameraten einzubrechen.
Da ist es halt Geschmackssache und da muss jeder für sich entscheiden, ob lieber 60-70fps bei 16Bit oder 40-50fps bei 32Bit.
Ich hatte früher lange einen 3dlabs Permedia2 und wer dessen 16Bit mal gesehen hat, der schaltet freiwillig auf 32Bit um (gilt auch für alte Games, das Dithering ist schlichtweg grauenhaft) und begnügt sich dann mit Auflösungen von 512x284/640x480.:D
Und da sie auch auf diese Farbtiefe durch entsprechende 16 Bit Texturen optimiert waren, ist ein Absenken der Auflösung, nur um mit der Erhöhung ein kleines bisschen mehr IQ zu bekommen, imho inakzeptabel, weil eben bei den meisten damals aktuellen Spielen 16 und 32 fast identisch aussahen. Insofern ist ein Absenken der Auflösung eine nicht unerhebliche Verschlechterung der IQ
Jo, Auflösung absenken verschlechtert die IQ, aber ein paar fps weniger bei gleicher Auflösung und 32Bit nicht so sehr (s.o.)
Das ist richtig.Wahnsinn, daß du mir auch mal recht gibtst :D ;)
Wieso? Wo du recht hast, hast du recht.:D
Und um Fragen des persönlichen Geschmacks (Farbtiefe/Auflösung, s.o.) brauchen wir doch nicht zu diskutieren.
Eigentlich denke ich dass es recht unsinnig ist, um Vor- und Nachteile von V3/TNT2 zu feilschen.
Wohin der Weg der (Gamer-) 3D-Beschleuniger geht (32Bit/T&L) ist doch schon seit langem klar, weil´s das schon lange zuvor bei professionellen 3D-Karten gab.
Das wussten 3dfx/NV/ATi/S3...
3dfx hat´s halt verschlafen, mit den anderen mitzuziehen.
Die haben geglaubt, Speed ist alles.
[Edit: Fette Schrift korrigiert. Xmas]
Originally posted by Thowe
Kinders, das einzig wahre ist und bleibt die
Savage-Familie
Innovation pur
beste Bildqualität
beste Darstellungsqualität
da kommt keine
Voodoo
GeForce
Kyro
Radeon
mit ;)
Gerade die Savage 2000 hat mich immer wieder überrascht. :)
Jawohl!
Mich überrascht auch, dass nicht mehr Leute um S3 trauern.
Oder sind die in Hoffnung, dass von VIA mal noch was brauchbares an Graka-Chip kommt?
Quasar
2002-01-04, 18:59:47
@aths:
Warst du irgendwie nicht ganz bei Sinnen, als du diesen Thread eröffnet hast? Ich frage nur, weil du ja sonst so vehement auf die Einhaltung grammatikalischer Regeln und der Rechtschreibung im Allgemeinen achtest und sie bei anderen kritisierst.
@Thread-Thema:
"nVidia-Anhänger"
Alleine der Begriff wirft schon Fragen auf. Wer ist ein nVidia-Anhänger? Nach vielen Posts zu urteilen, scheint man dies bei aths, Legolas, Haarman und Labberlippe nicht anzunehmen, weil sie keine Karte mit einem Chip von nVidia nutzen und sich im Allgemeinen bei Pro&Contra-Themen nicht auf die Seite derjenigen stellen, die die Technologie von nVidia als das akzeptieren, was sie ist.
Im Gegenzug könnte man ow, Razor, Max Payne und mich als "nVidia-Anhänger" bezeichnen, da man unsere Posts im Allgemeinen als pro-nVidia interpretieren könnte.
Ich will zwar nicht für andere sprechen, aber ich für meinen Teil habe die zum Kauf-Zeitpunkt (Mai 2001) verfügbare Technologie von nVidia nicht nur als Marktbeherrschend gesehen, sondern auch als vergleichsweise ausgereift und zukunftsweisend. Ich habe also mein Geld für die fortschrittlichste Technologie ausgegeben, die zu diesem Zeitpunkt verfügbar war. Das der Preis hoch gewesen ist und immer noch ist, sollte aber nicht zum Nachteil ausgelegt werden, denn im Gegensatz zu anderen Dingen (sei es das "matschige" Quincunx, oder das lange Zeit nicht funktionierende Smoothvision)ist der Preis dem Käufer bereits vor dem Bezahlen bekannt, und das insbesondere Computerbauteile keine besonders sicheren Geldanlagen darstellen, sollte allgemein hinreichend bekannt sein.
Zum heutigen Zeitpunkt trifft das natürlich nur noch bedingt zu, da z.B. der R200-Chip von ATi technologisch, d.h. in diesem Falle, was die Features angeht, überlegen ist. Da sollte es keine zwei Meinungen geben.
Den Kyro-II dagegen halte ich technologisch nicht für überlegen. Effizienter, ja, aber nicht überlegen. Die Karten auf Basis des Kyro-II leisten bei gleichem Preis wie eine GF2-MX400 z.B. deutlich mehr, was für eine gesunde Gewinnmarge und damit betriebswirtschaftlich richtige Entscheidung von ImgTech, bzw. PowerVR spricht.
Ich bin in meinem Selbstverständnis, was dieses Thema angeht, also kein "Fan" irgendeines Produktes, sondern schlicht der überlegenen Technologie.
Wenn hier jetzt einige wieder die alte Debatte 16Bit vs. 32Bit anfangen, zeigt das doch genau, was aths zeigen wollte: Es bedarf nur eines kurzen Satzes, und schon geht man sich wiederum an die virtuelle Gurgel. Insofern sind alle, die hier wieder "X ist besser als Y" schreien, Fans und verteidigen "ihren" Favoriten, für den sie vor teils langer, teils kurzer Zeit eine Menge Geld bezahlt haben. Über die Gründe kann ich nur spekulieren, denke aber, daß oftmals auch die leichte Enttäuschung mit hineinspielt, daß die Grafikkarte, die für teures Geld erworben wurde, nun schon nicht mehr die erste Geige spielt. Da werden dann Fallbeispiele herausgekramt um zu zeigen, daß auch heute noch veraltete Technologie (allgemein alles vor dem R200, bis auf spezifische Teilbereiche, wie CBMC od. RGSS) in einigen Fällen überlegen sein kann.
Ich will hier auch nicht wieder auf das Argument der Taktfrequenzen eingehen, ob nun eine Karte mit einem hoch getakteten Chip weniger Leistung bringt, als eine mit mehreren Chips ist doch irrelevant. Was zählt, ist das Produkt als solches und der Preis, zu dem es verkauft wird. Ob dafür nun vier Chips und die doppelte Menge an RAM notwendig sind, oder nur ein einzelner, niedrig getakteter, der aufgrund intelligenten Renderings hohe Leistung erzielt ist für den Verbraucher doch nebensächlich, solange er bereit ist, den Preis dafür zu zahlen.
Ich für meinen Teil möchte heute verfügbare Spiele in einer möglichst hohen Bildqualität auf meinen Monitor gebracht sehen, auch wenn ich in hektischen Szenen eines Spiels vielleicht mal nicht die Zeit habe, auf gewisse Ditherin-Muster zu achten, oder mich mal nicht mit Texturaliasing beschäftigen kann. Das Bild als Ganzes sollte stimmen, ob nun hier oder dort mal ein winziger Fehler auftritt, ist eher nebensächlich, solange er nicht die Stimmung des Spiels stört. Wenn ich aber die Details soweit herunterschrauben muss, das z.B. RTCW (d.) nur noch ohne Lightmaps oder ohne Nebel zu spielen ist, dann ist das der Stimmung abträglich und ich würde lieber mit dem Spiel noch eine Graka-Generation warten um es dann in voller Pracht geniessen zu können.
Was ich nicht akzeptieren will, ist das Messen mit zweierlei Maß, wie es leider, sei es mit Absicht, sei es aufgrund mangelnder Sorgfalt, heutzutage offenbar Gang und Gebe geworden ist.
Aber falls ihr ein paar Angriffspunkte haben wollt:
- Ich sehe einen Unterschied zwischen 16Bit und 32Bit
- Ich bevorzuge anisotrop gefilterte Texturen
- Ich bevorzuge hohe Auflösungen ggü. niedrigen mit FSAA
- Ich begrüße stabile Treiber, die mich ein Spiel ohne das warten auf einen Patch spielen lassen
- Ich begrüße häufige neue Treiberversionen, da sie oft Probleme besetitigen können
- Ich bevorzuge auch niedrige Preise, bin aber bereit für ein Mehr an Bildqualität auch ein Mehr an Preis zu akzeptieren
Wer mir aus diesen Punkten den besten Kompromiss liefern kann, wird zum Stichpunkt gekauft. Ob er nun ATi, ImgTech oder nVidia (inkl. 3dfx) heißen mag.
Exxtreme
2002-01-04, 19:02:53
Originally posted by ow
Rundungsfehler?? wie, wo?
Dithering kann ja nicht gemeint sein und Z-Buffer Fehler (wie sie zB. Q3 bei 16Bit Z zeigt) stehen auf einem anderen Blatt.
Also welche Rundungsfehler meinst du?
Doch ow, es gibt Rundungsungenauigkeiten. Stell dir vor du willst Multitexturing durchführen - sagen wir mal 3 Lagen mit einer Textureinheit. So, der Grafikchip trägt die erste Textur auf das Polygon auf, rechnet (rundet) die Farben von 32 Bit auf 16 Bit runter, führt Dithering aus, damit man das Banding nicht sieht und schreibt es in den Framebuffer. Bei der zweiten Textur muss der Chip die alten Sachen aus den Framebuffer holen. So, er liest jetzt die gerundete (geditherte) Textur aus dem Framebuffer (und rechnet jetzt mit den 'verfälschten' Farbinformationen der alten Textur), trägt die zweite Textur auf, rechnet das Ergebnis wieder auf 16 Bit runter, dithert es und schreibt wieder in den FB. Mit der dritten Textur passiert das Gleiche. Und als Ergebnis kommen die bekannten Dithering-Raster, weil sich immer mehr Rundungs- und Ditheringfehler aufaddieren. Das Gleiche könnte jetzt mit 32 Bit Farbtiefe auch passieren wenn man z.B. 10 Texturlagen aufträgt. Man hat das Problem der 'verfälschten' Farben nicht beseitigt sondern nur 'nach hinten' geschoben. Deswegen schreit John Carmack nach 64 Bit Rendering.
Originally posted by ow
Wo kommt denn die Angabe von "40%" her?
Oder wird der Masstab da wieder an heutigen Auflösungen angelegt??
AFAIK betrug der Geschwindigkeitseinbruch beim Zuschalten von 32 Bit bei der TNT1 zw. 20 - 50% je nach Spiel.
Originally posted by ow
Und das wir heute überhaupt in 32Bit-Qualität spielen dürfen ist sicher nicht der Verdienst von 3dfx.
Da gebe ich dir vollkommen recht. Das Problem ist, daß die Spiele-Entwickler erst ein Feature einer GraKa einsetzen, wenn es eine große Marktdurchdringung hat. 3dfx hat aber die Features einbauen wollen, wenn es genug Software gibt, die die Features auch unterstützen. Das bekannte "Henne-Ei"-Problem. Die anderen GraKa-Hersteller haben immer neue Features vorgestellt, auch wenn diese nie eine Bedeutung gewinnen werden. 3dfx hat sich immer nur der aktuellen Marktsituation angepasst. Ich denke sogar, daß 3dfx die gesamte Entwicklung etwas gebremst hat, weil die Spiele-Entwickler 3dfx immer mitberücksichtigen mussten. Ja gut jetzt hat sich das Thema 3dfx von selbst erledigt. Aber zu damaliger Zeit war IMHO die Kombo 16 Bit + Postfilter praxistauglicher als 32 Bit, weil damals fast genauso schön aber deutlich schneller. Nur komischerweise haben es die meisten HW-Sites und Spielemagazine nicht erkannt.
Gruß
Alex
Razor
2002-01-04, 19:10:54
@aths
"P.S.: 3dfx ist tot und das ist auch gut so !"
Kannst du begründen, warum du den Wegfall eines Wettbewerbers als "gut" bezeichnest? Razor oder ow?
Eigentlich würde ich gerne darauf verzichten...
(schließlich sollte es hauptsächlich provozieren !)
;-)
Aber etwas zumindest doch:
Meinetwegen hätte es auch gereicht, wenn nur diese elendige API GLIDE gestorben wäre. Da aber 3dfx von dieser wohl nicht abgelassen hätte, ist es eben gut, daß sie mit dran glauben mußten, damit diese API endlich von der Bildfläche verschwindet.
IMHO sehen wir gerade jetzt (und in den nächsten Wochen) die Früchte dieser Entwicklung und dürfen uns (endlich ;-) an detailreichen und weitestgehend Hardware-Unabhängigen Games erfreuen...
@Max Payne
Wir haben noch Preise um die 1000DM...
So schlagen damit derzeitige "Deluxe"-Ausführungen der gf3 (Ti500), die bald verfügbare Radeon8500DV und die demnächst erscheinenden R250 (voraussichtlich 499€) und die Top-Notch gf4Ti1000 (ebenfalls so um die 1000DM) zu buche...
Was also soll sich jetzt durch ATI's R8500 geändert haben ?
NICHTS hat sich geändert !
Außer vielleicht, das es endlich wieder 'interessanter' im GraKa-Markt geworden ist...
(was auch sehr gut so ist)
;-)
@Thowe
Savage2k ?
Brrrrr......... !
(ist mir kalt !)
;-)
@Quasar
Full ACK !
Und Mai 2000 ?
Willkommen im Club !
Bin echt mal gespannt, wie sich das mit R300 und NV30 entwickeln wird...
;-)
In diesem Sinne
Razor
Legolas
2002-01-04, 19:13:28
Originally posted by ow
Zu Zeiten des TNT gab es aber keine CPUs, die die Graka 100% ausreizen konnten. Deshalb ist der Leistungsverlust bei Umschaltung zu 32Bit sehr gering.
Da frage ich mich, was du gespielt hast.. auf meinem PII 400 habe ich den Unterschied zwischen 640x480 und 1024x768 sehr wohl bemerkt, und der war je nach Spiel ziemlich deutlich...
Beispiel Drakan:
Gespielt hab ich es auf 1024x768x16. Stellenweise sind die fps weggebrochen, lagen aber meistens im gut spielbaren Bereich. Dieselbe Auflösung in 32 Bit hat aber ziemlich geruckelt, und zwar fast durchweg. Für 32 Bit hätte ich auf mindestens 800x600 runtergehen müssen, wenn noch nicht stärker. Und Aufgrund des geringen Optischen Unterschieds zw. 16 und 32Bit bin ich bei 1024x768x16 Bit geblieben, das insgesamt die bessere IQ geboten hat wie 800x600x32
Werni58
2002-01-04, 19:34:19
Der größte Sprung war für mich von meiner 4MB Ati zur Elsa 3 DFX Voodoo Banshee da hab ich tagelang kein Auge zugekriegt und Sachen gesehen die ich noch nich kannte.
Was danach kam waren dann nur kleine Schritte TNT 2, GF. GF 2 und jetzt R200.
Ich bin flexibel und kaufe was mir in den Kram past, egal wie der gerade heißt.
Originally posted by aths
ow,
das ist lange her, dass du dich direkt auf eine meiner Antworten beziehst, und nicht nur aus Zitaten :)
"Ich dachte eigentlich, dass du kein Freund von Weichzeichner-Funktionen bist?
Oder gilt das nur für Firmen, die etwas derartiges für AA nutzen?
Egal."
Nicht ganz. Quincunx zeichnet alles weich. Der Voodoo-Postfilter ist ja so aufgebaut, dass kontrastreiche Übergänge genauso kontrastreich bleiben, wie sie nun mal sind. Die Dithering-Muster bringen Artefakte rein, die mit dem Postfilter ganz gut verschwinden. Das erhöht die Qualität. Dieses Plus gleicht das kleine Opfer (ein wenig zusätzliche Unschärfe) mehr als aus.
Versteh ich jetzt nicht ganz. Ist es nicht der Kontrast, der die Dithering-Artefakte erst sichtbar macht (also weniger Kontrast - weniger sichtbare Artefakte)?
"Kann schon sein dass du recht hast, auch ich glaube nicht, dass der Framebuffer mit vollen 64Bit beschrieben wird.
64Bit auf 32Bit zu dithern ist vermutlich Unsinn, da könnte sich dann schon ein 32Bit Framebuffer+Postfilter anbieten."
64 Bit auf 32 Bit zu dithern ist kein Unsinn :) 64 Bit Rendering bedeutet ja, mit 48 Bit Farbe zu arbeiten. Normalerweise reicht es, wenn der Framebuffer die reinen Farbwerte (ohne Alpha) enthält. Man könnte 48 Bit Farbe, also 16-16-16 auf 10-12-10 dithern. Es wäre auch zu überlegen, ob nicht andere Formate noch günstiger sind.
Jo, böser Verhauer von mir.:D
Ohne Dithern geht´s ja nicht, wenn ich nicht mit interner Farbtiefe in den Framebuffer schreibe.
Hast du bei der Banshee die Möglichkeit, auf den 2x2 Postfilter zu wechseln? Der 4x1 Filter fügt ja bekanntlich diese ekelhaften horizontalen Striche ein.
Ja.
Der 2x2 ist wirklich gut. Der 4x1 gibt ein streifiges Bild.
[Edit: Fette Schrifft korrigiert... ow, was machst du nur ;)]
Wuzel
2002-01-04, 19:39:12
Soll ich mal was sagen ?
Mir geht der ganze ATI vs Nvidia vs 3DFX aufn Sack.
Erstens : Ich hatte ne Ati in der gurke, diese ist gestorben, zwei Monate später hiess es, ok Sie kriegen ne neue.
Die wollte ich dann nicht und holte mir ne GTS TI.
und was soll ich sagen, auch nicht schlechter oder besser, es läuft einfach.
Und darum gehts, wenn der krempel läuft ist alles in butter, egal obe NV ATI 3DFX Kyro oder sonstwas.
Wer das vergisst, tja dem kann niemand helfen.
Generell braucht es immer knapp ein Jahr , biss die neuen Features der aktuellen Gneration genutzt werden.
Wir sollten froh sein , das unsere Mühlen laufen und schöne 3d Welten begehbar sind.
Egal wer nun der bessere oder schlechtere ist, wenns läuft, dann läufts.
Originally posted by Exxtreme
[B]
Doch ow, es gibt Rundungsungenauigkeiten. Stell dir vor du willst Multitexturing durchführen - sagen wir mal 3 Lagen mit einer Textureinheit. So, der Grafikchip trägt die erste Textur auf das Polygon auf, rechnet (rundet) die Farben von 32 Bit auf 16 Bit runter, führt Dithering aus, damit man das Banding nicht sieht und schreibt es in den Framebuffer. Bei der zweiten Textur muss der Chip die alten Sachen aus den Framebuffer holen. So, er liest jetzt die gerundete (geditherte) Textur aus dem Framebuffer (und rechnet jetzt mit den 'verfälschten' Farbinformationen der alten Textur), trägt die zweite Textur auf, rechnet das Ergebnis wieder auf 16 Bit runter, dithert es und schreibt wieder in den FB. Mit der dritten Textur passiert das Gleiche. Und als Ergebnis kommen die bekannten Dithering-Raster, weil sich immer mehr Rundungs- und Ditheringfehler aufaddieren. Das Gleiche könnte jetzt mit 32 Bit Farbtiefe auch passieren wenn man z.B. 10 Texturlagen aufträgt. Man hat das Problem der 'verfälschten' Farben nicht beseitigt sondern nur 'nach hinten' geschoben. Deswegen schreit John Carmack nach 64 Bit Rendering.
Du meinst sicher das richtige, drückst es aber nicht ganz korrekt aus
exakter:
pro rendering pass wird einmal in den FB geschrieben.
Je nach Chip können pro pass 1-8 texturen (>2 =Multitexturing) aufgetragen werden.
Die Dithering-Artefakte bei mehreren passes (insbesondere auch bei transparenten texturen (Rauch..)) kenne ich zur Genüge (Permedia2:().
AFAIK betrug der Geschwindigkeitseinbruch beim Zuschalten von 32 Bit bei der TNT1 zw. 20 - 50% je nach Spiel.
50%? 'Doppelte' Farbtiefe, halbe Leistung?;)
Nein. Vielleicht in Auflösungen oberhalb 1024x768, aber darunter sicher nicht. Bei keinem Spiel.
Ansonsten gilt auch, was ich weiter oben zu zur TNT 'passenden' CPUs gesagt habe.
Originally posted by Legolas
2x2 Filter gibt es erst ab Voodoo 3
Nein, das kann die Banshee (gottseidank) genauso.
Was der streifige 4x1 soll ist mir schleierhaft.
Dann doch lieber Ditheringmuster.;)
Legolas
2002-01-04, 20:07:03
Originally posted by ow
Nein, das kann die Banshee (gottseidank) genauso.
Was der streifige 4x1 soll ist mir schleierhaft.
Dann doch lieber Ditheringmuster.;)
Hmm dann haben sie's beim Voodoo 3 wohl nur als neues Feature beworben.
Originally posted by Legolas
Da frage ich mich, was du gespielt hast.. auf meinem PII 400 habe ich den Unterschied zwischen 640x480 und 1024x768 sehr wohl bemerkt, und der war je nach Spiel ziemlich deutlich...
Beispiel Drakan:
Gespielt hab ich es auf 1024x768x16. Stellenweise sind die fps weggebrochen, lagen aber meistens im gut spielbaren Bereich. Dieselbe Auflösung in 32 Bit hat aber ziemlich geruckelt, und zwar fast durchweg. Für 32 Bit hätte ich auf mindestens 800x600 runtergehen müssen, wenn noch nicht stärker. Und Aufgrund des geringen Optischen Unterschieds zw. 16 und 32Bit bin ich bei 1024x768x16 Bit geblieben, das insgesamt die bessere IQ geboten hat wie 800x600x32
Nun der P2 400 dürfte damals auch zu den schnellsten CPUs/Systemen gezählt haben, der leistet wesentlich mehr als IRGENDEIN So7 System, die ja damals (1998) noch weit verbreitet waren und dürfte die TNT schon halbwegs ausreizen (ich denke ab ca. 500Mhz skaliert die TNT nicht mehr und schon gar nicht bei hoher Auflösung/Farbtiefe).
Legolas
2002-01-04, 20:53:59
Hab das System einen Monat vor Erscheinen des Voodoo 3 gekauft, also April 1999 und damals war grad der PIII 550 raus mit Katmai Kern.. der hätte aber allein schon soviel gekostet wie mein gesamtes System :D:D Außerdem musst du bedenken, daß die TNT damals eine High-End Grafikkarte war.. und die gehört nunmal auch in ein System mit einem entsprechend leistungsfähigen Prozessor. Insofern merkt man den Einbruch von 16 auf 32 Bit in einem ausbalancierten System sehr wohl.
tornado
2002-01-04, 20:55:19
Originally posted by ow
Nun der P2 400 dürfte damals auch zu den schnellsten CPUs/Systemen gezählt haben, der leistet wesentlich mehr als IRGENDEIN So7 System, die ja damals (1998) noch weit verbreitet waren und dürfte die TNT schon halbwegs ausreizen (ich denke ab ca. 500Mhz skaliert die TNT nicht mehr und schon gar nicht bei hoher Auflösung/Farbtiefe).
CPU Skalierung ist ein gutes Thema :)
Was habe ich mich damals gewundert, als HL mit der Riva128 (das war noch ne Karte :D) auf dem P166 und dem Celeri 433 sozusagen gleich schnell (oder eben langsam) lief... Gut da waren wohl unter anderem auch noch die miesen Treiber schuld.
Ach wie vermisse ich diese weissen Streifen die man bei der R128 immer zwischen den Texturen durchblinken sah, TombRaider sah einfach nur hässlich aus...
Sorry, dass ich noch ein wenig zurückgegangen bin in der Zeit, aber mir war grad danach :)
Originally posted by Legolas
Insofern merkt man den Einbruch von 16 auf 32 Bit in einem ausbalancierten System sehr wohl.
Ist ein System ausbalanciert, wenn die Graka limitiert?;)
Die TNT2 hätte sicher besser zum P2 400 gepasst.
Aber auf einem So7 wird der TNT2 nicht ausgereizt, dort hat er kaum Vorteile gegenüber der TNT.
Legolas
2002-01-04, 21:08:17
1. Gabs damals noch keine TNT2
2. Limitiert die TNT ja nur in 32 bit..
in 16 bit ists eigentlich ziemlich ausgeglichen gewesen..
Ein 100% ausbalanciertes System zusammenzustellen ist wohl unmöglich, da ja die Graphikkarten und CPU Limitierungen vom Spielengine, der Auflösung, der Polygonzahl und einigen anderen Dingen abhängen.
Mit ausbalanciert meinte ich einigermassen aufeinanderabgestimmt, also keine Kombination wie PIV 2,0Ghz mit Gf2MX-200
Ach das meintest du.
Und ich sach immer:
Glücklich sind diejenigen mit schwacher CPU, wo dann keine Graka limitieren kann.:D:D:D
nggalai
2002-01-04, 21:58:26
YES !
:lol:
Danke, aths. Diesen Thread in der Form zu starten ist schon fast als "genial" zu bezeichnen.
Woohoooo!
*smooch* :love1:
ta,
.rb
P.S. Nein, dieses Posting ist nicht OT. Ganz und gar nicht. (no sarcasm intended)
Frank
2002-01-04, 22:09:21
Originally posted by ow
Ach das meintest du.
Und ich sach immer:
Glücklich sind diejenigen mit schwacher CPU, wo dann keine Graka limitieren kann.:D:D:D
persönlich gefällt mir umgedreht besser
Originally posted by Frank
persönlich gefällt mir umgedreht besser
Also starke CPU wo jede Graka limitiert?:D:D
Ich seh das so:
Wenn hier jemand rumheult, dass seine superschnelle GF3/R8k5
auf einer 1GHz nur 3000 Marks bringt, dann kann man nur empfehlen, die Auflösung hochzuschrauben und Features wie AA/AF zu nutzen, weil´s keine fps kostet.
Und bei entsprechenden Grafik-Settings darf sich derjenige mit 2GHz CPU ärgern, der nicht 1 fps mehr raus kriegt als jener mit 1GHz.:D:D:D
Thowe
2002-01-04, 22:47:10
Originally posted by nggalai
YES !
:lol:
Danke, aths. Diesen Thread in der Form zu starten ist schon fast als "genial" zu bezeichnen.
Woohoooo!
*smooch* :love1:
ta,
.rb
P.S. Nein, dieses Posting ist nicht OT. Ganz und gar nicht. (no sarcasm intended)
Sag nicht das ich es nicht versucht hätte. :D
Naja wie dem auch sei, perfekte Vorführung. :)
Quasar,
auch das äußere Erscheinungsbild soll andeuten, dass dieser Thread nicht für eine tatsächliche Auseinandersetzung gestartet wurde. Aber es hat sich - wieder mal - so entwickelt. Dein Kommentar hier ist sinnvoll - und lang. Also beschäftigt dich das auch :)
Exxtreme,
so sehe ich das auch: 3dfx war mit der Voodoo-Reihe längst nicht so feature-versessen, wie die Konkurrenz. Dass es solche Konkurrenz gibt, ist gut. Übertrieben gesagt: Ansonsten wären wir vielleicht heute noch bei 16 Bit. Dass die Voodoo3 durch das bessere 16 Bit Bild damals in der Regel den besseren Kompromiss darstellte, ist kein Widerspruch. Wichtig ist doch, dass es Konkurrenz gibt, und dass über deren Produkte offen gesprochen wird.
Razor,
ich weiss nicht was du gegen Glide hast. Wenn ein Spiel u. a. Glide bietet, so ist Glide doch immer die erste Wahl. (Ausnahme: MeTaL bei UT). 3dfx hat von sich aus Glide mit GP und Rampage aufgegeben. Es ist gelinde gesagt sehr fraglich, ob sich 3D-Beschleuniger so schnell und nachhaltig durchgesetzt hätten, hätte es nicht mit Glide eine tolle Schnittstelle gegeben.
ow,
du schreibst: "Versteh ich jetzt nicht ganz. Ist es nicht der Kontrast, der die Dithering-Artefakte erst sichtbar macht (also weniger Kontrast - weniger sichtbare Artefakte)?"
Japp. Diese Kontraste sind bei 1 oder 2 Dithering-Durchläufen klein genug, dass sie weich gezeichnet werden können. Nach einem Dithering-Durchgang unterscheiden sich die beiden geschriebenen Farben ja nur um 1 Bit pro Kanal. Bekanntlich versagt der Postfilter bei exzessivem Alpha-Blending. Diese dann zu starken Kontraste noch zu glätten wurde ja bedeutet, das ganz Bild unscharf zu machen.
Der Streifen-Postfilter kam schon in der Voodoo2 zum Einsatz und "überlebte" in Voodoo Banshee, Voodoo3, Voodoo4 und Voodoo5. (Hehe).
nggalai,
das ist alles Teil des Planes :)))
Ceiser Söze
2002-01-04, 23:59:01
Hmmmm, aths... nggalai...
Ich glaube, ich weiss jetzt, was der wahre Zweck hinter diesem Thread ist *eg* Wenn ich jetzt bloss den Link zu diesem Posting hätte, das ich hier mal gelesen habe... ;)
Vielleicht irre ich mich aber auch nur oder hab zuviel Deus Ex gezockt :D
PS: Es geht nichts über einen gepflegten Flamewar :D:D
Was ich eigentlich schon immer mal sagen wollte war:
Mir ist es eigentlich vollkommen Schnuppe von welcher Firma meine GF3 ist ... käme sie von ATI - wunderbar, käme sie von Matrox - irre ... von nVidia? Es interessiert mich kein Stück!
Fakt ist, das ich mir das kaufe was mir am meisten bringt - ob es jetzt von nVidia kommt oder nicht! Und im Vergleich zu 3DFX war nVidia seit der GeForce 1 (IMO) immer vorne und ich hab auch nicht nur im entferntesten daran gedacht mir ein 3DFX Konkurreznprodukt zuzulegen. Warum? Nicht weil ich Fan von nVidia bin, nVidia T-Shirts und Bettwäsche besitze und zwei GF3's kaufe (eine um sie auf'n Altar zu stellen und eine zum zocken) ...
NEIN ... weil sie nach meinem Befinden besser dazu geeignet war mir meine Zockerabende zu versüssen und ich nunmal kein Fan von tollem 16 bit und flüssigen 24 fps bin.
Kai,
das ist genau das, was dieser Thread provozieren sollte: nVidia-Fans, äh, ~-Käufer erklären, warum.
Das wäre nicht notwendig. Jeder im Forum weiss, dass du keinen an der Klatsche hast und deine Grafikkarte selbst (kompetent) aussuchen kannst. Du bräuchtest deine Entscheidung höchstens nennen, gar nicht (so ausführlich) begründen. Dieser Zwang, das doch zu tun, steigt proportional mit dem Kaufpreis der Grafikkarte. Siehe auch Razor, der sich gerne die Zeit nimmt, den damaligen Kauf einer GF3 ausführlich zu erläutern.
Labberlippe
2002-01-05, 09:00:30
OW:u Z
eiten des TNT gab es aber keine CPUs, die die Graka 100% ausreizen konnten. Deshalb ist der Leistungsverlust bei Umschaltung zu 32Bit sehr gering.
=>
Freilich gab es damals CPUs mit welcher man einen Einbruch bei 32 Bit merkte.
Das Flagschiff war der P2 3oo und da merkte es man.
_______________
OW:
Wenn ich jetzt mit einem Ghz Athlon die TNT antreibe, dann ist der Unterschied 16/32Bit viel groesser (16Bit sehr viel schneller als auf 400MHz CPU, 32 Bit nur unwesentlich schneller (Graka-Limitierung)).
Aber wie oben schon gesagt darf ich keine GHz CPU als Masstab nehmen, um den Leistungsverlust von 32Bit zu zeigen.
Ich sollte das schon CPUs nehemn, die zeitgleich zum TNT aktuell waren.
=>
Mit aktuellen CPUs die Fehler aufweisen bei alten Karten hat wirklich keinen Sinn.
Volle Zustimmung.
_______________
OW:
Theoretisch gibt es unendlich viele Farben, aber wieviel davon kann unser Auge denn wahrnehmen?
Da begrenzt irgendwo die menschlich Physionomie.
=>
16,7 Millionen Farben wenn ich mich jetzt nicht täusche kann der Mensch wahrnehmen.
btw: ist bei Audio auch nicht anders, s. auch MP3.
_________________
OW:
Und ob´s sinnvoll ist Audio CDs statt mit 16Bit/44Khz mit 24Bit/96Khz aufzulösen, halte ich ebenfalls für fraglich, da spielen die Ohren nicht mehr mit (ausser die von Hunden, Fledermäuse,..:D);)
=>
Wäre sogar sehr sinnvoll.
Bei der erhöhung der Bitanzahl geht ist nicht nur um Frequenzen.
Mann kann auch die "Klangdynamik" erhehen.
Gerade bei Klassischer Musik höhrt man es.
PS: Unterschied zwischen MP3 und CD kann ich höhrern.
________________
OW:
Ja, 1024x16Bit schafft auch mein TNT ohne Verlust (gegenüber 640x16).
Aber der TNT2 dürfte hier viele Games auch in 32Bit noch bewältigen ohne auf unspielbare Frameraten einzubrechen.
Da ist es halt Geschmackssache und da muss jeder für sich entscheiden, ob lieber 60-70fps bei 16Bit oder 40-50fps bei 32Bit.
Ich hatte früher lange einen 3dlabs Permedia2 und wer dessen 16Bit mal gesehen hat, der schaltet freiwillig auf 32Bit um (gilt auch für alte Games, das Dithering ist schlichtweg grauenhaft) und begnügt sich dann mit Auflösungen von 512x284/640x480.:D
=>
Mit einer MMX 233 CPU ist klar das Du kaum Leistungsunterschiede hast.
Da war die CPU einfach zu schwach.
Übrigens den Permedia2 hatte ich auch.
Damals war von einer TNT nicht die rede.
Du kannst Chips nicht vergleichen welche noch nicht mal noch am Markt waren
Permedia Dez. 97.
TNT Okt: 98.
Damals war der Permedia als Direkter Konkurrent zur Riva 128.
Der Chip hatte eine miese Bildqualiät.
Der Permedia2 hatte kräftige Farben.
Damals hat mich der Schlag getroffen wie es geheissen hat, das Riva 128 schneller und schöner ist.
Bei Benches war der Riva 128 schneller.
Bei den Spielen war der Permedia2 um rund 10% schneller und hatte die bessere Bildqualität.
_______
OW:
Jo, Auflösung absenken verschlechtert die IQ, aber ein paar fps weniger bei gleicher Auflösung und 32Bit nicht so sehr (s.o.)
=> Genau deswegen habe ich eine ATI.
Die haben das geschafft was nVIDIA ewig gepredigt hat.
Fast Verlustfreie 32 Bit Leistung.
-----------------
OW:
Wohin der Weg der (Gamer-) 3D-Beschleuniger geht (32Bit/T&L) ist doch schon seit langem klar, weil´s das schon lange zuvor bei professionellen 3D-Karten gab.
Das wussten 3dfx/NV/ATi/S3...
3dfx hat´s halt verschlafen, mit den anderen mitzuziehen.
Die haben geglaubt, Speed ist alles.
=> 3dfx wollte gleich auf Pixel und Vertexshader.
Es wäre kein Problem gewesen eine T&L einzubauen und wie wir gesehen habe ist eine DX7 T&L bis jetzt immer unsinnig gewesen.
Dafür hat 3dfx halt endlich ein Funktionierendes FSAA erzeugt.
Die Strafe war dafür das die Blinden dieses halt niedergeredet haben.
-----------------
Gruss Labberlippe
Razor
2002-01-05, 10:01:52
@aths
Hast Du jetzt, was Du wolltest ?
Auf jeden Fall hat sich gezeigt, daß sich 3dfx'ler und nVidia'ner nicht viel nehmen, gell ?
Dich übrigens mit eingeschlossen, was Dein letzter Post -adressiert an ow- beweist !
;-)
Insofern standen aths, Maverik, Frank, Legolas, Laberlippe in der 3dfx-Fraktion
Und lediglich ow in der NV-Fraktion...
Na ja, Thowe hält dann die S3-Fraktion hoch...
Und neutral haben sich Andre, Nitemare, dagmunda, Max Payne, Werni, Quasar und Kai verhalten (ich natürlich auch ;-)
Fällt Dir da was auf ?
;-)
Fazit:
5x 3dfx
1x nVidia
1x S3 ;-)
8x neutral (darunter mind. 4x nVidioten !)
Damit ist Deine, wenn auch vielleicht nicht ganz erst gemeinte Aussage wiederlegt !
;-)
Und noch etwas, ICH habe mich auf Dein Spielchen absichtlich NICHT eingelassen...
Für wie Dumm hälst Du uns 'nVidioten' eigentlich ?
;-)
Zu GLIDE: Erst ein Vorteil, später ein Nachteil für alle anderen !
(und 3dfx-sei-dank, nun ist es weg ;-)
Und ja, meine ";-)" find' ich hübsch !
:biggrin:
Ach ja, noch etwas:
ICH mache mir wenigstens die Mühe und gehe 'Theorien' eben 'praktisch' nach...
Sicher kostet das Zeit, aber es macht auch Spaß, ein wenig zu fummeln...
Aber ich versteh' schon, Dir geht Theorie ja über alles, insofern bist Du einfach nicht davon abzubringen !
(was ich persönlich auch nicht vermutet hätte ;-)
In diesem Sinne
Razor
Labberlippe
2002-01-05, 10:12:04
Originally posted by Razor
@aths
Hast Du jetzt, was Du wolltest ?
Auf jeden Fall hat sich gezeigt, daß sich 3dfx'ler und nVidia'ner nicht viel nehmen, gell ?
Dich übrigens mit eingeschlossen, was Dein letzter Post -adressiert an ow- beweist !
;-)
Insofern standen aths, Maverik, Frank, Legolas, Laberlippe in der 3dfx-Fraktion
Und lediglich ow in der NV-Fraktion...
Na ja, Thowe hält dann die S3-Fraktion hoch...
Und neutral haben sich Andre, Nitemare, dagmunda, Max Payne, Werni, Quasar und Kai verhalten (ich natürlich auch ;-)
Fällt Dir da was auf ?
;-)
Fazit:
5x 3dfx
1x nVidia
1x S3 ;-)
8x neutral (darunter mind. 4x nVidioten !)
Damit ist Deine, wenn auch vielleicht nicht ganz erst gemeinte Aussage wiederlegt !
;-)
Und noch etwas, ICH habe mich auf Dein Spielchen absichtlich NICHT eingelassen...
Für wie Dumm hälst Du uns 'nVidioten' eigentlich ?
;-)
Zu GLIDE: Erst ein Vorteil, später ein Nachteil für alle anderen !
(und 3dfx-sei-dank, nun ist es weg ;-)
Und ja, meine ";-)" find' ich hübsch !
:biggrin:
Ach ja, noch etwas:
ICH mache mir wenigstens die Mühe und gehe 'Theorien' eben 'praktisch' nach...
Sicher kostet das Zeit, aber es macht auch Spaß, ein wenig zu fummeln...
Aber ich versteh' schon, Dir geht Theorie ja über alles, insofern bist Du einfach nicht davon abzubringen !
(was ich persönlich auch nicht vermutet hätte ;-)
In diesem Sinne
Razor
Echt Razor?
Ich habe hier eigentlich nicht für pro 3dfx gepostet.
gegenteil ich hatte mich sogar eher rausgehalten.
Gruss Labberlippe
Razor
2002-01-05, 10:24:50
Einigen wir uns darauf, daß Du gegen NV gewettert hast...
;-)
War ja übrigens auch nicht ganz ernst gemeint, mein letzter Post, aber zumindest zeichnet sich eine Tendenz ab, die eher ins Gegenteil zielt, als das, was aths (vielleicht spaßig, was ich noch nicht so sehe ;-) zum Ausdruck bringen wollte...
In diesem Sinne
Razor
P.S.: Wenn ich etwas gegen GLIDE sage, dann ist das nur etwas gegen Hardware-spezifische API's und nicht gegen irgendwelche Firmen im allgemeinen... (insofern kann mir auch MeTal - Gruß an Thowe ;-) - gestohlen beliben und erst recht etwas derartiges von ATI oder nVidia, wenn so etwas angedacht werden sollte...)
;-)
Labberlippe
2002-01-05, 10:25:35
Razor:Zu GLIDE: Erst ein Vorteil, später ein Nachteil für alle anderen !
(und 3dfx-sei-dank, nun ist es weg ;-)
=> aber einen kommentar kann ich mir doch nicht verkneifen.
Wenn Morgen nVIDIA eine API bringt, seit Ihr alle Feuer und Flame dafür und stellt dann alles als Technologisch erwiesen und Top hin.
Es wird an der Zeit das nVIDIA weg von der Spitze gehört, bevor die Technologie noch weiter aufgehalten wird.
Gruss Labberlippe
Razor
2002-01-05, 10:27:25
Schau mal in das P.S. meines vorherigen Post's !
(Du warst lediglich ein wenig schnell zu)
;-)
Insofern sind wir uns doch in diesem Punkt einig, oder ?
Razor
Labberlippe
2002-01-05, 10:31:17
Originally posted by Razor
Schau mal in das P.S. meines vorherigen Post's !
(Du warst lediglich ein wenig schnell zu)
;-)
Insofern sind wir uns doch in diesem Punkt einig, oder ?
Razor
Hehehehe
Natürlich treffen wir uns meistes in der Mitte.
gelle;-)
Gruss Labberlippe
Werni58
2002-01-05, 11:31:39
In der Mitte liegt der Bauch und der trift bei mir alle wichtigen Entscheidungen und er hat immer recht.
Danke Bauch für meine Radeon!
Oder ich zitiere mein großes Vorbild (Hägar der Schreckliche):
"Der Bauch ist der beste Freund des Mannes"
Thowe
2002-01-05, 13:06:42
Wie die meisten sicher wissen, bin ich ein "Fan" der Kyro-Karten. Aus vielen Gründen, aber hauptsächlich einfach weil ich die Karte für eine "intelligente Lösung" halte.
Ich schreibe hier absichlich Kyro und nicht PowerVR, denn ich mag die Karten und dies übertrage ich nicht auf die Firma.
Die S3-Karten habe ich eigentlich aus 2 Gründen gepostet.
1. als Ablenkung
2. als "schalte mal das Gehirn an und denke erst, bevor zu handelst"
Die Savage2000 noch als zusätzliche Stütze, jeder weiss wie Buggy die Karte war und wie unglücklich die meisten Käufer. Ich für meinen Teil habe mich zwar auch geärgert, über die Sparmassnahmen bei S3, konnte aber der Karte doch einiges abgewinnen.
Letztendlich ist und bleibt die Kernaussage immer die, die ich vor einiger Zeit schon gepostet habe. Da ich nicht mehr weis wo es hier im Forum ist, hier (http://www.mitrax.net/apboard/thread.php?id=1218) ist er auf Mitrax.
Weshalb ich das ganze als Vorführung bezeichnet habe, ist das aths genau das gemacht hat. Selbst Personen die sonst sehr selbstkritisch sind, gehen in das "flamen" über wenn ihr "Glaube" angegriffen wird.
Das ist aber kein negatives Verhalten, eher ein typisches. Deshalb ist das einzige was jeder machen sollte, seine Postings vor den Replay noch einmal selbstkritisch durchzulesen. Ich denke dann wird so der ein oder andere erkennen, was sein eigentliches Verhalten ist. Davon kann ich mich auch nicht ausschliessen, ich ergreife auch ab und an Partei für Sachen - auch wenn es eigentlich nicht meine Art ist.
Haarmann
2002-01-05, 13:13:58
ow...
Jo so bis zu 50% Leistungsverlust bei 32 Bit einer alten TnT1 merkt man kaum gelle... Bei der TnT2 wurde die Situation viel besser (soweit ich mich entsinne nur noch rund 25% Einbruch - nun also 800*600 32bpp vs 1024*768 16bpp) - gut aber erst mit der GF DDR und wieder schlecht mit der GTS.
32 Bit ist ein tolles Feature, und es war auch gut, dass es Karten mit gab, eine Must Have wars jedoch nicht - ich denke das wollen hier viele Leute Dir klar machen ow.
640*480 32 Bit war in etwa gleich schnell wie 1024*768 16 Bit... Damit ich also "FSAA" (Treppen mindern sich auch bei mehr Auflösung) hatte, hab ich die 32 Bit vergessen und 1024 gespielt - das sah im Schnitt besser aus. Wie gesagt, ich hatte 4 Verschiedene TnT Karten und keine lief wirklich schnell (OC mässig).
OW, der berühlte Q2 Crusher Bench war ein CPU/Graka Stresstest...
zu ner Graka gehört nämlich auch der Treiber ;-).
zZ der TnT (also meiner diversen) hatte ich nen SL2W8 P2 300 2V auf 504MHz... ich denke das war damals durchaus ne übliche Config.
Tja OW die 96KHz 24 Bit sind sehr sinnvoll - 24 Bit hörste eigentlich nicht, aber lies mal digital aus und schau wieviel von den 16 Bit genutzt werden auf manchen CDs ;-) - dort liegt der Hund. Die 96KHz brauchste wegem Nyquist Theorem, da bei 44.1 zu nahe an den 20 KHz liegt, musste das Analoge Signal vor dem AD Wandler Filtern und dieses Filter hörste leider zwangsläufig, weil es extrem steil sein muss. 44.1/16 reichen völlig fürn Hörgenuss, aber eben ned, wenns ned gut angewendet is - und das ist leider zu 90% der Fall.
Zum Dithering gabs mal nen kewlen Screen bei Sharkyextreme zwischen Kyro und MX in SerSam 16 Bit... Besser hab ich nie nen Rundungsfehler dargestellt gesehen.
Pax Payne
Deswegen können gewisse Leute wohl wenig mit OWs und Razors Statements zu Beginn anfangen... Solange 3dfx zu besser NV Produkten beigetragen hätte, hätte doch deren Existenx immer nen Nutzen ... Sei es auch nur die Preise unten zu halten.
Thowe
Ich mochte vor allem die DMM Q3 Levels ;-) Haste mal die Kovertierungen für andere Grakas davon gesehen? Sah echt übel aus...
Quasar
Das ist Ansichtssache, was Du da behauptest.
Ich erstelle mal ein Szenario...
Für echte DX8 Games, wird eine GF3 zu langsam sein, aber ne R8500 nicht... für DX-7 Games, tuts auch ne Billigere Lösung... Ergo hast zwar neuste Technologie gekauft, kannst die aber nie nutzen - ergo Perlen vor die Säue geworfen (Meine Meinung) - ich käme mir verarscht vor.
Mit T+L nach DX7 - kannste Dir bisher als Gamer den Arsch abwischen - eine neue CPU is billiger, denn der Mehrpreis der Karten mit war. Prädikat nicht sinnvoll.
Zukunftssicher ist eh keine EDV Investition - also schaue ich, was ist in der Gegenwart denn für nen Nutzen vorhanden ist... meine Grakas werden selten alt by the way...
Ein stabiler Treiber muss auch auf fast jeder HW laufen mit voller Leistung. Ich war Besitzer eines AMD Athlons mit Irongate - da lernte ich NVs Treiber hassen... W2K Support unter aller Sau und mein Athlon vernachtlässigt.
Es bringt mir nix, wenn der auf nem anderen System laufen würde, aber auf meinem nicht ... meine ATIs haben AGP*4 inkl SBA - find ich gut.
Voodoos wirft man vor, keine AGP Texturing zu bieten... NV schaltet den AGP auf 1x oder 2x ohne SBA - da brauch ich auch keines mehr ;-).
Karten bei mir sind zZ ne R8500, Ne Radeon 32 DDR, ne Rage128 Pro, ne Rage128, ne ARK1000 *gg*, ne Kyro2 und die Voodoo5.
Ev mal bald ne billige GF3 zum austesten.
Thowe
2002-01-05, 13:19:10
Originally posted by Haarmann
Thowe
Ich mochte vor allem die DMM Q3 Levels ;-) Haste mal die Kovertierungen für andere Grakas davon gesehen? Sah echt übel aus...
Da muss ich dir zustimmen. :)
Originally posted by aths
Kai,
das ist genau das, was dieser Thread provozieren sollte: nVidia-Fans, äh, ~-Käufer erklären, warum.
Das wäre nicht notwendig. Jeder im Forum weiss, dass du keinen an der Klatsche hast und deine Grafikkarte selbst (kompetent) aussuchen kannst. Du bräuchtest deine Entscheidung höchstens nennen, gar nicht (so ausführlich) begründen. Dieser Zwang, das doch zu tun, steigt proportional mit dem Kaufpreis der Grafikkarte. Siehe auch Razor, der sich gerne die Zeit nimmt, den damaligen Kauf einer GF3 ausführlich zu erläutern.
Das ist ja Blödsinn Aths. Hier geht's ja um nVidia Produkte. Hättest Du jetzt kritisiert, das ich Fan von Fishbone Klamotten bin (bin ich nicht, ist nur ein Beispiel) dann hätte ich Dir das gleiche erzählt.
Ich verteidige meine Grafikkarte nicht im mindesten - ich verteidige nur meine Kompetenz mir selber eine auszusuchen, meine Entscheidung. Glaubst Du ich hätte mir das Ding geholt, wenn ich der Meinung wäre das sie nix taugt?
Dann kann ich Dir auf jeden Fall sagen, das sie schon lange wieder draussen wäre und ich was weiss ich im Rechner stecken hätte - ne 8500 vielleicht ...
Laberlippe: Wenn Morgen nVIDIA eine API bringt, seit Ihr alle Feuer und Flame dafür und stellt dann alles als Technologisch erwiesen und Top hin.
Es wird an der Zeit das nVIDIA weg von der Spitze gehört, bevor die Technologie noch weiter aufgehalten wird.
Gruss Labberlippe
<-------->
Wenn die API was taucht und mehr bringt als GL und D3D zusammen bin ich offen für alles! Wäre die API nur für nVidia Grafikkarten benutzbar wäre das schon wieder nicht gegeben und ich würde drauf kacken, weil ich wüsste das sie genauso wie Glide untergehen wird.
Glide war IMO nix anderes als ein gescheiterter Versuch die Spielehersteller an die 3DFX'sche Hardware zu binden und alle anderen Möglichkeiten zu verdrängen. Würde nVidia sowas versuchen wäre auch ich nicht erbaut davon, ist doch logisch.
Legolas
2002-01-05, 14:41:22
Originally posted by Kai
Glide war IMO nix anderes als ein gescheiterter Versuch die Spielehersteller an die 3DFX'sche Hardware zu binden und alle anderen Möglichkeiten zu verdrängen. Würde nVidia sowas versuchen wäre auch ich nicht erbaut davon, ist doch logisch.
So ein Blödsinn.. hätte damals zum Lauch des Voodoo Graphics Direct 3D schon ansatzweise was getaugt, dann hätten die ganzen Chiphersteller von damals auf eigenen APIs verzichten können. Da OGL in der Windowswelt nicht sonderlich verbreitet war, und D3D eben damals noch absoluter Schrott war, musste 3dfx, PowerVR, Rendition und Matrox eben eigenen APIs für ihre Chips entwerfen, damit diese überhaupt angenommen wurden... Wegen einiger Vorteile (leichte Programmierbarkeit, schnelle Grafikdarstellung) hat halt Glide damals das Rennen gemacht... Ohne Glide hätten wir jetzt imho wohl noch keine so große Verbeitung von 3D-Beschleunigerkarten. D3D war erst ab Version 5 brauchbar.. und die erschien Ende 1997.. das war ein Jahr nach dem Voodoo Graphics Launch .. ohne Glide hätte sich dieser wohl kaum durchsetzen können, weil es dann nicht sonderlich viele Spiele dafür gegeben hätte.. Direct 3D Spiele aus der Zeit vor DX5 sind sehr sehr spärlich gesäht, und waren weder besonders schnell noch schön. 3Dfx hat sich ja von Glide distanziert, nachdem mit OGL und D3D5 sich 2 andere APIs etabliert hatten, die hardwareunabängig waren. Hätte 3dfx die Entwickler weiter an Glide binden wollen, hätten sie die Schnittstelle weiterentwickelt und nicht verfallen lassen und zu Open Source erklärt, wie es passiert ist...
Glide war halt 1997 einfach noch notwendig weil es keine guten chipunabhängigen APIs gab.
Razor
2002-01-05, 14:43:13
Fischen wir ein bissel im Trüben, haarmann ?
;-)
Die bisherigen Vertex/Pixel-Shader Test's haben folegndes zutage gefördert:
Theoretisch ist der Vertex-Shader der R8500 ca. doppelt so schnell wie der einer gf3 (in fast allen Fällen ;-). Und ebenso theoretisch erreicht der Pixel-Shader der R8500 nur 2/3 der Leistung desjenigen einer gf3...
Real-Worl-Test's gibt's noch gar nicht, als würde ich mit solchen Schlüssen, wie Du sie nun darlegst sehr vorsichtig sein. Wird vermehrt auf Pixel-Shader gesetzt und kann ein Großteil der Vertex-Berechnungen auch von der CPU erledigt werden, dürfte die R8500 ziemlich alt aussehen, dann müsstest Du Dir verarscht vorkommen - meine Meinung ;-)
Aber wie schon gesagt, noch gibt es gar nichts, auf das man Rückschlüsse ziehen könnte, insofern hast Du nun auch bewiesen, daß auch Du geren ein bissel flamest, gell ?
;-)
In diesem Sinne
Razor
Quasar
2002-01-05, 15:01:06
@Haarmann:
Ein Frage habe ich aber nochmal zu deinem "Szenario":
Meinst du "echte" DX8-Games, die in drei bis vier Jahren erscheinen und eine "installed User Base" von DX8-Karten voraussetzen können, ergo DX8 inkl. aller Effekte und Technologien als Minimalanforderung voraussetzen?
Legolas
2002-01-05, 15:02:58
Vielleicht kann man die Pixelshaderleistung der ATI durch Treiberupdates entscheidend verbessern. Wenn ich mich recht entsinne, dann muß der Radeon alle Pixelshader 1.0-1.3 Effekte auf Pixelshader1.4 umrechnen.. vielleicht liegt ja hier der Hund für die rel. schlechte Performance begraben.. bzw. vielleicht lässt sich dieses konvertieren noch beschleunigen... Naja.. wir werden sehen..
Frank
2002-01-05, 17:35:05
Originally posted by Razor
Insofern standen .. Frank..in der 3dfx-Fraktion
das nächste mal bitte ordentlich lesen Razor!! Da argumentiert man pro TNT2 und wird trotzdem von dir auf eine Art und Weise "abgestempelt" (nicht nur auf mich bezogen!!) ...
Labberlippe
2002-01-05, 18:45:36
Originally posted by Razor
Fischen wir ein bissel im Trüben, haarmann ?
;-)
Die bisherigen Vertex/Pixel-Shader Test's haben folegndes zutage gefördert:
Theoretisch ist der Vertex-Shader der R8500 ca. doppelt so schnell wie der einer gf3 (in fast allen Fällen ;-). Und ebenso theoretisch erreicht der Pixel-Shader der R8500 nur 2/3 der Leistung desjenigen einer gf3...
Real-Worl-Test's gibt's noch gar nicht, als würde ich mit solchen Schlüssen, wie Du sie nun darlegst sehr vorsichtig sein. Wird vermehrt auf Pixel-Shader gesetzt und kann ein Großteil der Vertex-Berechnungen auch von der CPU erledigt werden, dürfte die R8500 ziemlich alt aussehen, dann müsstest Du Dir verarscht vorkommen - meine Meinung ;-)
Aber wie schon gesagt, noch gibt es gar nichts, auf das man Rückschlüsse ziehen könnte, insofern hast Du nun auch bewiesen, daß auch Du geren ein bissel flamest, gell ?
;-)
In diesem Sinne
Razor
Bevor Du solche Tests zitierst, solltest Du weiterlesen auch.
Es wurde auch geschrieben das der PixelShader 1.4 auf der Radeon mehr auf den Kasten hat und den Pixelshader 1.1 von der GeForce3 quasi Emulieren muss.
Die neuen Games werden sicher auf die neuen Pixelshader gehen.
Wobei MS ja angeblich die Spezfikationen für DX runter setzen will damit die liebe GeForce noch mithält.
Gruss Labberlippe
Labberlippe
2002-01-05, 18:55:27
Originally posted by Quasar
@Haarmann:
Ein Frage habe ich aber nochmal zu deinem "Szenario":
Meinst du "echte" DX8-Games, die in drei bis vier Jahren erscheinen und eine "installed User Base" von DX8-Karten voraussetzen können, ergo DX8 inkl. aller Effekte und Technologien als Minimalanforderung voraussetzen?
Wundert mich immer wieder wie jetzt Argumentiert wird.
Bis DX8 Games kommen bla bla bla
Das gleiche haben wir bei T&L und 32 Bit gesagt, da hiess es nene kommt früher.
Ist das nur so weil es nicht von NV kommt?
PS: TruForm, finde ich, ist bis jetzt schon sehr gut Unterstützt worden.
Schneller als 32 Bit und T&L
Gruss Labberlippe
Razor
2002-01-05, 20:11:34
@Laberlippe
Klar, die Entwickler werden jetzt (oder tun das schon seit fast 'nem Jahr ;-) auf die PS1.4 gehen, weil es ja so wahnsinnig viele GraKa's und Hersteller gibt, die das bieten...
Na dann träum mal schön weiter, denn bisher ist immer noch der kleinste Nenner zum Tragen gekommen (das wären im Falle von DX8 dann VS1.1 und PS1.1 mehr sicherlich nicht). Auch die Nähe zur XBox dürfte verhindern, daß Hersteller nun wahnsinnigen gebrauch von ATI's PS1.4 machen. Erst wenn eine breitere Basis an Hardware da sein wird, dürfte so etwas passieren, aber ich vermute mal, das wird nie kommen... Vermutlich gibt's dann schon längst DX9 und PS2.0 und das jetzige DX8.1 ist lediglich ein Bug-Fix und ein ATI TechDemo-Helper...
;-)
Und Truform gibt's bisher wohl nur in 3 Games: HalfLife (=uralt), SeriousSam (=unbracuhbar), RTCW (unsichtbar ;-)...
DAS ist wirklich eine derbe Unterstützung und sieht eher nach Marketing von ATI aus...
In diesem Sinne
Razor
P.S.: U2 gibt's im Mai ;-)
Ich frag mich jetzt schon ne ganze Weile ob GeForce-Besitzer eher Limette oder Wild Berries bevorzugen...
Frank,
alleine dass Razor sich für neutral hält zeigt, wie ernst du seine Unterteilung nehmen kannst.
Razor,
ich werde das Gefühl nicht los (worin ich mich ja sehr täuschen kann) dass du den Nutzen von TruForm anzweifelst, weil es nicht von nVidia kommt. Oder anders, weil deine 870-Mark-Karte kein TruForm hat. Natürlich gibt es Startschwierigkeiten. Aber HOS werden kommen. Und ATI hat den Anfang gemacht. Sie haben nämlich dafür gesorgt, dass es überhaupt unterstützt wird.
GF3 kann auch HOS verarbeiten. Nur gibt es bislang *kein* Spiel, dass das nutzt. Für TruForm gibt es einige, sowie die Aussicht, dass es mehr werden.
Ich weiss also nicht, wieso du über die "derbe Unterstützung" herziehst. Des weiteren argumentierst du, dass PS 1.4 wenig sinnvoll seien, weil die Unterstützung fraglich sei.
Ist nVidia jetzt etwa die Innovationsbremse (und verhindert mit ihrer Marktmacht, dass neue Features genutzt werden)?
nVidia-Anhänger sind fantasche Jünger!
Fantatasche? Gibts die auch für Cola MX ähh light?
Der letzte macht das Licht aus.
cu,
RAL
Thowe
2002-01-05, 21:22:33
Kann mich mal jemand aufklären, warum der PS1.4 schlecht sein soll?
Wenn wir schon dabei sind, warum sollte es schwierig sein TruForm sinnig und einfach zu implementieren?
Legolas
2002-01-05, 22:09:38
Technisch ist der PS1.4 dem PS1.1-1.3 überlegen, nur der PS1.1-1.3 verfügt halt über die breitere Basis an installierter Hardware...
Für manche mag noch als Nachteil gelten, daß der PS1.4 nicht auf einer GF läuft, aber imho ist das nicht wirklich ein technischer Nachteil :D*eg* ;)
Labberlippe
2002-01-05, 22:52:45
Originally posted by Razor
@Laberlippe
Klar, die Entwickler werden jetzt (oder tun das schon seit fast 'nem Jahr ;-) auf die PS1.4 gehen, weil es ja so wahnsinnig viele GraKa's und Hersteller gibt, die das bieten...
Na dann träum mal schön weiter, denn bisher ist immer noch der kleinste Nenner zum Tragen gekommen (das wären im Falle von DX8 dann VS1.1 und PS1.1 mehr sicherlich nicht). Auch die Nähe zur XBox dürfte verhindern, daß Hersteller nun wahnsinnigen gebrauch von ATI's PS1.4 machen. Erst wenn eine breitere Basis an Hardware da sein wird, dürfte so etwas passieren, aber ich vermute mal, das wird nie kommen... Vermutlich gibt's dann schon längst DX9 und PS2.0 und das jetzige DX8.1 ist lediglich ein Bug-Fix und ein ATI TechDemo-Helper...
;-)
Und Truform gibt's bisher wohl nur in 3 Games: HalfLife (=uralt), SeriousSam (=unbracuhbar), RTCW (unsichtbar ;-)...
DAS ist wirklich eine derbe Unterstützung und sieht eher nach Marketing von ATI aus...
In diesem Sinne
Razor
P.S.: U2 gibt's im Mai ;-)
Komisch damals hat T&L auch nur nVIDIA im High End gehabt.
Wie war das mit den kleinen Nenner?
Glaube mir so Games wie Doom3 werden gleich mal auf PS 1.4 laufen ansonste w+rde mich der liebe john sehr entäuschen.
Gruss Labberlippe
Doom3 wird sicher nicht mit PS 1.4 laufen... ;)
Exxtreme
2002-01-05, 23:09:45
Originally posted by Xmas
Doom3 wird sicher nicht mit PS 1.4 laufen... ;)
Wieso nicht?
John Carmack hat mal gesagt, daß er für die wichtigsten am Markt verfügbaren GraKas optimieren will. Es könnte dann sein, daß Doom 3 den 1.4-PS einsetzten wird, wenn eine R8500 erkannt wird.
Gruß
Alex
ElDefunes
2002-01-05, 23:20:39
Hallo Kai
Ja wie denn nun?
Und im Vergleich zu 3DFX war nVidia seit der GeForce 1 (IMO) immer vorne und ich hab auch nicht nur im entferntesten daran gedacht mir ein 3DFX Konkurreznprodukt zuzulegen.
Hast du dich für ein 3Dfx oder ein nVidia Board entschieden???
Außerdem stimmt diese Aussage "im Vergleich zu 3DFX war nVidia seit der GeForce 1 (IMO) immer vorne" nur sehr sehr bedingt.
Gegenstück der GF1 sollten die VSA 100 Boards werden.(Chipgeneration)
Beispiele:
V3:TNT2
V4/5:GF1
Rampage:GF2
aber jeder weiß das es beim VSA100 leider verzögerungen gab.
PS: Stirbt ein Konkurent steigt das Monopol.
"PS 1.4" ist aber eine DirectX-Definition ;)
Andre
2002-01-06, 11:06:57
Originally posted by Labberlippe
Glaube mir so Games wie Doom3 werden gleich mal auf PS 1.4 laufen ansonste w+rde mich der liebe john sehr entäuschen.
Gruss Labberlippe
Labberlippe,
merkst Du was ?
PS 1.4 wird SICHER kommen, da bin ICH TOTAL SICHER, absolut SICHER, nichts kann das VERHINDERN.
Ok, ich hab ein bischen übertrieben, aber es ist so unglaublich lustig, wie sich manche (und auch du) über die nicht eingehaltenen Versprechnungen im Bezug auf T&L beschweren und gleichzeitig den PS 1.4 als DAS Feature, welches auch in den meisten Games verwendet wird, anpreisen.
Und glaube Du mir, dass dem ebenfalls NICHT so sein wird.
Aber glauben ist eh was für die Kirche, also wie wäres mit abwarten ?
Razor
2002-01-06, 11:48:08
@aths
'Meine Unterteilung' ist genau so 'ernst' gemeint, wie Dein initialer Post !
;-)
Gibt es schon irgend etwas (außer die ATI-Techdemos und hier sollte man erwähnen, daß es diese bei nVidia noch nicht einmal gibt), wo die nPatches 'vernünftig' genutzt werden ? Die bisherigen Implementierungen kann man doch wohl nur als Witz bezeichnen, denn entweder sieht man davon so gut wie nichts, oder aber es kostet heftig Performance und es wird auch zeimlich viel Müll dargestellt. Ich habe noch schlicht keine Spiele gesehen, die Trufom 'richtig' nutzen. Ergo war auch das Marketing-Versprechen (und mehr ist es dann auch nicht), daß TruForm einfach zu realisieren sei und 'for free' ist, schlicht falsch... was aber nichts Neues ist, weil andere Hersteller (inkl. und allen voran nVidia ! ;-) dies auch tun...
nVidia ist mit der gf3 so vor 8 Monaten heraus gekommen, ATI erst vor einem Monat und damit viel zu spät. Auch wird es schon nächsten Sommer (Q3'2002) wieder neue Karten geben (R300/NV30), die dann PS2.0 und OpenGL2.0 unterstützen werden...
Warum sollten sich Hersteller nun auf PS1.4 (oder PS1.2-1.3) einlassen ?
Alle derzeitigen und auch noch erscheinenden Karten (inkl. NV25/R250) werden PS1.1 unterstützen, warum sollen dann 'exoten' genutzt werden, die dann nur auf einem Bruchteil der Hardware laufen ?
Gleiches gilt für Truform, denn wenn der Aufwand zu groß wird (was er zwingend sein muß, damit das Ergebnis 'vernünftig' wird), dann wird gegen den Nutzen aufgerechnet und da sieht's für ATI erst mal sehr schlecht aus...
Insofern bezeichne ich ATI hinsichtlich Truform zur Zeit als 'Innvationsbremse', da sie ja schon angekündigt haben, daß die R300 eben 'richtiges' HOS und damit die polynominalen Flächen unterstützen wird. Warum haben sie dies nicht schon jetzt getan ? Um sich selber einen Vorteil zu verschaffen ? Um die Entwicklung in dieser Richtung erst einmal zu stoppen ? Hmmm...
Wie schon gesagt, vermutlich werden ATI's R200/R250 die einzigen Karten bleiben, die PS1.4 unterstützen, alle anderen Unterstützen dann PS1.1 oder eben den 'neuen' Standard PS2.0... ergo sind PS1.4 sinnlos (und weil PS1.1 emuliert werden muß, sogar zu 'lahm'...). Ein reiner Marketing-Gag, mehr aber auch nicht !
;-)
@Thowe
Die PS1.4 sind nicht 'schlecht', nur sind sie eben nur auf einer einzigen Hardware zu haben (R200) und somit wird's aufgrund der 'anderen Implementierung' (siehe Tomitti-Artikel) eben auch für die Entwickler schwierig, darin einen Nutzen zu sehen, stellen die PS1.4 dorch primär eine Zusammenfassung der PS1.1-1.3 Effekte nebst ein paar Erweiterungen dar, die aber nicht abwärtskompatibel sind...
Außerdem müssen die PS1.1 'emuliert' werden, was zu einem derben Geschwindigkeitsverlust führt und dies, solange die PS1.4 eben noch nicht genutzt werden, ein effektiver Nachteil ist (zu was der VS von ATI in der Lage ist, haben wir doch gesehen, der PS1.1 ist allerdings im Vergleich ziemlich 'lahm')...
Und was Truform angeht...
Wenn man nicht immer komplette Objektgruppen 'runden' würde, also JEDEM Polygon entsprechende Kontrollpunkte mitgeben würde, ist das Ergebnis zwar korrekt (und sicherlich sehr 'angenehm' anzuschauen ;-), aber eben auch zu aufwendig. Auch ist es dabei nicht mehr mit ein paar Zeilen Code getan und die Objekt-Modelle greifen nicht mehr. Der einzige 'Vorteil' wäre dann noch die Abwärtskompatibilität, die aber wahrscheinlich bei grundlegend Truform-optimierten Games dann auch keinen Pfifferling mehr Wert wäre (wesentlich detailärmere Darstellung für nicht-Truformer !)... muß nicht sein, ist aber wahrscheinlich...
Die 'seichten' implementierungen sind nach allem, was ich bisher gesehen habe, ziemlicher Müll, lediglich die ATI-Techdemo's (wen wunderts ;-) sehen genial aus (habe dies bei einem Kollegen LIVE in Augenschein nehmen dürfen, aber auch den 'Müll' ala SS, HL, RTCW - bei Letzterem kaum/garnicht sichtbar).
Aber wie schon gesagt, würde man jedem Poygon Kontrollpunkte mitgeben, dann ist der Aufwand für die Entwickler schlicht zu groß und damit leider TruForm sinnlos...
@Legolas
Ich würde sagen daß die PS1.4 'Feature-Seitig' eventuell (!) überlegen sind, aber den größten Vorteil wohl lediglich in der technischen Grundlage haben (mehr Register, Befehle etcpp). Programmiertechnisch aber wohl eher einen Rückschritt darstellen (nach Aussage von diversen Entwicklern), weil dadurch Dinge dann wieder eingeschränkt werden... leider find ich die Links dazu nicht mehr, aber einige hier mögen sich noch daran erinnern (damals August 2001, als die R200 vorgestellt wurde)...
Und während die PS 1.2 und 1.3 lediglich eine Erweiterung der PS1.1 darstellen (eigentlich nur zusätzliche Befehle), sind die PS1.4 wieder 'anders', was man dann als 'inkompatibel' ansehen muß, da Entwickler, die PS1.4 nutzen, dann einen separaten Weg über die PS1.1 bis PS1.3 proggen müssten, damit's dann auch auf nicht-DX8-ATI-Hardware läuft...
Und das wird vermutlich nicht passieren !
(oder gibt schon irgendetwas, was die PS1.4 nutzt oder nuzen wird ?)
@Laberlippe
Damals gab's überhaupt noch nichts, was HW T&L wirklich brauchte. Selbst vor einem Jahr war dies noch nicht wirklich der Fall. Erst heute und in naher Zukunft wird diese Technologie breit unterstützt werden, da die installierte Hardware-Basis schlicht vorhanden ist. Solange aber noch andere Hardware 'Mainstream' war (TNT/Kyro/Voodo), war dies eben nicht möglich, heute sieht das 'etwas' anders aus... Insofern verliert JEDER Hersteller, der Features anbietet, die andere nicht haben... es sei denn er bietet an, was Entwickler wirklich wollen und hat eine Marktstellung, so etwas einfach in den Markt zu drücken...
;-)
PS1.4 ?
Schon nächsten Sommer (also in nur 6 Monaten) werden diese veraltet sein, aber DX8(.0 i.e. PS1.1) wird dann wohl breit vertreten sein, was bedeutet, daß die Entwickler dies auch zukünftig berücksichten werden müssen...
@Exxtreme
John Carmack wird auf eine einzelne Spezifikation EINES Herstellers setzen (und zudem noch auf M$ ;-) ?
Wozu der erhebliche Mehraufwand ?
Nur damit's dann auf 'ner ATI besser läuft ?
Eher nicht...
;-)
Aber keine Sorge, auch Doom3, i.e. OpenGL 1.3 (und natürlich U2, i.e. D3D8) wird auf einer R8500 noch vernünftig laufen. Nur wer eben glaubt, daß es dann auf gf3-Karten nicht mehr vernüftig läuft, wird auf dem Holzweg sein...
(zwar auch nur 'ne Vermutung, aber ziemlich realistisch, denke ich...)
;-)
In diesem Sinne
Razor
Legolas
2002-01-06, 12:40:16
Eigentlich sollte doch der Pixelshader 1.4 in Richtung einer höheren Programmiersprache für die Pixelpipeline gehen... Er soll also eine Vorstufe zum PS2.0 sein... Der PS1.1 ist ja noch eine ziemlich low level Programmiersprache
Frank
2002-01-06, 13:15:51
Originally posted by Razor
@aths
'Meine Unterteilung' ist genau so 'ernst' gemeint, wie Dein initialer Post !
Dann solltest du Postings mal etwas besser durchlesen bevor du mit der Schublade anfängst.
Und wenn du mich schon in eine Schublade steckst dann bitte Trident. Und mein erster Gegner ist SIS, weil die den Ruf von Notebookgrafikkarten in Verruf bringen. 2. Gegner ATI, weil die es immer noch nicht gebacken kriegen unter w2k unterschiedliche Auflösungen auf Notebookpanel und externen Monitor darzustellen. Gegen nVidia hab ich nix, da die bis jetzt auch noch kein Notebookchip rausgebracht haben. (spass)
Wisst Ihr überhaupt noch worum es geht? Es ist genau das zu beobachten, was aths im Threadtittel geschrieben hat - aber nicht nur auf Seiten von nVidia"Fans". Razor fährt wiedermal alle Geschütze gegen die neue Radeon auf, ow freut sich, daß 3dfx endlich abgekratzt ist, und fast alle nichtnVidiakarten Besitzer kennen nur ein Gegner: nVidia.
Legolas
2002-01-06, 13:30:10
Eigentlich hab ich ja nix gegen Nvidia selber... Hab ja selber noch ne Karte mit nem Nvidia-Chip hier rumliegen. Nur kaufen würde ich mir im Moment wohl keine Nvidia Karte, weil ich
1) Schon eine genug schnelle Grafikkarte hab
2) eben schlechte Erfahrung mit Nvidia Produkten gemacht hab, auch wenn diese Probleme heute vielleicht nicht mehr so zutreffen, so bleibts mir trotzdem ziemlich suspekt :D
Exxtreme
2002-01-06, 14:18:01
@ Frank
Ob die betroffenen Personen es jemals verstehen werden...
Gruß
Alex
Quasar
2002-01-06, 18:25:51
Originally posted by Labberlippe
Wundert mich immer wieder wie jetzt Argumentiert wird.
Bis DX8 Games kommen bla bla bla
Das gleiche haben wir bei T&L und 32 Bit gesagt, da hiess es nene kommt früher.
Ist das nur so weil es nicht von NV kommt?
PS: TruForm, finde ich, ist bis jetzt schon sehr gut Unterstützt worden.
Schneller als 32 Bit und T&L
Gruss Labberlippe
Schade, daß du wieder vom Thema abweichst, Labberlippe.
Ich habe die Frage eigentlich ernst gemeint, da Haarmans Posting, das diese Aussage enthielt, inkl. dem von ihm entworfenen Szenario eigentlich überhaupt nichts mit meinem Post, auf den er damit anwortete, zu tun hatte.
Eigentlich hatte ich schon eine Antwort geschrieben, die auch genau auf diesen Umstand hinwies. Das habe ich dann aber nocheinmal überdacht, um nicht den Eindruck zu erwecken, ich würde nur Wortklauberei betreiben und einer Diskussion aus dem Wege gehen.
Deswegen musste ich nachfragen, wie das Szenario gemeint war, um wenigsten darauf eingehen zu können.
Leider hast du darauf mit Sarkasmus und völlig am Thema vorbei argumentiert.
Wenn du also noch an einer halbwegs sinnvollen Diskussion interessiert bist, solltest du vielleicht auch einmal auf Argumente anderer eingehen, anstatt nur willkürlich von Thema zu Thema zu springen.
Ich wiederhole also meine Frage noch einmal, Haarman.
An welche Art von DX8-Spielen hast du gedacht, als du schriebst:Quasar
Das ist Ansichtssache, was Du da behauptest.
Ich erstelle mal ein Szenario...
Für echte DX8 Games, wird eine GF3 zu langsam sein, aber ne R8500 nicht... für DX-7 Games, tuts auch ne Billigere Lösung... Ergo hast zwar neuste Technologie gekauft, kannst die aber nie nutzen - ergo Perlen vor die Säue geworfen (Meine Meinung) - ich käme mir verarscht vor.
Mit T+L nach DX7 - kannste Dir bisher als Gamer den Arsch abwischen - eine neue CPU is billiger, denn der Mehrpreis der Karten mit war. Prädikat nicht sinnvoll.
Zukunftssicher ist eh keine EDV Investition - also schaue ich, was ist in der Gegenwart denn für nen Nutzen vorhanden ist... meine Grakas werden selten alt by the way...
Ein stabiler Treiber muss auch auf fast jeder HW laufen mit voller Leistung. Ich war Besitzer eines AMD Athlons mit Irongate - da lernte ich NVs Treiber hassen... W2K Support unter aller Sau und mein Athlon vernachtlässigt.
Es bringt mir nix, wenn der auf nem anderen System laufen würde, aber auf meinem nicht ... meine ATIs haben AGP*4 inkl SBA - find ich gut.
Voodoos wirft man vor, keine AGP Texturing zu bieten... NV schaltet den AGP auf 1x oder 2x ohne SBA - da brauch ich auch keines mehr ;-).
Karten bei mir sind zZ ne R8500, Ne Radeon 32 DDR, ne Rage128 Pro, ne Rage128, ne ARK1000 *gg*, ne Kyro2 und die Voodoo5.
Ev mal bald ne billige GF3 zum austesten.
Haarmann
2002-01-06, 19:57:57
Sorry Quasar...
Aber diese "zuverlässige" Linux/Apache/MySQL/PHP Combo genannt Forum, hat meinen letzten Beitrag einfach aufgefressen ... (und laut Murphy hab ich diesmal ctrl-c vergessen und der back-button ging nimmer)
Danach war ich ned gleich so motiviert nochmals die gleichen Tasten zu drücken ;-)
Ich hoffe Du verstehst diese Haltung.
Also ich meine mit diesen "DX8.1" Spielen, wirklich gute Spiele und nicht 0815 Games, welche ohne DX8.1 ned laufen, aber auf alten DX7 Karten dann so ca ungefähr gleich aussehen bis auf 3 Pixel ;-). Es muss schon was sein, dass auch gut Aussieht. Ich könnte mir z.B. ein Game ala Atlantis vorstellen, welches gut von diesen Effekten profitiert.
Weltraumsim ala Wing Commander wär auch ne Option für so ein Game...
Oder Ultima welche Nummer auch immer?
Ich kenne mich zZ zuwenig aus mit den Games in den Pipelines der Hersteller und ich weiss auch, dass mir gewisse Games (Halo z.B.) absolut am Arsch vorbeigehen...
Aber ich halte es für möglich, dass wieder mal so ein Chris Roberts kommt und Games für Geräte schreibt, die man noch ned kaufen kann ;-), resp auf Heute Adaptiert, dass es wieder Games geben wird, die nur auf echt Hiend Kisten richtig laufen - und da NV noch weniger Features hat wie ne Radeon2, wäre die Folge davon, dass schon ne GF3 nicht mehr ideal dasteht.
Wie gesagt... ich heisse ned Chris Roberts ;-) Aber ich erinnere mich noch an so Games...
Aquanox z.B. haut mich bisher ned vom Hocker...
Razor wie ich oben erwähnte, gabs früher ne Zeit, wo ein Mann Games rausjagte, die eigentlich nur ruckelnd liefen auf den damaligen Geräten... trotzdem waren die Games gut verkauft ;-). Wenn sowas wieder mal passiert, dann wirds nur auf der Modernsten Karte laufen... und das is dann halt von den Features gesehen keine NV Karte. Das kann sich aber immer wieder ändern!
Razor
2002-01-06, 20:38:27
@Legolas
PS1.4 sollte etwas werden, wie Du es beschrieben hast, nur ist das wohl nicht geworden und die Entwickler finden das gar nicht witzig... (wie schon gasgt, Links sind mir abhanden gegangen ;-).
Und auch ich habe schleche Erfahrungen mit ATI Produkten gemacht (wie viele andere hier -nicht alle offensichtlich- auch !) und bin deswegen mißtrauisch geworden. Und leider scheint ATI genau diese Vorurteil zu bestätigen...
Zumindest aber geben sie sich wohl Mühe, daß es nicht wieder 'nen Jahr dauert, bis es hlabwegs rund läuft...
(nicht ganz ernst gemeint ;-)
@Frank
Schon mal auf den Namen des Forums geschaut und die Tatsache bedacht, daß dieser Tread unter diesem Umstand initiiert wurde ? Nur eine kleine Anregung...
Und ja, erst habe ich mich rausgehalten, aber nun tue ich das nicht mehr, zumal die Ansicht des TI's ja nun offen liegt und wir fröhlich diesem Klischee folgen dprfen, oder ?
;-)
@Exxtreme
Oh ja, Exxtreme, ich denke wir haben alle sehr gut verstanden, aber ofensichtlich ist Dir der Sinn dieses Forums 'Pro&Contra' noch nicht ganz geläufig, oder ?
;-)
@Haarmann
Oh jaaaaaaaaa !
Ich kann mich noch sehr gut an Games ala Chris Roberts (war das Chris ?) erinnern...
Aber damals mußten die Programmierer nicht darauf Rücksicht nehmen, was für eine GraKa im Rechner der User steckt, sondern sie haben noch (weitestgehend ;-) unabhängig von den leiben GraKa's geproggt. Insofern war nur die CPU der limitierende Faktor, die in Ihren Spezifikationen auch sich von zukünftigen Produken aufgenommen wird (und wurde ;-). Insofern war es nur ein Frage der Zeit, bis es Maschinen gab, die das zu Leisten in der Lage waren, die es brauchte, um solche Games zu betrieben...
Heute ist dies aber (leider ?) anders...
Heute kann sich ein Game-Entwickler nicht sicher sein, daß aktuelle Hardware in ein paar Jahren auch wirklich Mainstream sein wird und so wird von den größten Wahrscheinlichekiten und der Markstellung der Hersteller ausgegangen, auch davon, wieviel Unterstützung sie von den jeweiligen Hardwareproduzenten in Material und Thheorie erhalten...
Insofern teile ich Deinen Optimismus bezüglich der PS1.4 der R8500 nicht, wie ich ja schon zuvor darlegte. Ganz im Gegenteil glaube ich, daß wieder mal (wir in den letzten 4 Jahren auch) nur der breite gemeinsame Nenner zählt und das sind nun mal die PS1.1 und da hat die R8500 leider sogar einen Nachteil, da diese eben NICHT vollständig in Hardware realisiert sind (das ist nur der PS1.4 !).
Aber wie heißt das so schön ?
Abwarten und Bier trinken und da mein Mauserl auch gerade zu Essen ruft (nein, es ist nicht zu spät, sondern sogar völlig normal ;-) beende ich dann auch mit einnem fröhlichen
:bier:
Bis denne
Razor
P.S.: Das mit "nicht noch mal die gleichen Tasten tippen" kann ich gut verstehen, denn das Forum macht es einem oftmals schwer und das CTRL-C kann man ja auch mal vergessen ! (immer seltener der Fall ;-)
Exxtreme
2002-01-06, 21:31:29
Originally posted by Razor
@Exxtreme
Oh ja, Exxtreme, ich denke wir haben alle sehr gut verstanden, aber ofensichtlich ist Dir der Sinn dieses Forums 'Pro&Contra' noch nicht ganz geläufig, oder ?
;-)
Doch Razor, mir ist bewusst wozu dieses Forum dient. Aber wie schon Thowe zu diesen Thread sagte - "eine Vorführung" und damit hatte er recht.
Gruß
Alex
Dunkeltier
2002-01-06, 21:39:25
3d-fx Voodoo Graphics:
- Glide Schnittstelle, die einfacher zu programmieren und besser zu der Zeit ist als OpenGL, DirectX 2
- schnell
- gute Qualität über Glide (wenn hat damals bei Quake nicht der Mund offen gestanden?)
NVidia Riva128:
- mangelhafte Unterstützung durch wenige D3D Spiele
- bugbehaftet, da häufige Grafikfehler in verschiedenen Games
- langsamer
- D3D Spiele damals ultrahäßlich
ATI Rage:
- extram langsam
- bugbehaftet
- D3D Spiele häßlich, teils unspielbar
S3 Virge:
- fehlende Hardwarefeatures
- inkompatibel zu ziemlich allen Games außer mit Patch
- ultralangsam
Matrox Mystique/Millenium:
- langsam, inkompatibel, fehlende Hardwarefeatures, Schrott in 3D
---------------------------------------------------------------------------------------------------------------------------------------
3d-fx Voodoo² (Sli) / Voodoo Banschee:
- schneller als Voodoo (noch schneller durch Sli)
- gute Grafikqualität
- mittlerweile durch Spielepatches optimale Glidekompatibilität
- teuer
NVidia TNT:
- mittlerweile gut kompatibel durch OpenGL, DirectX 3 Spielefundament
- äußerst mangelhafte 32 Bit Performance (Einbrüche bis ca. 40%, daher meist sinnlos)
- teuer
ATI Rage 3D:
- zu langsam
- Treiber immer noch bugbehaftet
PoverVR 3DLabs Permedia:
- gute Qualität
- preiswerte Karten
- Konzept gescheitert an mangelnder Softwareunterstützung (Metalschnittstelle wurde nicht anerkannt)
Matrox G200:
- taugt nur als Mittelklasse Karte, weil nicht schnell genug
- Karte hat buggy Treiber (Darstellungsfehler in Spielen, etc.)
--------------------------------------------------------------------------------------------------------------------------------------
3d-fx Voodoo³:
- noch schneller ;)
- dank Postfilter noch immer gute Qualität bei entsprechend guter Geschwindigkeit
- kompatibel zu allem
NVidia TNT 2/ Geforce 256:
- sehr schnell
- ausgereifte Treiber
- 32 Bit teils immer noch zu stark am einbrechen
- wird mittlerweile auch von Spieleproduzenten anerkannt
- mit Geforce eingeführtes T&L anfangs absolut sinnlos
- mit Geforce Karten wird 32 Bit ohne größeren Performanceverlust möglich
- Geforce Karten teuer
ATI Rage Pro:
- gut in 32 Bit
- taugt als Alternative, ist aber nicht so schnell wie eine Voodoo³ oder TNT 2
Matrox G400:
- schnell
- neue, hübsche Features (Emboss, etc.)
- einigermaßen preiswert
- multimedial
S3 Savage (2000):
- bugbehaftet
- langsam
- absolute Fehkonstruktion
ATI Rage Fury MAXX:
- DUAL Chip Board
- schnell
- mittleweile ausgereifte Treiber
- teuer
----------------------------------------------------------------------------------------------------------------------------------------
3d-fx Voodoo 4/5:
- absolut überzeugende Bildqualitätssteigerung mit FSAA
- ausreichend schnell
- neue Features wie Motion-Blur
- mittlerweile auch 32 Bit Rendering möglich, früher unnötig wg. fehlender Softwareunterstützung
bzw. Hardware war nicht schnell genug
- Voodoo 4/5 zu teuer
NVidia Geforce 2:
- viele neue Features
- verdammt schnell
- sehr gute 32 Bit Perfomance
- breites Spielefundament
- Geforce 2 kostet auch ziemlich viel bei Markteinführung
PoverVR Kyro:
- intelligentes Rendering
- preiswert
- mäßig schnell
- bestdagewesene 16 Bit Qualität
ATI Radeon:
- alternative zur Voodoo 5 bzw. Geforce, leider zu langsam im Vergleich zur Geforce
- gegegentlich buggy Treiber (Spielekompatibilitätsprobleme
PowerVR Kyro 2:
- intelligentes Rendering
- preiswert
- verhältnismäßig schnell
- überagende 16 Bit Qualität
-----------------------------------------------------------------------------------------------------------------------------------------
NVidia Geforce 3:
- teuer
- neue Effekte werden unterstützt
ATI Radeon 8500:
- einigermaßen preiswert
- neue Effekte werden unterstützt
- Treiber noch etwas buggy (siehe Aquanox)
Anárion
2002-01-06, 23:19:25
Originally posted by Das Kriterium
S3 Savage (2000):
- absolute Fehkonstruktion
Rrrrrrrrrr! Das muss ich dir übelnehmen! :madman: ...obwohl es eigentlich stimmt :D
Originally posted by ElDefunes
Außerdem stimmt diese Aussage "im Vergleich zu 3DFX war nVidia seit der GeForce 1 (IMO) immer vorne" nur sehr sehr bedingt.
Gegenstück der GF1 sollten die VSA 100 Boards werden.(Chipgeneration)
Was hätte sein sollen, tut hier aber nichts zur Sache. In vielen Punkten stimmt der Satz so, wenn auch nicht in allen. Aber allgemeingültige Aussagen sind selten ;)
Das Kriterium,
ist ja alles schön und gut, aber was hat deine zwar lange, aber oberflächliche Liste mit diesem Thread zu tun? Die Vor- und Nachteile eines Chips lassen sich nicht so einfach auf drei oder vier Zeilen reduzieren, das kommt ganz auf den Standpunkt an. Ich stimme da z.B. in einigen Punkten nicht mit dir überein.
Dunkeltier
2002-01-07, 02:44:39
Na gut, was ich damit sagen will ist das NVidia immer Features rausgebracht hat, die zu dieser Zeit absolut sinnlos gewesen sind bzw. (noch) niemand gebraucht hat. Wie zum Beispiel:
- die schrottige Riva128 (ZX), ziemliche Fehlkonstruktion
- 32 Bit zu TNT 1/ TNT 2 Zeiten (zu langsam)
- Hardware T&L mit der Geforce 256 (Spiele kamen mit T&L kamen viel später)
- Pixel/Vertex Shader (siehe T&L, es fehlt bis jetzt die breite Masse an Spielen damit sich ein solch kostspieliger Kauf richtig lohnen würde)
Und nein, ich hasse NVidia nicht. Ich hatte selber ab der Riva 128 so ziemlich jede GPU dieser Firma, außer der TNT 2 und dem Geforce³. Momentan steckt eine Geforce² Ti in meinen Rechner.
So, und jetzt gehe ich noch etwas:
- RC5
- Seti@home
- Prime 95
- United Devices
crunchen.
Originally posted by Das Kriterium
[B]Na gut, was ich damit sagen will ist das NVidia immer Features rausgebracht hat, die zu dieser Zeit absolut sinnlos gewesen sind bzw. (noch) niemand gebraucht hat. Wie zum Beispiel:
- die schrottige Riva128 (ZX), ziemliche Fehlkonstruktion
Was ist an dem Schrott? Excellenter OpenGL Support, gutes D3D.
Nur gute D3D Spiele fehlten.
- 32 Bit zu TNT 1/ TNT 2 Zeiten (zu langsam)
Ich spiele auschliesslich 32Bit auf meinem TNT1. Kein Performanceverlust.
- Hardware T&L mit der Geforce 256 (Spiele kamen mit T&L kamen viel später)
Ist zwar fuer Gamer weniger wichtig, mit dem GF256 zielte NV aber auf den Markt professioneller OGL Karten, da ist T&L nun mal PFLICHT (wie 32Bit uebrigens auch).
- Pixel/Vertex Shader (siehe T&L, es fehlt bis jetzt die breite Masse an Spielen damit sich ein solch kostspieliger Kauf richtig lohnen würde)
Ja, lohnt derzeit nicht.
Aber wie stellst du dir eigentlich die Entwicklung vor?
Erst mal Games mit VS/PS programmieren lassen und dann schauen, ob's es irgendwann HW dafuer gibt??
Keine HW -> keine Games.
Razor
2002-01-07, 11:00:20
@Exxtreme
Doch Razor, mir ist bewusst wozu dieses Forum dient. Aber wie schon Thowe zu diesen Thread sagte - "eine Vorführung" und damit hatte er recht.
Thowe stimme ich sogar uneingeschränkt zu !
;-)
Razor
thomasius
2002-01-07, 11:45:01
total goil der thread, liest sich echt cool !!!
lol
meine meinung:
alles was neu ist wird am anfang nicht unterstützt, es dauert halt bis neue technologien zur anwendung kommen!
konkurenz belebt das geschäft und kann für uns endkunden nur gut sein -> preisgestaltung und tempo der weiterentwicklung, ohne nvidia hätten wir immer noch ne v1 und ohne 3dfx ne tnt1
natürlich suche ich nach meinem geschmack, nach der preis/leistung ein produkt aus.
und genau so muß es sein
so razor und was hab ich nun für eine graka??
;-)
Labberlippe
2002-01-07, 12:14:23
Originally posted by Razor
@Laberlippe
Klar, die Entwickler werden jetzt (oder tun das schon seit fast 'nem Jahr ;-) auf die PS1.4 gehen, weil es ja so wahnsinnig viele GraKa's und Hersteller gibt, die das bieten...
Na dann träum mal schön weiter, denn bisher ist immer noch der kleinste Nenner zum Tragen gekommen (das wären im Falle von DX8 dann VS1.1 und PS1.1 mehr sicherlich nicht). Auch die Nähe zur XBox dürfte verhindern, daß Hersteller nun wahnsinnigen gebrauch von ATI's PS1.4 machen. Erst wenn eine breitere Basis an Hardware da sein wird, dürfte so etwas passieren, aber ich vermute mal, das wird nie kommen... Vermutlich gibt's dann schon längst DX9 und PS2.0 und das jetzige DX8.1 ist lediglich ein Bug-Fix und ein ATI TechDemo-Helper...
;-)
Und Truform gibt's bisher wohl nur in 3 Games: HalfLife (=uralt), SeriousSam (=unbracuhbar), RTCW (unsichtbar ;-)...
DAS ist wirklich eine derbe Unterstützung und sieht eher nach Marketing von ATI aus...
In diesem Sinne
Razor
P.S.: U2 gibt's im Mai ;-)
Nona nit vielleicht.
Freilich werden die Spielehersteller nicht gleich auf PS 1.4 gehen.
Aber Du kannst nicht PS 1.1 loben und bei PS1.4 behaupten es wäre nicht sinnvoll, den so kommt es mir vor.
Und wenn nur momentan 3 Games Truform bieten dann ist das mal Besser als nichts.
Wobei es aber mehr als 3 Games sind. ;-) + Die Hobby Patches
Gruss Labberlippe
Andre
2002-01-07, 12:19:31
Labberlippe,
ich warte immer noch auf ein Statement zu diesem hier:
Labberlippe,
merkst Du was ?
PS 1.4 wird SICHER kommen, da bin ICH TOTAL SICHER, absolut SICHER, nichts kann das VERHINDERN.
Ok, ich hab ein bischen übertrieben, aber es ist so unglaublich lustig, wie sich manche (und auch du) über die nicht eingehaltenen Versprechnungen im Bezug auf T&L beschweren und gleichzeitig den PS 1.4 als DAS Feature, welches auch in den meisten Games verwendet wird, anpreisen.
Und glaube Du mir, dass dem ebenfalls NICHT so sein wird.
Aber glauben ist eh was für die Kirche, also wie wäres mit abwarten ?
Labberlippe
2002-01-07, 12:23:01
Originally posted by Andre
Labberlippe,
merkst Du was ?
PS 1.4 wird SICHER kommen, da bin ICH TOTAL SICHER, absolut SICHER, nichts kann das VERHINDERN.
Ok, ich hab ein bischen übertrieben, aber es ist so unglaublich lustig, wie sich manche (und auch du) über die nicht eingehaltenen Versprechnungen im Bezug auf T&L beschweren und gleichzeitig den PS 1.4 als DAS Feature, welches auch in den meisten Games verwendet wird, anpreisen.
Und glaube Du mir, dass dem ebenfalls NICHT so sein wird.
Aber glauben ist eh was für die Kirche, also wie wäres mit abwarten ?
Ich weiss ;)
Aber es immer wieder nett zum sehen wie sich manche bei solchen Statements aufregen.
Genaus so haben die nVIDIA Besitzer geredet wie T&L gekommen ist.
Der Unterschied damals waren alle so fest überzeugt von T&L und PS der GeForce3, bringt jetzt ein andere Hersteller eine verbesserte Version wird diese sofort in Frage gestellt.
Denn schliesslich hat ja nIVDIA eine sehr starke Marktposition und es darf nicht sein das ein andere Hersteller "moderner" ist.
Gruss Labberlippe
Asaraki
2002-01-07, 12:23:53
Erstmal Big Thx @ aths... darauf hab ich eigentlich gewartet.
Big Thx an alle die "ihre" GraKa verteidigen, dazu sind wir schliesslich hier, um heruaszufinden wer mehr argumente für seine GraKa zu finden (mal davon abgesehen dass wenn derjenige ein Konkurrenzprodukent in der Kiste hätte er genauso fanatisch für die andere Seite kämpfen würde)
Es kommt mir ein wenig vor als wären hier ein paar verdammt neidisch auf das Konkurrenzprodukt. Oder wie kleine Kinder bissel zu stolz auf das eigene Grafikmühlchen.
Mein ist gut und alles andere ist schrott. Klar, nVidia ist Performanceking, ATI dafür Multimedial und die BQ von Matrox rockt selbst heute noch alles weg. Aber worüber streiten wir? Dass wir alle eine unendlich schnelle GraKa wollen, mit den besten Features und der perfekten BQ ist ja klar. Aber was sollen denn die armen Hersteller morgen bringen? Sie MÜSSEN ja gerade zu mangelhafte Produkte bringen, denn auch Morgen wollen die Arbeitnehmer noch ihre Brötchen und die gibts nicht wenn jeder ne GraKa hat die auch im nächsten Jahrtausend noch reicht.
Wär ja ned lustig wenn Intel und AMD morgen verkünden würden dass es einfach nicht mehr schneller geht (von mir aus weil der Mond falsch steht). Dann wärs einfach fertig, finito. Und dann wärs wie früher.
Seid doch froh dass verschiedene Hersteller gute Karten bringen, und die R200 IST gut, wer das bestreitet hat sich nun wirklich ned mit ihr auseinandergesetzt. Dass die Ti500 unproblematischer ist war doch von vornherein klar, denn ein paar Jahre Vorsprung, und den hat nV, holt man nicht auf. Aber wenn ATI so weitermacht können sie in ein PAAAAAR Jahren Marktführer sein. Aber nV hatte noch immer ein As im Ärmel oder nicht?
Ich selbst hab ne Kyro2, im 2. Computer steckt ne GF256, mein Vater hat ne alte TNT1 und mein Bruder ne Radeon 1. Und Matrox liegt hier auch noch rum. Ich hab noch nie HighEnd Produkte gekauft, das ist sinnlos bei meinen Finanziellen Mittel. Ich zocke ab und zu und wenns läuft ist gut, wofür 100 Frames, lieber 100.- mehr im Beutel. Aber das muss ja jeder für sich wissen.
Ihr streitet euch welcher Hersteller der beste ist, andere streiten sich welcher Hersteller die besten Autos baut und mein gott streiten sich andere darüber welche Frau am besten aussieht.
(Bewusst die Frau als "nicht messbar" hineingenommen).
Der eine will fps, ein anderer Features und der dritte gute SQ. Was bringt mit ne superschnelle Ti500 wenn sie ne miserable SQ hat (rein fiktiv) wenn ich Photoshop machen will? Geil, alles verschwommen (das merkt man übrigens wirklich wenn man nebeneinander ne Kyro2 und ne GF hat).
Also, viel Text ohne Sinn aber egal :)
Auf jedenfall nur eins, das Beste gibt es NIE und wird es NIIIE geben!
(ned alles ganz ernst nehmen und cool bleiben, brauche keine Morddrohungen)
Labberlippe
2002-01-07, 12:24:04
Originally posted by Andre
Labberlippe,
ich warte immer noch auf ein Statement zu diesem hier:
Schon gepostet:-)
Am WE war ich "nicht da" deshalb kann ich erst heute Posten.
Gruss Labberlippe
Labberlippe
2002-01-07, 12:28:18
RAZOR:
Damals gab's überhaupt noch nichts, was HW T&L wirklich brauchte. Selbst vor einem Jahr war dies noch nicht wirklich der Fall. Erst heute und in naher Zukunft wird diese Technologie breit unterstützt werden, da die installierte Hardware-Basis schlicht vorhanden ist. Solange aber noch andere Hardware 'Mainstream' war (TNT/Kyro/Voodo), war dies eben nicht möglich, heute sieht das 'etwas' anders aus... Insofern verliert JEDER Hersteller, der Features anbietet, die andere nicht haben... es sei denn er bietet an, was Entwickler wirklich wollen und hat eine Marktstellung, so etwas einfach in den Markt zu drücken...
;-)
PS1.4 ?
Schon nächsten Sommer (also in nur 6 Monaten) werden diese veraltet sein, aber DX8(.0 i.e. PS1.1) wird dann wohl breit vertreten sein, was bedeutet, daß die Entwickler dies auch zukünftig berücksichten werden müssen...
=>
Das hatte ich schon damals gesagt das T&L noch nicht gebraucht wird.
Dennoch wurden andere Karten krititsiert weil T&L nicht integriert war.
Andere Hersteller hatte lieber die Technologie auf andere Bereich der Optik verlegt, diese Hersteller wurden niedergeredet.
Komisch gerade sagst Du oben weiter das T&L noch nicht gebraucht wird jetzt sagst Du PS 1.1 ist nötig.
Aquanox sieht nicht besser aus mit PS b.z.w. nicht ernsthaft besser.
Wäre aber lieb wenn Du einen Screen in einen neuen Thread von Aquanox mal mit und mal óhne PS setzen könntest.
Gruss Labberlippe
Labberlippe
2002-01-07, 12:42:30
Originally posted by Quasar
Schade, daß du wieder vom Thema abweichst, Labberlippe.
Ich habe die Frage eigentlich ernst gemeint, da Haarmans Posting, das diese Aussage enthielt, inkl. dem von ihm entworfenen Szenario eigentlich überhaupt nichts mit meinem Post, auf den er damit anwortete, zu tun hatte.
Eigentlich hatte ich schon eine Antwort geschrieben, die auch genau auf diesen Umstand hinwies. Das habe ich dann aber nocheinmal überdacht, um nicht den Eindruck zu erwecken, ich würde nur Wortklauberei betreiben und einer Diskussion aus dem Wege gehen.
Deswegen musste ich nachfragen, wie das Szenario gemeint war, um wenigsten darauf eingehen zu können.
Leider hast du darauf mit Sarkasmus und völlig am Thema vorbei argumentiert.
Wenn du also noch an einer halbwegs sinnvollen Diskussion interessiert bist, solltest du vielleicht auch einmal auf Argumente anderer eingehen, anstatt nur willkürlich von Thema zu Thema zu springen.
Ich wiederhole also meine Frage noch einmal, Haarman.
An welche Art von DX8-Spielen hast du gedacht, als du schriebst:
Naja vom Thema zu Thema springe ich nicht gerade.
Ich werfe nur mal gerne ein paar Brocken rein. :-)
Welche Art von DX8 Spielen?
Wieso glauben hier eigentlich alle das PS 1.4 nur auf DX8 funktioniert.
Es gibt OpenGL auch noch.
OK da fällt es rein unter den Begriff PS aber deshalb mutiert der PS der R8500 nicht auf die Version 1.1 unter OpenGL zurück.
Ich schätze schon mal das Doom3 massig Vorteile vom PS der R8500 ziehen könnte eben weil dieser mehr Berechnungen durchführen kann.
Ob dieses gemacht wird hängt von seiten der Spielehersteller ab.
Aber unter uns gesagt auch ich bezweifle das PS 1.4 soll schnell genutzt wird erst dann wenn nVIDIA eine solche Karte bringt.
Schade denn da verstehe ich die Hersteller nicht ganz.
Beispiel: CMR2
Ich habe eine Radeon welche "alle Arten" von Bumpmapping Verfahren beherscht nur nutzen kann ich es nicht.
Warum?
Weil wieder einmal nur nVIDIA OpenGL Extensions abgefragt werden.
Ich habe gute Technologie mit welcher ich weniger anfangen kann weil ein Hersteller wieder eine Vormachtsstellung einnimmt.
Komisch sogar bei "08-15" benches werden die Funktionen abgefragt welche eine Karte kann.
Hat eine Karte einen Effekt nicht dann ist der Effekt eben nicht mit einen Häckchen zu aktiveren.
Auch wird sich nVIDIA sicher nicht so leicht das Wasser abgraben lassen.
Das wird sich aber auch nicht so schnell Ändern
Bevor
A: Die Mags sich nicht in die Irre führen lassen und endlich objektiv berichten. Statt Schwachsinn.
B: Solange gewisse "User" nicht andere Technologien niedereden.
C: Gewisse Hersteller nicht in den A... der Hardwarehersteller kriechen.
Aber so ist nunmal die Marktwirtschaft. :)
So habe ich Dich jetzt verwirrt oder soll ich komplett das ganze Ausführlich schreiben.?
B.z.w. Verstehst Du meine Grundgedanken?
Gruss LAbberlippe
Originally posted by thomasius
meine meinung:
alles was neu ist wird am anfang nicht unterstützt, es dauert halt bis neue technologien zur anwendung kommen!
Da bin ich ganz deiner Meinung.
Und deshalb verstehe ich nicht, warum NV immer der Vorwurf gemacht wird, 32Bit u. T&L eingefuehrt und natuerlich auch beworben zu haben.
(ps) Beides gab's schon vor NV bei Profi/OGL-Karten, im Gaming-Sektor aber nicht.
Originally posted by Labberlippe
RAZOR:
Damals gab's überhaupt noch nichts, was HW T&L wirklich brauchte.
Gruss Labberlippe
Na, dann zeig mir doch mal, wie du mit 3dsmax und Maya ohne HW T&L arbeitest, nur zu.
Dass die NV Chips naemlich zu mehr als nur zum Gamen gut sind, will wohl keiner begreifen, oder?
Dass OGL nicht zum Spielen entwickelt wurde scheint auch keiner zu wissen.
Ist das nun Dummheit oder pure Ignoranz von den Gamern?
Originally posted by Labberlippe
Beispiel: CMR2
Ich habe eine Radeon welche "alle Arten" von Bumpmapping Verfahren beherscht nur nutzen kann ich es nicht.
Warum?
Weil wieder einmal nur nVIDIA OpenGL Extensions abgefragt werden.
Gruss LAbberlippe
CMR2 auf OpenGL??
Labberlippe
2002-01-07, 13:12:35
Originally posted by ow
CMR2 auf OpenGL??
Yepp Stand in einen Spiele Mag.
Das erklärt auch warum ich kein BumpMapping nutzten konnte.
Gruss Labberlippe
Andre
2002-01-07, 13:41:36
Originally posted by Labberlippe
Yepp Stand in einen Spiele Mag.
Das erklärt auch warum ich kein BumpMapping nutzten konnte.
Gruss Labberlippe
Na, da behaupte ich mal das Gegenteil.
Wir sprechen hier von Colin McRae Rally 2, right ?
CMR2 nutzt eindeutig D3D nicht OpenGL.
Das steht selbst auf der Herstellerseite.
Labberlippe
2002-01-07, 13:59:52
Originally posted by Andre
Na, da behaupte ich mal das Gegenteil.
Wir sprechen hier von Colin McRae Rally 2, right ?
CMR2 nutzt eindeutig D3D nicht OpenGL.
Das steht selbst auf der Herstellerseite.
Dann frage ich mich warum ich kein Bump Mapping nutzen kann.
Hardware mässig auf nVIDIA getrimmt?
Für was wenn D3D ja die Uni API für alle Karten ist.
Wenn das nur für nVIDIA Karten ist, dann sehe ich es als Freichheit den Kunden gegenüber.
Wenn nVIDIA, MS und die Spielehersteller zusammenhalten.
Kurz die Technologie wird gebremst.
Gruss LAbberlippe
nggalai
2002-01-07, 14:08:11
Hi Labberlippe,
> Hardware mässig auf nVIDIA getrimmt?
Ist in der Form unter D3D kaum machbar, i.e. auf nicht-NV-Karten Bump-Mapping zu blocken. Ausserdem nicht gerade sinnvoll.
> Für was wenn D3D ja die Uni API für alle Karten ist.
genau.
> Wenn das nur für nVIDIA Karten ist, dann sehe ich es als Freichheit den Kunden gegenüber.
Wie schon gesagt, kaum möglich. Ausserdem lief das hier auf einer Kyro-II ausgezeichnet (langsam ;)) mit Bumpmapping, IIRC.
Ich tippe auf ein Treiberproblem oder aber, mal wieder, ein buggy Codemasters-Produkt.
ta,
-rb
Andre
2002-01-07, 14:26:31
Originally posted by Labberlippe
Dann frage ich mich warum ich kein Bump Mapping nutzen kann.
Hardware mässig auf nVIDIA getrimmt?
Vielleicht fragst Du da erstmal bei ATI (wg. der Treiber) oder bei Codemasters (wg. der Unterstützung) mal nach, bevor wieder mal NV und MS an allem schuld sind.
Aber das zeigt Deine Denkrichtung ziemlich deutlich, Labberlippe.
Razor
2002-01-07, 14:33:09
@thomasius
SPEA Mirage V7 ?
;-)
@Laberlippe
Wo 'lobe' ich die PS1.1 ?
Es ist nur der kleinste Nenner und damit eigentlich sogar negativ zu sehen. Da dies aber am weitesten verbreitet ist und PS1.4 inkompatibel zu den PS1.1-1.3 ist, wird dieses wohl von den Entwicklern bevorzugt werden. Und bei einem sind wir uns vermutlich einig, denn nicht genutzte Features sind irgendwie sionnlos, oder ?
;-)
Und es geht hier nicht adrum eine Technologie zu verunglimpfen, denn die Entwickler werden sich schon was dabei gedacht haben, den PS1.4 aus der Taufe zu heben. Aber es könnte (muß also nicht !) eben gut sein, daß dies von den Entwicklern wegen mangelnder Verbreitung und Inkompatibilität eben nicht genutzt wird und dann ist's schlicht überflüssig und aufgrund der langsameren Ausführungsgeschwindigkeit von den PS1.1 (da wohl nicht in Hardware implementiert und über die PS1.4 emuliert) sogar im Nachteil. Hätte also ATI die PS1.4 entwicklet ohne dabei einen Nachteil für die PS1.1 'einzubauen', dann würde jede Kritik daran im Kein erstickt...
Und zeig mit bitte nur EIN Game, bei dem Truform VERNÜNFTIG implementiert ist...
Das hatte ich schon damals gesagt das T&L noch nicht gebraucht wird.
Dennoch wurden andere Karten krititsiert weil T&L nicht integriert war.
Andere Hersteller hatte lieber die Technologie auf andere Bereich der Optik verlegt, diese Hersteller wurden niedergeredet.
Heute wird T&L gebraucht (oder zumindest in naher Zukunft ;-) und nicht jeder kann oder will sich dann ein neues System und/oder eine neue GraKa zulegen... Insofern täten sie (auch damals schon) besser daran, wenn sie sich 'ne T&L-Karte geholt hätten. Auch dürfte es etwas schwierig sein, neue Technologie am Markt zu plazieren, wenn die Leute dies erst annehemen, wenn's auch tatsächlich gebrauch werden würde... dann lebten wir heute noch in der Steinzeit, würde alle so denken...
Komisch gerade sagst Du oben weiter das T&L noch nicht gebraucht wird jetzt sagst Du PS 1.1 ist nötig.
Aquanox sieht nicht besser aus mit PS b.z.w. nicht ernsthaft besser.
Wäre aber lieb wenn Du einen Screen in einen neuen Thread von Aquanox mal mit und mal óhne PS setzen könntest.
Wo sage ich denn, daß man PS1.1 'braucht' ?
Ich habe lediglich die These aufgestellt, daß die PS1.1 sinnvoller seien, als die PS1.4... mehr nicht !
;-)
'Brauchen' tut man sie tatsächlich bei Aquanox, DroneZ und Comanche 4, demnächst dann auch in U2...
Und wenn ich noch mal Zeit dafür finde, dann werde ich mal PS-Shots bringen...
(ein eigener Thread sollte dann wo erscheinen ?)
;-)
Und Du bist sicher, daß CMR2 ein OpenGL-Game ist ?
;-)
Bis denne
Razor
Labberlippe
2002-01-07, 15:21:24
Originally posted by Andre
Vielleicht fragst Du da erstmal bei ATI (wg. der Treiber) oder bei Codemasters (wg. der Unterstützung) mal nach, bevor wieder mal NV und MS an allem schuld sind.
Aber das zeigt Deine Denkrichtung ziemlich deutlich, Labberlippe.
Also Deine Denkrichtung möchte ich jetzt mal lieber nicht deutlich definieren.
Info: Deshalb habe ich das Wort "Wenn" eingefügt, eben weil nichts bestätigt oder 100% ist.
Aber es würde Dir auch nichts schaden von Deinen nV Tripp runterkommen und nicht gleich alles als persönliche Beleidigung sehen.
Machst Du anscheinend, denn ansonsten kann ich den Grund Deiner Aussage nicht nachvollziehen.
Gruss Labberlippe
Frank
2002-01-07, 15:31:10
Originally posted by Razor
@thomasius
SPEA Mirage V7 ?
;-)
Elsa Erazor 3 pro
... aber eine Spea V7 Mercury war auch irgendwann mal dabei
Labberlippe
2002-01-07, 15:32:21
Originally posted by nggalai
Hi Labberlippe,
> Hardware mässig auf nVIDIA getrimmt?
Ist in der Form unter D3D kaum machbar, i.e. auf nicht-NV-Karten Bump-Mapping zu blocken. Ausserdem nicht gerade sinnvoll.
> Für was wenn D3D ja die Uni API für alle Karten ist.
genau.
> Wenn das nur für nVIDIA Karten ist, dann sehe ich es als Freichheit den Kunden gegenüber.
Wie schon gesagt, kaum möglich. Ausserdem lief das hier auf einer Kyro-II ausgezeichnet (langsam ;)) mit Bumpmapping, IIRC.
Ich tippe auf ein Treiberproblem oder aber, mal wieder, ein buggy Codemasters-Produkt.
ta,
-rb
Hmm mal ATi Kontaktieren.
Thx
Gruss Labberlippe
Labberlippe
2002-01-07, 15:34:00
Originally posted by Andre
Vielleicht fragst Du da erstmal bei ATI (wg. der Treiber) oder bei Codemasters (wg. der Unterstützung) mal nach, bevor wieder mal NV und MS an allem schuld sind.
Aber das zeigt Deine Denkrichtung ziemlich deutlich, Labberlippe.
Nachtrag:
Du kannst Dir ein Beispiel an nggalai nehmen.
Der hat Versucht es zu erklären und nicht gleich eine Denkrichtung vorzuwerfen.
Zeigt mir wieder Deinen nVIDIA Komplex.
Gruss Labberlippe
Labberlippe
2002-01-07, 15:48:26
Originally posted by ow
Na, dann zeig mir doch mal, wie du mit 3dsmax und Maya ohne HW T&L arbeitest, nur zu.
Dass die NV Chips naemlich zu mehr als nur zum Gamen gut sind, will wohl keiner begreifen, oder?
Dass OGL nicht zum Spielen entwickelt wurde scheint auch keiner zu wissen.
Ist das nun Dummheit oder pure Ignoranz von den Gamern?
Um es in Deinen Worten zu Wiederholen.
Und wenn Du noch 1000 mal den Unsinn von Dir gibst. :)
Die normalen Enkunden Produkte sind nicht für Proffesionelle Anwendungen gedacht.
Da gibt es eigene Chips dafür.
FireGL, Wildcat, Elsa
Ja es geht aber die Unternehmen die ernsthaft mit solcher Software arbeiten haben andere Systeme.....
PS: Natürlich wissen das einige das OGL eigentlich nicht zum Spielen gedacht war.
Das ist Ignoranz von Dir anderen Unwissenheit vorzuwerfen.
Gruss Labberlippe
Unregistered
2002-01-07, 15:53:08
Originally posted by Labberlippe
Dann frage ich mich warum ich kein Bump Mapping nutzen kann.
Hardware mässig auf nVIDIA getrimmt?
Für was wenn D3D ja die Uni API für alle Karten ist.
Wenn das nur für nVIDIA Karten ist, dann sehe ich es als Freichheit den Kunden gegenüber.
Wenn nVIDIA, MS und die Spielehersteller zusammenhalten.
Kurz die Technologie wird gebremst.
Gruss LAbberlippe
Horche mal *********: <<<edit>>>
Bist du so... <<<edit>>>
Aber es kann ja nur NV an den buggy Radeon Treibern schuld sein, gelle??
gruss
-ow-
<<<muss sowas sein ow???>>>
thomasius
2002-01-07, 15:59:15
Originally posted by Frank
Elsa Erazor 3 pro
... aber eine Spea V7 Mercury war auch irgendwann mal dabei
:| ich werd das gefühl nicht los, dass der tnt2pro chipsatz meinen neuen xp1700+ ausbremst:|
:bonk:
naja kommt ja bald ne neue, kann mir da nicht irgendjemand ne karte empfehlen;D
billig soll sie sein und alles können was es gibt
lol
*eg*
Frank
2002-01-07, 16:04:38
Originally posted by thomasius
:| ich werd das gefühl nicht los, dass der tnt2pro chipsatz meinen neuen xp1700+ ausbremst:|
:bonk:
naja kommt ja bald ne neue, kann mir da nicht irgendjemand ne karte empfehlen;D
billig soll sie sein und alles können was es gibt
lol
*eg*
7500er Radeon
Labberlippe
2002-01-07, 16:07:21
Originally posted by Unregistered
Horche mal Labersack:
Bist du so hohl in der Birne oder tust du nur so??
Aber es kann ja nur NV an den buggy Radeon Treibern schuld sein, gelle??
gruss
-ow-
Und sonst alles palletti?
Junge was ist den mit Dir los?.
Würdest Du ein paar Post lesen, dann wärst Du schon drauf gekommen das ich nggala zustimmte und ATi Kontaktieren werde.
Also bevor Du mir solchen Schwachsinn vorwirfst lerne mal lesen.
Das wichtigste wäre für Dich zu lernen Objektivität.
Denn da hast Du einen mächtigen Nachhol bedarf.
Gruss Labberlippe
---------- Ok Schnitt -----------
Ich schlag mal folgenden kleinen Rollentausch vor:
Jeder sollte für die Produkte/Firma, die er weniger gut findet, argumentieren. Also z.B. sollte Razor die Radeons preisen, aths, Laberlippe sollte für die GF3 schwärmen und so weiter und so fort...
Sinn der Übung?
hehehe,
na es macht spass und ist gesund.
Andre
2002-01-07, 16:30:17
Originally posted by Labberlippe
Nachtrag:
Du kannst Dir ein Beispiel an nggalai nehmen.
Der hat Versucht es zu erklären und nicht gleich eine Denkrichtung vorzuwerfen.
Zeigt mir wieder Deinen nVIDIA Komplex.
Gruss Labberlippe
1.
Lachhaft, einfach nur lachhaft.
Aber Labberlippe, Du hast Recht.
Ich habe einen NV-Komplex, ich liebe NV, ja ich würde meine MX auch heiraten - sie ist so schön, so wunderbar.
Danke, dass Du mir die Augen geöffnet hast, ich sehe jetzt so klar.
2.
Und warum soll ich das erklären, wenns Sascha schon vor mir gemacht hat ?
Mein Posting war NACH seinem Posting.
Aber ich ziehe mich aus dieser Diskussion zurück, außer um bei solchen Ausschreitungen, wie vorhin einzugreiffen.
Manchmal pack ich mir echt an den Kopf, was hier bei manchen Leuten so in der Birne vorgeht.
Labberlippe
2002-01-07, 16:32:02
Ich schwärme mal für nVIDIA.
Sehr erprobt am Markt.
Trilineares Filtering mit Anisotropischen Filtering.
Referenztreiber welcher eine breite Produktpallette abdeckt.
Der momentan am meistens eingesetzte chipsatz.
Sehr gute Optimierung seitens der Spielehersteller.
Gutes Preisleistungs verhältniss der Ti200
Gruss Labberlippe
Labberlippe
2002-01-07, 16:59:56
Originally posted by Andre
1.
Lachhaft, einfach nur lachhaft.
Aber Labberlippe, Du hast Recht.
Ich habe einen NV-Komplex, ich liebe NV, ja ich würde meine MX auch heiraten - sie ist so schön, so wunderbar.
Danke, dass Du mir die Augen geöffnet hast, ich sehe jetzt so klar.
2.
Und warum soll ich das erklären, wenns Sascha schon vor mir gemacht hat ?
Mein Posting war NACH seinem Posting.
Aber ich ziehe mich aus dieser Diskussion zurück, außer um bei solchen Ausschreitungen, wie vorhin einzugreiffen.
Manchmal pack ich mir echt an den Kopf, was hier bei manchen Leuten so in der Birne vorgeht.
Lachhaft finde ich eher Dein Verhalten.
Dein Kommentar in der Form war unötig.
nggalai hat mir es in einen vernünftigen Ton erklärt, wenn Du natürlich jetzt einen Rückzug machst nur weil man einen Gang höher fährt soll das natürlich Deine Sache sein.
Gruss Labberlippe
Andre
2002-01-07, 17:15:34
Originally posted by Labberlippe
nggalai hat mir es in einen vernünftigen Ton erklärt, wenn Du natürlich jetzt einen Rückzug machst nur weil man einen Gang höher fährt soll das natürlich Deine Sache sein.
Gruss Labberlippe
Und genau das mache ich.
Denn es bringt mir und dem Forum wenig, im Übrigen muss ich mich hier nicht messen.
Das ist nicht meine Aufgabe und damit ist die Sache erledigt.
Labberlippe
2002-01-07, 17:15:42
Razor:
Wo 'lobe' ich die PS1.1 ?
Es ist nur der kleinste Nenner und damit eigentlich sogar negativ zu sehen. Da dies aber am weitesten verbreitet ist und PS1.4 inkompatibel zu den PS1.1-1.3 ist, wird dieses wohl von den Entwicklern bevorzugt werden. Und bei einem sind wir uns vermutlich einig, denn nicht genutzte Features sind irgendwie sionnlos, oder ?
;-)
=>
Yepp ich habe doch schon ein paarmal erwähnt das irgendwo das ganze Anfangen muss.
TruForm oder PS wäre ohne den Einstieg mit T&L nicht möglich gewesen.
Mir geht es eher darum das manche lächeln weil der PS 1.4 langsamer ist, man sollte das nicht so vorschnell unterschätzen den der PS 1.4 ist komplexer.
__________________________________
Razor:
Und es geht hier nicht adrum eine Technologie zu verunglimpfen, denn die Entwickler werden sich schon was dabei gedacht haben, den PS1.4 aus der Taufe zu heben. Aber es könnte (muß also nicht !) eben gut sein, daß dies von den Entwicklern wegen mangelnder Verbreitung und Inkompatibilität eben nicht genutzt wird und dann ist's schlicht überflüssig und aufgrund der langsameren Ausführungsgeschwindigkeit von den PS1.1 (da wohl nicht in Hardware implementiert und über die PS1.4 emuliert) sogar im Nachteil. Hätte also ATI die PS1.4 entwicklet ohne dabei einen Nachteil für die PS1.1 'einzubauen', dann würde jede Kritik daran im Kein erstickt...
=> Du vergisst aber eine Kleinigkeit, bis PS 1.1 auch vernünftig genutzt wird (was momentan nicht der Fall ist.) dann hat auch nVIDIA eine Karte mit PS 1.4.
Wenn nicht wäre dann diesmal nVIDIA die eine Technologie bremsen und das bezweifle ich mal.
--------------------------------------------
Razor:
Und zeig mit bitte nur EIN Game, bei dem Truform VERNÜNFTIG implementiert ist...
=>
Serious Sam 1+2
Reicht doch schon die anderen Games spare ich jetzt mir.
Definier mal vernünftig.
-------------------------------------------------------
Razor:
Heute wird T&L gebraucht (oder zumindest in naher Zukunft ;-) und nicht jeder kann oder will sich dann ein neues System und/oder eine neue GraKa zulegen... Insofern täten sie (auch damals schon) besser daran, wenn sie sich 'ne T&L-Karte geholt hätten. Auch dürfte es etwas schwierig sein, neue Technologie am Markt zu plazieren, wenn die Leute dies erst annehemen, wenn's auch tatsächlich gebrauch werden würde... dann lebten wir heute noch in der Steinzeit, würde alle so denken...
Wo sage ich denn, daß man PS1.1 'braucht' ?
Ich habe lediglich die These aufgestellt, daß die PS1.1 sinnvoller seien, als die PS1.4... mehr nicht !
;-)
=>
Aus welchen Grund ist dann PS sinnvoller als die normale starre T&L?
T&L wurde auch nie richtig genutzt tue ich deshalb PS ab? Nein.
Razor:
'Brauchen' tut man sie tatsächlich bei Aquanox, DroneZ und Comanche 4, demnächst dann auch in U2...
=>
Zwar krepieren die jetzigen Karten von der Speicherbandbreite aber Hauptsache T&L *ggg*
Im Ernst So ein Game wie Aquanox bringt die aktuellen Karten ohne PS stark ins Schwitzen.
Was erwartest Du Dir dann von U2.
Sicher spielbar keine Frage aber die MX Kärtchen trotz T&L werden Performance Probleme haben.
Also zieht das T&L Argument in der Form nicht.
Übrigens ist jetzt auch schon ein Weilchen her das T&L eingeführt wird.
Und erst jetzt auf U2 hoffen welche wirklich einen nutzen von T&L zeigen soll ist schon ein bischen schwach.
--------------------------------------------------------------------
Razor:
Und wenn ich noch mal Zeit dafür finde, dann werde ich mal PS-Shots bringen...
(ein eigener Thread sollte dann wo erscheinen ?)
;-)
=> Das wäre cool.
Ich denke im Pro und Contra Forum.
Ein Hit wäre halt wenn die R8500 Besitzer auch mitmachen.
Ich werde mich auch anschliessen.
Ich müsst mir nur mitteilen wie Ihr hier Bilder postetet. :-)
________________________________________________________
Razor:
Und Du bist sicher, daß CMR2 ein OpenGL-Game ist ?
;-)
=>
Jetzt nicht mehr, werde aber an ATI eine mail verfassen.
Gruss Labberlippe
Labberlippe
2002-01-07, 17:22:30
Originally posted by Andre
Und genau das mache ich.
Denn es bringt mir und dem Forum wenig, im Übrigen muss ich mich hier nicht messen.
Das ist nicht meine Aufgabe und damit ist die Sache erledigt.
Das finde ich schade, denn zum Streiten gehören immer zwei.
Schliesslich gingen wir uns beide wegen einer Nichtigkeit am Nerv.
Gruss Labberlippe
Dunkeltier
2002-01-07, 17:52:33
@ ow
Was ist an dem Schrott? Excellenter OpenGL Support, gutes D3D.
Nur gute D3D Spiele fehlten.
Mittelmäßig lahmes OpenGL, beschissenes D3D. Laber keinen Müll, ich hatte eine Riva 128 ZX mit 8 MB (AGP). Also weiß ich, wovon ich rede und wie ich Karten zu beurteilen habe...
Ich spiele auschliesslich 32Bit auf meinem TNT1. Kein Performanceverlust.
Damals mit meiner 16 MB Diamond Viper V550 hat es mit 32 Bit in Half-Life und NFS 3 stark geruckelt.
Ist zwar fuer Gamer weniger wichtig, mit dem GF256 zielte NV aber auf den Markt professioneller OGL Karten, da ist T&L nun mal PFLICHT (wie 32Bit uebrigens auch).
T&L ist noch immer schwachsinn, selbst Unreal 2 (alpha) läuft flüssig (!) auf einer Kyro II. Wozu da noch T&L?
PS/VS sind eh bald wieder passe, weil was neues kommen wird. Wie mit dem alten DX7 konformen T&L.
Originally posted by Labberlippe
Und sonst alles palletti?
Junge was ist den mit Dir los?.
Würdest Du ein paar Post lesen, dann wärst Du schon drauf gekommen das ich nggala zustimmte und ATi Kontaktieren werde.
Also bevor Du mir solchen Schwachsinn vorwirfst lerne mal lesen.
Das wichtigste wäre für Dich zu lernen Objektivität.
Denn da hast Du einen mächtigen Nachhol bedarf.
Gruss Labberlippe
Jo, mit mir ist alles paletti, bei dir habe ich bisweilen so meine Zweifel.
Da gebe ich Andre voellig recht, deine Gesinnung ist klar erkennbar, deine Objektivitaet ist gleich NULL.
Ich stelle mal die Diskussion sinngemaess nach:
LL: Scheiss NV, CMR2 laeuft nicht mit BM auf der Radeon weil nur NV OGL Extensions genutzt werden.
Forum: Sorry LL, aber CMR nutzt kein OGL (also auch keine Extensions), sondern D3D
LL: Scheiss NV, wenn CMR so geproggt wurde, dass BM nur auf NV laeuft.
Forum: Sorry LL, aber sowas ist unter D3D nahezu unmoeglich.
LL: Dann muss ich ATi mal fragen..
AHAAAAAAAAAAA:D
Warum denn nicht gleich so?
Immer erst die Fehler den anderen unterschieben (NV, MS,..)??
Also fuer die Zukunft ein Tip von mir:
Wenn etwas nicht auf der Radeon laeuft --> Ati fragen, da liegst du dann sicher in 80% aller Faelle richtig (es gibt auch buggy Spiele).
Aber NV zu beschimpfen, wenn etwas auf ATi nicht läuft, das kann nicht sein.
gruss
-ow-
Labberlippe
2002-01-07, 19:32:01
Originally posted by ow
Jo, mit mir ist alles paletti, bei dir habe ich bisweilen so meine Zweifel.
Da gebe ich Andre voellig recht, deine Gesinnung ist klar erkennbar, deine Objektivitaet ist gleich NULL.
Ich stelle mal die Diskussion sinngemaess nach:
LL: Scheiss NV, CMR2 laeuft nicht mit BM auf der Radeon weil nur NV OGL Extensions genutzt werden.
Forum: Sorry LL, aber CMR nutzt kein OGL (also auch keine Extensions), sondern D3D
LL: Scheiss NV, wenn CMR so geproggt wurde, dass BM nur auf NV laeuft.
Forum: Sorry LL, aber sowas ist unter D3D nahezu unmoeglich.
LL: Dann muss ich ATi mal fragen..
AHAAAAAAAAAAA:D
Warum denn nicht gleich so?
Immer erst die Fehler den anderen unterschieben (NV, MS,..)??
Also fuer die Zukunft ein Tip von mir:
Wenn etwas nicht auf der Radeon laeuft --> Ati fragen, da liegst du dann sicher in 80% aller Faelle richtig (es gibt auch buggy Spiele).
Aber NV zu beschimpfen, wenn etwas auf ATi nicht läuft, das kann nicht sein.
gruss
-ow-
Macht nichts ow im Gegensatz zu Dir habe ich auch kein Problem damit zu gestehen wenn ich mal Müll poste.
Allerdings bleibt meine Tonart (auch wenn Sie manchmal gereitzt erscheint) noch im normalen Bereich und äussert sich nicht in primitiver Kritik wie Du es pflegst.
Gruss Labberlippe
Originally posted by RAL
---------- Ok Schnitt -----------
Ich schlag mal folgenden kleinen Rollentausch vor:
Jeder sollte für die Produkte/Firma, die er weniger gut findet, argumentieren. Also z.B. sollte Razor die Radeons preisen, aths, Laberlippe sollte für die GF3 schwärmen und so weiter und so fort...
Sinn der Übung?
hehehe,
na es macht spass und ist gesund.
Hehe, schade das du mit zuvorgekommen bist, ich hatte diese Idee auch gerade.
Aber ob uns das viel weiterbringt?
Ich fang da mal an:
Vorteile der Radeon:
Teilweise modernere 3D-Hw, Hydravision, DVD-Unterstützung
Nachteile:
Treiber noch nicht ausgereift (Bildfehler, teilweise langsam). Für Linux gibt´s AFAIK auch immer noch keine.
(Und da brauch ich keine R8k5 zu besitzen, um das zu beurteilen. Da brauch ich nur Reviews zu lesen. Oder hier im Forum zu schauen).
Originally posted by Labberlippe
Ich schwärme mal für nVIDIA.
Sehr erprobt am Markt.
Trilineares Filtering mit Anisotropischen Filtering.
Referenztreiber welcher eine breite Produktpallette abdeckt.
Der momentan am meistens eingesetzte chipsatz.
Sehr gute Optimierung seitens der Spielehersteller.
Gutes Preisleistungs verhältniss der Ti200
Gruss Labberlippe
Oh, ich war noch nicht soweit mit dem Durchlesen des Threads.
Du hast aber die Nachteile vergessen.
Spezielle Karten-Features wie Video in/ video out (teilweise) mit den Referenztreibern nicht oder nur eingeschränkt nutzbar.
Teilweise schlechte Bildqualität (überwiegend wohl bei GF2 noname Karten).
mein spezielles Prob::D
keine Unterstützung von So7 Chipsätzen (ALi V, VIA MVP3) mehr in Detos 2x.xx, daher läuft die Karte nicht im AGP Modus.
Labberlippe
2002-01-07, 19:53:07
Originally posted by ow
Oh, ich war noch nicht soweit mit dem Durchlesen des Threads.
Du hast aber die Nachteile vergessen.
Spezielle Karten-Features wie Video in/ video out (teilweise) mit den Referenztreibern nicht oder nur eingeschränkt nutzbar.
Teilweise schlechte Bildqualität (überwiegend wohl bei GF2 noname Karten).
mein spezielles Prob::D
keine Unterstützung von So7 Chipsätzen (ALi V, VIA MVP3) mehr in Detos 2x.xx, daher läuft die Karte nicht im AGP Modus.
Ah :)
Ich habe nur die positiven Argumente rausgeholt.
Gruss Labberlippe
schimmi
2002-01-07, 20:02:05
Originally posted by ow
Ich spiele auschliesslich 32Bit auf meinem TNT1. Kein Performanceverlust.
und du bist dir sicher, das die Karte in 32 bit nicht doch schneller ist als in 16 bit?
Legolas
2002-01-07, 20:36:27
Originally posted by maXXman
und du bist dir sicher, das die Karte in 32 bit nicht doch schneller ist als in 16 bit?
Dass ow keinen Performanceeinbruch erlebt liegt an seiner schwachen CPU das ist alles... sobald man die TNT mit einer CPU zusammen betreibt, die zu ihrem Erscheinen auch High-End war, bricht sie unter 32 Bit ziemlich weg... Die Erfahrung hab ich selber machen müssen..
Originally posted by maXXman
und du bist dir sicher, das die Karte in 32 bit nicht doch schneller ist als in 16 bit?
Ja, da bin ich mir sicher.
Vielleicht verdeutlich angehängter Screenshot, was ich meine. Hab leider kein 32Bit Benches unter 1024x768, denn diese Auflösung ist dem TNT nur bedingt zuzumuten.
Und das eine MX im 3DMark99MAX nicht viel mehr bringt ist klar.
Originally posted by Legolas
Dass ow keinen Performanceeinbruch erlebt liegt an seiner schwachen CPU das ist alles... sobald man die TNT mit einer CPU zusammen betreibt, die zu ihrem Erscheinen auch High-End war, bricht sie unter 32 Bit ziemlich weg... Die Erfahrung hab ich selber machen müssen..
Du wirst nicht glauben, wieviel So7 Systeme es mit Riva TNT gibt.
Du hast schon recht. Der prozentuale Unterschied zwischen 16/32Bit Leistung wird mit stärkeren CPUs groesser.
Major J
2002-01-07, 21:05:10
:zzz:
Andre
2002-01-07, 21:17:25
Originally posted by Labberlippe
Das finde ich schade, denn zum Streiten gehören immer zwei.
Schliesslich gingen wir uns beide wegen einer Nichtigkeit am Nerv.
Gruss Labberlippe
Ok, Labberlippe, dass finde ich einen guten Zug von Dir.
Also einigen wir uns auf eine beiderseitige Überreaktion, egal wer jetzt auch angefangen hat, ok ?
AlfredENeumann
2002-01-07, 21:36:44
Originally posted by Labberlippe
Razor:
Und es geht hier nicht adrum eine Technologie zu verunglimpfen, denn die Entwickler werden sich schon was dabei gedacht haben, den PS1.4 aus der Taufe zu heben. Aber es könnte (muß also nicht !) eben gut sein, daß dies von den Entwicklern wegen mangelnder Verbreitung und Inkompatibilität eben nicht genutzt wird und dann ist's schlicht überflüssig und aufgrund der langsameren Ausführungsgeschwindigkeit von den PS1.1 (da wohl nicht in Hardware implementiert und über die PS1.4 emuliert) sogar im Nachteil. Hätte also ATI die PS1.4 entwicklet ohne dabei einen Nachteil für die PS1.1 'einzubauen', dann würde jede Kritik daran im Kein erstickt...
Wer behauptet das der ATI PS langsam ist ?
http://www.thenakededge.net/content/december/0017.htm
Quasar
2002-01-07, 22:38:10
Originally posted by Labberlippe
Naja vom Thema zu Thema springe ich nicht gerade.
Ich werfe nur mal gerne ein paar Brocken rein. :-)
Welche Art von DX8 Spielen?
Wieso glauben hier eigentlich alle das PS 1.4 nur auf DX8 funktioniert.
Es gibt OpenGL auch noch.
OK da fällt es rein unter den Begriff PS aber deshalb mutiert der PS der R8500 nicht auf die Version 1.1 unter OpenGL zurück.
Ich schätze schon mal das Doom3 massig Vorteile vom PS der R8500 ziehen könnte eben weil dieser mehr Berechnungen durchführen kann.
Ob dieses gemacht wird hängt von seiten der Spielehersteller ab.
Aber unter uns gesagt auch ich bezweifle das PS 1.4 soll schnell genutzt wird erst dann wenn nVIDIA eine solche Karte bringt.
Schade denn da verstehe ich die Hersteller nicht ganz.
Beispiel: CMR2
Ich habe eine Radeon welche "alle Arten" von Bumpmapping Verfahren beherscht nur nutzen kann ich es nicht.
Warum?
Weil wieder einmal nur nVIDIA OpenGL Extensions abgefragt werden.
Ich habe gute Technologie mit welcher ich weniger anfangen kann weil ein Hersteller wieder eine Vormachtsstellung einnimmt.
Komisch sogar bei "08-15" benches werden die Funktionen abgefragt welche eine Karte kann.
Hat eine Karte einen Effekt nicht dann ist der Effekt eben nicht mit einen Häckchen zu aktiveren.
Auch wird sich nVIDIA sicher nicht so leicht das Wasser abgraben lassen.
Das wird sich aber auch nicht so schnell Ändern
Bevor
A: Die Mags sich nicht in die Irre führen lassen und endlich objektiv berichten. Statt Schwachsinn.
B: Solange gewisse "User" nicht andere Technologien niedereden.
C: Gewisse Hersteller nicht in den A... der Hardwarehersteller kriechen.
Aber so ist nunmal die Marktwirtschaft. :)
So habe ich Dich jetzt verwirrt oder soll ich komplett das ganze Ausführlich schreiben.?
B.z.w. Verstehst Du meine Grundgedanken?
Gruss LAbberlippe
original von Haarman
Also ich meine mit diesen "DX8.1" Spielen, wirklich gute Spiele und nicht 0815 Games, welche ohne DX8.1 ned laufen, aber auf alten DX7 Karten dann so ca ungefähr gleich aussehen bis auf 3 Pixel ;-). Es muss schon was sein, dass auch gut Aussieht. Ich könnte mir z.B. ein Game ala Atlantis vorstellen, welches gut von diesen Effekten profitiert.
Weltraumsim ala Wing Commander wär auch ne Option für so ein Game...
Oder Ultima welche Nummer auch immer?
Ich kenne mich zZ zuwenig aus mit den Games in den Pipelines der Hersteller und ich weiss auch, dass mir gewisse Games (Halo z.B.) absolut am Arsch vorbeigehen...
Aber ich halte es für möglich, dass wieder mal so ein Chris Roberts kommt und Games für Geräte schreibt, die man noch ned kaufen kann ;-), resp auf Heute Adaptiert, dass es wieder Games geben wird, die nur auf echt Hiend Kisten richtig laufen - und da NV noch weniger Features hat wie ne Radeon2, wäre die Folge davon, dass schon ne GF3 nicht mehr ideal dasteht.
Wie gesagt... ich heisse ned Chris Roberts ;-) Aber ich erinnere mich noch an so Games...
Aquanox z.B. haut mich bisher ned vom Hocker...
original auch von Haarman
Quasar
Das ist Ansichtssache, was Du da behauptest.
Ich erstelle mal ein Szenario...
Für echte DX8 Games, wird eine GF3 zu langsam sein, aber ne R8500 nicht[...]
So. Nun nochmal von vorne. Haarman war es, der das Beispiel DX8-Games heranzog, nicht ich, lieber Labberlippe. Desweiteren glaube ich nicht, und hier ist alles mind. bis zum 5.02.02 eine Glaubensfrage, daß nVidia mit der GF4, die ja "nur" ein weiterer Refresh sein soll, die Hardware soweit redesigned haben wird, daß PS1.4 möglich ist, warum auch, würde man so doch noch einen weiteren Standard festigen helfen, der die später im Jahre erscheinenden DX9-PS2.0 noch weiter auf die lange Bank schieben würde.
Was The Carmack über die Überlegenheit der Radeon im Gegensatz zur GF3 gesagt hat, war imho nicht, daß der Pixelshader so überlegen sei, sondern vielmehr erwähnte er, daß man viele Dinge auf der Radeon in einem Pass erledigen könnte, für die man auf einer GF (und er sagte nicht GF3) zwei oder mehr Passes brauche würde. PS1.4-Effekte mit mehrfach abhängigen Texture-Reads würden auf PX1.1-1.3 gar nicht zu emulieren sein, so ATi. Deswegen denke ich er bezog sich einzig auf das 3fache Loop-Back des R200.
Was CMR2 angeht, hast du ja schon genug Prügel einstecken müssen. BTW hab ich EMBM auf einer KyroII auch net zum laufen bekommen, müssen wohl die Treiber gewesen sein, auf ner G400 gings nämlich...ähnlich Expendable.
Ich glaube, soweit deine Gedankengänge richtig verstanden zu haben.
Was die Marktwirtschaft angeht, so tut jede Firma das, was sie meint,. das ihr den größten Gewinn bringt. PowerVR z.B. läßt sich heute noch ihre Ingenieursarbeit für den K2 teuer bezahlen, oder wie sonst ist zu erklären, daß ein reichlich weniger komplexer Chip (K2) auf einer Karte verbaut, nicht auch weniger kostet als ein komplexerer Chip mit ansonsten änhlichem Kartenlayout (RAM, RAM-Zugriffszeit etc.)?
Marktwirtschaft ist eben so. ATi würde dasselbe tun, wenn sie in der Position dazu wären. Siehe AIW....weit und breit kein Konkurrenzprodukt und die angekündigten Preise liegen trotz deutlich niederigerer Specs 50% über dem Flaggschiff R8500.
@Haarman:
Sorry, aber ich scheine den ganzen Spaß wohl verpasst zu haben...
Gut, ich sehe was du für Games meinst....aber ich bin jetzt nicht sicher, ob DX8 (wie ursprünglich gepostet) oder DX8.1 (wie in späterem Post revidiert).
Wie dem auch sei, zu Atlantis kann ich nichts sagen, weil ich davon noch rein gar nichts gehört habe.
Was Weltraumsims angeht, so sind die in den wenigsten Fällen Graka-limitert, da ca.50% des Bildschirm mit äußerst anspruchsvollen schwarzen Pixeln gefüllt werden müssen ;)
Nein im Ernst, hier kommt wieder das schon öfters angesprochene Problem zum tragen, daß kaum ein Hersteller sein Spiel auf einen (Leistungs-)Standard hin optimieren würde, den vielleicht 10% des Marktes erfüllen. Deswegen glaube ich kaum, daß vor Zwei-Jahresfrist Spiele erscheinen, die extrem von der Leistung des PS1.1 limitiert werden, oder die extensiv mehr als 8faches MT nutzen (dann kommt die GF3 nicht mehr mit 2 passes aus, der Radeon schon).
ow,
wenn du dich nicht in der Lage fühlst, sachlich zu antworten, könntest du per körperlicher Betätigung überschüssige Energie abbauen. Nach meinem Geschmack ist es ziemlich dürftig, was man hier teilweise von dir lesen kann. Dein Tonfall zerstört jede Diskussions-Möglichkeit.
Anárion
2002-01-07, 22:56:09
Originally posted by aths
ow,
wenn du dich nicht in der Lage fühlst, sachlich zu antworten, könntest du per körperlicher Betätigung überschüssige Energie abbauen.
Das hilft *eg* Hab ich schon oft ausprobiert! :D
Exxtreme
2002-01-07, 23:07:26
Hallo Leute (oder sollte ich lieber sagen Streithähne ;))
So wie es aussieht werdet ihr noch ewig rumdiskutieren und rumstreiten und dabei trotzdem nie zu einem Ergebnis kommen da die Fronten z.Zt. total festgefahren sind. Ihr wirft euch Scheinargumente an den Kopf, unterstellt euch gegenseitig Irgendetwas, macht Dies und Jenes schlecht und das eigene Produkt ist natürlich das Beste und die Anderen, die das Gegenteil behaupten, haben eh' keine Ahnung ;).
Das Forum "Pro & Contra" soll dazu dienen Produkte und deren Eigenschaften gegeneinander zu vergleichen um z.B. Leuten, die sich zw. verschiedenen Produkten nicht entscheiden können, eine Hilfe zu sein.
Eine Frage an euch: Was wurde in diesem Thread eigentlich verglichen? Die BQ einer GraKa? Der Speed einer GraKa? Die Treiberqualität? Vielleicht welche Farbe der Platine die bessere ist?
.
.
.
Nicht wirklich, oder?
Eigentlich habt Ihr IMHO die eigene Meinung mit anderen Meinungen verglichen und seid zum Ergebnis gekommen, daß die eigene Meinung die bessere ist, nicht wahr? ;). Und hat dieser Streit hier Irgendjemanden was gebracht ? Wer kann von euch jetzt sagen, daß er danach schlauer, besser, schöner usw. ist?
Ich appeliere hiermit eigentlich an eure Vernunft. Ihr erspart euch Nerven, Adrenalin und die Tastatur hält auch länger wenn Ihr jetzt mit diesen (IMHO sinnfreien) Streit aufhört.
Gruß
Alex
Legolas
2002-01-07, 23:28:05
Originally posted by ow
Du wirst nicht glauben, wieviel So7 Systeme es mit Riva TNT gibt.
Du hast schon recht. Der prozentuale Unterschied zwischen 16/32Bit Leistung wird mit stärkeren CPUs groesser.
Gab aber auch massig PCs mit PII oder CelA und TNT... Und die sind imho sinnvoller, weil ich der Meinung bin, daß Highend Grafikkarten auch in die Highendrechner derselben Zeitspanne gehören :D:D Weil ich könnte meine V5 ja auch in meinen PII 400 (oder einen 500er PIII, der wohl leistungsmäßig in einem ähnlichen Verhältnis zu den damals aktuellen Highend CPUs steht, wie dein So7 System zu den PIIs von damals:D:D) reinbauen, und behaupten, daß 4xFSAA keinen Performanceeinbruch bewirkt :D:D. Ist halt alles eine Frage der Kombination Graka/CPU.. aber ich glaube das haben wir schon zu genüge diskutiert...
Haarmann
2002-01-08, 01:07:38
Quasar,
Für mich is DX8 und 8.1 so ca det Gleiche - rechne nur in den Ganzen Zahlen mit DX... Aber mir is klar geworden, dass det nicht sooo genau stimmt - daher die Präzisierung.
Wenn ich ein Game machen würde mit neuen Grakafunktionen, dann müsste das auch ordentlich was ausmachen... nur ansprechen und es sieht keinen Furz besser aus (Hallo Aquanox) denn ohne diese Features, dann waren A die Features fürn Arsch, oder meine Art diese zu nutzen isses.
De Facto, hab ich dann nämlich kein "echtes" DX8 Game gemacht - weil mit DX7 sähs ca Gleich aus. Ich denke Du siehst, was ich sagen will.
Wenn ich nun so nen DX8.1 Knaller mache, der spielbar is, aber nicht sofort mit allen Graka Optionen auf Enabled geht (War bei WC immer so), dann stört doch dies eigentlich Niemanden. Das Game sieht sicher Zeitgemäss aus, jeder kanns spielen (sieht nur ned bei allen gleich aus), aber es kann sogar noch Grafisch zulegen!
Wenn mein Game also Langzeitmotivation hat, dann wirds immer besser mit der Optik.
Als trivialstes Beispiel nehme ich ein Quake3, welches lange gespielt wird, aber noch immer gleich aussieht wie am Anfang ... Hätte JC EBM Effekte eingebaut und 2048er Texturen, würden wir Heute sicher was davon sehen, auch wenns damals ned spielbar war.
Q3 is halt OGL, aber das machts ned aus - man nimmt jedenfalls den höchsten Graka Standart, den es zZ gibt und nutzt diesen so aus, dass ev nur 4-5 fps da wären, wenn alles eingeschaltet ist - et Voila.
Dann sieht man halt eben auch, dass es ein DX8.1 Game is ;-).
Unregistered
2002-01-08, 01:08:12
Originally posted by Andre
Ok, Labberlippe, dass finde ich einen guten Zug von Dir.
Also einigen wir uns auf eine beiderseitige Überreaktion, egal wer jetzt auch angefangen hat, ok ?
In diesen Sinne :)
Gruss Labberlippe
Razor
2002-01-08, 07:10:55
@RAL
Die Radeon ist ein wirklich gute, qualitativ hochwertige und brauchbare Karte.
Sie unterstützt Dinge wie Hydravision und greift auf bewährte Technik und ausgereifte Treiber zurück.
Eine ECHTE Kaufempfehlung !
Gut so ?
(und ist nicht mal gelogen !)
;-)
@Laberlippe
Yepp ich habe doch schon ein paarmal erwähnt das irgendwo das ganze Anfangen muss.
TruForm oder PS wäre ohne den Einstieg mit T&L nicht möglich gewesen.
Mir geht es eher darum das manche lächeln weil der PS 1.4 langsamer ist, man sollte das nicht so vorschnell unterschätzen den der PS 1.4 ist komplexer.
Ich weiß jetzt nun nicht, ob die PS1.4 komplexer sind, aber auf jeden Fall scheinen sie Leistungsfähiger und Feature-Reicher zu sein. Und vermutlich sind sie sogar schneller als die PS-Einheit der gf3, können ihren Vorteil aber nicht ausspielen, wenn die PS1.1 emuliert werden müssen und somit ALLE Vorteil zunichten sind und auch noch Performance für die Emulation verloren geht...
Ein Feature ist leider immer nur dann sinnvoll, wenn es auch angenommen wird. Und wenn es dann auf Kosten eines anderen implementiert wurde (im Falle von PS1.4 zu PS1.1) dann kann es sogar ein Nachteil sein...
Du vergisst aber eine Kleinigkeit, bis PS 1.1 auch vernünftig genutzt wird (was momentan nicht der Fall ist.) dann hat auch nVIDIA eine Karte mit PS 1.4.
Wenn nicht wäre dann diesmal nVIDIA die eine Technologie bremsen und das bezweifle ich mal.
Wo steht, daß nVidia jemals PS1.4 unterstützen wird ?
Ich vermute eher, daß man auf den neuen PS2.0-Standard gehen will, der dann sogar eine bessere Programmierbarkeit mit sich bringen soll... (keine Ahnung, ob dieser dann Abwärtskompatibel zum PS1.4 ist)
Insofern würden sie (wieder mal) neue Maßstäbe setzen, ohne darauf angewiesen zu sein, ATI's Technologie zu adaptieren. Schaun' wir mal, denn die PS1.4 sind eine reine ATI-Technologie, die allerdings durch DX8.1 allen Hersteller offen steht. Wir werden wohl also noch ein wenig warten müssen, um zu sehen, was da kommt (oder auch nicht ;-)...
"Und zeig mit bitte nur EIN Game, bei dem Truform VERNÜNFTIG implementiert ist..."
=>
Serious Sam 1+2
Reicht doch schon die anderen Games spare ich jetzt mir.
Definier mal vernünftig.
Rundungen, die sichtbar sind, ohne Objekte, die gerundet werden, obwohl das nicht sinnvoll ist !
SeriousSam ist auf jeden Fall KEIN Beispiel dafür, weil man's entweder nicht sieht, oder aber richtig schlecht aussieht (und kräftig Performance kostet)...
"Wo sage ich denn, daß man PS1.1 'braucht' ?
Ich habe lediglich die These aufgestellt, daß die PS1.1 sinnvoller seien, als die PS1.4... mehr nicht !"
=>
Aus welchen Grund ist dann PS sinnvoller als die normale starre T&L?
T&L wurde auch nie richtig genutzt tue ich deshalb PS ab? Nein.
Irgendwie reden wir aneinander vorbei, denke ich...
Ich habe nicht behauptet, daß PS sinnvoller seien, als DX7 HW T&L...
Überhaupt sollte man keine Äpfel/Birnen-Vergleiche in diesem Zusammenhang machen, denn schließlich wird das HW T&L durch den Vertex-Shader abgelöst und nicht durch den PS !
Der PS wird (zuküftig) einen ganzen Satz an Pixel-basierten Effekten möglich machen, die ohne eine solche Einheit nicht möglich wären. Das Problem bei bisherigem T&L (Soft- und Hardware und nahezu in JEDEM 3D-Game vorhanden !) zu statisch ist und alles irgendwie uniform aussieht. Der Pixel-Shader wird dies ändern (hoffentlich noch in diesem Jahr !). Und damit dies möglichst schnell von statten geht, ist es sehr wohl sinnvoll (hier behaupte ich dies zum ersten mal ;-) eine Karte mit Pixel-Shader zu kaufen, damit dieser Prozeß beschleunigt wird. Sieh es einfach als eine Investition in die nahe Zukunft...
;-)
"'Brauchen' tut man sie tatsächlich bei Aquanox, DroneZ und Comanche 4, demnächst dann auch in U2... "
=>
Zwar krepieren die jetzigen Karten von der Speicherbandbreite aber Hauptsache T&L *ggg*
Im Ernst So ein Game wie Aquanox bringt die aktuellen Karten ohne PS stark ins Schwitzen.
Was erwartest Du Dir dann von U2.
Aquanox bringt die R8500 oder dir gf3 stark ins Schwitzen ?
Wo hast Du das denn her ?
Selbst auf meinem popeligen P3-900 läuft's mit 1024x768x32, 32tap aniso, 4x'mix' und alle Details auf max absolut flüssig ! Das nun R8500-Karten ab und an damit Probleme haben, juckt mich eigentlich nicht sonderlich und kann auch gut mit dem Spiel selber zu tun haben, aber ins Schwitzen gerät nichts in meinem System... oder meinst Du etwa den Aquamark ?
Inwieweit solche 'Tech'- oder 'Theorie'-Benches für tatsächliche Spiele relevant sind, haben wir an diesem Beispiel gut gesehen. Optisch unterscheidet sich der Aquamark (gemessen an den bisher veröffentlichten Screens) kaum von jetzt realisiertem Spiel, trotzdem ist er sehr viel langsamer als das Game... woran liegt das wohl ?
DESWEGEN lehne ich solche 'Tech'-benches ab und verlasse mich da leiber auf 'Real-World'-Tests !
Sicher spielbar keine Frage aber die MX Kärtchen trotz T&L werden Performance Probleme haben.
Also zieht das T&L Argument in der Form nicht.
Übrigens ist jetzt auch schon ein Weilchen her das T&L eingeführt wird.
Und erst jetzt auf U2 hoffen welche wirklich einen nutzen von T&L zeigen soll ist schon ein bischen schwach.
Erst sagst Du, daß die MX-Kärtchen Probleme mit Aquanox haben und im gleichen Athemzug, daß erst U2 mit T&L...
Ich bitte Dich ! Was denn nun ?
Das die MX'chen zeimlicher Müll sind, was Füllrate (was noch zu ertragen ist), vor allem aber was Speicherbandbreite angeht (die wirklich unter aller S.. ist !), darüber sind wir uns doch hoffentlich einig, oder ? Aber Radeon 1/7500, alle gf2's (ohne die MX), ja selbst die gfddr und natürlich die neuen von ATI und nVidia sind ganz hervorragend für solche Belastungen ausgelegt. Und selbst diese schmalbrüstigen MX'chen werden noch 'helfen' diese Last etwas zu mildern, aber in voller Detailfülle (ohne DX8 !) wird man U2 nicht damit spielen können !
(Meine Meinung, aber ziemlich wahrscheinlich !)
"Und wenn ich noch mal Zeit dafür finde, dann werde ich mal PS-Shots bringen...
(ein eigener Thread sollte dann wo erscheinen ?)"
=> Das wäre cool.
Ich denke im Pro und Contra Forum.
Ein Hit wäre halt wenn die R8500 Besitzer auch mitmachen.
Ich werde mich auch anschliessen.
Ich müsst mir nur mitteilen wie Ihr hier Bilder postetet. :-)
Würd' ich auch klasse finden !!!
Und ich denke, daß ein Thread hier im Pro&Contra-Forum genau richtig plaziert wäre. Zwar wäre das ev auch im Technologie-Forum gut aufgehoben, aber wäre dann ja nur ein Screen-Vergleich oder besser eine art Nabelschau... Nee ! Hier im Pro&Contra wäre gut...
Na dann mal ran da !
Vielleicht mach ich ja den Anfang, wenn ich heute Zeit finde...
-
Habe diesen Post übrigens gestern Abend angefangen und ihn heute morgen zuende geschrieben...
*gäääääähhhhhhnnnnnnnn*
Und sitze hier bei meinem morgentlichen Kaffee.
Also auch Dir dan ein gut Tass-Kaff' und einen streßfreien Arbeitstag !
(werd' heute wohl wieder 'nen Heimarbeitstag einlegen... mal sehen ;-)
Bis denne
Razor
Razor
2002-01-08, 08:30:38
Oh mein Gott, was ist denn hier plötzlich los ?
???
Na ja, dann mal los...
;-)
@ow
Vorteile der Radeon:
Teilweise modernere 3D-Hw, Hydravision, DVD-Unterstützung
Nachteile:
Treiber noch nicht ausgereift (Bildfehler, teilweise langsam). Für Linux gibt´s AFAIK auch immer noch keine.
Nennst Du DAS 'schwärmen' ?
???
Aber für Dich ist das schon ein großer Schritt !
(nicht ganz ernst gemeint !)
;-)
Übrigens, mein Zweitsystem ist ein So7 mit TNT/Voodoo2-Kombo !
Ein kleines Schätzchen mit K6-2 300@350 (+17% !!!) und 128MB PC100@66-RAM, Diamond Viper 550 (TNT) und Diamond Monster II (V2)... det is ein Hammer und ich kann Deine diesbezüglichen Aussagen (So7/TNT) nur bestätigen ! (und ja, das ganze System war damals High-End !!!)
@AlfredENeumann
Vergiß doch diesen elendigen Standard-3DMurks-Bench, den wohl jeder benutzt und den die Hersteller sehr genau kennen ! Insofern würde es mich nicht wundern, wenn so ziemlich alle (!) Hersteller ihre Treiber darauf hin optimieren, aber in der 'Real-World' müssen die lieben Kärtchen auch mit unbekannten Dingen umgehen ! Also dann doch lieber mal Benche, die nicht 'vorhersehbar' sind:
3DCenter hat in seinen News doch mal 'nen Link zu Tommiti-Systems (http://www.tommti-systems.com) gepostet: GeForce 3 Ti500 vs. Radeon 8500 - DirectX 8.1 Performance (http://www.tommti-systems.com/main-Dateien/reviews/dx8perf/dx8perf.html)...
Da wird sehr genau auf die DX8.1-Performance eingegangen. Das Fazit lautet in etwas so:
R8500 in VS hui (ca. 2x gf3), in PS pfui (ca. 2/3 gf3)
gf3 vice versa
Hier also der Vertex-Shader Vergleich:
http://www.tommti-systems.com/main-Dateien/reviews/dx8perf/vs.gif
Und hier dann der Pixel-Shader Vergleich:
http://www.tommti-systems.com/main-Dateien/reviews/dx8perf/ps.gif
Sehr interessant nicht wahr ?
;-)
@Quasar
Kann Dir da nur zustimmen, denn warum sollten NV's 'neue' NV25'er (oder gar die NV17'er ;-) plötzlich PS1.4 'können' ? Sicher bleibt es Spekulation, aber auch ich vermute, daß die Technologie schlicht die gleiche bleibt, nur eben, daß der 2. Vertex-Shader dazu kommt, den man der gf3 vorher 'genommen' hat... (bei dem NV2A ja sowieso schon vorhanden war ;-).
Aber ev gibt's ja 'ne Treiber-EMU, was ich mir aber auch nicht so ganz vorstellen kann. Aber zumindest wird die geringere VS-Leistung der gf3 durch den 2. VS dann sicher eliminiert sein und den R200 links leigen lassen (wohl auch den R250 ;-)...
Nicht-desto-trotz würde ich bei meiner gf3 bleiben und mir erste bei nächsten Generation wieder Gedanken machen (R300/NV30).
@Exxtreme
Du bist also der Meinung, daß das Pro&Contra-Forum nur dem Vergleich dient ? Wozu ist dann das Technologie-Forum da ? Denn auch dort geht es um unterschiedliche tehnologische Ansätze zur Realisierung von BQ oder ähnlichem...
Wie dem auch sei, ich denke daß dieser Thread hier schon ganz richtig aufgehoben ist, und der TI (aths) das ja geradezu provoziert hat. Insofern würde ich mich an Deiner Stelle doch jetzt nicht darüber beschweren, daß es so gekommen ist, wie es beabsichtigt war, oder ?
;-)
Jede Kritik an diesem Thread dann bitte an aths und nicht an die (mich eingeschlossen ;-), die jetzt darauf eingehen !
Und so ein bischen Streiten macht doch richtig Spaß (wenn's nicht unter die Gürtellinie geht !!!)...
@Legolas
Zur Zeit von TNT & Co, gab's eigentlich nur So7-Systeme...
Wenn Du den TNT2 meinst, dann gebe ich Dir recht, aber wie schon oft gesagt, keine Äppel und Birnen, gell ?
;-)
@Haarmann
Scheu Dir mal den Link zu Tommiti-Systems an, den ich oben postete. DX8.1 enthält diverse 'Optimierungen' für die R8500, insofern besteht sogar ein großer Untersched zwischen diesen Versionen (DX8 vs. DX8.1). Einfach mal rein schaun'...
Und warum sollte man ein DX8.1-Game machen, dessen wesentlicher Untescheid eigentlich 'nur' im PS1.4 der R8500 liegt und somit nur eine geringe Hardwarebasis anspricht ?
Heute ist DX8 noch nicht so weit verbreitet, als daß sich 'reine' DX8-Games 'lohnen' würden. So werden also DX7-Games geproggt, die aber schon einige Effekte aus dem DX8-Repertoir benutzen, um die Games dann auf schon verbreiteter DX8-Hardware eben besser aussehen zu lassen. So geschehen bei Aquanox, DroneZ und Comanche 4 - wir sollten wirklich bald den DX7+DX8 vs. DX7-Only Thread ausmachen...
;-)
Je mehr DX8-Hardware verbreitet ist, desto mehr 'Mühe' werden sich die Entwickler geben, auch DX8-Effekte zu nutzen. Schaun wir mal, was mit dem demnächst erscheinenden U2 werden wird, dessen Basis ja wohl mindestens noch weitere 12 Monate (bereits 16 Lizensierungen !) bestehen muß und somit schon einen kleinen 'Vorgriff' enthalten sollte...
Das schöne ist doch, daß die DX8-Effekte auf DX7-Hardware dann eben einfach weg gelassen werden, gell ?
;-)
***
Schaun' wir mal, was da noch so kommt, aber die Idee von Laberlippe mit dem "DX7+DX8 vs. DX7-Only"-Thread find ich richtig klasse.
Wohl an !
Dann mal ran da...
In diesem Sinne (und auch vielen anderen ;-)
Razor
Haarmann
2002-01-08, 11:42:02
Tja also...
Aufm Tech Report sah ich mal echt nen interessanten Vergleich - Link war auf 3dcenter zu finden...
Testsystem war ein Athlon 1000 TB mit Win98 Dx8.1
Interessant isses vr allem zu sehen, wie es bei gleicher Taktfrequenz aussieht mitm VS und PS. Falls ned jeder Lust hat die Tabelle zu lesen... Je länger die VS Befehlskette, desto schneller die R200 verglichen zur GF3. Teils über doppelt so schnell.
http://www.tech-report.com/reviews/2001q4/r200/index.x?pg=4
http://www.tech-report.com/reviews/2001q4/r200/7.jpg
Das hier ist ein PS1.0 "Demo" - offenbar hat die grössere Präzision eines PS1.4 auch schon hier Auswirkungen.
Die Screens und der Report sind nicht von mir, ob alles wahr is, was hier geschrieben steht, kann ich also nicht beeidigen, aber es liest sich interessant und ist gut begründet.
Dazu noch die FSAA Vergleiche - wobei lustig ist, dass ATI unter OGL schöneres FSAA hat, aber langsamer is und unter D3D verwaschendere Texturen ala NV OGL hat, dafür nun schneller als die GF3 is.
Ein Schelm wer Böses bei sowas denkt...
Labberlippe
2002-01-08, 12:26:30
Quasar:
So. Nun nochmal von vorne. Haarman war es, der das Beispiel DX8-Games heranzog, nicht ich, lieber Labberlippe. Desweiteren glaube ich nicht, und hier ist alles mind. bis zum 5.02.02 eine Glaubensfrage, daß nVidia mit der GF4, die ja "nur" ein weiterer Refresh sein soll, die Hardware soweit redesigned haben wird, daß PS1.4 möglich ist, warum auch, würde man so doch noch einen weiteren Standard festigen helfen, der die später im Jahre erscheinenden DX9-PS2.0 noch weiter auf die lange Bank schieben würde.
=>
Ne mir ging es darum das gleich PS 1.4 nieder Argumentiert wurde.
Gut dann integriert halt nVIDIA wieder PS 1.1, allerdings wäre das dann ein Hohn anderen gegenüber.
Aber lassen wir uns mal überrasschen.
-------------------------------------
Quasar:
Was The Carmack über die Überlegenheit der Radeon im Gegensatz zur GF3 gesagt hat, war imho nicht, daß der Pixelshader so überlegen sei, sondern vielmehr erwähnte er, daß man viele Dinge auf der Radeon in einem Pass erledigen könnte, für die man auf einer GF (und er sagte nicht GF3) zwei oder mehr Passes brauche würde. PS1.4-Effekte mit mehrfach abhängigen Texture-Reads würden auf PX1.1-1.3 gar nicht zu emulieren sein, so ATi. Deswegen denke ich er bezog sich einzig auf das 3fache Loop-Back des R200.
=>
Nutzt nur nichts wenn die Spielerhersteller dieses nicht nutzen auf Rücksicht von nVIDIA.
Die erste Radeon hatte auch schon mehr Texturen auftrage können.
Wo der Carmack mal recht hat. :)
-------------------------------------
Quasar:
Was CMR2 angeht, hast du ja schon genug Prügel einstecken müssen. BTW hab ich EMBM auf einer KyroII auch net zum laufen bekommen, müssen wohl die Treiber gewesen sein, auf ner G400 gings nämlich...ähnlich Expendable.
=> Prügel?
Das sehe ich nicht als Prügel.
Ich bin halt auch nicht die allwissende Müllhalte.
Auserdem habe ich ja geschrieben wenn und habe es nicht als Fakt hingelegt.
-------------------------------------
Quasar:
Ich glaube, soweit deine Gedankengänge richtig verstanden zu haben.
=>I hope
------------------------------------
Quasar:
Was die Marktwirtschaft angeht, so tut jede Firma das, was sie meint,. das ihr den größten Gewinn bringt. PowerVR z.B. läßt sich heute noch ihre Ingenieursarbeit für den K2 teuer bezahlen, oder wie sonst ist zu erklären, daß ein reichlich weniger komplexer Chip (K2) auf einer Karte verbaut, nicht auch weniger kostet als ein komplexerer Chip mit ansonsten änhlichem Kartenlayout (RAM, RAM-Zugriffszeit etc.)?
Marktwirtschaft ist eben so. ATi würde dasselbe tun, wenn sie in der Position dazu wären. Siehe AIW....weit und breit kein Konkurrenzprodukt und die angekündigten Preise liegen trotz deutlich niederigerer Specs 50% über dem Flaggschiff R8500.
=>
Hmmm ich glaube kaum das ich mich über die Marktwirtschaft beschwert haben.
Wieso kostet ein K2 gleich viel?
Du willst mir jetzt aber nicht weissmachen das ein Chip der weniger Transistoren hat deswegen unbedingt billiger sein muss?
Die K2 ist um einiges billiger geworden.
Aufwachen die Preise ändern sich.
Marktwirtschaft und Konkurrenz ist gut das senkt die Preise. :)
Freilich ist die Ti 500 teurer damit macht man ja auch Kohle und wenn jemand meint er muss unbedingt auf das Preis/Leistung pfeifen dann soll er halt.
--------------------------------------------------------------
Gruss Labberlippe
Legolas
2002-01-08, 12:51:05
Originally posted by Razor
@Legolas
Zur Zeit von TNT & Co, gab's eigentlich nur So7-Systeme...
Wenn Du den TNT2 meinst, dann gebe ich Dir recht, aber wie schon oft gesagt, keine Äppel und Birnen, gell ?
;-)
Ähm *räusper* Nun ... ist mir durchaus neu, daß Intel Pentium II CPUs auf So7 gelaufen sind..;-) der PII 300 kam Ende 97 Anfang 98 auf den Markt, und die TNT Ende 98.. und da gab es den PII 400... und dank dem CeleronA waren Slot1 Systeme unter Spielern ziemlich verbreitet.. und wenn man damals ein HighEnd System zusammengestellt hat, dann war das halt nunmal ein PII am besten mit BX also mit mindestens 350Mhz und ner passenden aktuellen Highendgrafikkarte also TNT, Banshee, Voodoo 2 oder Voodoo 2 SLI. Und solche Kombinationen waren damals duchaus üblich... Hab ich ja selber zuhause stehen so ein System...
Razor
2002-01-08, 12:56:49
@Haarmann
Hi Haarmann !
Erst einmal zu der Vertex/Pixel-Shader-Performance:
Ich habe doch extra mal 2 Bildchen gepostet, die die unterscheidliche Performance bei VS/PS von R200 und NV20 darstellen. Insofern stimmt Deine Aussage nur Teilweise:
"Je länger die VS Befehlskette, desto schneller die R200 verglichen zur GF3."
Sollte heißen:
"Je nach Anzahl der Befehle einer Befehlskette im VS, [i]kann[/b] die R200 ,verglichen zur GF3, die doppelte Performance oder mehr erzeilen."
(bei nich-synchroner Taktung sogar fast immer mehr als doppelt so schnell !)
-
Ansonsten würde mich auch interessieren, ob dies nun auf das genutzte ATI-Demo (TreasureChest) zurück zu führen ist, oder eine tatsächliches Faktum ist. Nicht, daß ich falsch verstanden werde, die größere Präzision des R200 ist mir durchaus bekannt. Aber AFAIK kommt diese nur bei Nutzung der PS1.4 zum Tragen, welche ja alle Effekte, bzw. Befehle seit PS 1.0 enthält. Will also sagen: was appsiert wenn man unter D3D eben nicht PS1.4 direkt benutzt (wie es ev im ATI-Demo gemacht wird), sondern über den PS1.1 'geht' und der R200 dann gewungen ist, diesen PS zu emulieren...
Das der PS1.4 eine Art Zusammenfassung ist, stammt übrigens auch nicht von mir, sondern wird (wie in anderen Artikeln auch) im Artikel selber genannt:
Pixel shaders
A pixel shader is a set of microcode that, when downloaded to the graphics processor, execute on-chip and operates on pixels and texels. R200 ushers in pixel shader 'version 1.4'. It makes possible the mixing of a greater number of textures (six to be exact) than pixel shader 'version 1.1' of the GeForce3. More important than a numerical advantage, 'version 1.4' unifies the instruction set and introduces the concept of 'phase'.
Würde mich echt interessieren, ob diese größere Präzision nun generell zum Tragen kommt, oder eben nur, wenn man über PS1.4 geht. Denn wenn es generell der Fall sein sollte, dann wäre dies ein eindeutiges Plus für den PS der R8500 !
-
Bezüglich des FSAA-'Vergleichs':
a) wurde hier Evolva benutzt (was an sich schon 'zwifelhaft' ist ;-)
b) auch noch die 16Bit-Farbtiefe
Insofern scheint mir der D3D-Verleich 'etwas' konstruiert...
Und über die OpenGL-Performance wird hier leider gar nichts gesagt !
Aber recht interessant der Artikel !
;-)
@Laberlippe
Du hast zwar an Quasar gepostet, aber...
Ne mir ging es darum das gleich PS 1.4 nieder Argumentiert wurde.
Gut dann integriert halt nVIDIA wieder PS 1.1, allerdings wäre das dann ein Hohn anderen gegenüber.
Aber lassen wir uns mal überrasschen.
Der NV25 ist, wie der Name ja schon sagt, kein neuer Chip. Warum sollte dieser also plötzlich PS1.4 bieten ? Primär hat er einfach nur einen 2. Vertex-Shader und sollte somit das Defizit zum NV2a und zur R2x0-Serie von ATI aufholen, mehr nicht... (vermutlich, weil noch Spekulation ;-). Der NV30 wird dann wohl schon PS2.0 unterstützen, wozu dann also noch PS1.4 ?
???
Nutzt nur nichts wenn die Spielerhersteller dieses nicht nutzen auf Rücksicht von nVIDIA.
Die erste Radeon hatte auch schon mehr Texturen auftrage können.
Die Spielehersteller nehmen IMMER die breiteste Basis...
So sind auch die bisher wenig genutzten HW T&L-Implementierungen zu erklären !
(und hat eigentlich weniger was mit Rücksicht, denn mit Hardware-Verbreitung zu tun)
Bis denne
Razor
Razor
2002-01-08, 13:02:50
Originally posted by Legolas
Ähm *räusper* Nun ... ist mir durchaus neu, daß Intel Pentium II CPUs auf So7 gelaufen sind..;-) der PII 300 kam Ende 97 Anfang 98 auf den Markt, und die TNT Ende 98.. und da gab es den PII 400... und dank dem CeleronA waren Slot1 Systeme unter Spielern ziemlich verbreitet.. und wenn man damals ein HighEnd System zusammengestellt hat, dann war das halt nunmal ein PII am besten mit BX also mit mindestens 350Mhz und ner passenden aktuellen Highendgrafikkarte also TNT, Banshee, Voodoo 2 oder Voodoo 2 SLI. Und solche Kombinationen waren damals duchaus üblich... Hab ich ja selber zuhause stehen so ein System...
Ähhhhmmm...
Ich hab' meine kleine TNT aber schon 'etwas länger, als seit Ende 98...
Müsste jetzt nochmal nachschaun', wann dies genau war...
Hmmm...
Also Ende 99 (September) hab' ich mir die gfddr zugelegt...
Und meine TNT war zu dem Zeitpunkt schon 2 Jahre alt...
Ergo: Q3 97 hab' ich mir die TNT zugelegt (Diamond Viper 550 ohne TV für DM 349,- ;-) und ich weiß nicht mehr genau, ob's da schon den PII300 gegeben hat... die V2 hatte ich zu diesem Zeitpunkt aber schon ! Und zumindest der K6-2 300 war damals High-End (det weiß ich noch genau !).
Also so ganz kann das mit Deinen Angaben irgendwie net hinkommen !
;-)
Razor
Legolas
2002-01-08, 14:04:36
Ähmm Q4 1997 war der Voodoo 1 noch King und der Riva 128 grad in den Startlöchern..
der Voodoo 2 erschien in der ersten Jahreshälfte 1998 der TNT im Herbst/Winter 1998 der V3/TNT2 Mitte 1999 und Ende 1999 die GF 256
Bin mir mit den angegebenen Daten ziemlich sicher...
Haarmann
2002-01-08, 14:09:00
Razor,
Wenn ich Tomshardware glaube, so kam die TnT so ca September 98 raus... Der hat ja glücklicherweise immer det Datum zu seinen Artikeln gestellt. Somit is Ende 98 wohl doch richtig.
Das Testsystem war ein P2 400 - ergo war ein K6-2 300 kein Hi-end ;-).
Gleichzeitig gabs aber schon P2 450 OLGA und Celeron 300A - Somit gabs auch SL2W8 P2, die eigentlich 450er waren, aber eben nur 300 getaktet wurden, weil se schneller als die OLGA waren, die gute 504 liefen ;-) oder eben die CeleronA auf 450 - das war HiEnd - und das hatte ich auch... zusammen mit dem P2B-LS
Und der Screenshot weiter oben soll ja mit nem PS1.0 Teil gemacht worden sein, den Du dort siehst... Leider is halt ein Shot ned gleich viel... und ich hab keine GF3 zum Vergleich.
Razor
2002-01-08, 15:04:16
@Legolas & Haarmann
Bin mir zeimlich sicher daß det Kärtchen von 97 is, würde meine Hand dafür aber net ins Feuer legen wollen...
Werde mal die Steuererklärung von 97 und 98 raus suchen und mal schaun', wo's zu finden ist... (könnte etwas dauern, denn die sind schon in die Ablage 'FORGET IT !' gekommen und damit irgendwo im Keller verschwunden und wenn man dann noch die 2 Umzüge mit einkalkuliert... uiuiui... ;-)
@Haarmann
Also ich weiß net, was Tech-Report da getestet hat, aber bei mir (TreasureChest 1.1) steht da "PS 1.1 - Base + Gloss to Seed Framebuffer", was auch immer das heißen mag...
(und auch die letzte Möglichkeit für PS1.0-1.3 ist)
;-)
Nach Tech-Report müsste das ja "Pixel Shader Version 1.0 diffuse bump mapping", was bei mir allerdings nur das Kistchen im Dunkeln ist, von einem kleinem Lichtlein 'erleuchtet'...
Wie dem auch sei, werd' mal ein paar Beispiele Posten (JPEG70).
In diesem Sinne
Razor
Hier also das "PS 1.1 - Base + Gloss to Seed Framebuffer"
(net sonderlich dolle, gell ?)
Ich würd' sagen, daß dort das Bumpmapping ganz fehlt, oder sehe ich das falsch ?
(auf dem Boden ist's derweil OK... Hmmm...)
Razor
2002-01-08, 15:13:30
Und das hier ist jetzt "Diffuse Bump Mapping" ohne PS-Angabe
(nix von 'nem Ball zu sehen :-)
Frank
2002-01-08, 16:50:54
sieht alles aus wie schnödes EMBM...
kann mir nich helfen ...
vor allem das da oben von Haarmann 11.42uhr
??? ???
:bonk:
Quasar
2002-01-08, 17:22:08
@Labberlippe:
Wieso wäre es ein Hohn anderen gegenüber, wenn nVidia eine bestimmte Technologie nicht integriert? Verhöhnt jede Firma, die sich einer Technologie verschließt, andere?
Carmack programmiert die entsprechende Engine, und wenn ihm dieses Feature schon aufgefallen ist, wird er es wohl auch zu nutzen wissen. Daß die originale Radeon 3TMUs hatte, ist wohl bekannt. Genutzt wurde es teilweise, aber teilweise eben auch nicht. Es kam eben ganz auf die Flexibilität des Herstellers, bzw. des Engine-Herstellers an. Das gehört auch mit zu den Dingen, die eine Firma leisten muss, wenn sie oben mitspielen will, und die ATi offenbar versäumt hat: Developer Relations. Von nVidia ist bekannt, daß sie die Hersteller von Spielen schon lange vorab mit der nächsten Generation an Chips ausstatten. Von ATi (Quelle habe ich leider nicht) habe ich bisher nur gegenteiliges gehört. Wenn das stimmen sollte, so wundert es nicht, daß die Hersteller diese Produkte nicht optimal untersützten, wenn sie erst warten müssen, bis sie eine Karte im Laden kaufen können, um ihre Engine fertigzubasteln.
Beispiel: CMR2
Ich habe eine Radeon welche "alle Arten" von Bumpmapping Verfahren beherscht nur nutzen kann ich es nicht.
Warum?
Weil wieder einmal nur nVIDIA OpenGL Extensions abgefragt werden.
Ich habe gute Technologie mit welcher ich weniger anfangen kann weil ein Hersteller wieder eine Vormachtsstellung einnimmt.
Komisch sogar bei "08-15" benches werden die Funktionen abgefragt welche eine Karte kann.
Hat eine Karte einen Effekt nicht dann ist der Effekt eben nicht mit einen Häckchen zu aktiveren.
Auch wird sich nVIDIA sicher nicht so leicht das Wasser abgraben lassen.
Das wird sich aber auch nicht so schnell Ändern
Bevor
A: Die Mags sich nicht in die Irre führen lassen und endlich objektiv berichten. Statt Schwachsinn.
B: Solange gewisse "User" nicht andere Technologien niedereden.
C: Gewisse Hersteller nicht in den A... der Hardwarehersteller kriechen.
Aber so ist nunmal die Marktwirtschaft.
Eigentlich wollte ich da ja nicht drauf eingehen, aber in obigem Quote, CMR2 betreffend, entdeck ich kein einziges "wenn". Für mich sieht es nach einem Statement von Fakten aus.
Was die Marktwirtschaft angeht, so habe ich dir auch keine Beschwerde vorgeworfen. Ich habe lediglich deinen Satz umformuliert "Aber so ist nunmal die Marktwirtschaft" in "Marktwirtschaft ist eben so".
Was die KyroII angeht, so sind die preiswertesten mir bekannten Produkte mit 64MB für von NoName-Anbietern für ca. 170,-DM zu bekommen. Für den gleichen Preis bekommt man, ebenfalls von NoName-Anbietern, eine GF2MX400 mit ebenfalls 64MB RAM. Da die GF2MX-GPU um ca. 66% komplexer ist, als die KyroII (15M Transistoren vs. 25M Transistoren, wenn ich nicht irre) und beide im gleichen Prozess hergestellt werden, sollte der einfachere Chip (K2) auch weniger Die-Fläche haben und aufgrund der geringeren Komplexität evtl. auch eine höhere Ausbeute erreichen. Ergo müsste man diese Chips und somit auch die Karten auf denen diese verbaut sind, für weniger Geld bekommen können. Dem ist nicht so.
-> Bin Aufgewacht, aber du offenbar nicht, oder du kennst mehr Gelegenheiten, wo es den KyroII noch deutlich günstiger gibt, als ich.
Ich hoffe ich bin deinen Gedankengängen in die richtige Richtung gefolgt.
Legolas
2002-01-08, 17:23:46
@Razor
Das mit dem Feuer würd ich lassen, sonst muss Amarok noch Überstunden schieben ;)
Also auf meiner Voodoo 1 von Diamond steht 1997... auf meiner voodoo 2 und TNT jeweils 1998. Leider ist www.3dconcept.ch down, da könnte man nachschauen, was jetzt richtig ist..
EDIT
3dconcept geht doch wieder.. naja und da stehts, daß die TNT 1998 auf den Markt gekommen ist
http://www.3dconcepts.de/chips/chiptable2nd.htm
Labberlippe
2002-01-08, 18:42:37
Originally posted by Quasar
@Labberlippe:
Wieso wäre es ein Hohn anderen gegenüber, wenn nVidia eine bestimmte Technologie nicht integriert? Verhöhnt jede Firma, die sich einer Technologie verschließt, andere?
Carmack programmiert die entsprechende Engine, und wenn ihm dieses Feature schon aufgefallen ist, wird er es wohl auch zu nutzen wissen. Daß die originale Radeon 3TMUs hatte, ist wohl bekannt. Genutzt wurde es teilweise, aber teilweise eben auch nicht. Es kam eben ganz auf die Flexibilität des Herstellers, bzw. des Engine-Herstellers an. Das gehört auch mit zu den Dingen, die eine Firma leisten muss, wenn sie oben mitspielen will, und die ATi offenbar versäumt hat: Developer Relations. Von nVidia ist bekannt, daß sie die Hersteller von Spielen schon lange vorab mit der nächsten Generation an Chips ausstatten. Von ATi (Quelle habe ich leider nicht) habe ich bisher nur gegenteiliges gehört. Wenn das stimmen sollte, so wundert es nicht, daß die Hersteller diese Produkte nicht optimal untersützten, wenn sie erst warten müssen, bis sie eine Karte im Laden kaufen können, um ihre Engine fertigzubasteln.
Eigentlich wollte ich da ja nicht drauf eingehen, aber in obigem Quote, CMR2 betreffend, entdeck ich kein einziges "wenn". Für mich sieht es nach einem Statement von Fakten aus.
Was die Marktwirtschaft angeht, so habe ich dir auch keine Beschwerde vorgeworfen. Ich habe lediglich deinen Satz umformuliert "Aber so ist nunmal die Marktwirtschaft" in "Marktwirtschaft ist eben so".
Was die KyroII angeht, so sind die preiswertesten mir bekannten Produkte mit 64MB für von NoName-Anbietern für ca. 170,-DM zu bekommen. Für den gleichen Preis bekommt man, ebenfalls von NoName-Anbietern, eine GF2MX400 mit ebenfalls 64MB RAM. Da die GF2MX-GPU um ca. 66% komplexer ist, als die KyroII (15M Transistoren vs. 25M Transistoren, wenn ich nicht irre) und beide im gleichen Prozess hergestellt werden, sollte der einfachere Chip (K2) auch weniger Die-Fläche haben und aufgrund der geringeren Komplexität evtl. auch eine höhere Ausbeute erreichen. Ergo müsste man diese Chips und somit auch die Karten auf denen diese verbaut sind, für weniger Geld bekommen können. Dem ist nicht so.
-> Bin Aufgewacht, aber du offenbar nicht, oder du kennst mehr Gelegenheiten, wo es den KyroII noch deutlich günstiger gibt, als ich.
Ich hoffe ich bin deinen Gedankengängen in die richtige Richtung gefolgt.
Das Wenn hatte ich schon zuvor in einen vorigen Post geschrieben.
Wenn das nur für nVIDIA Karten ist, dann sehe ich es als Freichheit den Kunden gegenüber.
Wenn nVIDIA, MS und die Spielehersteller zusammenhalten.
Kurz die Technologie wird gebremst.
Da ich bei Deiner Antwort die noch nicht wusste wie ob es am Treiber liegt habe ich Dir das gleiche nur nochmal ausführlicher geschrieben.
Sorry aber ich hätte da natürlich auch ein Wenn einfügen sollen.
-
Yepp ich dürfte nicht aufgewacht sein, da ich die Kyro Leistungsmässig nicht bei einer MX sehe sondern eher GeForce2 GTS /PRo. (Hätte ich schlingel erwähnen müssen.)
Die MX ist zur K2 kein Vergleich und nicht erwähnenswert.
Um auf die Transistoren zurück zukommen.
Warum sollte der eine Chip teuere sein nur weil mehr Transistoren drauf sind.
Es ist doch nicht so das der Chip Hersteller einfach 25 Million Transistoren von oben nach unten aufpappt.
Dann 10 Millionen weglässt und sagt das ist der K2 Chip, der andere der MX.
Vielleicht ist der K2 trotz niedriger Transistorenanzahl schwieriger zum erzeugen, weil vielleicht ein andere Reihenfolge zum aufpappen ist. (Primitiv erklärt :) )
Ich weiss es auch nicht genau da ich ja nicht der Chip Hersteller bin.
oder
Die Chips erzeugt ja weder ATi noch nVIDIA selbst. (soweit ich weiss)
Das heist die geben die Baupläne den Chiphersteller und dieser erzeugt für die GPU Hersteller den Chip.
Da kann es auch gut möglich sein das der Chip Hersteller sagt.
nVIDIA erzeugt bei uns Beispielsweise 100 Millionen Chips, Kyro nur 50 Millionen.
Eben weil nVIDIA mehr Chips Produzieren lässt ist der Preis günstiger.
Beim Kyro sind weniger Chips, somit teurer.
Denn ich glaube kaum das hier für jede einzelne Chipart eine eigene Maschine gibt.
Vielleicht muss der Chiphersteller extra Modifikationen durchführen damit die nächste Serie erzeugt werden kann und auch das schlägt sich bei niedrigeren Stückzahlen im Preis nieder.
Wäre aber auch mal interessant einen Bericht über sowas zu sehen.
Gruss Labberlippe
Originally posted by Legolas
Gab aber auch massig PCs mit PII oder CelA und TNT... Und die sind imho sinnvoller, weil ich der Meinung bin, daß Highend Grafikkarten auch in die Highendrechner derselben Zeitspanne gehören :D:D
Klar, wenn der Preis keine Rolle spielt.
Aber ein P2 dürfte damals mehr als das Doppelte einer TNT gekostet haben.
Oder für den Preis von K6+TNT gab´s nicht mal einem P2, wenn du es so sehen willst.
Weil ich könnte meine V5 ja auch in meinen PII 400 (oder einen 500er PIII, der wohl leistungsmäßig in einem ähnlichen Verhältnis zu den damals aktuellen Highend CPUs steht, wie dein So7 System zu den PIIs von damals:D:D) reinbauen, und behaupten, daß 4xFSAA keinen Performanceeinbruch bewirkt :D:D. Ist halt alles eine Frage der Kombination Graka/CPU.. aber ich glaube das haben wir schon zu genüge diskutiert...
Klar kannst du.
Aber als der V5 erschien waren die CPUs doch schon leistungsstärker, den Athlon gab es auch schon. Schneller und billiger als P3.
Aber du willst doch nicht ernsthaft die V5 mit dem TNT messen.;)
Legolas
2002-01-08, 19:34:10
Originally posted by ow
Klar kannst du.
Aber als der V5 erschien waren die CPUs doch schon leistungsstärker, den Athlon gab es auch schon. Schneller und billiger als P3.
Aber du willst doch nicht ernsthaft die V5 mit dem TNT messen.;)
Nö nur dastellen, wie man Benchmarken ad absurdum führen kann :D:D... 500 Mhz sind vielleicht etwas untertrieben aber mit 600 oder auch 700 wird man zu ähnlichen Ergebnissen kommen, wenn auch nicht zu ganz solch drastischen..
Legolas
2002-01-08, 19:36:32
Originally posted by Labberlippe
Da kann es auch gut möglich sein das der Chip Hersteller sagt.
nVIDIA erzeugt bei uns Beispielsweise 100 Millionen Chips, Kyro nur 50 Millionen.
Eben weil nVIDIA mehr Chips Produzieren lässt ist der Preis günstiger.
Beim Kyro sind weniger Chips, somit teurer.
Denn ich glaube kaum das hier für jede einzelne Chipart eine eigene Maschine gibt.
Vielleicht muss der Chiphersteller extra Modifikationen durchführen damit die nächste Serie erzeugt werden kann und auch das schlägt sich bei niedrigeren Stückzahlen im Preis nieder.
Ähm Kyro und GF-Reihe werden von 2 verschiedenen Firmen produziert.. die Kyro Chips werden von STMicro gefertigt, Nvidia läßt hingegen fast alle Chips von TSMC fertigen, seit neuestem auch bei UMC
Originally posted by Razor
Oh mein Gott, was ist denn hier plötzlich los ?
???
Na ja, dann mal los...
;-)
@ow
Nennst Du DAS 'schwärmen' ?
???
Aber für Dich ist das schon ein großer Schritt !
(nicht ganz ernst gemeint !)
;-)
Razor, ich betrache immer beide Seiten einer Medaille;)
Nur Vorteile aufzählen gilt nicht;)
Übrigens, mein Zweitsystem ist ein So7 mit TNT/Voodoo2-Kombo !
Ein kleines Schätzchen mit K6-2 300@350 (+17% !!!) und 128MB PC100@66-RAM, Diamond Viper 550 (TNT) und Diamond Monster II (V2)... det is ein Hammer und ich kann Deine diesbezüglichen Aussagen (So7/TNT) nur bestätigen ! (und ja, das ganze System war damals High-End !!!)
Was fürn So7 Board ist denn das? Nur für 66MHz?
Mein Shuttle HOT597 konnte immerhin 75/83Mhz FSB, der K6-2 300 lief mit 375MHz (Standardspannung/-kühlung).
Labberlippe
2002-01-08, 20:03:48
Originally posted by Legolas
Ähm Kyro und GF-Reihe werden von 2 verschiedenen Firmen produziert.. die Kyro Chips werden von STMicro gefertigt, Nvidia läßt hingegen fast alle Chips von TSMC fertigen, seit neuestem auch bei UMC
Kann sein, wie gesagt war nur ein Beispiel.
Dann ist halt die STMicro teuerer, mir ging es eher darum aufzuzeigen das nicht unbedingt weniger Transistoren gleich billiger ist.
Wenn aber 2 verschieden Hersteller sind dann sieht die Sache noch zusätzlich anders aus.
Auser Ihr kennt die Margen von den Chip-Herstellern.
Nachtrag:
Wobei wie gesagt wir auch hier wieder beim aufpappen wären.
Es kann sein das der K2 aufwändiger zum Erzeugen ist und deswegen "mehr" kostet.
Wer jetzt der grösere Hersteller ist weiss ich nicht genau.
Mir geht es nur um einen Gedankenanstoss in einer anderen Richtung.
Gruss Labberlippe
Quasar
2002-01-08, 20:56:03
Labberlippe,
In keinem Post vor dem besagten Quote sehe ich ein themenrelevantes "wenn" von dir, genauer, ist mir überhaupt nur ein entfernt mögliches "wenn" aufgefallen:
Wenn Morgen nVIDIA eine API bringt, seit Ihr alle Feuer und Flame dafür und stellt dann alles als Technologisch erwiesen und Top hin.
Und das hat wohl nichts mit CMR2 zu tun. Aber egal, lassen wir das.
Erstaunlicher finde ich es, wie du dich windest, was den KyroII angeht.
Ich habe bewußt auf Leistungsvergleich in diesem Thread verzichtet, und nur den reinen Preis in den Vordergrund gestellt. Deinem erneuten Ausweichen entnehme ich, daß du mir im Punkt des "Verschlafens" des Marktes inzwischen nicht mehr widersprichst...
Deine Erläuterungsversuche in Ehren, aber ein Chip mit mehr Transistoren kostet in der Herstellung erstens schon allein deswegen mehr, weil er eine größere Fläche in Anspruch nimmt (bei gleichem Produktionsprozess) und zweitens, weil mit höherer Transistorenzahl auch die Wahrscheinlichkeit eines Defektes zunimmt (ebenfalls einen identischen Produktionsprozess vorausgesetzt). Das sind keine weithergeholten Vermutungen, sondern Grundsätze der Halbleiterfertigung (Was meinst du, warum Intel niemals eine gute Ausbeute mit dem PentiumPro erzielte, und beim Nachfolger PentiumII zunächst den Cache wieder vom Die entfernte?).
@Legolas: Danke, daß du mir noch mehr Tipperei erspart hast. BTW, meine TNT von Creative ist vom 1.12.98 (Kaufdatum) und da war sie noch kein Auslaufmodell...
Und Laberlippe, was ist nun mit dem Verhöhnen?
P.S.: (nein, nicht Pixelshader ;) )
Sowohl TSMC als auch STMicro gehören zu den fortschrittlichsten Halbleiterherstellern der Welt.
Razor
2002-01-08, 21:13:57
@Frank
Seh' ich auch so, Frank...
Würde mich auch mal interessieren, was hier unter 'Pixel-Shader 1.0' verstanden wird. Konnte das nicht schon die gf2...
Insofern könnte es also gut sein, daß Du mit Deiner Vermutung sogar recht hast !
;-)
@Legolas
Keine Bange, Legolas, das mit dem Feuer werd' ich wohl lassen !
;-)
Auf meiner Diamond Monster II (V2) steht auch 98, die TNT müst ich erst ausbauen oder eben, wie gesagt, den Keller ausräumen, insofern beuge ich mich einfach den 'erdrückenden' Beweisen (uns spar mir die Brandsalbe ;-)...
@Laberlippe
Wenn das nur für nVIDIA Karten ist, dann sehe ich es als Freichheit den Kunden gegenüber.
Wenn nVIDIA, MS und die Spielehersteller zusammenhalten.
Kurz die Technologie wird gebremst.
Ist das Dein ernst ?
M$ ist nur daran interessiert, sein OS und damit auch das daran gebundenen DirectX so 'benutzerfreudlich' oder besser 'Entwicklerfreundlich' wir möglich zu machen (bis DX7 eher eine Fragwürdige Angelegenheit ;-). DX8 (besser D3D8) hat man (hauptsächlich) mit nVidia zusammen gemacht, da diese die Spezifikation für VS1.1 und PS1.1 gestellt haben, will sagen nVidia hat dies an M$ Lizensiert. DX8.1 ist dann hauptsächlich mit ATI zusammen aus der Taufe gehoben worden, indem man die PS1.4 einbaute (und auch gleich die fehlenden PS 1.2 bzw. 1.3 von nVidia). Zudem noch die fehlende Unterstützung für die Tiler integrierte und kräftig (über 350 ?) Bugs behob. Sowohl nVidia, als auch M$ arbeiten mit den Spiele-Entwicklern zusammen, um a) möglichst das Spiel auf Windows zu fixieren (i.e. DX zu benutzen) und b) auch nette nVidia - Features zu nutzen, um den Vertrieb von NV-Hardware zu fördern. ATI wird das auch tun, nur ist die Frage, in welchem Umfang dies passiert. So bleibt es also weiterhin fraglich (wie werden es ja irgendwann sehen ;-), inwieweit nun ATI Features dan auch angenommen werden...
Von 'Zusammenhalten' dürfte keine Rede sein, denn da dürften sich die Entwickler an das halten, woran sich auch die Endkunden halten: Derjenige, der ihnen das meiste bietet, bekommt den Zuschalg. Ich würde mir sofort eine ATI zulegen, wenn mich diese überzeugt. Ein Entwickler läßt sich eher auf Hersteller einer hardware ein, wenn diese entsprechende Unterstüzung bietet...
That's it !
Und soweit ich weiß, ist ImgTech nur der Chip-Layouter und der Treiber-Schreiber. Die fertigen Chips wurden an STMicro lizensiert. Die Chips selber werden von STMicro hergestellt, die selber Chips produzieren, also in Sachen Kosten wohl am Minumum kleben und somit sogar weit günstiger sein dürften, als diejenigen, die nVidia extern fertigen lassen muß. Aber keine Angst, sowohl STMicro, als auch nVidia machen noch richtig Knete (nVidia aufgrund des höheren Verkaufspreises der gf2Ti/gf3ti-Serie sogar wohl noch sehr viel mehr). Auch sollte man bedenken, daß nVidia seine Finger im OEM-Geschäft hat und zusätzlich auch noch die eigenen Mobo's ausstattet. Somit also die Chip-Produktionskosten noch sehr viel geringer sein sollten. So dürfte das Verkältnis STMicro zu nVidia nicht 50T zu 100T, sondern 50T zu 1Mio sein (grob geschätzt ;-). So haben beide Vorteile und beide verdienen kräftig !
;-)
Und natürlich werden die Chips in eigenen Fertigungsstraßen produziert (die natürlich Compuer-Gesteuert zu programmieren sind ;-).
Und Transistoren sind Transitoren...
Somit wird ein Chip mit 25Mio Transistoren auch nicht aufwendiger (benutze die alt-deutsche Schreibweise ;-) zu produzieren sein, als ein Chip mit 60Mio Transistoren. Nun ja, das Material ist bei 60Mio mehr (nicht nur der Wafer ;-) und die Ausbeute dürfte bei den 25Mio besser sein, insofern sollte der 60Mio-Chip IMMER teurer sein, als ein Chip mit 25Mio (bei gleichem Fertigungsprozeß !)...
@ow
Also irgendiwe hab' ich 'nen schlechten Tag erwischt...
;-)
Hab's wohl mit meinem guten alten ASUS P55TP4N (i430FX) verheddert, was nur 66/75/83MHz hatte... Det K6-2-Board ist ein SuperSockel7 (so nannte man das wohl ;-) ABit MVP3+, was natürlich schon 100MHz FSB kannte und somit auf 3,5x100FSB läuft.
Sorry, für die Verwechslung...
(sollte endlich mal wieder mehr als 4 Stunden schalfen ;-)
Bis denne
Razor
Unregistered
2002-01-08, 21:19:05
Originally posted by Quasar
Labberlippe,
In keinem Post vor dem besagten Quote sehe ich ein themenrelevantes "wenn" von dir, genauer, ist mir überhaupt nur ein entfernt mögliches "wenn" aufgefallen:
Und das hat wohl nichts mit CMR2 zu tun. Aber egal, lassen wir das.
Erstaunlicher finde ich es, wie du dich windest, was den KyroII angeht.
Ich habe bewußt auf Leistungsvergleich in diesem Thread verzichtet, und nur den reinen Preis in den Vordergrund gestellt. Deinem erneuten Ausweichen entnehme ich, daß du mir im Punkt des "Verschlafens" des Marktes inzwischen nicht mehr widersprichst...
Deine Erläuterungsversuche in Ehren, aber ein Chip mit mehr Transistoren kostet in der Herstellung erstens schon allein deswegen mehr, weil er eine größere Fläche in Anspruch nimmt (bei gleichem Produktionsprozess) und zweitens, weil mit höherer Transistorenzahl auch die Wahrscheinlichkeit eines Defektes zunimmt (ebenfalls einen identischen Produktionsprozess vorausgesetzt). Das sind keine weithergeholten Vermutungen, sondern Grundsätze der Halbleiterfertigung (Was meinst du, warum Intel niemals eine gute Ausbeute mit dem PentiumPro erzielte, und beim Nachfolger PentiumII zunächst den Cache wieder vom Die entfernte?).
@Legolas: Danke, daß du mir noch mehr Tipperei erspart hast. BTW, meine TNT von Creative ist vom 1.12.98 (Kaufdatum) und da war sie noch kein Auslaufmodell...
Und Laberlippe, was ist nun mit dem Verhöhnen?
P.S.: (nein, nicht Pixelshader ;) )
Sowohl TSMC als auch STMicro gehören zu den fortschrittlichsten Halbleiterherstellern der Welt.
Was willst Du eigentlich höhren von mir?
Ich habe doch schon im oberen Posting geantwortet.
Ich bin nicht Deinen Fragen ausgewichen.
Dennoch bin ich nicht der Meinung das man es nicht einfach auf die Anzahl der Transistoren den Preis festlegt.
Was das verhöhnen Betrifft:
Natürlich sehe ich es als Hohn wenn nur die Technologie von einen Hersteller supportet wird.
Gerade dann wenn technologisch nichts mehr weitergeht und neue Technologien niedergeredet werden.
Siehe die Disussionen um TruForm und PS 1.4 hier.
Gruss Labberlippe
Unregistered
2002-01-08, 21:24:37
Originally posted by Unregistered
Was willst Du eigentlich höhren von mir?
Ich habe doch schon im oberen Posting geantwortet.
Ich bin nicht Deinen Fragen ausgewichen.
Dennoch bin ich nicht der Meinung das man es nicht einfach auf die Anzahl der Transistoren den Preis festlegt.
Der Material Einsatz der GPU kostet eher nur ein paar läpische Mark.
Was das verhöhnen Betrifft:
Natürlich sehe ich es als Hohn wenn nur die Technologie von einen Hersteller supportet wird.
Gerade dann wenn technologisch nichts mehr weitergeht und neue Technologien niedergeredet werden.
Siehe die Disussionen um TruForm und PS 1.4 hier.
Gruss Labberlippe
Originally posted by Razor
@ow
Also irgendiwe hab' ich 'nen schlechten Tag erwischt...
;-)
Hab's wohl mit meinem guten alten ASUS P55TP4N (i430FX) verheddert, was nur 66/75/83MHz hatte... Det K6-2-Board ist ein SuperSockel7 (so nannte man das wohl ;-) ABit MVP3+, was natürlich schon 100MHz FSB kannte und somit auf 3,5x100FSB läuft.
Sorry, für die Verwechslung...
(sollte endlich mal wieder mehr als 4 Stunden schalfen ;-)
Bis denne
Razor
Hey, wie wärs mit nem Benchmark-Vergleich;)?
Meine Elsa Erazor 2 TNT PCI 16MB SDRAM läuft auf einem K6-2 300 @ 350 auf DFI P5BV3+ mit VIA MVP3, 100MHz FSB, 1MB L2 cache.
Quasar
2002-01-08, 21:55:32
Willst du mich hier als "fantaschen" nVidioten vorführen oder verstehst du meine Argumentation wirklich nicht?
Wie dem auch sei, ich sage dazu erstmal nichts mehr, weil ich den Thread schon mehr als genug durchgelesen habe. Das werde ich nicht weiterhin tun, nur um dir deine "sprunghafte" Diskussionsweise zu demonstrieren. So geduldig wie aths bin ich leider nicht.
Ende und aus.
Unregistered
2002-01-08, 22:01:09
Originally posted by Quasar
Willst du mich hier als "fantaschen" nVidioten vorführen oder verstehst du meine Argumentation wirklich nicht?
Wie dem auch sei, ich sage dazu erstmal nichts mehr, weil ich den Thread schon mehr als genug durchgelesen habe. Das werde ich nicht weiterhin tun, nur um dir deine "sprunghafte" Diskussionsweise zu demonstrieren. So geduldig wie aths bin ich leider nicht.
Ende und aus.
Wenn Du Dich als solchen siehst, war zwar nicht mein Ziel aber gut so.
Gruss Labberlippe
Quasar
2002-01-08, 22:07:01
Ein fieser Trick.
Egal, ob ich antworte, oder es bleiben lasse, ich kann diese Mind-Games nicht gewinnen, weil ich nicht damit begonnen habe. Ganz wie beim TicTacToe.
Ich bitte dich nur, mir keine Sachen zu unterstellen, die ich nicht gesagt habe. Das tue ich nicht, aber verlange im Gegenzug, ebenso behandelt zu werden. Danke.
Haarmann
2002-01-08, 22:16:52
Naja ... Chipkosten sind eines... Entwicklungskosten ein 2es.. und die GF2 MX hat so ca 0 Entwicklungskosten... Das macht halt auch was aus.
Abgesehen davon sind ned alle Chips mit gleichviel Transistoren auch Gleichgross - ergo nicht gleich teuer - dazu gäbs auch noch das Yield Problem.
Muss mal diese Schatztruhe auch runterladen Razor ;-)
Unregistered
2002-01-08, 23:51:51
Originally posted by Quasar
Ein fieser Trick.
Egal, ob ich antworte, oder es bleiben lasse, ich kann diese Mind-Games nicht gewinnen, weil ich nicht damit begonnen habe. Ganz wie beim TicTacToe.
Ich bitte dich nur, mir keine Sachen zu unterstellen, die ich nicht gesagt habe. Das tue ich nicht, aber verlange im Gegenzug, ebenso behandelt zu werden. Danke.
Diskusionen sind ja schön und gut aber man sollte doch zumindest versuchen die Meinung eines anderen zu verstehen.
Wir plaudern hier über Grafikkarten.
Dinge die sowieso in ein paar Monaten veraltet sind.
Kurz man braucht sich nicht gegenseitig mit Wortklauberein niederzu Argumentieren.
Gruss LAbberlippe
Originally posted by Haarmann
Naja ... Chipkosten sind eines... Entwicklungskosten ein 2es.. und die GF2 MX hat so ca 0 Entwicklungskosten... Das macht halt auch was aus.
Bleib mal auf dem Boden;)
Das Chiplayout der MX unterscheidet sich wesentlich von dem einer GF2 (weniger Pipes, TwinView), so dass da immer noch erhebliche Entwicklungskosten drinstecken.
(Fuer die kastrierten MX200/100 triffr deine Aussage zu).
DIe Entwicklunfskosten fuer den Kyro2 duerften ebenfalls sehr gering sein, da praktisch unveraendertes Kyro1-Design (+3Mio. Transistoren).
Anárion
2002-01-09, 10:18:13
Ich bin momentan auch NV-User, und wenn ich mir irgendwann eine neue Graka kaufen sollte, dann diejenige, die für mich am besten erscheint, ob ATI, NV oder Matrox.
Ich hab besseres zu tun als irgendeine Firma fanatisch zu verteidigen, sowas ist doch lächerlich...das kenn ich vom Kindergarten...Actionman ist besser als He-Man :D
Razor
2002-01-09, 10:31:47
@ow
Meinst Du, daß das Sinn machen würde ?
;-)
Eher nicht...
Aber gut zu wissen, daß andere auch noch alte Kisten in Betrieb haben !
(auch wenn meine Diamond Viper 'ne AGP-Karte ist ;-)
Als Server aber immer noch gut zu gebrauchen...
Na ja und auch manchmal als 2. LAN - Game-Machine...
(wenn auch sehr beschränkt ;-)
@Haarmann
Der KyroII dürfte nach Deiner Rechnung dann aber auch 'for free' gewesen sein, oder was unterscheidet den technoligisch von dem KyroI ? Net viel würd' ich sagen...
Um das Ganze vergleichbarer zu machen, sollten die Entwicklungskosten einer Chip-Generation doch wohl eher auf alle Produkte umgelegt werden, oder ?
Und ja, die Schautztruhe ist 'nen Download wert...
Und Du hast 'ne R8500 und Dir noch nicht mal die Techdemo's herunter geladen ?
Oh mann, ein echter Purist, 'eh ?
;-)
Bis denne
Razor
Haarmann
2002-01-09, 10:57:18
Razor,
ich sagte doch irgendwann mal Techdemos my Ass ;-)... solange ich die nur auf einer Karte ansehen kann, also ned vergleichen kann, hab ich mal die Screensavers unten - mehr ned.
Kyro2 hat ja mehr Transis, denn eine Kyro - ich folgere daraus, dass man wegen Laufzeitfehlern die Sache beschleunigen musste. Daher denke ich mal, dass det Teil doch etwas gekostet hat, wenn auch ned mehr soviel wie ne Kyro Entwickling.
Und da die Kyro1 und 2 wohl logisch gesehen eine Karte sind, hat ST das geblecht. Eigentlich wäre ja z.B. eine Kyro nun teurer, denn eine Kyro2...
Bei den MX ists da wohl anders... auch ne MX200 hat ja 25 Mio Transis... und is doch billiger, denn ne MX400 ;-). Denke auch nicht, dass dies 2 total verschiedene Chips sind - ev sogar gleich.
Aber eben - wen störts - am Ende zählen doch Preis/Leistung
Auch früher bei GF vs GF2 war der GF der teurere Chip in der Herstellung, aber doch billiger zu kaufen.
Aber ich mach mich mal auf Schatzsuche ;-)
Danke noch Rebel, für die Page... weil diese Viper2 is echt ne gute Karte :-). Vor allem per OC isse verdammt schnell...
Anárion
2002-01-09, 13:01:10
No Problem! :)
Vor allem mit "Metal" hat se derb naig'zoge!... :D
Also dieser Thread musste ja kommen *g*
Herbst 1999, als ich mir die Voodoo3 3000 Bulk für lockere dm 249,- kaufte, war das kein Feature bepackter Monster Chip und keine Innovativer Chip sondern einfach nur ein "3D-Purist" d.h. der Speed war bei jedem Spiel bis in hohe Auflösugen absolut ausreichend. Und sogar noch mit TV Out.... keine andere Grafikkarte hatte IMHO soviel zu bieten für so wenig Geld. Ich will ja nicht sagen, dass 3dfx ein "besserer" Monopolist war, aber kann man heute noch eine Top Graka schon wenige Monate nach einführung für unter DM 300,- bzw € 150,- kaufen? Bis auf die Kyro II sehe ich da leider keine Lichtblicke. Die V3 bot doppelten Speed des Vorgängers, für wenig Geld. Heute bekommt man in diesem Preissegment höchstens noch den Speed der Vorgängergeneration + kaum neue Features. Bei der MX etwa GF1 DDR Speed und beim Kyro II fast GTS Speed.
Zurück zur V3. Es gab also wirklich nix neues, aber der Speed stimmte, und die Qualität bei 16 Bit auch, da die "32 Bit und große Texturen" Ära noch nicht begonnen hatte. Erst als Quake III und die Geforce 256 herauskam, rückten diese Features langsam mehr in den Mittelpunkt. Aber trotzdem war die V3 bis Anfang 2001 eine Top Karte, die vielen Spiele mit Unreal Engine, Q2 Engine und Ultima IX liefen perfekt...
Da war dann noch der Treiber, der allein schon dank der GLide Unterstützung gegenüber NV Treibern im Vorteil war. Unreal bzw. UT war das beste Beispiel. Abwärtkompatiblität zu all meinen alten GLide Spielen war damals schon och ein mächtiges Argument.
Das erste Spiel, die mir die nachteile der V3 deutlich machte, war eigentlich MDK2, durch die kleinen Texturen sahen das Menü und die Comic sequenzen sehr verwaschen aus und nicht so wunderbar scharf wie bei NV Karten. Weitere Spiele folgten die die V3 alt aussehen ließen. Aber der Speed war meist noch i.o., immerhin.
Heute sieht es ja auch dank ATI wieder besser aus. Die Preisgestaltung der vergleichsweise Innovationslosen Ti Chips passt mir nun mal gar nicht. Und die Methode, die "alte" Geforce 3 vom Markt verschwinden zu lassen bevor sie in für mich bezahlbare Regionen (~500,- DM) kommen.
Haarmann
2002-01-09, 17:25:14
Tjo also ich werd mir mal wieder ne NV basierende Karte kaufen...
Ned gerade HiEnd, aber dafür krieg ich für 250.- CHF auch gleich 5 Elsa GF DDR mit TV-Out - zu dem Preis kauf ich ja sogar NVidia...
Wer hier drin outet sich eigentlich als NV Jünger? Wer als 3dfx Jünger? Wer als ATI Jünger? Oder sogar als Kyroianer?
Wär auch mal ne lustige Tabelle zum lesen...
MadManniMan
2002-01-09, 17:41:39
hm...
also ich symphatisiere mit ATI
NV macht zwar nette chips, aber ich kann den trupp nicht ab
KYRO rult und ich wäre auch KYROinaer, wäre da nich...
3DFX!!! 3dfx über alles!
-> 3dfxler ich bin
syronth
2002-01-09, 18:14:48
Die nVidia-Preisgestaltung war für mich ein Grund gewesen, lange gegen die GF3 ("Irrsinn! Blanker Irrsinn!", aber nicht hier) zu wettern. Bis ich halt doch eine kaufte, kurz bevor die Ti's und die R8500 releast wurden, löl. Howerver, die Kachel hat mich überzeugt, sie reicht mir, sie produziert hübsche, schnelle Bilder. ATI kann's aktuell tlw. besser: und? Gekauft ist gekauft.
Ahts, wenn du einen Flamewar lostreten wolltest, dann hättest du wesentlich bissiger und polemischer sein müssen, damit man darauf ansprigt. Und evtl. irgendwo eine Öse hängen lassen, wo man sich für den Flame-Jux einhaken kann ;)
Es entsteht aber eher der umgekehrte Eindruck, den du ja an sich bemüht bist, zu zerstreuen: 'fantasche' nVidia-Abscheu.
Na, ich warte darauf, daß sich Carmack zu PS1.4 bekennt ("DOOM3 will have some, err, PS1.4 effects... Sorry, guys, your GF3 is outdated."), hihi. Dann wird's lustig in den Foren.
Legolas
2002-01-09, 18:48:33
Originally posted by Haarmann
Tjo also ich werd mir mal wieder ne NV basierende Karte kaufen...
Ned gerade HiEnd, aber dafür krieg ich für 250.- CHF auch gleich 5 Elsa GF DDR mit TV-Out - zu dem Preis kauf ich ja sogar NVidia...
Wer hier drin outet sich eigentlich als NV Jünger? Wer als 3dfx Jünger? Wer als ATI Jünger? Oder sogar als Kyroianer?
Wär auch mal ne lustige Tabelle zum lesen...
Vielleicht sollte man das ganze auf einer vernünftigen Ebene ablaufen lassen, als 'User' und nicht Jünger :D:D
Nr. 5
2002-01-09, 22:28:30
so.
da der thread allmählich zum "thema" zurückgekehrt ist, auch mal was von mir.
nutz ´ne AsusV7700Deluxe, bin damit zufrieden. meine nächst karte wird aller vorraussicht ´ne ATI oder Kyro werden.
was von nVidia eher nicht.
früher hatte ich ´ne V3 3000, gekauft wg. preis<>leistung.
dasselbe bei der Asus. was war vor 1 jahr besser als ein nVidia-chip?
nichts.
trotzdem... wär 3dfx nicht pleite gegangen, wär ich bei Voodoo geblieben.
cu
Frank
2002-01-09, 23:44:50
@Razor
die GF2 kann das nicht, obwohls technisch kein Problem gewesen wäre oder ist. Aber das hat wohl damals marktpolitische Gründe gehabt. Aber als ich shots sah... stotter... sieht echt so aus
Razor
2002-01-09, 23:54:10
@Frank
Hat man beim gf2 nicht immer vom PixelShader 1.0 gesprochen ?
???
Aber ja, ich weiß auch nicht, was nun da bei Tech-Report (die ja sonst wirklich gute Test's machen !) gemeint war, aber mit 'nem PS1.1-Effekt hat das Ganze wohl wenig zu tun gehabt (bzw. sieht halt nicht großartig anders aus, als unter DX7). Würde auch sagen, daß es ganz einfache, nach DX7 implementierte EMBM/BM-Effekte sind die da verglichen bzw. gezeigt wurden, aber natürlich kann ich mich da auch irren... (man müsste wohl ebenfalls ATI dazu konsultieren ;-)
Wie heißt's noch so schön ?
"Nichts genaues weiß man nicht !"
;-)
Bis denne
Razor
Frank
2002-01-10, 00:04:14
*vorbeired*
na ich meinte jetzt EMBM
Haarmann
2002-01-10, 11:11:15
Tja Razor,
Genau das meinte ich mal, als ich sagte ein "DX8(.1)" Game, welches auch mit DX7 ned schlechter aussieht ;-).
Denke ich da an die Triviale EBM Vorführung im 3dmurks2001, so kann ich mir vorstellen, dass mit der Nutzung dieses Effektes beeindruckende Grafik möglich wäre - das Feature selbst würde ich wiederum als nicht gerade neu bezeichnen ...
Leider wars schlecht verbreitet und wusde somit kaum genutzt.
Na ja, es wurde immerhin öfter genutzt als Dot3 ;)
Razor
2002-01-10, 23:25:03
Hey Haarmann und HOT,
in fast JEDEM Tech-Demo wird Dot3 verwendet...
(und in 'nen paar Games)
;-)
Aber Tatsache ist tatsächlich, daß heute nicht mal die in DX7 verfügbaren Effekte voll genutzt werden, was natürlich auch an der Hardware-Gebundenheit liegen mag (welche ja teilweise nicht via Software emuliert werden können). Na ja, vielleicht sieht das dann mit den PS anders aus... es sei denn irgendein Entwickler kommt tatsächlich auf die Idee, ATI's PS1.4 zu nutzen, dann haben wir wieder den Salat !
Nich falsch verstehen, die PS1.4 sind sicher 'ne gute Sache (abgesehen von der PS1.1-EMU) !
Aber für die Entwickler ist's doppelte Arbeit...
Na ja, wir werden sehen.
Vor allem, wenn bald 'echte' DX7-Games kommen, die dann noch ein 'bischen' DX8 dabei haben...
In diesem Sinne
Razor
MadManniMan
2002-01-10, 23:34:06
ich will endlich mal ein spiel mit dot3, embm und shadowbuffers sehen!
nggalai
2002-01-11, 08:29:37
Gleich drei Wünsche auf einmal? na, das geht nun aber wirklich nicht. :D
OK, einige Beispiele:
dot3 : Giants, Sacrifice
embm : CMR2, AvP2, RtCW (jeweils nur für Reflektionen verwendet)
shadowbuffers : n/a
ta,
.rb
Haarmann
2002-01-11, 10:29:12
Kein Wunder sah ich noch nie Dot3 BM ;-)
Weder Giants noch Sacrifice waren mir je ne Installation wert... Da spiele ich vorher Ballerburg!
nggalai
2002-01-11, 11:28:46
Korrektur / Hinweis:
embm : CMR2, AvP2, RtCW (jeweils nur für Reflektionen verwendet)Ich bin mir ned sicher, ob RtCW EMBM verwendet, um die Reflektionen zu simulieren. Falls EMBM verwendet wird, dann sollte z.B. auf GF2-Karten keine Chrom-Reflektionen zu sehen sein. Ich kann das leider ned nachprüfen.
Ähnliches gilt für AvP2 und allgemein LithTech-Engine-Spiele. Da wird IIRC zwar EMBM verwendet, aber ob bei Karten ohne EMBM-Support nicht auf was anderes umgeschaltet wird? ???
ta,
.rb
syronth
2002-01-11, 20:27:50
> Ich bin mir ned sicher, ob RtCW EMBM verwendet, um die Reflektionen zu simulieren.
Die spiegelden Flächen in RTCW sind nur 'Reflectionmaps", mir fehlt der richtige Begriff dafür. Aber derartige "Maps" waren schon in Q3A zu sehen. EBEM ist's jedenfalls ganz sicher nicht.
nggalai
2002-01-11, 20:35:34
Hi syronth,
danke für's Feed-back. :)
Frage an die Q3A-Mapper und Mod-Programmierer: welche Form des Bump-Mappings unterstützt Q3A eigentlich? Ich würde wegen der nähe zur NV-Hardware auf DOT3 tippen, aber weiss da wer mehr drüber?
ta,
.rb
Edit: Tippfehle.rb
Originally posted by nggalai
Hi syronth,
danke für's Feed-back. :)
Frage an die Q3A-Mapper und Mod-Programmierer: welche Form des Bump-Mappings unterstützt Q3A eigentlich? Ich würde wegen der nähe zur NV-Hardware auf DOT3 tippen, aber weiss da wer mehr drüber?
ta,
.rb
Edit: Tippfehle.rb
Selber nachgucken :)
www.demoshowcreator.com/files/golk-20010919.rar
Das Opensource-Projekt Golk, das inzwischen tot ist. Enthält Q3A (-artige) OpenGL-Routinen. Id Software hat Ingmar Stein, dem Projekt-Kopf, jedenfalls immer wieder Schwierigkeiten gemacht, weil der source dem Original zu ähnlich sei.
Das file bleibt heute abend aufm server, danach schmeiss ich's wieder runter.
nggalai
2002-01-11, 22:08:08
Hi RAL,
danke fürs Archiv, aber ich habe Probleme, da was zu finden. Könntest Du mir auf die Sprünge helfen?
Das hier ist noch interessant, wenn auch sehr alt: http://www.bigpanda.com/trinity/article1.html
Scheint so, als ob Bump-Mapping in der Q3 Engine was "eigenes" ist, i.e. weder DOT3 noch EMBM noch was ähnliches. Wäre echt um mehr Info froh, wenn hier wer was darüber weiss.
Auch lustig ist diese JC-Quote hier, über welche ich beim Stöbern stolperte (geht um die G400):"Bump mapping". This, along with some of the other texture combiner modes, would need an extension to expose. I would not call it a high priority. Its not as usefull as it sounds.(http://www.bluesnews.com/cgi-bin/board.pl?action=postmessage&boardid=1&id=0&threadid=2947)
ta,
-Sascha.rb
nggalai
2002-01-11, 22:14:46
Hi there,
also, auf der Matrox-Liste der EMBM-Unterstützenden Applikationen erscheint zwar die Lithtech Engine, jedoch nicht die Q3-Engine:
http://www.matrox.com/mga/3d_gaming/enhanced.cfm
Als Abfallprodukt hab ich noch das gefunden:
http://www.matrox.com/mga/3d_gaming/enhanced_games/serious_sam2.cfm
Serious Sam unterstützt Dual Head . . . was wohl in Anbetracht des Multiplayer-an-einem-Computer hier sogar was bringen kann. :)
OK, das ist jetzt aber endgültig genug OT. Hier sollen ja eigentlich NV-Jünger beschimpft werden, nicht? ;)
tata,
.rb
Razor
2002-01-12, 00:44:30
Also...
Wer sich mal 'nen hübschen Artikel über "Es werde plastisch !" rein ziehen möchte, dem empfehle ich einen Blick in die grandiose Artikel-Sammlung von www.3dconcept.ch...
Die 'alten' 3DConceptianer werdens nicht brauchen, also hier dann noch mal für die 'uneingeweihten':
http://www.3dconcept.ch/artikel/bump/index.html
Wirklich lesenswert und sehr gut verständlich, allerdings schon ein bischen älter (da gab's noch gar keine DOT3-Unterstüzung in Games ;-). Aber der Artikel zeigt ziemlich deutlich, daß beides seine Berechtigung hat, die Entwickler aber nur sehr zaghaft an diese Geschichte heran gehen (was leider noch immer der Fall ist).
Bin echt mal gespannt, ob's bald Games geben wird (ev U2 ?), die einen üppigen Gebrauch von so etwas machen, obwohl gerade EMBM ja noch immer nicht soooo weit in Hardware verbreitet ist...
Wei dem auch sei, schaun' wa mal wat kommt, gell ?
;-)
In diesem Sinne
Razor
Und ach ja, nVidianer beschimpfen ist irgendwie in die Hose gegangen, nggalai...
;-)
Originally posted by RAL
Das Opensource-Projekt Golk, das inzwischen tot ist. Enthält Q3A (-artige) OpenGL-Routinen. Id Software hat Ingmar Stein, dem Projekt-Kopf, jedenfalls immer wieder Schwierigkeiten gemacht, weil der source dem Original zu ähnlich sei.
Ach ja, der Ingmar, den kenn ich noch aus der Schule... ich hab jedenfalls nicht verstanden warum er versucht hat, Q3 zu "ersetzen".
Andre
2002-01-12, 02:34:59
Originally posted by Xmas
Ach ja, der Ingmar, den kenn ich noch aus der Schule... ich hab jedenfalls nicht verstanden warum er versucht hat, Q3 zu "ersetzen".
Sag mal, Xmas, ist das bei Euch ne Sippe?
aths kennst Du ausm Studium und Ingmar aus der Schule, hmm.
Originally posted by Andre
Sag mal, Xmas, ist das bei Euch ne Sippe?
aths kennst Du ausm Studium und Ingmar aus der Schule, hmm.
LOL, nee. Ingmar war ne Klasse unter mir, mit dem hatte ich eigentlich kaum was zu tun. Und aths kenne ich genaugenommen nicht "ausm Studium", sondern von Gamesattack (http://www.gamesattack.de) ;)
nggalai: Weiß nicht, mit OpenGL-Programmierung hab ich keine Erfahrungen.
Originally posted by Xmas
Ach ja, der Ingmar, den kenn ich noch aus der Schule... ich hab jedenfalls nicht verstanden warum er versucht hat, Q3 zu "ersetzen".
Ist mir eigentlich auch ein Rätsel, aber als 'bessere Fingerübung' ist das wahrscheinlich nicht so schlecht. Ruf ihn mal an und sag ihm er soll vorbeischaun und unsere Fragen beantworten :)
MadManniMan
2002-01-12, 12:37:30
@nggalai: zu den BMs: die CMR2 Demo hab ich gestern nochmal rausgekramt und ich muß sagen, daß es schon ganz hübsch aussieht, aber hoffentlich nicht in rennspielen seinen höhepunkt ereicht hat...
zu AvP2 und RtCW: das ist stinknormales Environment Mapping, so wie es damals schon final reality bei den mechs und NFS3 für die wagen benutzte
[fu]121Ah
2002-01-14, 13:38:33
ich bin 3dfxler
Unregistered
2002-01-21, 21:16:14
:lol:
Kompliment aths!!
Du hast es doch tatsächlich geschafft alle NVidiots auflaufen zu lassen!!
@NVidiots
Seit ihr wirklich so h***, um auf jede kleinste provokation anzuspringen??
Ist euch euer geliebtes NVidia so heilig??
Ihr seit ja schlimmer als die Manta Fahrer von vor 25 Jahren!!!
Oder hat von euch schon der eine oder andere einen Manta gefahren??
Quasar
2002-01-21, 21:36:40
Also hohl bin ich bestimmt...aber in 'nem Manta hab ich leider noch nicht dringesessen. Schade, aber ich glaube, da würde mir ganz schön einer abgehen, wenn ich mit so'nem breiten, tiefen, lauten Teil durch die Fußgängerzone cruise.
Und wo wäre der Spaß eines Forums, wenn alles immer nur auf: Problem-Lösung hinausliefe? Da könnte man ja gleich 'ne Hotline anrufen, oder das Handbuch selber lesen...
edit:
Mist, jetzt hab' ich doch glatt fast alle Rechtschreibfehler vergessen.
Unregistered
2002-01-23, 16:08:58
Quasar, du hast dich in diesem Thread recht zurückgehalten, daher gehe ich davon aus, daß man dich nicht wirklich als nVidiot bezeichnen kann *eg*.
Außerdem sagt der erste Satz schon alles ;-)
Getreu nach dem Motto 'selbsterkenntnis ist der erste weg zur Besserung'...
Dennoch, dieser Thread ist gut, wenn man ihn so liest, da bekommt man das schrein...
Razor
2002-01-23, 18:37:13
Hallo Unreg. oder sollte ich sagen: Stefan ?
Na wie geht's ?
Hast Dich ja lange nicht blicken lassen !
;-)
Bis denne
Razor
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.