PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Artikel: T&L wertlos ?


Razor
2001-08-19, 10:07:21
Hi Leute !

Schon den neuen Artikel von aths gelesen ?

Fand den Artikel wirklich sehr interessant, trotzdem ist mir daran aber so einiges aufgefallen...
(und 3DCenter wundert sich, daß sie auf der 'schwarzen Liste' nVidia's stehen ;-)

- heutige Spiele nutzen ALLE T&L, auch UT und U9 (wenn auch nicht Hardware)
- Spiele-Entwickler können nicht komplett auf HW T&L setzen, da dies nicht von allen derzeit eingesetzten GraKa's unterstützt wird
- Spiele-Engines können nicht 'vernüftig' auf nicht optimierter Hardware laufen (GLIDE-Games)
- Chip-Specs haben doch überhaupt nichts mit der tatsächlichen Systemleistung zu tun

Das hier ist nur eine kleine Auswahl, sollte aber ausreichen um zu sehen, ob überhaupt interesse an diesem Thema vorhanden ist.

Also, bvor ich mir hier einen Wolf schreibe...

Was meint ihr dazu ?

Lügen Brute-Force-Render-Hersteller ala nVidia und ATI, oder ist an deren Behauptung doch was wahres dran ?

Bin ja mal gespannt !

Razor

Korak
2001-08-19, 10:34:08
Natürlich nutzen heutige Spiele T&L das sieht man ja z.B. an dem 'Dynamic Lightning' aus UT. Aber in dem Artikel ist mit T&L ja uch immer das HW T&L gemeint.

Das verlangt auch keiner. Bestes Beispiel ist, wie ich finde, MDK2. Ist T&L verfügbar wird es genutzt und erzeugt schönere Effekte als Soft T&L. Hat man kein T&L ist das auch nicht schlimm, denn dann wird das einfach 'normal' in Software berechnet.

"Spiele-Engines können nicht 'vernüftig' auf nicht optimierter Hardware laufen."
Was verstehst du unter 'vernünftig'??? Ich finde das einzige Problem was es geben kann sind möglcieh Kompatibiltäts Probleme. Was aber meistens an den Treibern der jeweiligen HW liegt.

Stimmt. :)


Ich finde sie lügen nicht direkt.
Es ist schon 'wahr' was sie sagen. Durch T&L sind schönere Games etc. möglich. Nur das 'WENN' fehlt. Z.B. wenn die Speicherbandbreite hoch genug ist.
Ist also nicht gelogen sondern nur die halbe Wahrheit. ;)

Ceiser Söze
2001-08-19, 12:17:43
Die schöneren Effekte in MDK2 können auch ohne T&L-Unit erreicht werden. Der Treiber kann der Engine nämlich vorgaukeln, der Chip unterstütze Hardware-T&L und dann wird das bessere Lighting einfach auf der CPU berechnet.
Das Ganze funktioniert z.B. mit einer Voodoo5, die eine solche Pseudo-T&L-Funktion im Treiber hat...

Razor
2001-08-19, 12:26:56
@Korak

Nu ja, vielleicht habe ich mich ja nicht korrekt ausgedrückt...

Was wäre denn gewesen, wenn damals T&L nicht so 'gehyped' worden wär ? Hätten wir dann heute Spiele, wie die, von welchen wir so begeistert sind ?

Lediglich die rasante Entwicklung der Prozessoren hat dazu geführt, daß HW T&L heute nicht mehr so relevant ist. Aber war das damals abzusehen ?

Die Entwicklung schlägt heutzutage regelrechte Purzelbäume. Hat man also damals schlicht gelogen, oder wurden die damaligen Aussagen einfach nur durch die immer weiter fortschreitende Entwicklung eingeholt ?

Hmmm...

Mit 'vernünftig' laufen, meine ich z.Bsp. U9, bei dem nicht einzusehen ist, warum es auf nicht-GLIDE Karten so verdammt mies läuft. Auch hat es erst der ernorme Geschwindigkeitszuwachs der CPU/GPU dazu geführt, daß solche Games, wie Unreal oder U2 'vernünftig' laufen...

Ich finde es halt nur merkwürdig, daß immer GLIDE-Engines dazu benutzt werden, um zu zeigen, daß T&L-Karten im Prinzip überflüssig sind...

***

Noch was ganz allgemeines:

HW T&L ist doch wohl der Vorläufer von Vertex-/Pixel-Shadern. Die wiederum sind die Vorläufer der nächsten Generation von Geometrie-Beschleunigern. ATI hat doch im Prinzip nur mit nVidia gleich gezogen, indem sie als zweite Firma dieser Welt, eben DX8-Geometrie implementierten... Was wäre gewesen, wenn man damals bei 3dfx geblieben wäre und nVidia nicht diesen Erfolg am Markt gehabt hätte ?

Ich hoffe, daß der Hintergrund der letzten Frage klar ist. Wie soll in Zukunft eine relaistische Visualisierung erreicht werden, wenn es nicht Firmen wie nVidia geben würde, die das Ganze forcieren ? Und nebenbei damit auch andere dazu zwingen, es ihnen gleich zu tun...

Das sie das nicht nur aus dem Bedürfnis heraus tun, der Menschheit einen Dienst zu erweisen, ist schon klar !

Die lieben Konsolen und auch Spielhallengeräte haben doch gezeigt, daß tatsächlich machbare Qualität doch nur möglich ist, wenn man die Komponenten 'sauber' trennt und eben es nicht einer Komponente (der CPU) zumutet, ALLES zu machen.

Sicher sind heutige (!) CPU's in der Lage mit massiver Geschwindigkeit, vieles zu übernehmen... Aber Effekte wie EMBM oder die Funktionalität von Pixel-Shadern kann eben nicht mehr übernommen werden, weil sie damit völlig überfordert sind...

Hmmm...

Meine ja nur, daß der Artikel etwas einseitig ausgelegt ist und offensichtlich darauf abzielt, nVidia den Wind aus den Segeln zu nehmen. Aber man stelle sich doch vor, wie es mit ATI ausschauen würde, wenn es soetwas wie nVidia nicht geben würde: schlechte Treiber und Industrie-Orientierung !

nVidia ist nach Aussage der Spiele-Entwickler wohl die erste Firma gewesen, die auf die Bedürfnisse eben dieser gehört hat und entsprechend reagierte...

Aber um innovative, damit auch teure Technologie am Markt durch zu setzen ist halt etwas 'Überredungskunst' (i.e. Marketing) notwendig, gell ?

Razor

Razor
2001-08-19, 12:33:56
@Ceiser Söze

Meinst Du denn, daß es für Deine V5 oder andere Karten auch mal eine DX8emu geben wird ?
;-)

HOT
2001-08-19, 13:19:14
Na ja, die Chance, dass die CPU Leistung sich weiterhin jährlich verdoppelt, war doch auch damals schon recht hoch. Das AMD hier diesmal die führende Kraft ist, finde ich interessant, jedenfalls waren die schnellsten CPUs noch nie sogünstig zu erweben. T&L ist aber nicht nur deshalb absolut nicht Notwendig, damit hat der Verfasser des Artikels vollkommen recht. Die Wirkliche Nutzung durch die Spielehersteller ist nämlich trotzdem bis auf wenige (IMHO teilweise gesponsorten) Ausnahmen (Evolva, Giants und Sacrifice sowie MDK2) im grossen und Ganzen ausgeblieben. Aber auch die von mir aufgeführten Games sind wegen den heute verfügbaren CPUs trotzdem auch ohne T&L ohne Qualitätsverlust und 32Bit Farbtiefe genausoschnell wie mit.
Interessant finde ich auch, dass sogar die HT&L optimierten Benchmarks (vor allem 3DMark2000) in 32Bit Farbtiefe und 1024x768 eine nicht-HT&L Karte nicht benachteilen. Wenn man mit einer KyroII (Standarttakt 175MHz) auf einer GHz-CPU die 3DMark2000 in 32Bit Farbtiefe (Software T&L und Doublebuffer) bencht, bekommt man ca 5200 Punkte raus. Eine Geforce2 GTS jedoch bringt mit der gleichen CPU bei der gleichen Konfiguration (nur mit Hardwar T&L) nur ca. 4800 Punkte zustande. Meiner Meinung nach kann man besonders an diesem Beispiel sehen, wie überflüssig T&L im Grunde genommen geworden ist.
Das witzige an der Sache ist nur, dass HT&L nicht nur an seiner Unflexibilität an sich gescheitert ist, sondern an der mangelnden Echt-Fillrate der Geforce Serie. Die 4te PowerVR Generation hingegen könnte erstmals genügend Pixel(!!) Fillrate bieten, um T&L wirklich nutzen zu können. Meiner Meinung nach ist es etwas paradox, dass erst eine (Konkurrenz)-Technik à la TBR hermuss, um T&L in Spielen brauchbar zu machen ;) Mit Bruteforce ist das einfach nicht mehr zu schaffen.
Das einzige, was mich an dem Artikel stört, ist die 3Dfx Parteilichkeit. Zwar bot die V5 als erste Multisämpling, doch leider war das FSAA trotzdem sehr langsam. Das lag nicht nur am VSA100 an sich, sondern auch an seiner Speicherbandbreite. Ausserdem muss man IMHO noch erwähnen, dass 3Dfx zu zurückhaltend mit neuen Technologien war, auch echte AGP Unterstützung wäre nicht falsch gewesen (vor allem bei der V3). Letztendlich war es sowohl die Beschränktheit der Technik als auch das schlechte Marketing, die 3Dfx hat untergehen lassen.
Schade eigentlich.

Kai
2001-08-19, 13:56:10
Auch ein Fehler des Verfassers:

"Alle Geforce-Karten tun sich mit 32bit Farbtiefe noch schwer".

Zumindest die GF3 hat kaum einen erkennbaren Leistungsunterschied von 16/32 bit.

HOT
2001-08-19, 14:59:31
Der Verfasser redete nicht von der 3er sondern nur von 1 und 2. Ausserdem meinte er nicht die nominelle Geschwindigkeit in 32Bit sondern die generelle Leistungsdifferenz zwischen 16 und 32Bit. Da herrscht bei Geforce1/2 natürlich noch ein signifikanter Leistungsunterschied. Bei der 3er wurde dieser Unterschied durch Z-Clear/Kompression sowie intelligenter Speicherlogic weitgehend reduziert - so ging ATi übrigens schon seit dem Radeon vor ;) Z-Clear gibt es übrigens sogar schon seit der Savage3D.

nggalai
2001-08-19, 15:30:44
Hi there,

ich fand den Artikel wirklich noch unterhaltsam zu lesen und hab' als Kyro-User auch einiges gesehen, was von PVR als Marketing Tool verwendet wird (besonders das mit der effektiven Bandbreite). Allerdings ist der Artikel vollgestopft mit kleinen Fehlern und Kurz-Schlüssen, aber grundsätzlich hätte der Artikel recht gehabt--wenn er früher gekommen wäre. Da ist nämlich so eine Sache, zwei eigentlich ...

- Bis Ende 2002 kommen noch einige Spiele raus, die auf der Q3 Engine basieren. Und diese werden deutlich höhere Polygonzahlen aufweisen als es Q3 Team Arena noch tat. Auch proprietäre Spiele Engines wie z.B. Glazier 2 (Hitman 2) werden voll auf DX7 TnL setzen.

und:

- Die Unreal2 engine ist nicht nur komplett auf DX7 TnL optimiert worden (mit über 100,000 Polygonen pro frame), sonder wurde mitlerweile auch schon ein halbes Dutzend Male lizenziert. Deus Ex 2 und Dark Project 3 stechen da besonders ins Auge.

So wie's aussieht, im Moment, wird die Zeit der DX7-style TnL Spiele erst noch kommen. Natürlich wird da eine Kyro-II mit einer starken CPU noch mithalten können, aber die Sachen werden auf einer GTS doch deutlich flotter laufen, auf Durchschnittssystemen. Und bis mehr als eine Handvoll DX8 Spiele im Handel zu finden sein werden, wird's noch sicher ein Jahr dauern.

ta,
.rb

P.S. Hallo übrigens. Erste Post. Yay.rb :)

Thowe
2001-08-19, 15:50:38
Originally posted by nggalai

-
P.S. Hallo übrigens. Erste Post. Yay.rb :)

Zumindest hier =)

Aber bis T&L Pflicht wird haben wir ja unsere Kyro 3 oder 4 ???

nggalai
2001-08-19, 16:04:27
Zumindest hier =)

Aber bis T&L Pflicht wird haben wir ja unsere Kyro 3 oder 4 ???

*winkt* Hi Thowe! Dacht' ich mir's doch, dass Du's bist. :)

Und ja, bis TnL Pflicht wird, gibt's sicherlich auch einen PowerVR Beschleuniger mit TnL. :D

ta,
.rb

HOT
2001-08-19, 16:11:39
@niggalai

RAL
2001-08-19, 16:23:27
Originally posted by nggalai
Allerdings ist der Artikel vollgestopft mit kleinen Fehlern und Kurz-Schlüssen

Dann fang doch mal an aufzuzählen...

HOT
2001-08-19, 16:24:57
du hast da glaub ich was grundsätzlich falsch verstanden: für 100000 Polys pro Frame brauchst du beim besten Willen noch kein T&L. Ein Athlon1000 reicht dafür vollkommen aus. T&L wird keine Pflicht sein. Als die Q3-Engine damals von JC entwickelt wurde, wurde von ihm kein Wert auf T&L gelegt. Das ändert sich auch nicht, wenn man die Q3 Engine für andere Zwecke verwendet; je höher der Polygoncount, desto höher der Detailgrad und Overdraw, desto mehr ist die Fillrate gefordert, was T&L schon wiederum einschränkt. Das hat der Autor versucht uns in seinem Artikel zu sagen. Die U2 Engine ist noch nicht fertig und IMHO wird auch dort DX7 T&L keine Rolle mehr spielen. Es würde die Entwicklung der Engine höchstens einschränken.
Soviel dazu. Seit der Einführung der 3D Grafik haben immer 2 Dinge eine wichtige Rolle gespielt und das wird sich auch in Zukunft nicht so schnell ändern: CPU Power und Fillrate.
Mit der KyroII bist du Ende 2002 immernoch genausogut wenn nicht sogar besser dran als mit einer Geforce2, weil dann die Anforderung an die Fillrate dank erhöhtem Multitexturing (mehr als 3 Lagen) wesentlich höher sein wird als sie jetzt ist. Dann läuft der KyroII vielleicht noch mit 20-30FPS. Für diese Framrate ist die CPU auch noch in der Lage die Polygone schnell genug zu liefern. DX7 T&L ist und bleibt keine Anforderung!!!

nggalai
2001-08-19, 16:54:35
Hi HOT,

du hast da glaub ich was grundsätzlich falsch verstanden: für 100000 Polys pro Frame brauchst du beim besten Willen noch kein T&L. Ein Athlon1000 reicht dafür vollkommen aus.

Ich hab ja auch nix anderes gesagt, oder? Der momentane Spiel-Maschinen Durchschnitt liegt bei einem 600er P-III oder Athlon Classic (nicht "neuer Durchschnitts-PC", sondern was so daheim bei Leuten rumsteht). Der Durchschnittsgamer, und das ist die grösste Zielgruppe, rüstet alle 2-3 Jahre mal auf. Und auf solchen Systemem macht die GTS deutlich mehr her als eine Kyro-II, nicht? Nicht, dass es sinnvoll wäre, eine solche Karte in eine solche Kiste zu stecken, aber für den Dummy-User ist das Graka Update sicherlich einfacher als ein Mobo/CPU Upgrade.

Zu deinem TnL Aussagen: Ack.

Die U2 Engine ist noch nicht fertig und IMHO wird auch dort DX7 T&L keine Rolle mehr spielen. Es würde die Entwicklung der Engine höchstens einschränken.Laut Sweeney wurde die engine auf GF2/Radeon TnL optimiert, und alle Screenshots stammen von GF2 Ultra Rechnern. Aber grundsätzlich hast Du recht: genaueres wissen wir natürlich erst, wenn mal wer einen Test auf der Kyro oder einer Voodoo5 fährt.

Ebenfalls Ack zu deinen Ausführungen GF2 vs/ Kyro. Ich hab' ja auch nicht ohne Grund son Teil im Rechner. :)

DX7 T&L ist und bleibt keine Anforderung!!! Wie schon gesagt, auf schnellen Rechnern sicher nicht. Aber schau dir nur mal Max Payne an: Selbst auf einem 1.4GHz Athlon bricht die Performance ohne TnL um fast 30% ein, in Aussenarealen und komplizierteren Levels (Aesir Tower). Das kann dir auch bei zukünftigen Spielen passieren, overdraw hin oder her. Natürlich geht's auch besser, wie z.B. Serious Sam schön zeigt, aber auch da ist eine GTS auf einem 1GHz deutlich schneller bei den Minimal-Framerates als eine Kyro-II, trotz bedeutend höherer effektiver Bandbreite.

ta,
.rb

Unregistered
2001-08-19, 16:59:51
Ich halte T&L nicht für ein Marketing only Feature. Das Problem war/ist einfach - nicht jede Karte hat es und die DirectX Unterstützung ist nicht gerade toll gelöst. Es ist kein Problem, die Anzahl der Polygone, gerade bei den Computerwesen deutlich zu erhöhen. Doch wenn es nur auf ner GF2 PRO läuft, dann bekommen viele Spielehersteller Ärger mit ihren Distributoren.
Spätestens ab Doom 3 / Unreal 2 wird man sehen, was T&L leisten kann, wenn es richtig eingesetzt wird.

Die Cryotek Engine zeigt auch recht eindrucksvoll, was T&L alles geht. Wer die neue Demo mal ohne laufen läßt (Kyro 1 oder 2), wird schnell sehen das da ein 1000'er Athlon kein Licht am Ende des Tunnels sieht.

Wer schonmal 3D-Studio Max 4.0 (3D Rendering Software, man kann sich ne Demo bestellen) mit ner T&L Karte und ohne probiert hat, der kennt auch Leistungsfähigkeit seiner T&L Einheit.

Übrigens, auf meinem kleinen Duron 1000/(133*7,5) merke ich die T&L Leistung meiner Geforce 2 Pro bei F1RC. Ohne spielt es sich deutlich langsamer.

tb
2001-08-19, 17:04:51
War wohl eben nicht eingeloged.

Noch ein wichtiges Problem - jeder Chip hat einen Vertexcache (z.B. Geforce 16 Vertices). Da kann es zu dramatischen Leistungseinbrüchen kommen, wenn die 3D-Modelle nicht entsprechen in Stripes / Fans aufgeteilt sind. Vielen Entwicklern war das am Anfang nicht klar, deshalb haben auch einige NVIDIA Demos hohe Polygondurchsätze und manche DX7 Spiele eben nicht. Die T&L Einheit nimmt auch Bandbreite weg!!!, wenn es also mit der Füllrate eng wird, dann stört alles, was auch noch Bandbreite zieht.

nggalai
2001-08-19, 17:12:21
Dann fang doch mal an aufzuzählen...*lacht* ja, sicher. Damit hier wieder ein Grabenkrieg ausbricht. :) Zum Entschärfen meiner Aussage: "vollgestopft" war zu krass, ist mir bewusst. Auch hätte ich statt "Fehler" eher "Allgemeinweisheiten" oder "Nullaussagen" sagen sollen.

Mir ist auch klar, dass ihr mit dem Artikel nicht TnL Anno 1998 runtermachen wollt, sondern dass einige Reviewer und, well, nVidioten immernoch behaupten, dass fehlendes DX7 TnL ein Manko sei--und dass ihr auf diesen Blödsinn mal Aufmerksam machen wollt. Dazu kann ich nur sagen: gut gemacht!

Wie schon gesagt, grundsätzlich finde ich den Artikel gut (und ich war noch nie ein Fan von DX7-style TnL), und ich will hier echt keinen Streit anfangen. Hier daher nur einige dieser Kleinigkeiten, die mich stärker gestört haben:

Seite 1: eine MX200 mit einer V4 vergleichen und dann zum Schluss kommen, dass die Bandbreite relevanter ist als die TnL Einheit ... aua. Ich kann mich ausserdem nicht daran erinnern, dass irgendwer jemals behauptete, dass TnL Support wichtiger als Bandbreite ist.

Seite 2: Hier kommt ihr mit einem Athlon 1.2GHz hervor, obwohl der zur Zeit, als nVidia TnL einführte noch in weiter, weiter Ferne stand. Für eine Grundsatzdiskussion über Marketingaussagen einer Firma ist dies ein unbrauchbarer Ansatz. Da hättet ihr klarer machen sollen, was der Artikel soll.

Seite 3: das sind keine Fantasie-Zahlen. Die TnL Einheit kann das sehr wohl, wird aber von der eingeschränkten Bandbreite zurückgehalten. Wenn wer solche Marketingaussagen ernst nimmt, kann ihm eh nicht geholfen werden. Einer Grafikkarten Firma vorzuwerfen, die technischen/theoretischen Specs zu veröffentlichen ist allerdings nicht sehr cool.

Seite 4: Wieso ist Messiahs Charakter / CPU LOD Modell ein Argument gegen TnL? Der Rest wird ja von der TnL Engine erledigt. Da macht es doch nur sinn, wenn man das LOD Modell auf der CPU laufen lässt (ist schon fast Mehrprozessor-Rendering ;) ).

Gleiche Seite: "Wäre es wirklich so nützlich, wie angepriesen, müsste es längst viele Titel geben, die mit T&L dank mehr Polygonen (oder raffinierteren Beleuchtungen) viel besser aussehen als ohne." Das Problem ist die gemeinsame Hardware Basis, resp. der kleinste gemeinsame Nenner. Eure Aussage ist so ganz einfach falsch und unlogisch.
Dasselbe gilt eigentlich für den Rest des Absatzes. Schlussfolgerungen aufgrund der vorgefassten Meinung.

Nur noch ein letztes Beispiel: Ultima9 ... da musste ich doch herzhaft lachen, dass ihr ausgerechnet ein Glide-Spiel nehmt um wieder zu zeigen, wass eh allen klar ist: dass Bandbreite bei Spielen ohne TnL Unterstützung wichtiger ist als dieses Feature. Eure Schlussfolgerung: Die V5 ist dank der grösseren Bandbreite der GTS überlegen, was leider so auch nicht stimmt. Schonmal daran gedacht, dass der DirectX port der Engine als der schlechteste aller Zeiten gilt? Und dass da wohl eine V5 immernoch Treiber- und Engine-mässige Vorteile auzeigen wird?

Wie auch immer: no offense, feel free to comment, but don't expect me to reply in turn. As I've said, I don't want a hen fight.

tata,
.rb

RAL
2001-08-19, 17:45:05
@nggalai

Na also, es geht doch, thx ..:-)

Ich will keinen Glaubenskrieg anzetteln, es ging mir nur darum zu verstehen, wo denn die vielen Fehler sein sollen. Es ist nämlich so: Einfach nur zu sagen, der Artikel stecke voller Fehler und das dann nicht zu begründen, liest sich in etwa folgendermassen für mich:
"Der ist so schlecht, daß ich mich nicht mal dazu herablassen muss, das überhaupt zu begründen".
Den Eindruck hatte ich gestern beim Lesen des Artikels nämlich nicht.

Razor
2001-08-19, 18:58:36
Hi nochmal,

na so hört sich das Ganze doch schon wesentlich besser an !

Wenn ich noch mal kurz zusammen fassen darf:

1) bei dem heutigen Spieler-Mainstream macht HW T&L sehr wohl sinn, wenn auch das Bandbreitenproblem noch lange nicht als gelöst erscheint (erste Ansätze bei SGI-Renderern bei gf3 und Radeon8500)

2) die 'Simulation' von T&L setzt eine sehr potente CPU voraus, welche in der Lage ist, diesen Mehraufwand an Arbeit auch zu erledigen und selbst dann kann sie nur bedingt eine kontinuierliche Leistung zeigen (siehe MaxPyne)

3) das Thema Bandbreite muß als nächstes angegangen werden, was ja auch tatsächlich schon passiert. So versucht man doch gerade auf Systembasis dieses Problem anzugehen, indem man den eigentlichen Bottelnek, nämlich die Systemplattform, das Mainboard und den benutzten Speicher entsprechend auszulegen

***

Wie nggalai schon schrieb, sind HW T&L Spiele gerade jetzt (!) erst auf dem Vormarsch. Auch MaxPayne hat schon gezeigt, daß man auf HW T&L überwiegend verzichten kann, aber nur überwiegend. Was nützt es einem, wenn das Spiel eigentlich flüssig zu spielen ist, wenn in best. Scenen dann die Performance ins unspielbare abdriftet ?

Sicher ist MaxPayne nun kein Grund, sich jetzt eine HW T&L-Karte zuzulegen. Wer aber ein wenig in die Zukunft schaut, wird nicht darauf verzichten können. Zumal ja selbst der eingeschworene nicht-HW T&L'er ImgTech bei der nächsten GraKa-Generation wohl nicht darauf verzichten wird (was ich jetzt einfach mal als Fakt annehme !)...

Und klar, wer dafür sorgt, daß in seinem PC immer die schnellste CPU werkelt, die verfügbar ist, wird wohl auch noch weiterhin mit einer V5 oder einer KyroII auskommen. Auch steht fest, daß gerade die KyroII wesentlich weniger verschwenderisch mit der verfügbaren Bandbreite umgeht, als es die anderen tun.

Aber genau das ist es, was ich mit einseitiger Auslegung des Artikels meine. Würden diese Info's, wie sie jetzt in diesem Thread genannt wurden, Bestandteil dessen gewesen sein, hätte ich Beifall geklatscht. So ist bei mir nur ein:

"Klar, aber ..."

heraus gekommen.

Auf jeden Fall hat mir sehr gefallen, daß die Leute hier doch lange nicht so 'einseitig' denken, wie es in manchen anderen Foren der Fall ist. Weiter so !!!

@HOT

Über den Wert oder besser Unwert von Benchmarks ala 3DMark2000 oder 3DMark2001 brauchen wir uns wirklich nicht mehr zu unterhalten... sicher liefern sie einige gute Teilwerte, das gesamtergebnis aber miteinander zu vergleichen ist glatter Unsinn !

Und das Thema Bandbreite wird man zukünftig sicher noch stärker berücksichtigen, als es ohnehin schon getan wurde (Redeon8500/gf3).

@nggalai

Endlich mal jemand mit Durchblick !

Auch hast Du Dir offensichtlich mit entsprechendem Hintergrund eine KyroII zugelegt. Genau das ist der Grund, warum ich diese Schwarz/Weiss-Seherei so hasse, denn es gibt kein Non-Plus-Ultra, sondern immer nur Produkte mit Stärken und Schwächen...

Weiter so !

@tb

Die Cryotec-Engine ist wirklich beeindruckend, gell ?
Schade nur, daß es wohl noch ein wenig dauern wird, bis Spiele auf solch einer Basis erscheinen werden...

***

Also Leute, bis bald !

Razor

Unregistered
2001-08-19, 19:04:47
T&L ist kein Marketing Feature.
Und wenn es fehlt IST es ein Manko.

Dass es bisher nicht so umfangreich eingesetzt wurde liegt daran, dass es erstens immer noch eine relativ neue Technologie darstellt (Entwicklungszeit Spiele im Durchschnitt 2-3 Jahre) und mit DX7 nicht wirklich sinnvoll (nachträglich) integriert werden konnte.

Wenn man die Prozessoren, die zur Zeit aktuell waren, als die GeForce rauskam mit OpenGL Spielen (Q3) bencht sieht man sofort, dass T&L durchaus einen Vorteil im Bereich von 20-30% bringen kann - das hängt natürlich von einigen Faktoren ab.

Doom3 wird nicht ohne T&L lauffähig sein.

Unregistered
2001-08-19, 19:10:35
... der Vollständigkeit halber.

Thowe
2001-08-19, 19:13:55
Erst einloggen dann posten, im Reply funkt es leider nicht.

Steel
2001-08-19, 19:16:12
Ich habs grade rausgefunden... :D

StefanV
2001-08-19, 19:22:54
Originally posted by Thowe
Erst einloggen dann posten, im Reply funkt es leider nicht.

Zumindest nicht bei dieser Version von vBulletin...

Matrix316
2001-08-19, 19:44:38
Ich finds immer lustig wenn bei der Kyro explizit hingewiesen wird, dass diese in 16 Bit wesentlich schöner aussieht als eine GF.

Jedoch wird nie (ob absichtlich oder nicht) beachtet, dass diese intern nur 32 Bit berechnet.

Wenn ein Spiel in 32 Bit auf einer GF nicht mehr spielbar ist, schaltet man auf 16 Bit und das Spiel wird schneller.

Wenn bei einer Kyro in 32 Bit das Spiel nicht mehr spielbar ist, wird es beim runterschalten auf 16 Bit auch nicht viel besser.

Jedenfalls in der Theorie.;)

Unregistered
2001-08-19, 20:09:23
imho beruht Unreal 2 auf Direct x 8 T&l und nicht auf 7. Nur so nebenbei.....
ansonsten zeig mir mal wie alt der artiekl denn ist :)

Unregistered
2001-08-19, 20:36:15
An alle die sagen der Artikel sei schlecht!! Habt ihr ihn auch genau und vollständig gelesen??
Anscheinend nicht!!
HW T&L wurde und wird einfach nicht gebraucht!! Da steht auch das es schon wieder rückläufig wird!!
Und es ging auch darum, das "laut nvidia" die Bildqualität gesteigert wird und?? hat Q3 auf einer Geforce mehr Polygone als auf einer Karte ohne HW T&L?? NEIN!! Aber sieht Q3 mit FSAA besser aus?? JA!!
Also, wer hat hier nun mehr für die Bildqualität getan, 3dfx oder nvidia (argh, immer dieses verkackte "nvidia" schreiben)!!
---------------
Hätte ich den Artikel mit den Augen eines "nvidia" (argh)-Fans gelesen, würde ich vieleicht anders schreiben, aber was ich geschrieben habe ist nun mal so!!
Trozdem würde ich mir belogen und verarscht vorkommen!!

cya

Unregistered
2001-08-19, 20:46:23
Und noch was!! Was sind schon 20%-30% schneller?? Das macht vieleicht 10-15 Frames aus (je nachdem wie hoch der Wert der nicht HW T&L-Karte ist)!! Also wenn die V5 60 FPS schaft, dan hab ich mit Gforce mit 20% schneller glatte 12 FPS mehr, WOW, LOL!! Und wenn ich dies wie auch im Artikel mit meinem Prozi ausgleichen kann ist es doch nicht relevant, das HW T&L!! Oder??

cya

Kai
2001-08-19, 21:33:04
Originally posted by Unregistered
imho beruht Unreal 2 auf Direct x 8 T&l und nicht auf 7. Nur so nebenbei.....


Richtig ... Unreal2 wird T&L vollends unterstützen. Wie auch immer man das interpretieren mag.

Steel
2001-08-19, 22:17:50
>>>An alle die sagen der Artikel sei schlecht!! Habt ihr ihn auch genau und vollständig gelesen??
Anscheinend nicht!!

Ich schon.

>>>HW T&L wurde und wird einfach nicht gebraucht!! Da steht auch das es schon wieder rückläufig wird!!

Ja, das steht da und es ist falsch. Der Trend geht in Richtung HW T&L.

>>Und es ging auch darum, das "laut nvidia" die Bildqualität gesteigert wird und?? hat Q3 auf einer Geforce mehr Polygone als auf einer Karte ohne HW T&L?? NEIN!! Aber sieht Q3 mit FSAA besser aus?? JA!!

Wenn ich in Q3 die High Polygon Details einschalte schon. Es geht nicht auch darum was schöner aussieht, sondern ob T&L in Hardware sinvoll ist oder nicht.
Ausserdem ist Q3 mit FSAA erheblich langsamer als ohne...

>>>Also, wer hat hier nun mehr für die Bildqualität getan, 3dfx oder nvidia (argh, immer dieses verkackte "nvidia" schreiben)!!

Ich kann mich daran erinnern, dass es nVidia war die die ersten brauchbaren 32-Bit Karten gebaut haben und nicht 3dfx.
Spielt in diesem Fall auch keine Rolle.

-------------------

Zum Thema wie viel schneller kann HW T&L:
Es kann um ein _vielfaches_ schneller sein als SW T&L.
Die Werte 20-30% hatte ich aus einem Q3-Bechmark der ca. 20 verschiedene Systeme (ab Celeron 300) getestet hatte - einzelne Systeme hatten mehr als 50% Leistungszuwachs...
Aber im _Durchschnitt_ war es halt nicht so viel.
Ausserdem hat sich seit dem März 2000 einiges getan was T&L in nVidia Karten angeht.

--------------------

>>>Hätte ich den Artikel mit den Augen eines "nvidia" (argh)-Fans gelesen, würde ich vieleicht anders schreiben, aber was ich geschrieben habe ist nun mal so!!
Trozdem würde ich mir belogen und verarscht vorkommen!!

Es ist mir sch**ssegal von wem die Grafikkarte ist, die in meinem Rechner steckt - aber ich muss kotzen wenn ich andauernd irgendwelche Blabla-Flames lesen...

Übrigens könnte die Radeon 2 eine grosse Zukunft vor sich haben wenn ATI es einmal schaffen würde gute Treiber rauszubringen - und auch mal bitte für Win2k...

mit freundlichen Gruessen

StefanV
2001-08-19, 22:33:55
@Steel

Die erste brauchbare 32bit karte war NICHT die TNT!!!

Es war die Matrox G200!!!

Sieh dir mal die alten Benches an!!!

Der 32bit Modus von nVidia scheint mir da wie 'in letzter Minute angebastelt'...

Und HW T&L ist in der Tat zu unflexibel...

Unregistered
2001-08-19, 22:45:00
Was nutzt mir 32Bit Rendern, wenn die Performance in arsch geht?? Nichts, also wozu entwickeln??
Man konnte es zumindest nicht verwenden, also ist es nicht schlimm wenn ich es nicht auswählen konnte!!

Der Artikel ging auch um die Bildqualität durch HW T&L!! Und ich kann auch bei meiner V5 in Q3 die Qualität auf high stellen!!

Matrix316
2001-08-19, 23:38:27
Originally posted by Unregistered
Was nutzt mir 32Bit Rendern, wenn die Performance in arsch geht?? Nichts, also wozu entwickeln??
Man konnte es zumindest nicht verwenden, also ist es nicht schlimm wenn ich es nicht auswählen konnte!!

Der Artikel ging auch um die Bildqualität durch HW T&L!! Und ich kann auch bei meiner V5 in Q3 die Qualität auf high stellen!!

Was nutzt mir FSAA wenn die Performance in arsch geht? NIX! GARNIX!

Selbst in 32 Bit und 1024er Auflösung und allen Details hab ich in Q3 noch sehr flüssige FPS mit GF2PRO.

Selbst in der 1280er Auflösung ist Quake3 noch spielbar. Wozu noch FSAA?

nggalai
2001-08-20, 00:33:48
Hi there,

zu

imho beruht Unreal 2 auf Direct x 8 T&l und nicht auf 7. Nur so nebenbei.....
ansonsten zeig mir mal wie alt der artiekl denn ist

und Kais

Richtig ... Unreal2 wird T&L vollends unterstützen. Wie auch immer man das interpretieren mag.

hab ich mal 5 Minuten mit Google gesucht (da ich dooferweise nur die Sweeney und Verdu Quotes, jedoch nicht die Quellen notiert hab. :( ). Gefunden hab' ich unter anderem folgendes ...

Interview mit Mike Verdu (producer und game designer, Legend) vom 23.Juni 2001:
http://www.gameplex.ch/index.asp

Q: "Is the engine optimized for a Geforce 3 or will, for example, a Geforce 2 suffice?"

A: "The game should be playable on a medium range machine with any hardware accelerator card that supports T&L. For example, the game should run on a Pentium III-500 with a GeForce 1 card. Of course, people with high end machines and GeForce 3 cards will see lots of cool new stuff because we will take advantage of the new hardware - but all the screen shots that have been released to date were taken on machines with GeForce 1 or 2 cards." [Meine Emphasis]

und nochn

Interview mit Mike Verdu, vom 17. August 2001:
http://actionvault.ign.com/features/interviews/unreal2_a.shtml

"We're currently developing towards a PIII-500 with any hardware accelerator card that supports T&L (e.g. GeForce I, 2, 3, ATI Radeon, etc.). The game will look fantastic on a high end system, but should be playable on a good mid-range machine. We are still evaluating how to support lower end systems with TNT2 and Voodoo3/4 class cards... Infogrames will make a final determination later this year."

Das klingt für mich nicht gerade nach voller DX8 Optimierung, besonders nicht wenn man bedenkt, dass ALLE Screenshots (auch die von Epic) von GF1/2 stammen ... aus den Interviews und den (wenigen) Tim Sweeney Statements wir recht schnell klar, dass die Engine für DX7-style TnL und Pixel Shader optimiert wird, mit fall-backs auf "altes" EMBM, falls keine DX8 Karte da ist. Von Vertex Shadern wird nirgens auch nur ein Wort erwähnt.

Das Spiel soll übrigens im Frühjahr 2002 rauskommen, die Engine ist bereits finalised und wird "nur" noch upgedated.

ta,
.rb

Unregistered
2001-08-20, 10:29:23
@ Matrix..
Wo geht denn bei einer Geforce3 mit FSAA die Performance in den arsch?? Und mit einer V5 ist 2xFSAA problemlos spielbar, in jedem Spiel!!

Unregistered
2001-08-20, 10:32:47
@ Matrix...
Ausserdem behebt ne hohe Auflösung kein Pixelflimmern und Wabbern der Kanten!! Bei FSAA ist das alles weg!! Und was ist denn sehr flüssig bei dir?? 20 FPS?? Und FSAA verbessert die Bilqualität in jedem Fall!!

Unregistered
2001-08-20, 10:48:07
Hab wohl den ARtikel ned richtig gelesen aber imho bezog der sich rein auf DX 7 T&L und das ist nutzlos. DX 8 T&L wird uns wohl wirklich das bringen was uns schon bei DX 7 T&L versprochen wurde...

ow
2001-08-20, 11:18:42
Originally posted by Stefan Payne
@Steel

Die erste brauchbare 32bit karte war NICHT die TNT!!!

Es war die Matrox G200!!!

Sieh dir mal die alten Benches an!!!

Der 32bit Modus von nVidia scheint mir da wie 'in letzter Minute angebastelt'...

Und HW T&L ist in der Tat zu unflexibel...


LOL. Ich spiele ALLES auf 32Bit mit der TNT. Da brauch ich keine Benches anzuschauen.

Voodoo3Killer
2001-08-20, 11:27:33
Hi Razor, (kann nur der vom 3dconcept Forum sein ;))

allllso...

Du "bemängeltst", dass der Autor des Artikels ein Spiel, Ultima 9, verwendet hat um zu zeigen, dass TnL nicht notwendig ist, aber du machst es auch nicht anders, von dir hört man nur Max Payne, Max Payne, Max Payne...


>>>Ich finde es halt nur merkwürdig, daß immer GLIDE-Engines dazu benutzt werden, um zu zeigen, daß T&L-Karten im Prinzip überflüssig sind...

Tja, warum nur ??? :D

Aber ich denke wenn ich mit einer Kyro II zocke, brauch ich auch kein TnL, überhole ne GTS (die HW TnL unterstützt!!) ohne Probleme in Games die HW TnL (DX7) benutzen...

Unregistered
2001-08-20, 11:30:12
Originally posted by RAL


Dann fang doch mal an aufzuzählen... Ich auch

So der Verfasser hat wohl Ne kyro oder warum wird verschwiegen das es ganz klar ist das die Performance in 16 und 32 Bit bei dem Chip gleich bleibt. Aber eventuell ist es ihm ja nicht ganz klar.
Naja ganz einfach er Rendert immer in 32 Bit (intern).

Gerade in solch einem Bericht erwarte ich das wirklich die ganze Wahrheit geschrieben wird.
Man kann nicht etwas verurteilen und den Bericht ihm selben still verfassen

Währe das nicht so gewesen hätte er aufklärungswert, so wie er dort verfasst worden ist bleibt es auch nichts anderes als Marketing.

nggalai
2001-08-20, 11:39:39
Aber ich denke wenn ich mit einer Kyro II zocke, brauch ich auch kein TnL, überhole ne GTS (die HW TnL unterstützt!!) ohne Probleme in Games die HW TnL (DX7) benutzen...Kommt ganz aufs Game und die restliche Hardware an. Auf einem 1.4GHz Athlon ist die Kyro selbst in Titeln, in denen sie oft als überlegen dargestellt wird wie z.B. Serious Sam in der minimal-framerate doch unter einer GTS angesiedelt, bei 1024x768x32. Ähnliches gilt für BnW, Sacrifice, und eben auch Max Payne (da sogar deutlich). Die Kyro ist bei UT Titeln wirklich sauschnell, was ich cool finde (Duke Nukem Forever, yay), allerdings unterstützen die ja auch kein TnL und profitieren ziemlich stark vom HSR der Kyro.

Die Kyro bricht auch deutlich weniger ein bei hohen Auflösungen als eine GTS/Pro, und wir können in Zukunft wohl auch auf ein mehr an Performance freuen, wenn mehr Engines singlepass multi-texturing sauber unterstützen werden. (Wink mitm Zaunpfahl an Remedy.)

Und im übrigen muss ich auch sagen, dass ich U9 als Benchmark nie eingesehen habe. Es gibt genau ein Spiel mit der Engine, und die gilt als die schlechtest-portierte D3D engine aller Zeiten. Wenn man dann auch noch ausgerechnet U9 zum Vergleichen von V5 mit anderen Karten heranzieht, dann wird's schon fast unseriös, besonders wenn man andererseits rummotzt, dass Tester immer nur nVidia-optimierte Benchmarks verwenden. (Die U9-Engine ist, auch wenn man D3D laufen lässt, immernoch auf die Voodoo-Eigenheiten optimiert, was texture management, code basis u.a. anbelangt.)

ta,
.rb

Legolas
2001-08-20, 12:21:06
Zu U9:

Es ist zwar auf die Voodoos optimert, aber warum schneiden NVidiaKarten da im Vergleich zu den Radeons und Kyros so schlecht ab. Auf die ist es ja nicht optimert.

Voodoo3Killer
2001-08-20, 13:55:58
Originally posted by Unregistered
So der Verfasser hat wohl Ne kyro oder warum wird verschwiegen das es ganz klar ist das die Performance in 16 und 32 Bit bei dem Chip gleich bleibt. Aber eventuell ist es ihm ja nicht ganz klar.
Naja ganz einfach er Rendert immer in 32 Bit (intern).


Das ist ein Vor- und ein Nachteil...

Tja, ich in meinem Fall spiele eh nur in 32-bit, ok ich hab ne Kyro, aber das hab ich mit meiner MX auch schon gemacht, denn 32-bit schaut einfach besser aus...

...aber da sind wir wieder beim alten Streitpunkt 32bit vs. 16bit... :)

ow
2001-08-20, 14:34:15
Originally posted by Voodoo3Killer


Das ist ein Vor- und ein Nachteil...

Tja, ich in meinem Fall spiele eh nur in 32-bit, ok ich hab ne Kyro, aber das hab ich mit meiner MX auch schon gemacht,


Genau, mach ich mit deiner,.. aeh meiner MX auch:).
Auschliesslich 32Bit. Und zwar in 1024x768. Leistungsverlust gg. 640x480x16 (im Rahmen von Messfehlern) nicht feststellbar.
Aber besonders die T&L Leistung der MX beeindruckt mich immer wieder.

Tigershark
2001-08-20, 14:51:04
Originally posted by ow



Genau, mach ich mit deiner,.. aeh meiner MX auch:).
Auschliesslich 32Bit. Und zwar in 1024x768. Leistungsverlust gg. 640x480x16 (im Rahmen von Messfehlern) nicht feststellbar.
Aber besonders die T&L Leistung der MX beeindruckt mich immer wieder.

Also ow, tut mir ja leid, aber bei einer Speicherbandbreite zwischen 2 - 3 GB/sec. ist die T&L Einheit der MX doch sowieso total überdimensioniert. Ich frage mich, was daran so beeindruckend ist. Vor allem aber frage ich mich, welches Spiel das sein soll, bei dem Du zwischen 64x48x16 und 10x76x32 keinen Unterschied merken willst ?? Spielst du Windows Desktop oder hast Du eine 3 GHZ CPU dass das egal ist ?

Nichts gegen Dich, aber das glaube ich wirklich nicht...

Razor
2001-08-20, 16:36:37
@Voodoo3Killer

Yep !
;-)

Ultima9 ist das beste Beispiel dafür, wie eine GLIDE-Umsetzung auf D3D in die Hose gehen kann... DESWEGEN ist es schlicht für Vergleiche untauglich !

MaxPayne (so oft habe ich es übrigens nicht genannt) ist eine Beispiel für ein sehr modernes Spiel, was ja wohl nicht zuletzt durch seine grandiose Grafik (auch durch das einzigartige Gameplay, aber das gehört jetzt nicht hier hin) gekennzeichnet ist. Es ist meiner Meinung nach ein Beispiel, für das, was da noch kommt... so diesen oder Anfang nächsten Jahres... eben Spiele mit wesentlich höherer T&L Unterstützung (JA, auch HW T&L !) und damit wesentlich höherem Aufwand für die CPU, dieses zu übernehmen...

Tja, und ich mal echt gespannt, ob Du es mit einem PIII500 (Spieler-Mainstream diesen Jahres !) dann auf 'ner KyroII auch noch schaffst, eine gf2 in (HW-) T&L-Games zu schlagen...
;-)

Und noch etwas: 16bit vs. 32bit ist ein alter Hut, schließlich geht die Tendenz ja schon zu 64bit, gell ?

@nggalai

Danke, daß Du das Thema 'minimale Framerate' noch mal ausgeführt hast, so brauchte ich nun nicht mehr darauf eingehen.

Es ist eben nicht alles Schwarz ODER Weiß, sondern immer eine Mischung daraus...

@Legolas

Radeon's und Kyro's haben Mechnismen zum Vermeiden des Overdraws und können somit bei U9 wieder was wett machen... nVidia hat solche Mechanismen erst mit der gf3 eingeführt !

***

Tatsache ist, daß T&L (auch die Unterstützung in Hardware) gerade jetzt so richtig im Kommen ist... Ob es nun der Prozessor übernehmen sollte, oder man so etwas einer GraKa überläßt ist Geschmackssache, überflüssig ist eine Hardware-Unterstützung (DX7/8-Geometrie) auf jeden Fall nicht. Oder warum will zum Beispiel auch ImgTech (neben ATI und nVidia) darauf setzen (oder wollten dies auch schon bei der STG5000, i.e. Anfang 2000, berücksichtigt haben) ?

In diesem Sinne

Razor

Voodoo3Killer
2001-08-20, 16:58:40
Originally posted by Voodoo3Killer


PIII 500 Mainstream?! OK, dann aber auch ne MX 200 oder ne TNT2... :)

Ich meine wir reden ja nicht von Media Markts letzter Schrottkarre, oder?!?!

Voodoo3Killer
2001-08-20, 17:01:29
Hääää??!! Was is da los?!

ow
2001-08-20, 19:40:54
Originally posted by Tigershark


Also ow, tut mir ja leid, aber bei einer Speicherbandbreite zwischen 2 - 3 GB/sec. ist die T&L Einheit der MX doch sowieso total überdimensioniert. Ich frage mich, was daran so beeindruckend ist. Vor allem aber frage ich mich, welches Spiel das sein soll, bei dem Du zwischen 64x48x16 und 10x76x32 keinen Unterschied merken willst ?? Spielst du Windows Desktop oder hast Du eine 3 GHZ CPU dass das egal ist ?

Nichts gegen Dich, aber das glaube ich wirklich nicht...


Deine Interpretation erstaunt mich!
Keine 3GHz!
Ich bin CPU limitiert (K6-2 450), deshalb kein Leistungsabfall bei hohen Auflösungen. Selbst bei 2xAA nimmt die Leistung in hohen Auflösungen nicht wesentlich ab (10-25%).

Q3 6x4x16 high quality: 40fps
Q3 10x7x32 high quality: 37fps


Die T&L Leistung ist sicher nicht überdimensioniert, mit der Bandbreite hat das ohnehin nichts zu tun, weil die T&L-Leistung ein Merkmal des Chips ist (wie die Füllrate übrigens auch).

Ob ich den Speicher mit 32Bit oder 256 Bit Breite anspreche, ändert nichts an der Leistung der T&L bzw. Fillrate.

Das heisst natürlich nicht, dass Grakas mit 32Bit- bzw. 256Bit-Bus identische Leistung bringen!
Denn mit einem 32Bit-Bus bin ich ganz klar Bandbreitenlimitiert, bei breiteren Bussen weniger.


Die theoretische Leistung eines Grafikchips lässt sich sowieso nur mit synthetischen Bechmarks ermitteln (zB. Polygon- bzw. Fillratetest der 3DMarks99-2k1).

In der Praxis liegt der Chip IMMER WEIT UNTER BEIDEN theoretischen Werten.

HOT
2001-08-20, 20:23:17
Wenn jemand behauptet, T&L würde auf einer Pro noch was bringen, dann kan man IMHO darüber streiten. Aber bei einer MX ist T&L nur in absoluten Extremfällen zu spüren! Ich hatte selbst längere Zeit eine drin (Gainward GS) und mit 200/200 auf einem Duron700 laufen. Von T&L hab ich in 32Bit NICHTS gemerkt. Selbst die T&L lastige 3DMark2000 bescheinigt da keine Verbesserung (32Bit!!!). Bei einem K6-2 450 kann ich noch verstehen, dass die MX in T&L Spielen (und nur da!) Vorteile bringt. Aber auf halbwegs aktuellen Prozessoren ist das MX T&L fürn Ar...
Versteht mich nicht falsch - im Grunde genommen ist es Wurscht, ob die Karte T&L hat, die Karte wird nicht schlechter oder besser werden dadurch. Bei wenig Fillratebeanspruchung schleusst das Ding eben ein paar mehr Polygone durch und bei höherer Fillratebeanspruchung bremst T&L eben ein bisschen, weil man sich ja die extra T&L Speicheranbindung verkniffen hat. Wie auch immer, Geforce wurde zwar durch T&L berühmt und ist als sehr schneller Chip bekannt. Das das in erster Linie nicht an T&L sondern an der fetten Fillrateleistung und heftigstem Speicher liegt, ist IMHO eher zweitrangig ;)

Razor
2001-08-20, 20:37:23
@Voodoo3Killer

Natürlich !
;-)

Wer doch mal interessant zu erfahren, wie's damit aussieht !

PIII500 TNT2/MX200 vs. PIII500 KyroI/II

Könnte doch spannend werden, wenn's auch für mich allerdings nur rein informativen Charakter hätte...
;-)

@HOT

Eine MX wird auch bei einem PIII500 noch was bringen. Wer allerdings der Meinung ist, sich zu seinem Athlon 1,4GHz 'ne MX rein' zu tun, dem ist wirklich nicht zu helfen !

Auch solltest Du noch hinzufügen, daß es mehrere Generationen von HW T&L-Implementierungen gibt, nämlich die der gf1, gf2 und eben der gf3 (die trotz 6 monatigem Alter noch fast mit der von ATI mithält)...

So far !

Razor

HOT
2001-08-20, 21:18:16
Zum ersten Punkt muss ich dir rechtgeben, auf einem 500MHz Prozessor kann man bei extremer Polygonauslastung (MDK2 oder 3DMark) noch was merken. Doch schon hier merkt man bei 1024x768x32Bit kaum noch einen Unterschied (Meine olle Gainward MX GS läuft übrigens jetzt auf einem Athlon500 mit MSI 6167 Untersatz :D).
Zu den T&L Generationen hab ich einiges zu sagen: es gibt nur EINE Generation! Die T&L Einheiten der 1er und 2er Serie unterscheiden sich lediglich durch den Takt! Das ganze kann man auch nachweisen: die T&L Leistung einer G1 war 15Mio Poly/sec, MX hatte glaub ich 22, GTS/Pro 25 und die Ultra 31. Der Leistungsabfall bei Lightening war prozentual durchweg gleich. Doch leider merkt man schlicht von der Mehrleistung der T&L Einheiten der "2ten Generation" bei Spielen nichts, da selbst die 15Mio Poly/sec der G1 nicht annähernd ausgenutzt werden ;) :D

Unregistered
2001-08-20, 22:07:12
Originally posted by Razor
@Voodoo3Killer


Eine MX wird auch bei einem PIII500 noch was bringen. Wer allerdings der Meinung ist, sich zu seinem Athlon 1,4GHz 'ne MX rein' zu tun, dem ist wirklich nicht zu helfen !

Razor

hm mein 1 GHZ Athlon läuft mit einer V3 2000 :)

Allerdings kann ich da Max Payne mit High einstellungen auf 640 * 48ß absolut hyperflüssig spielen. Nur sehen die texturen etwas verschwommen aus :) Also ein Grafikunterschied ist schon da aber nicht wirklich gravierend. Vor allem was die Texturen angeht aber wenn die Comics ned so verschwommen wären und ich die Texte lesen könnte würde ich es auf dem PC zoggen. So weiche ich auf den andern aus...

Im Gegenzug spiel ich auf dem anderen PC in 1024* 768 auf nem P 3 850 mit ner Kyro 2. Das allerdings ned immer richtig flüssig läuft. Liegt aber daran da das System eh nicht gerade das schnellste ist und es sowieso ned ganz stabil läuft. Ka warum wird wohl ne neuinstallation geben. Danach hoffe ich dass die Kyro schneller läuft ;)

philcrack
2001-08-20, 22:53:55
ich hab mir auch diesen atikel durchgelesen und muß sagen die nvidia karten haben totz ihrer beschi..... T&l einheit(dieser bericht hat mir überzeugt)ihre qualitäten,aber ihre nonopol darstellung finde ich zum kotzen!
diese preispolitik,und gar schon,wenn nivida einem händler vorschreiben z.b. eine kyro2 karte besser nicht zu verkaufen,da sie dem eigenem unternehmen eher schadet!!!(wegen möglicher umtauschkosten..lach)..nenene.das geht auch mir zu weit.
ich hab gar nicht´s gegen nvidia karten(selber mal eine gehabt.lol)und würde selber auch gerne eine geforce 3 im rechner stecken haben.
hhhhhhhmmmmmmmmmmmmm.......
da sollte nvidia noch einmal überlegen,siehe AMD und Intel.
also ich habe eine kyro2 und bin einigermaßen zufrieden,liegt warscheinlich an der ersten version,denn die macht nicht mal 178 Mhz ohne grafikfehler.

obwohl der 3dmark fast sinnlos ist will ich doch eines wissen?

helft mir,meine 3dmark ergebnisse sind zu langsam!!!

AMD thunderbird 850 Mhz
no name speicher 128 mb 133
enmic irgentwas via kt133
hercules 3d prophet 4500

sowas um die 4871 punkte bei 3dmark2000 (default)
(ich bekomm rund 400-500 punkte mehr bei der akivierung von D3Dsoftware T&L,eigenartig oder nicht,obwohl die karte ja kein T&L unterstützt!!!!)

gruß phil

Wie ja auch in http://www.computerchannel.de/hardwaretest/grafik_video/3d_prophet_4500/3d_prophet_4500_1.phtml

EgonOlsen
2001-08-20, 22:57:28
Die ganze 3D-Beschleuniger-Sache wird sich meiner Ansicht nach früher oder später (eher später...) von selber erledigen. T&L ist nur ein Beispiel, wie sowas gehen kann. Wenn Prozessoren schnell genug sind, die ganze (und ich meine jetzt wirklich die ganze, d.h. komplettes Softwarerendering wie in der guten alten Zeit) Rechenarbeit wieder zu übernehmen, werden 3D-Beschleunigerfunktionen irrelevant. Auch wenn wohl 99.9% aller User hier das für Schwachsinn halten, denke ich, daß er langfristig so kommen wird. Bei anderer Hardware war es nicht anders: Soundkarten, die früher komplett in Hardware ausgeführt waren, sind jetzt z.T. über Treiber emuliert...weil die CPU das leisten kann und es billiger zu produzieren ist. Modems, früher komplett Hardware, gibt es jetzt als Softmodem (etwas Hardware, Rest Software). Netzwerkkarten z.T. analog. Videobeschleunigung...mit schnellen CPUs ist keine Zusatzhardware mehr nötig...usw...usw...
Wenn CPUs schnell genug sind Raytracing und Radiosity wirklich in guter Auflösung in Echtzeit zu berechnen, sind Hardware-Beschleuniger abgemeldet....einfach weil sie keiner mehr braucht.
T&L(Dx7!!) ist ein gutes Beispiel dafür. Als es rauskam, schien es eine gute Idee zu sein, weil die CPUs nicht schnell genug waren. Heute nährt es sich der Bedeutungslosigkeit, weil schnelle CPUs diese Aufgabe übernehmen könnten. Dasselbe wird früher oder später für Dx8 T&L gelten. Der Ablauf ist doch klar: Erst Dx7 T&L...hmmmmm....zu unflexibel, wir brauchen was dynamischeres....also Dx8 T&L.....aber wenn man einen 5GHz Proz hat, macht Dx8 T&L auf einer GF3 nur noch bedingt Sinn....also machen wir auf eine Software/HardWare-Kombinationslösung....(T&L auf Karte, wenn noch sinnvoll, sonst CPU)...und letztendlich landen wir komplett bei der CPU, weil Hardware hier nicht mehr Not tut.
Also auch wenn das hier jetzt etwas Off-Topic war...3D-Beschleuniger werden sterben...ob mit oder ohne T&L.
Und noch was zum Thema:
Ich denke auch, daß Hardware T&L momentan nicht erforderlich ist, aber der Markt will es haben. Also sollte man es als Hersteller liefern. Ich vermisse es bei meiner KyroII nicht, aber schön wäre es trotzdem...einfach als Checkbox-Feature (und endlich höhere Berechnungsgenauigkeit bei Texturen...da mangelt es der Kyro nämlich...).

Andre
2001-08-20, 22:58:50
Originally posted by philcrack
diese preispolitik,und gar schon,wenn nivida einem händler vorschreiben z.b. eine kyro2 karte besser nicht zu verkaufen,da sie dem eigenem unternehmen eher schadet!!!(wegen möglicher umtauschkosten..lach)..nenene.das geht auch mir zu weit.

NV hat niemandem vorgeschrieben, dass er keine Kyro II-Karten verkaufen soll oder wie erklärst Du Dir sonst, dass Hercules, als einer der grössten NV-Karten Hersteller, Kyro-Karten im Angebot hat ?
Das aufgetauchte Dokument auf das Du anspielst, ist nur für den internen Gebrauch gewesen - und so eine Art internes Marketing findest Du in jeder Firma.

Thowe
2001-08-20, 23:07:10
Originally posted by Andre
Das aufgetauchte Dokument auf das Du anspielst, ist nur für den internen Gebrauch gewesen - und so eine Art internes Marketing findest Du in jeder Firma.


Nein, eine anständige Firma würde eine stichhaltige Argumentation verwenden. Das Dukument hat zumindest für mich die Reputation der Marketingabteilung der Firma "NVidia" nachhaltig geschädigt.

Kristof Beetle hatte auch mal geäussert zu kündigen wenn es in seiner Firma ein ähnliches Verhalten geben würde. Was ich auch durchaus glauben kann, aber das ist durchaus anstreitbar.

HOT
2001-08-20, 23:11:55
@EgonOlson
Das kannst du glaub ich vergessen, dass die CPU die Renderaufgaben wieder übernimmt. Die Beschleuniger haben sich in ihrer Technik schon derart von der CPU Technik entfernt, dass Emulationen mittlerweile so gut wie unmöglich geworden sind.
Vielmehr glaub ich, dass zwar Raytracing kommen wird, aber auf separater Hardware! PowerVR beispielsweise bastelt gerüchteweise schon seit geraumer Zeit an solchen Lösungen rum :D
Die CPU hat zuviele andere Aufgaben, als dass sie auch auf lange Sicht die Grafikaufgaben wieder übernehmen könnte - es wäre schlicht ein Rückschritt.

Andre
2001-08-20, 23:14:28
@ Thowe

Wer würde schon zugeben, dass es in der eigenen Firma genauso läuft ?
Das sich hinterher alle von so einer Vorgehensweise distanzieren ist doch klar und würde jeder auch so machen, damit der eigene Ruf erhalten bleibt.
So was nennt man wohl Fehler anderer ausnutzen.

StefanV
2001-08-20, 23:14:34
Originally posted by Andre


NV hat niemandem vorgeschrieben, dass er keine Kyro II-Karten verkaufen soll oder wie erklärst Du Dir sonst, dass Hercules, als einer der grössten NV-Karten Hersteller, Kyro-Karten im Angebot hat ?

Ach, und warum gibt es dann Gerüchte, daß Hercules keine GF3s mehr liefern kann, weil NV keine Chips mehr an Hercules liefert??

Und die anderen Gerüchte, die sagen, daß Herc sich die Chips aus 'anderen' Quellen 'besorgt'??

Bis jetzt hat JEDER Marktführer, den ich kenne versucht mit solchen Mitteln versucht seine Position zu Halten!!

Intel hat es versucht, VIA macht es, und NV auch!

Und die Goldene Regel besagt:
KAUFE NIE VON MARKTFÜHRERN, DIE LIEFERN OFT NUR SCHROTT...

ASUS brauche ich hier nicht zu erwähnen, oder??

EgonOlsen
2001-08-20, 23:19:34
@HOT:

Ich meine auch nicht jetzt, oder in fünf Jahren...aber eben auf lange Sicht. Wir sprechen uns dann :-)
Software-Rendering rulez...siehe meine Webpage...;-)

EgonOlsen
2001-08-20, 23:22:03
@HOT:

Nebenbei bemerkt ist Emulation IMMER möglich. Letztendlich kann Software alles, was Hardware auch kann...nur evtl. nicht so flott. Es ist locker möglich, alle GF3-Features in Software zu emulieren...nur ist es momentan einfach zu langsam...

Legolas
2001-08-20, 23:22:38
Originally posted by Razor


@Legolas

Radeon's und Kyro's haben Mechnismen zum Vermeiden des Overdraws und können somit bei U9 wieder was wett machen... nVidia hat solche Mechanismen erst mit der gf3 eingeführt !



Stimmt nicht ganz. Die Kyro reduziert zwar den dreiecksbasierten Overdraw auf Null, aber die Radeon reduziert den Overdraw kein bisschen, sondern komprimiert den Z-Buffer. Hyper Z hat nichts mit HSR zu tun, soviel ich weiß. Und folgendes Diagramm (aus dem GF3 Test von 3dconcept.ch) sollte ein Beweis dafür sein, daß die Performance in Ultima 9 nicht sooo viel mit HSR (oder eben kein HSR) zu tun hat, weil hier die GF3 noch immer hinter dem Radeon (der ja KEIN HSR hat) liegt.

http://www.3dconcepts.de/reviews/geforce3/ultima9all.gif

Andre
2001-08-20, 23:23:02
Originally posted by Stefan Payne


Ach, und warum gibt es dann Gerüchte, daß Hercules keine GF3s mehr liefern kann, weil NV keine Chips mehr an Hercules liefert??

Und die anderen Gerüchte, die sagen, daß Herc sich die Chips aus 'anderen' Quellen 'besorgt'??

Eben Gerüchte mehr nicht.

Thowe
2001-08-20, 23:28:55
Originally posted by Andre
@ Thowe

Wer würde schon zugeben, dass es in der eigenen Firma genauso läuft ?
Das sich hinterher alle von so einer Vorgehensweise distanzieren ist doch klar und würde jeder auch so machen, damit der eigene Ruf erhalten bleibt.
So was nennt man wohl Fehler anderer ausnutzen.

Ich und einige andere auch die was von Fairplay halten.

Die Vorgehensweise ist nahezu stümperhaft gewesen, sauber Argumentiert hätte das ein wirksames Dokument sein können. Das sieht eher wie "Hilfe Konkurenz" aus und somit nach eine Art Kurzschlussreaktion, vermutlich wegen Hercules die ja bis dahin ein NVidia Zugpfred waren.

philcrack
2001-08-21, 00:30:07
ich will dieses schreiben von nvidia doch nochmal ins forum bringen!
und nicht inoffiziell sondern öffentlich,um es mal so zu sagen.vieleicht haben es nicht alle user im forum gelesen.

nvidia feuert gegen hercules und den kyro2 grafikchip!

kürzlich hat ein offizielles nvidia-dokument im internet die runde gemacht.der titel:"kyro2-was sie wissen sollten"
darin lässt sich nvidia auf zwölf präsentationsreife seiten ordentlich über die technik und performance des kyro2 grafikchips aus.in der nachricht heißt es,vertragspartner hercules habe einen"unbewiesenen ruf",denn die 3d prophet 4500 sei die erste karte aus eigenfabrikation.weiter heißt es:"der kauf einer kyro2 ist ein risiko-und wenn karte und pc wieder zurückkommen,schädigt das nicht nur ihre geldbörse,sondern auch ihr ansehen."der erfolg der geforce2 serie scheint der kalifornischen sunnyboys von nvidia etwas zu kopf gestiegen zu sein.senior PR manager brian burke sagt,dass die präsentation nur zur schulung des verkaufspersonals und nicht für die öffentlichkeit gedacht war.sie sei nur erstellt worden,um eigene produkte besser gegen die konkurrenz positionieren zu können,so burke.das dokument beweist also,dass nvidia angst vor den günstigen chip-konkurrenten hat-zu recht,wie unser test der 3d prophet 4500 beweist.


hab ich wo gelesen in pc-games,keine ahnung welche ausgabe das war.*fg*

mike49
2001-08-21, 03:43:49
Habe grade den MP-Benchmark Mod auf meiner GF2 Pro angetestet. Ergebnis: HW T&L ist ca. 40% schneller.

http://www.3dcenter.de/vbulletin/showthread.php?s=&threadid=3407

aths
2001-08-21, 05:33:20
nggalai: Zu 1: In welchem Review von gängigen PC-Zeitschriften wird näher auf die Bandbreite eingegangen? Dir als Freak ist es klar, die meisten kennen nichtmal das Wort "Speicherbandbreite".

Zu 2: Wieso "ihr", der Artikel stammt von mir, nicht "uns".

Zu 3: Woher soll der *normale* Leser dieses offiziellen PDFs wissen, wie er die Marketing-Angaben du deuten hat? Das nenne ich schlicht Irreführung des Kunden.

Zu 4: Der Artikel *richtet sich nicht ausdrücklich gegen DX7 T&L*. Sondern versucht zu zeigen, dass die Vorteile nur bedingt ziehen und in Zukunft keine wirkliche Rolle mehr spielen.

Der kleinste gemeinsame Nenner ist eine Direct7 compliant T&L-Karte. Übrigens würde eine Voodoo4 dazu zählen, weil der Treiber das emulieren kann. DX7-Spiele laufen bei mir auch mit der Einstellung "D3D Hardware T&L" ohne sich aufzuregen.

Ausserdem: --> Ultima9 trat auch auf der Voodoo unter DirectX 7.0 an, NICHT unter Glide!!!
---
Matrix316 zur Kyro: Es ist mir egal, WIE die Kyro die 16-Bit-Qualität erreicht. Wenn man auf einer GTS in 16 Bit spielen muss, nur wegen der Geschwindigkeit, ist das doch arm, oder nicht? WOZU dann noch das "Speed-Up" mit T&L, wenn man nichtmal in 32 Bit spielen kann, was nVidia mit der TNT also so toll beschrieb?
---
Steel: Der Trend geht in Richtung DX8-T&L, das nicht Thema des Artikels war. Selbst wenn es jetzt mehr Spiele mit DX7-T&L geben wird, ist diese Unterstützung dank der neuen, schnellen CPUs kaum sinnvoll einzusetzen.

"Ich kann mich daran erinnern, dass es nVidia war die die ersten brauchbaren 32-Bit Karten gebaut haben und nicht 3dfx."

Während ich mich erinnere, dass es den 22-Bit-Postfilter für 16-Bit-Grafik nur bei Voodoos gibt.
---
Matrix316:
"Selbst in der 1280er Auflösung ist Quake3 noch spielbar. Wozu noch FSAA?"

1024x768 mit 2x FSAA á la 3dfx sieht BESSER aus, als 1600x1200 ohne FSAA - ausserdem ist erste Variante auch noch schneller.
---
Razor: "@Legolas

Radeon's und Kyro's haben Mechnismen zum Vermeiden des Overdraws und können somit bei U9 wieder was wett machen... nVidia hat solche Mechanismen erst mit der gf3 eingeführt !"

Trotzdem schneidet eine Kyro1 besser als ne Geforce3 ab.

Razor
2001-08-21, 10:00:37
Hi Leute !

@HOT

Die Polygonmenge wird gerade drastisch erhöht !
Wir werden sehen, wie's dann aussieht !
;-)

Und Raytracing ist noch in weiiiiiiiiter ferne...
Allerdings ist man mit den Pixel-Shadern diesem Ziel schon ein winziges bischen näher gekommen...

@philcrack

Du hast von Marketing offensichtlich keine Ahnung. Auch ist es in diesem hart umkämften Markt, der übrigens nicht unter der allgemeinen PC-Flaute gelitten hat, sehr schwierig seine Position zu behalten und ev auch auszubauen. Das ganze nennt sich dann aggresives Marketing, welches man zwar 'unschön' finden kann, der Reputation von nVidia aber keinen Abbruch getan hat. Schließlich ist der Umsatz ja permanent gestiegen...

Jede Firma macht etwas Ähnliches, um die Vertriebsleute zu schulen. Man braucht halt verbale Argumente, um sich von der Konkurrenz abzusetzen. Schon mal in die Werbung geschaut ? Da wird ständig gesagt, daß irgend etwas besser, schöner oder intelligenter ist. Werden die Firmen dafür getadelt ? Hat irgend jemand Intel angeklagt, weil sie sagten, daß mit Ihrem PIII das Internet jetzt erst richtig möglich wird ? Wohl kaum...

@EgonOlsen

Schwachsinn !
(Sorry...)

Aber Dein 5GHz-Prozzi würd' es auch nicht schaffen, so etwas wie Pixel-Shader zu emulieren...

Den Unterschied zwischen Hard- und Software brauch ich Dir doch wohl hoffentlich nicht zu erklären, oder ? Also verzapf hier nicht so einen Dünnsinn ! Denn schließlich ist es ja auch möglich, eine CPU zu emulieren, oder ?

@Andre

Auch herkules versteht sich auf Marketing. So hat man doch als erstes die neue KyroII angepriesen. Dann Gerüchte in die Welt gesetzt, daß sie nicht mehr beliefert werden. Dann die Auslieferung von gf3's gestoppt und jetzt wieder ausgenommen... hat aber leider nicht allzuviel genützt, da die anderen Hersteller fröhlich weiter produziert haben und es immer mehr Hersteller gab, die nun gf3'er produzieren, was selbst Creative und nun auch ABit dazu veranlaßte, die Produktion nun aufzunehmen...

Marketing ist schon was schönes... man sollte sich nicht zuviel davon beeinflussen lassen, gell ?
;-)

@Stefan Payne

Du bist doch tatsächlich einer, der auf all diese Gerüchter herein fällt !

Warum nicht von Marktführern kaufen ?
Ich glaube grundsätzlich keinen 'Versprechungen' und schaue mir lieber Praxis-Tests und Anwender-Erfahrungen an...
(ist das Internet nicht was schönes ?)

Und wenn ein Marktführer was vernünftiges herstellt, na dann ran da...

Ich haber da aber eine andere Regel, die Du wohl seber auch schon aufgestellt hast:

*********************
Kaufe niemals OEM's !
*********************

@Legolas

Was soll mir Dein Schaubild jetzt sagen ?
Ich seh' da, daß es nicht einmal eine maximale Voodoo (V5-5500) schafft, über 32 Frames zu kommen. Damit ist es dann selbst auf einer Voodoo-Karte unspielbar !

U9 ist echt für'n Ar... !

@Thowe

Sag mal, träumst Du ?
Fairplay in der Marktwirschaft bedeutet den sicheren Untergang !

Das uminöse Papier ist für Vertriebler gewesen. Die haben keine Ahnung von der Materie, schließlich sollen die doch nur verkaufen... Hätte man vernünftige Argumente angeführt, wär's von den Vertrieblern nicht mehr verstanden worden...

@aths

Ahhhhh...
Endlich derjenige, um dessen Artikel es hier geht !
Allgemein muß Dir doch schon aufgefallen sein, daß Deine Behauptung offensichtlich nicht auf generelles Verständnis gestoßen ist, oder ? Selbst KyroII-Besitzer konnten Deine Argument nur bedingt nachvollziehen...

Nochmal zu dem Kyro-Papier von nVidia: Dieses war nur für die Vertriebler nVidia's gedacht und NICHT für die Öffentlichkeit ! Wenn nVidia damit seine Vertriebsleute 'verwirrt', dann ist's doch umso besser für die Konkurenz...

Und hör doch bitte endlich mit Ultima9 auf.
Wer dieses tolle Game spielen möchte, der soll sich halt 'ne Voodoo zulegen...
Zeig mit doch bitte nur ein einziges andere Game, was ein ähnliches 'Verhalten' an den Tag legt !

Dein Artikel ist ja nicht nur an der Realität vorbei gegangen. So zeigt er doch unmißverständlich, daß es a) eben ein wenig braucht, bis neue 'Features' genutzt werden (so 2-3 Jahre eben) und b) neue Technologie durchaus dazu in der Lage sein kann, Aussagen, die vor 2-3 Jahren gemacht wurden, zu wiederlegen...

Ist in fast allen Bereichen der Wissenschaft ebenso:
Ne Faustregel sagt, daß sich das Wissen in den Fachbereichen alle 2 Jahre verdoppelt, im Gegenzug sich aber alle 5 Jahre die Hälte davon als 'unsinnig' heraus stellt. Soll aber deswegen der Fortschritt gestoppt werden ? Schließlich fördert dieser doch erst zu Tage, daß wir offensichtlich auf Wissen zurück greifen, welches im Prinzip schon überholt ist. Wenn man nun noch bedenkt, daß in den Schulen die Lehrpläne auf ca. 10 jahre ausgelegt werden, dann haben wir endgültig den Salat !

Das war jetzt ein bischen Off-Topic. Wollte Dir damit nur zeigen, daß man Aussagen, die vor 2-3 Jahren getroffen wurden, nicht mit heute verfügbarer Technologie wiederlegen sollte. Schön wäre es doch gewesen, wenn Du für die Vergleiche nicht nur 'nen 1,2GHz Athlon heran gezogen hättest, sondern das was HEUTE als Mainstream in den Rechnern der User steckt, nämlich ein PIII500... Das hätte zwar Dein schönes Gedankengebäude ein wenig ins Wackeln gebracht, hätte aber eine konsistentere Aussage zugelassen.

Der Artikel war schlicht zu 'einseitig' ausgelegt. Und das ist doch genau das, was Du nVidia vorgeworfen hast, oder ?

In diesem Sinne ...

Razor

Thowe
2001-08-21, 10:48:57
Originally posted by Razor
[B
@Thowe

1. Sag mal, träumst Du ?
Fairplay in der Marktwirschaft bedeutet den sicheren Untergang !

2. Das uminöse Papier ist für Vertriebler gewesen. Die haben keine Ahnung von der Materie, schließlich sollen die doch nur verkaufen... Hätte man vernünftige Argumente angeführt, wär's von den Vertrieblern nicht mehr verstanden worden...

In diesem Sinne ...

Razor [/B]

zu 1. Nö, die meisten Firmen die sauber arbeiten überleben, alle anderen, naja. Lässt sich aber drüber streiten.

zu 2. Ähnliches habe ich auch gesagt, irgendwo vorher.

EgonOlsen
2001-08-21, 11:14:29
@Razor:

Die 5GHz sind auch nur eine Hausnummer, mußt Du Dich jetzt nicht dran festhalten. Pixelshading ist auch nur lineare Algebra (und recht simple dazu). Irgendwann werden CPUs die Leistung haben, das in Echtzeit problemlos zu machen. Warum sollten Sie es nicht können?
Der Unterschied zwischen Soft- und Hardware ist mir schon klar, Du Flöte. Ich arbeite in der Branche, habe den Mist studiert und mache den ganzen Tag fast nichts anderes. Meine Einschätzung ist also nicht einfach so vom Himmel gefallen, sondern ich habe mir schon was bei gedacht. Aber ist auch egal...wir werden ja sehen.
P.S.: Wenn Du einen schnellen Rechner mit Java im Browser hast...klick mal unten auf den Website-Knopf. Was da kommt ist Software, es 'shaded' Pixel (Bumpmapping) und es ist das ach so langsame Java. Was man heute schon mit C und ASM auf einer schnellen Maschine in Software machen könnte... (wenn es jemand tun würde...)

Korak
2001-08-21, 11:30:15
Man kann doch sagen, dass HW T&L auf einer GeF1 Sdr u. DDR ziehmlich sinnlos war. Da hat die Umgebung einfach nicht gepasst (Speicherdurchsatz etc.). Nun da die Entwicklung aber immer weiter geht hat sich der auch der Speicher verbessert---> er wurde schneller und damit konnte man dann T&l auch benutzen. Da es aber zu unfexibel ist, das hat auch Nvidia erkannt, hat man eine neue version entwickel (Vetex-Shader). Aber sowas in der Richtung war doch schon zu Gef1 zeiten klar. Bis HW T&L genutzt wird gibts eh schon was neues.
Das erste richtige T&L Spiel das rauskommt is U2. Das wird wohl das erste und letzte sein da alle anderen auf Vertex-Shader setzen.

Also ist T&L im Spielsektot bis heute, auf schnellen Systemen, nutzlos (und mal im Ernst bei den Preisen im CPU Sektor wird kaum einer weniger als 700MHz haben). Erst kommende Spiele wie U2 werden es nutzen. Anderer Seits wird U2 wahrscheinlich auch das einzige bleiben. Denn dann kommt ja schon der Vertex Shader. Den einzigen Vorteil von den 'Spiele HW T&L Karten' findet sich im 'Professionellen' Bereich. Denn braucht man keine Füllrate, die den Speicher belastet, sondern nur pure T&L-Power.



Ach nochwas.
IMHO sollte T&L dazu verwendet werden ein Spiel schöner und nicht schneller zu machen.

StefanV
2001-08-21, 11:41:57
@Razor

Ich meinte GENERELL Marktführer...

Egal, in welchem Gebiet...

Das beste (negativ) Beispiel dürfte hier wohl ASUS sein...

Bei den Boards wird ab 140Mhz das Timing verringert, die ASUS A7V KT133 Serie...

Auch in anderen Gebieten scheint es so zu sein, daß sich die Marktführer nicht so innovativ sind, auch die Produkte lassen oft zu wünschen übrige...

Und vom Preis ganz abgesehen (VW GOLF dürfte wohl ein treffendes Beispiel sein)...

ERGO:

Lieber Produkte von kleineren Herstellern, die sich bemühen nach oben zu kommen kaufen...

Legolas
2001-08-21, 11:48:29
@ Razor

Das Schaubild sollte nur verdeutlichen, daß es nicht am HSR liegt, daß NVidia chips bei U9 Probleme haben. Warum liegt hier der Radeon vor der GF3, obwohl er eigentlich viel schlechtere Spezifikationen hat? Optimiert ist U9 auf keine der beiden Karten, und ob 32 fps bei einem Singleplayerspiel ausreichen muss wohl jeder selber wissen. Wenn du aber schon Games gespielt hast, die noch vor der Ära der 3DBeschleuniger entstanden sind, dann solltest du wissen, daß die Spiele damals auf damals aktuellster Hardware auch oft nicht mit mehr als 20-30 fps gelaufen sind, aber trotzdem spielbar waren.

RAL
2001-08-21, 11:50:43
Originally posted by EgonOlsen
@Razor:
P.S.: Wenn Du einen schnellen Rechner mit Java im Browser hast...klick mal unten auf den Website-Knopf. Was da kommt ist Software, es 'shaded' Pixel (Bumpmapping) und es ist das ach so langsame Java. Was man heute schon mit C und ASM auf einer schnellen Maschine in Software machen könnte... (wenn es jemand tun würde...)

Nett, auf Tualatin@1,5 GHz ergibt das flüssige 47 fps.

Razor
2001-08-21, 13:46:59
@Thowe

Nenn doch mal ein Beispiel für eine Firma, die 'sauber' arbeitet...

@EgonOlsen

Diene lieben Prozzi's sind heute nur deswegen in der Lage, T&L zu übernehmen, weil sie zusätzliche Funktionalitäten mitbekommen haben (MMX, SSE, 3DNow), die dies ermöglichen. Würden sie weiterhin 'nur' das tun, wozu sie ursprünglich mal gedacht wurden, würd's nicht klappen ! Ich kann Dir nur dringend mal empfehlen, die erweiterten Befehssätze in den Treibern und DirectX abzuschalten.

Ob nun die Geometrie-Logic auf einer externen GPU unter gebracht, oder dies im Die des Prozessors integriert wird, macht doch nun wirklich keinen Unterschied, oder ?

Und hör mir mit Java auf...

@Korak

Erzähl das mal Leuten, die noch eine gf1 auf einem PIII500 einsetzen...
Ein PIII500 ist Mainstream und nicht ein PIII700, auch gibt es noch massenhaft Leute, die immer noch mit K6-2-Systemen 'arbeiten'. Und selbst ein AMD 1,4GHz bricht in der T&L-Performance ein, wo ein HW T&L'er noch mit kommt...

Auch ist doch wohl eine Vermutung, daß nach U2 nichts anderes mehr kommt, oder ? Schließlich ist die Engine ja schon diverseste male Lizensiert (wie bei Q3 ja auch). Somit werden wir sehr wohl noch einiges auf dieser Basis zu Gesicht bekommen...

Bis die D3D8-geometrie so richtig zum tragen kommt, wird sicher auch noch so einige Zeit ins Land gehen (1-2 Jahre ?), schleißlich brauchts dafür noch eine wesentlich breitere Hardware-Basis...

@Stefan Payne

Stimmt und stimmt nicht...

ASUS ist ein Retailer, der also Hardware von anderen Herstellern verbaut... Die Mobo's sind ganz OK (von diesem dusseligen AMD KT133/A mal abgesehen), die GraKa's könnten besser sein. Das ist auch Grund, warum ich eben meine letzten GraKa's von ELSA gekauft habe, da sie einfach das geboten haben, was ich benötigte. Ne gf2 hätte ich mir allerdings nicht von denen gekauft, da man sich da offensichtlich nicht sonderlich viel Mühe gegeben hat...

Ich würde das einfach nicht verallgemeinern wollen, da es immer gute und schlechte Produkte gibt. Man muß halt entsprechend selektieren...

Hatte übrigens mal einen GolfIV V6 ! Man war das eine Kiste... Pfeilschnell, sicher und technisch auf dem neuesten Stand. Das Ding war sein Geld auf jeden Fall wert ! Denn was vergleichbares habe ich nicht einmal bei Porsche gefunden (habe privat die Möglichkeit, ab und zu mal so'n Ding Probe zu fahren), obwohl die ja wohl um einiges tuerer sind (Boxster-Modelle z.Bsp.).

Was ich damit sagen will ?
Es gibt gute GolfIV und es gibt schlechte...

Also, bitte nicht verallgemeinern !

@Legolas

Kann Dir da nicht zustimmen...

30fps im Mittel ist schlicht NICHT ausreichend. So bei 60fps wird's langsam interessant und trotzdem kann es einem noch passieren, daß es in Extrem-Situationen trotzdem zu ruckeln anfängt, was jedes Spielvergnügen kaputt macht.

Auch ist U9 auch noch ein Online-Spiel. Da ist es um so mehr fatal, wenn's ruckelt, da einem dann sehr schnell der Exitus droht. Auch hat dieses Game ja noch eine Menge mehr Probleme, als nur eine schglechte Performance, so gibt's Grafikfehler und Abstürze en mass..

Ultima9 ? NEIN DANKE !

***

So, das war's erst mal wieder...

Razor

Korak
2001-08-21, 14:05:36
Von PIII war nicht die Rede.
Möcht mal jemanden kennen lernen der mit einem K6 Mp zockt.
Das ein HW T&Ler schneller ist als ein S T&ler bestreitet keiner. Wenn allerdings ein Spiel (ich rede von Spielen, dass HW T&L bei Modelling oder so genial ist ist klar) eine so hohe Polygonzahl hat, dass selbst ein Athlon 1,4GHz nich mitkommt ist anzunehmen, dass die Bandbreite der Graka oder auch des AGP limitiert. Werden die Polygone aber erst im Chip generiert sieht die Welt ganz anders aus-> Trueform.

Ja das war eine Vermutung. Da die meisten Entwickler (meiner meinung nach) eher auf Vertex setzen werden (sie wollten ihn jetzt haben sie ihn).
Mehr sag ich zu dem Thema nicht (gut vielleicht doch :)(schaun wa mal)).

EgonOlsen
2001-08-21, 14:25:01
Originally posted by Razor

Diene lieben Prozzi's sind heute nur deswegen in der Lage, T&L zu übernehmen, weil sie zusätzliche Funktionalitäten mitbekommen haben (MMX, SSE, 3DNow), die dies ermöglichen. Würden sie weiterhin 'nur' das tun, wozu sie ursprünglich mal gedacht wurden, würd's nicht klappen ! Ich kann Dir nur dringend mal empfehlen, die erweiterten Befehssätze in den Treibern und DirectX abzuschalten.

Ob nun die Geometrie-Logic auf einer externen GPU unter gebracht, oder dies im Die des Prozessors integriert wird, macht doch nun wirklich keinen Unterschied, oder ?

Und hör mir mit Java auf...


Mir ist nicht ganz klar, warum Du denkst, daß ein Proz niemals wieder alle Aufgaben übernehmen können wird. Was spricht Deiner Ansicht nach dagegen?
Und den Java-Kommentar kannst Du Dir sparen. "Hör mir mit xxx auf" kann man immer sagen, bringt nur nicht viel für die Diskussion. Man kann mit Java sehr nette Sachen machen. Vielleicht ist es nicht zu der Revolution auf Clientseite gekommen, die es mal werden sollte, aber auf Servern wird es viel und mit Erfolg eingesetzt. Ich wünsche Dir viel Spaß dabei, ein großes Web-Projekt mit Perl oder C(++) serverseitig zu gestalten.

Korak
2001-08-21, 14:42:01
Nach dem ich mir ein paar neue Benchmarks angesehen hab bin ich total verwirrt =). Die ersten MP benchmarks machten deutlich, dass HW T&L nix bringt. Jetzt siehts so aus als ob HW T&L einen ganz ordentlichen Leistungsvorsprung hat.
Wobei es auch mal Benches gab bei denen eine GeF2 in MDK2 ohne T&L schneller war als mit =).
Ich geb auf und warte ab :D

Razor
2001-08-21, 17:14:04
Hi nochmal !

@Korak

Gibt noch sehr viele, die mit 'nem K6-2 online sind...
(hab da so einige im Bekanntenkreis)

Die Polygonmoster kommen doch bald (im nächsten halben Jahr), dann wissen wir genaueres... aber bei steigender Polygonzahl muß der Prozzi diese auch berechnen und ZUSÄTZLICH auch noch transformieren, wenn eben kein HW T&L vorhanden ist. Heute gibt es lediglich MaxPayne, bei dem ein HW T&L'er sinnvoll ist, aber das ich noch eine Ausnahme (wenn der Prozessor stark genug ist).

Auch sollte man folgendes nicht durcheinander bekommen:

Die durchschnittliche Framerate kann auch ohne HW T&L gut aussehen, wenn die Leistungsfähigkeit der CPU und auch der GraKa gegeben ist.

Die minimale Framerate steht auf einem ganz anderen Blatt.
Hier kann ein HW T&L'er durchaus helfen, eine definierte Leistung zu erbringen, welche (weitestgehend) unabhängig von der CPU ist (auch da gibt es natürlich Mindestanforderungen, da die Daten ja irgendwo herkommen müssen)...

Egal.

Aber auf jeden Fall nicht aufgeben, Korak !
;-)

@EgonOlsen

Ich sage ja gar nicht, daß es unmöglich sein wird, daß ein Prozessor wieder alles macht. Ich halte es halt nur nicht für Sinnvoll ! Die Hardware entsprechend den Bedürfnissen auszulegen hat sich eben als sehr viel effizienter heraus gestellt.

Wenn es tatsächlich mal effiziente, völlig frei programmierbare Einheiten geben sollte, dann ist dies sogar sehr wahrscheinlich, nur ist es dann eben keine CPU im herkömmlichen Sinne mehr, sondern diese Einheit kann dann beides genutzt werden... ein Teil dieser Einheit wird dann eben für CP's (zentrale Prozesse) und der andere Teil dann für GP's (Grafik-Prozesse) genutzt. Schon mal Star Trek gesehen ?
;-)

Auch habe ich ja gar nichts gegen Java, aber was hat das mit T&L (Leitthema) zu tun ? Java ist eine Programmiersprache, im besten Falle eine API, wie OpenGL und D3D ja auch, doch aber keine Technologie...

Das war's wieder mal !

Razor

Matrix316
2001-08-21, 17:37:27
Es heißt ja dass ein schneller Prozessor >1 GHz schneller T&L berechnet als z.B. eine GF2...

Wurde davon ausgegangen dass die CPU ausschließlich T&L übernimmt oder hat man auch bedacht, dass die CPU zur gleichen Zeit auch noch was anderes machen muss? (KI etc.)

Korak
2001-08-21, 17:59:21
Originally posted by Razor
Hi nochmal !

@Korak

Gibt noch sehr viele, die mit 'nem K6-2 online sind...
(hab da so einige im Bekanntenkreis)

Die Polygonmoster kommen doch bald (im nächsten halben Jahr), dann wissen wir genaueres... aber bei steigender Polygonzahl muß der Prozzi diese auch berechnen und ZUSÄTZLICH auch noch transformieren, wenn eben kein HW T&L vorhanden ist. Heute gibt es lediglich MaxPayne, bei dem ein HW T&L'er sinnvoll ist, aber das ich noch eine Ausnahme (wenn der Prozessor stark genug ist).

Auch sollte man folgendes nicht durcheinander bekommen:

Die durchschnittliche Framerate kann auch ohne HW T&L gut aussehen, wenn die Leistungsfähigkeit der CPU und auch der GraKa gegeben ist.

Die minimale Framerate steht auf einem ganz anderen Blatt.
Hier kann ein HW T&L'er durchaus helfen, eine definierte Leistung zu erbringen, welche (weitestgehend) unabhängig von der CPU ist (auch da gibt es natürlich Mindestanforderungen, da die Daten ja irgendwo herkommen müssen)...

Egal.

Aber auf jeden Fall nicht aufgeben, Korak !
;-)

Razor

Hehe du hast mir nich richtig zugelesen. Ich hab gesagt, dass ich mir nicht vorstellen kann, dass jemand mit einem K6 MP zockt. Das man damit noch prima Office, Internet etc. machen kann is klar.

Zur minimalen Framerate:

Hehe das schon klar. Auch wenn man jetzt wieder über den Sinn und Unsinn eines einzelnen Wertes, der vielleicht nur für eine 100stel Sekunde vorkommt, streiten. Ich weiss aber was du meinst.

PS: Das mit dem Aufgeben bitte nich falsch verstehen. Aber die T&L vs. non T&L Benchmarks sind so durchwachsen das sich keine klare Aussage machen läßt.

Hab en bissl die rechtschreibung verbessert *g* binnimmer ganz da ;D

Thowe
2001-08-21, 19:13:23
Originally posted by Razor
@Thowe

Nenn doch mal ein Beispiel für eine Firma, die 'sauber' arbeitet...


Razor

Hmmm, nenn mir mal eine die es nicht macht? Ich denke einfach das die Marketingabteilung von NVidia da überreagiert hat. Solches Vorgehen ist wohl eher nicht üblich, schädigt nur den Ruf wenn es bekannt wird.

EgonOlsen
2001-08-21, 20:01:32
Originally posted by Razor

@EgonOlsen

Ich sage ja gar nicht, daß es unmöglich sein wird, daß ein Prozessor wieder alles macht. Ich halte es halt nur nicht für Sinnvoll ! Die Hardware entsprechend den Bedürfnissen auszulegen hat sich eben als sehr viel effizienter heraus gestellt.

Wenn es tatsächlich mal effiziente, völlig frei programmierbare Einheiten geben sollte, dann ist dies sogar sehr wahrscheinlich, nur ist es dann eben keine CPU im herkömmlichen Sinne mehr, sondern diese Einheit kann dann beides genutzt werden... ein Teil dieser Einheit wird dann eben für CP's (zentrale Prozesse) und der andere Teil dann für GP's (Grafik-Prozesse) genutzt. Schon mal Star Trek gesehen ?
;-)

Auch habe ich ja gar nichts gegen Java, aber was hat das mit T&L (Leitthema) zu tun ? Java ist eine Programmiersprache, im besten Falle eine API, wie OpenGL und D3D ja auch, doch aber keine Technologie...


Sicher ist Hardware, die für einen speziellen Fall optimiert ist, schneller als wenn eine Software auf allgemeinerer Hardware läuft. Das ist nicht ganz mein Punkt. Mein Punkt ist, daß die Entwicklung weg von festverdrahteten Funktionen in den Chips zu immer mehr Flexibilität geht. Momentan ist das noch sehr eingeschränkt, aber um noch flexibler zu werden, muß man meiner Ansicht nach Techniken 'normaler' Prozessoren übernehmen. Ehe man sich versieht, hat man dann eine 'GPU' gebaut, die eigentlich eine normale 'CPU' ist, d.h. mit Registern, einem Stack, Interruptleitungen, IO-Ports, Programmspeicher, einem Microcodewerk usw. usf. Dann kann man gleich alles in der CPU lassen bzw. Teile ergänzen und die aufwändige Grafikkarte kann entfallen. Das wird sicher nicht heute und nicht morgen passieren und eigentlich gehört die Diskussion hier ja auch gar nicht mehr hin...aber egal :-)

Und auch Java hat sicher nicht mit dem Thema hier zu tun. Ich habe es nur als Beispiel für Pixel-Shading in Software angeführt, weil ich es eben momentan hauptsächlich verwende...dachte, Du wolltest was gegen diese schöne Sprache sagen..;-)

Razor
2001-08-21, 20:33:19
@Matrix316

Kommt immer auf das Spiel an...
Aber die Fautsregel stimmt ungefähr, bei heutigen Games zumindest und mal MaxPayne ausgenommen. Und ja, die KI der heutigen Spiele wurde dazu gerechnet. Sollte dieser aber komplexer werden...

@Korak

Hatte dein MP als MultiPlayer übersetzt...
Aber egal, die K6'er spielen mit Freude MaxPayne, auch wenn ich mich mit einer Auflösung von 640x480 und reduzierten Einstellungen nicht zufrieden geben würde...
;-)

Die mittlere Framerate wird u.u. auch nie dargestellt...
Man muß die einzelnen Werte (Min/Max/Mittel) eben im Zusammenhang sehen.

Ist aber genauso, wie das Gesamtergebnis von 3DMurks zu vergleichen, da dieses eigentlich gar nichts aussagt. Erst der direkte Vergleich der Subwerte (Füllrate etc.) erlaubt halbwegs vernünftige Aussagen...

@Thowe

Ich vermute mal: ALLE !
Habe selber schon in diversen Firmen gearbeitet, bei denen es so war... warum auch nicht ? In der Marktwirtschaft ist sich jeder selbst der Nächste ...

@EgonOlsen

Die Architektur eines Grafik-Chips unterscheidet sich massiv von einer CPU... wenn Du Dich damit beschäftigst, dann müsstest Du das doch eigentlich wissen !

Egal.

Ist Dir schon mal aufgefallen, daß heutige GPU's schon komplexer sind, als drezeitige CPU's ?

So hat ein PIII-Coppermine gute 23Mio Transistoren (P4 hat 42Mio), während eine gf2gts schon 25Mio davon hat. Die gf3 hat das ganze dann noch mehr als verdoppelt und beinhaltet satte 57Mio (Radeon8500 sogar 60Mio)...

Fällt Dir was auf ?

Da wäre es doch sinnvoller, die CPU gleich in die GPU zu verlegen !
;-)

Java ist wirklich eine hübsche Sprache und wollte sie Dir wirklich nicht madig machen...

Bis denne

Razor

Unregistered
2001-08-21, 21:21:24
Originally posted by aths
Der kleinste gemeinsame Nenner ist eine Direct7 compliant T&L-Karte. Übrigens würde eine Voodoo4 dazu zählen, weil der Treiber das emulieren kann.

LOOOL seit wann kann eine Voodoo 4 Dot Bump Mapping, Enviroment Bump und Cube Mapping?

Unregistered
2001-08-21, 21:35:32
Originally posted by Razor
MaxPayne (so oft habe ich es übrigens nicht genannt) ist eine Beispiel für ein sehr modernes Spiel, was ja wohl nicht zuletzt durch seine grandiose Grafik gekennzeichnet ist.[/B]

Max Payne hat

-> kein Bump Mapping
-> kein Vertex Shading
-> kein Pixel Shading
-> keine Schatten
-> keine Reflexionen

Max Payne hat eigentlich nur Hires Texturen.

nggalai
2001-08-21, 21:37:27
Hi athz,

sorry wegen dem "ihr," ich wollte nicht dir nicht die (verdienten!) Lorbeeren wegnehmen. Ich bin nur des öfteren während des Schreibens meiner Antwort mental ins Englische gerutscht (hat man glaub' ich gegen Ende besser gemerkt), und da gilt es als höflich, selbst bei klarer Autorenschaft den Plural zu verwenden (i.e. das "you" wird distanzierend verwendet, nicht als "Du" oder "Sie"). Sorry. :)

Wie dir schon gesagt wurde, das ist kein "offizielles" PDF. Ich hab' meine Kopie zum Beispiel von einem Freund, der bei einem grossen Amerikanischen 4buchstabigen Computerschrauber im Vertrieb arbeitet erhalten. Die mussten angeblich sogar eine NDA unterschreiben ... :)

Zu U9: mir ist schon klar, dass das Teil auch auf der Voodoo in D3D lief (hast Du ja nett hingeschrieben), nichtsdestotrotz ist klar, dass die Engine für Glide entwickelt und entsprechend auf Voodoo-Eigenheiten optimiert wurde. Auf dchg wurde dein Artikel übrigens auch schon durchdiskutiert (zum grössten Teil sachlich und für "gut" befunden), und es kamen auch einige Sachen betreffend U9 als Benchmark zusammen. Hier eine Kopie meiner post:

(Hinweis: Alle [ ] wurden von mir heute ergänzt und sind nicht Bestandteil meiner Original-Post.)

"Das 'Falsche daran,' [U9 als Benchmark zu gebrauchen] wenn ich deine Wortwahl weiterverwende, ist, dass einerseits der Artikel rummotzt, dass man nur Benchmarks verwendet, die auf nVidia / TnL optimiert wurden, andererseits dann eine der schlechtesten D3D Engines aller Zeiten verwendet, die dazu noch vom Code her auf Glide fusst und wohl einige Voodoo-Eigenheiten (Register Combinations, Textur Management, etc.) "geerbt" hat. Und die Schlussfolgerung, dass die V5 in Ultima9 wegen besserer Bandbreite/-ausnutzung schneller als eine GTS sei ist einfach nur falsch. Dann wäre die GeForce3 massiv schneller als eine GTS (was sie nicht ist, bei U9). Die GTS, MX, und GF3 sind mit U9 praktisch gleichschnell [Nachtrag: war jedenfalls auf meinem System so]. Ich habe mich also darüber amüsiert wie a) der gleiche Fehler wie von der TnL Konkurrenz gemacht wird, beim Benchen, und b) die Erklärung für den Performance-Unterschied extremst an den Haaren herbeigezogen wurde."

Wenn Du dich mit der Engine mal ein wenig auseinandersetzt wirst Du z.B das merken, was der Martin im gleichen Thread erwähnte:

"wenn ich das noch richtig im Kopf habe, liegt es daran, daß daß die U9 Engine für weit entfernte Objekte von texturierten Polygonen auf einfarbige Polygone umschaltet (was man nach der DX Hilfe aber auch nicht tun sollte. Steht ein fetter Warnhinweis drin.). Die NVidia Chips führen einen Reset bei der Umschaltung durch und lehren ihre Caches. Daran ist auch nichts verwerfliches, denn sowas sollte man eben als Spieleentwickler auch nicht tun. Aber wenn ich mir den Rest vom Spiel anschaue, dann haben
da wohl richtige Profis dran gearbeitet :-)"

(Martin, sorry wenn ich dich hier ohne Einwilligung Poste. Flames bitte an http://www.nggalai.com, dann kann ich noch einen Artikel draus machen. ;=) )

Selbst Origin hat sich dafür und die Engine generell entschuldigt. Offenbar sind Kyro-II und Radeon resp. deren Treiber einfach weniger empfindlich auf solche Hacks als nVidia Hardware.

Anyway. Grundsätzlich sehe ich das mit Benchmarks eh so:

Ein Benchmark sagt dir genau eine Sache über dein System: Wie gut das System den einen Benchmark abarbeitet.

Nix für ungut, and see you,

-Sascha.rb

nggalai
2001-08-21, 21:39:19
> Na und? Viele andere Spiele (->lange Entwicklungszeit) sind das auch.


... und deshalb IMO nicht als einzelner Benchmark zu gebrauchen. Wenn man mehrere Benches / Spiele zusammennimmt sieht die Sache ein wenig anders aus.

ta,
.rb

Thowe
2001-08-21, 21:51:36
Originally posted by Razor
@Thowe

Ich vermute mal: ALLE !
Habe selber schon in diversen Firmen gearbeitet, bei denen es so war... warum auch nicht ? In der Marktwirtschaft ist sich jeder selbst der Nächste ...

Bis denne

Razor


Ohje, alle sollen Unwahrheiten über ihre Konkurenten verbreiten, wenn auch nur intern? Da denke ich sind Wahrheiten in der Summe wesentlich mächtiger.

JFZ
2001-08-21, 23:58:01
Originally posted by Razor
30fps im Mittel ist schlicht NICHT ausreichend. So bei 60fps wird's langsam interessant und trotzdem kann es einem noch passieren, daß es in Extrem-Situationen trotzdem zu ruckeln anfängt, was jedes Spielvergnügen kaputt macht.

Auch ist U9 auch noch ein Online-Spiel. Da ist es um so mehr fatal, wenn's ruckelt, da einem dann sehr schnell der Exitus droht. Auch hat dieses Game ja noch eine Menge mehr Probleme, als nur eine schglechte Performance, so gibt's Grafikfehler und Abstürze en mass..



Ultima 9, ein Onlinespiel ? Ich glaub da verwechselst du was. U9 ist ein reinrassiges singleplayer RPG, daß man eigentlich noch ganz gut mit 20 bis 30 fps spielen kann (60 fps brauchst du vielleicht in Q3). (Die Grafikfehler und Abstürze sind übrigens in der deutschen Version, bzw durch den Patch der englischen Version größtenteils behoben worden) Kanns sein, daß du das Spiel gar nicht wirklich kennst ?
Allerdings muß ich dir in einem Punkt recht geben. Das Spiel ist ziemlich vom Mainstream entfernt, und deshalb nicht umbedingt repräsentativ. Trotzdem finde ich es ein Unding, daß die GF da so weit unterhalb ihrer Möglichkeiten liegt.

StefanV
2001-08-22, 00:07:27
Originally posted by JFZ
Allerdings muß ich dir in einem Punkt recht geben. Das Spiel ist ziemlich vom Mainstream entfernt, und deshalb nicht umbedingt repräsentativ. Trotzdem finde ich es ein Unding, daß die GF da so weit unterhalb ihrer Möglichkeiten liegt.

Sag ich doch immer wieder:

NVidia->ineffiziente Bandbreitennutzung...

Und U9 ist nunmal ein erstklassiger HW Fresser...

Wird wohl noch ein Jahr dauern, bis es richtig gut läuft*eg*...

Matrix316
2001-08-22, 00:20:14
Originally posted by Stefan Payne


Sag ich doch immer wieder:

NVidia->ineffiziente Bandbreitennutzung...

Und U9 ist nunmal ein erstklassiger HW Fresser...

Wird wohl noch ein Jahr dauern, bis es richtig gut läuft*eg*...

Ich würde eher sagen die Ultima 9 Programmierer sind Unfähig. Wobei man beachten sollte, wann man mit Ultima 9 angefangen hat. Da gabs noch nicht mal eine GeForce und 3DFx war noch existent.;)

Ist aber schon komisch: Erst hieß es 3DMark2001 ist zu Künstlich da es eh keine Spiele gibt die dieselbe Engine haben und als guter Benchmark nicht zu gebrauchen. Dann kommt endlich mal ein Spiel was mit der 3DMark Engine läuft und plötzlich heißt es dies tauge nicht zum Benchen, da: "basiert ja auf 3DMark2001"...

Unregistered
2001-08-22, 01:13:15
Originally posted by Razor
@EgonOlsen

Die Architektur eines Grafik-Chips unterscheidet sich massiv von einer CPU... wenn Du Dich damit beschäftigst, dann müsstest Du das doch eigentlich wissen !

Egal.


Ja, stimmt schon...noch. Aber das wird sich annähren. Eben weil die Dinger immer flexibler werden müssen. Aber hast recht: Egal. Wenn wir in 20 Jahren immer noch 3D-Beschleunigerkarten haben, gebe ich Dir einen aus, sonst Du mir. OK?

EgonOlsen
2001-08-22, 01:15:49
Wozu kann man eigentlich direkt beim Posten das Login tippern, wenn's das Board nicht interessiert...???
Also zur Info: Das da oben ist von mir.

StefanV
2001-08-22, 09:45:53
Wobei die '3DRECHNER' wohl eine neue Möglichkeit wären...

Unregistered
2001-08-22, 10:44:13
Hi Stefan Payne,

> Sag ich doch immer wieder:

> NVidia->ineffiziente Bandbreitennutzung...

> Und U9 ist nunmal ein erstklassiger HW Fresser...

Lies meine Post weiter oben nochmals durch, oder suche mal unter groups.google.com nach +ultima +ascension +engine +directx und nimm dir ein wenig Zeit. :)

ta,
.rb

Razor
2001-08-22, 12:01:01
Ein schöner Tag...
;-)

@Guest

MaxPayne ist kein DX8-Game, sondern ein DX7-Game der aktuellsten Generation !
Die von Dir genannten Features haben darin nichts zu suchen ...

@Thowe

Die Wahrheit ist langweilig und farblos !

Schon mal die CocaCola vs. Pepsi Werbungen gesehen ? Eine Whrheitsgehalt ist dort nicht zu finden, aber von den Zuschauern immer noch auf den ersten Platz gewählt...

Nun könnte man ja die Behauptung aufstellen, daß die Leute halt belogen werden wollen, aber das ist dann eher eine philosophische Betrachtung, gell ?
;-)

@JFZ

Ich finde es ein 'Unding' so etwas überhaupt als finales Verkaufsprodukt anzubieten... aber Origin hat sich ja zumindest entschuldigt. Nein, habe das lange nicht mehr 'gespielt', weil ich besseres zu tun hab', als mich mit so einem dusseligen Stück Software herum zu schlagen... Auch wenn es bei Windows ja schon fast zum täglichen Sport gehört !
;-)

Ich schau mir lieber an, was andere damit für Erfahrungen machen...

@Stefan Payne

Also offensichtlich bist Du des Lesens nicht mächtig, wenn Du noch immer einen solchen Unsinn im Zusammenhang mit U9 verzapfst...

Und was bitte solle ein '3DRechner' sein ?

Ich persönlich würde es 'nett' finden, wenn es endlich universale, frei programmierbare Einheiten geben würde, die man nach den Bedürfnissen, bzw. den Erfordernissen entsprechend via Software 'konfiguriern' kann...

@Matrix316

Die Lobby-Scene von 3DMurks hat so gut wie nichts mit den finalen MaxPayne zu tun. bei der Game-Engine hat man auf eine Menge Features verzichtet, um zu gewährleisten, daß dieses wirklich gute Spiel auf allen Rechnern gleich gut aussieht... somit ist dies wieder ein weiterer Beweis dafür, daß diese 3DMurxer nix taugen (zumindest nicht als Real-World-Tests) !

MaxPayne selber eignet sich hervorragend zum benchen, da es ein kleiner Ausblick auf das ist, was da noch kommen wird...
;-)

Wen's interessiert, der kann sich ja mal unter

http://www.rivastation.com

ein paar erste Benches zu diesem Game anschaun', da es u.a. dank dieser Seite nun endlich eine Möglichkeit gibt, dieses zu tun.

@EgonOlsen

Wenn wir in 20 Jahren immer noch mit diesem proprietären System-Müll und solchen Betriebssystemen herum hantieren, dann hab ich schon längst den Glauben an die Technik und den Fortschritt verloren und bin gestorben oder friste mein Dasein als Einsiedler !

Aber hoffentlich wird es dann noch möglich sein, trotzden ein gutes Bierchen zu süffeln...
;-)

In diesem Sinne...

Razor

Razor
2001-08-22, 12:04:03
Mit 'dieser Seite' meinte ich natürlich 3DCenter !!!
Diese haben es geschafft, nun endlich MaxPayne benchen zu können...

WICHTIG !
;-)

Unregistered
2001-08-22, 12:09:01
[QUOTE]Originally posted by Matrix316
[B]

Ich würde eher sagen die Ultima 9 Programmierer sind Unfähig. Wobei man beachten sollte, wann man mit Ultima 9 angefangen hat. Da gabs noch nicht mal eine GeForce und 3DFx war noch existent.;)


Soweit würde ich nicht gehen ohne solche games würde es in der Entwicklung nicht so schnell voran gehen.
Jedes ultima war ein die vorhandene Hardware reicht nicht um es flüssig zu dadeln

Unregistered
2001-08-22, 12:14:51
Originally posted by Razor
Ein schöner Tag...
;-)

@Guest

MaxPayne ist kein DX8-Game, sondern ein DX7-Game der aktuellsten Generation !
Die von Dir genannten Features haben darin nichts zu suchen ...

Die Lobby-Scene von 3DMurks hat so gut wie nichts mit den finalen MaxPayne zu tun. bei der Game-Engine hat man auf eine Menge Features verzichtet, um zu gewährleisten, daß dieses wirklich gute Spiel auf allen Rechnern gleich gut aussieht... somit ist dies wieder ein weiterer Beweis dafür, daß diese 3DMurxer nix taugen (zumindest nicht als Real-World-Tests) !

MaxPayne selber eignet sich hervorragend zum benchen, da es ein kleiner Ausblick auf das ist, was da noch kommen wird...
;-)


Der Herr Unreg. hat nur teilweise Recht. Vertex- und Pixelshader haben dort nichts zu suchen. Spiegelungen, Schatten und Bumpmapping aber schon (Giants, CMRaeR2). Das einzige was MP hat ist ein nettes Partikeleffektsystem und hoch aufgelöste Texturen. Es soll auf allen Rechnern gleich gut aussehen??? Warum denn??? Hätten sie ein paar Effekte mehr genutzt wäre das doch noch viel besser. Dann würde es auf High-End Rechnern eben sehr gut aussehen und auf den 'normalen' eben 'nur' so wie jetzt. Man hätte aus MP graphisch viel mehr rausholen können.

Unregistered
2001-08-22, 12:16:35
das war ich

korak

Razor
2001-08-22, 12:25:29
Ich denke, daß der Erfolg von MaxPayne spricht hier Bände ...
;-)

Korak
2001-08-22, 12:42:08
Na sowas jetzt führen wir schon eine Diskussion um MP.
Ich glaube man kann das hier endgültig beenden. :)

Razor
2001-08-22, 17:57:00
Amen !

Voodoo3Killer
2001-09-09, 13:17:13
MP in diesem Thread Max Payne, hab ich recht?!

...nicht Multi Processing....

Unregistered
2001-09-09, 16:28:05
Originally posted by Steel
>>>An alle die sagen der Artikel sei schlecht!! Habt ihr ihn auch genau und vollständig gelesen??
Anscheinend nicht!!

Ich schon.

>>>HW T&L wurde und wird einfach nicht gebraucht!! Da steht auch das es schon wieder rückläufig wird!!

Ja, das steht da und es ist falsch. Der Trend geht in Richtung HW T&L.

=> Die DX7 T&L ist rückgängig, aber irgednwo musste ein Anfang gemacht werden.
Auch wenn diese T&L Funktion wenig bis gar nichts gebracht hat auser das die FPs geilen wieder glücklich wegen 10 fps mehr waren.

>>Und es ging auch darum, das "laut nvidia" die Bildqualität gesteigert wird und?? hat Q3 auf einer Geforce mehr Polygone als auf einer Karte ohne HW T&L?? NEIN!! Aber sieht Q3 mit FSAA besser aus?? JA!!

Wenn ich in Q3 die High Polygon Details einschalte schon. Es geht nicht auch darum was schöner aussieht, sondern ob T&L in Hardware sinvoll ist oder nicht.
Ausserdem ist Q3 mit FSAA erheblich langsamer als ohne...

=> 1024x768 in 32 Bit und 2 FSAA ist langsam?
V5 und TB 1,1Ghz


>>>Also, wer hat hier nun mehr für die Bildqualität getan, 3dfx oder nvidia (argh, immer dieses verkackte "nvidia" schreiben)!!

Ich kann mich daran erinnern, dass es nVidia war die die ersten brauchbaren 32-Bit Karten gebaut haben und nicht 3dfx.
Spielt in diesem Fall auch keine Rolle.

=> 32 Bit schon aber nur unter hohen Leistungsverlust.
3DFX hatte dafür in 16 Bit die Bildqualität enorm erhöht und nur die Kyro ist aufgrund Ihres verfahrens in der Lage auf die gleiche Bildqualität aufzuschliessen.
Wieder ein Argument welches einfach unobjektiv beurteilt wurde.
Die V3 3300 war schneller aber dann hatte man sich auf 32 Bit ausgeredet und die meisten Test´s sahen dann so aus.
TNT2 Ultra gegen V3 2000
-------------------

Zum Thema wie viel schneller kann HW T&L:
Es kann um ein _vielfaches_ schneller sein als SW T&L.
Die Werte 20-30% hatte ich aus einem Q3-Bechmark der ca. 20 verschiedene Systeme (ab Celeron 300) getestet hatte - einzelne Systeme hatten mehr als 50% Leistungszuwachs...
Aber im _Durchschnitt_ war es halt nicht so viel.
Ausserdem hat sich seit dem März 2000 einiges getan was T&L in nVidia Karten angeht.

--------------------

>>>Hätte ich den Artikel mit den Augen eines "nvidia" (argh)-Fans gelesen, würde ich vieleicht anders schreiben, aber was ich geschrieben habe ist nun mal so!!
Trozdem würde ich mir belogen und verarscht vorkommen!!

Es ist mir sch**ssegal von wem die Grafikkarte ist, die in meinem Rechner steckt - aber ich muss kotzen wenn ich andauernd irgendwelche Blabla-Flames lesen...

=> Ne manche verkraften die Wahrheit halt nicht.


Übrigens könnte die Radeon 2 eine grosse Zukunft vor sich haben wenn ATI es einmal schaffen würde gute Treiber rauszubringen - und auch mal bitte für Win2k...

=> Dann hast Du noch nie eine Radeon gehabt.
Der Win2k Treiber ist bei mir nicht langsamer und stabil rennt er auch.
Ich weiss zwar nicht wer auf solche Märchen die ganze Zeit kommt aber ok, auser ich habe einen Wunder Treiber :-)

Aber eines stimmt, der Treiber muss mehr gepflegt werden.
B.z.w. die meisten spielen mit Tweaker rum aktivieren Funktionen verstellen alles und wundern sich dann über Artifakte.
Würde die meisten die Finger davon lassen, würden die Standarttreiber auch gut funzen.
Da kann ich die Leute nicht verstehen.
Wenn ich selbst ins System eingreifen Funktionen verändere dann brauche ich mich nicht wundern wenn es dann nicht funzt, dann sollte man aber nicht die Schuld beim Treiber suchen sondern bei sich selbst.

Gruss Labberlippe

mit freundlichen Gruessen

Voodoo3Killer
2001-09-09, 17:31:55
???

Razor
2001-09-09, 19:19:20
Hey Laberlippe,

warst Du das ?

Ist ein bischen unglücklich, Dein Kommentar, aber trotzdem ein fröhliches Heili Heilo !!!

HOT treibt sich hier auch schon herum, dann ist ja bald der 3DConcept-Clan beisammen, gell ?

Bis denne

Razor

Unregistered
2001-09-26, 15:03:22
Originally posted by Razor
Hey Laberlippe,

warst Du das ?

Ist ein bischen unglücklich, Dein Kommentar, aber trotzdem ein fröhliches Heili Heilo !!!

HOT treibt sich hier auch schon herum, dann ist ja bald der 3DConcept-Clan beisammen, gell ?

Bis denne

Razor

Inwieweit unglücklicher Kommentar?
Eher unübersichtlich von mir gepostet.
Gruss auch Dir
So treffen wir uns alle wieder. hehehe

Gruss Labberlippe

Razor
2001-09-26, 15:54:45
Hab' auch mal 'ne Mail an Haarmann geschickt !

Ev läßt er sich ja auch mal hier blicken...
(oder hat er es schon ?)

Bis denne

Razor

Thowe
2001-09-26, 20:48:27
Wo ist Shark

Razor
2001-09-26, 20:55:49
Vielleicht hat er sich ja 'getarnt' ...
;-)

Razor

Thowe
2001-09-26, 20:56:29
Originally posted by Razor
Vielleicht hat er sich ja 'getarnt' ...
;-)

Razor

:D

nggalai
2001-09-26, 21:04:45
Lalalala ...

Hehehe. :D

ta,
-.rb

Razor
2001-09-26, 21:48:59
Wie jetzt ?
Wer jetzt ?

Razor

Amarok
2001-09-26, 21:54:13
Wo jetzt ???

Thowe
2001-09-26, 22:01:43
Was jetzt

StefanV
2001-09-26, 22:52:13
?-)?-)?-)?-)?-)?-)

Thowe
2001-09-26, 22:54:51
Also Stefan ist es nicht

Quasar
2001-09-27, 01:53:52
Bin ich etwa John Wayne, oder ist nggalai es? *eg*

nggalai
2001-09-27, 08:14:15
Neee, ich bin's auch ned. :)

Ich tippe auf Unregistered ... ;)

ta,
.rb

Razor
2001-09-27, 08:54:26
Aber zumindest Darkstar ist auch wieder da !
;-)

Razor

Thowe
2001-09-27, 09:42:31
Wann wird Shark sich wohl registrieren lassen ...

HOT
2001-09-27, 12:21:14
kann nicht mehr lange dauern :D
ausserdem fehlt noch Ulukay und norman :D

Andre
2001-09-27, 12:34:26
Ulukay ist schon da !

Ceiser Söze
2001-09-27, 13:37:57
Hoffentlich taucht RICHTHOFEN nicht auch noch hier auf *schauder*

HOT
2001-09-27, 13:38:52
:rofl:

Unregistered
2001-09-27, 16:21:21
ow(eh) ow(eh), wenn ich Haie seh ..

=)

StefanV
2001-09-27, 16:41:30
Originally posted by Ceiser Söze
Hoffentlich taucht RICHTHOFEN nicht auch noch hier auf *schauder*

Ab und an hab ich ja auch mal die Comments zu den News von 3DConcept gestöbert...

Naja, und Richthofen hat keinen 'guten' Eindruck auf mich gemacht...

Razor
2001-09-27, 17:08:21
Auf jeden Fall waren RICHTHOFEN's Kommentare immer wie ein Paukenschlag ! *bumm*
;-)

ow = shark ?
Hmmm...

Razor

Ceiser Söze
2001-09-27, 17:39:16
Originally posted by Razor

ow = shark ?
Hmmm...


Glaub ich nicht. Shark war schlimmer ;)
Richthofen habe ich kürzlich mal im Rivastation-Forum angetroffen. Hat sich übehaupt nicht verändert: Er protzt immer noch mit seinem nVidia-Aktienpaket rum und glaubt ernsthaft, es würde irgendwen interessieren ;) *eg*

Unregistered
2001-09-27, 18:16:29
Originally posted by Ceiser Söze
Richthofen habe ich kürzlich mal im Rivastation-Forum angetroffen. Hat sich übehaupt nicht verändert: Er protzt immer noch mit seinem nVidia-Aktienpaket rum und glaubt ernsthaft, es würde irgendwen interessieren ;) *eg*

LOL!

http://cchart.yimg.com/z?s=nvda&c=ATTY&a=v&p=s&t=3m&l=on&z=m&q=l

Ist wohl bald pleite der Aktionär, 40% runter in 3 Monaten. Es geht abwärts!

Ceiser Söze
2001-09-27, 18:33:25
Ich glaube, du hast da die falsche Chart erwischt

http://charting.nasdaq.com/ext/charts.dll?2-1-B-0-0-36-03NA000000NVDA-03NA000000ATYT-

So, das sollte stimmen ;-)

Thowe
2001-09-27, 19:36:02
Originally posted by Razor
ow = shark ?
Hmmm...

Razor

Definitiv nicht.


Richthofen, fand ich immer gut. Zumindest hat er das Diskussionsspektrum immer stark erweitert.

Unregistered
2001-09-27, 20:22:45
der is vor kurzem mal im GHB aufgetaucht... (www.hardwaredome.de/cgi-bin/YaBB/YaBB.pl)

wollte irgendwas mit nem p4 2ghz und seiner alten asus 6800... tolle kombination, nicht wahr? auf jeden fall hatte er irgend n prob, wollte das wahrscheinlich nicht in nem "renomierten" board sagen... könnte ja jemand mitkriegen, daß auch er nicht unfehlbar ist...

Razor
2001-09-27, 20:35:24
Hab' wieder jemanden 'getroffen', sage aber nicht, wen...
;-)

Und ein Heili Heilo, auch für Dich RICHTHOFEN !
;-)

Razor

aths
2001-09-27, 21:41:52
Heute würde ich so einen Artikel natürlich anders schreiben.

Weniger emotional. Weniger ausschweifend.

Immerhin bekomme ich noch heute Emails darauf. Im Prinzip ist es gar kein Artikel, sondern eine Kolumne. Sprich, eine begründete Meinungsäusserung.

Ich bin sehr froh, dass T&L nun doch ein wenig wieder in Diskussion geraten ist. Einige nahmen die Kolumne zum Anstoss, die Sache einmal anders zu sehen. Dass ich das erreichen konnte, liegt natürlich auch an der Reichweite von 3dcenter. Andererseits muss ich mir zugeben, dass sich die Mühe lohnte. Von den Rückmeldungen war ich total überwältigt. Ausserdem lernte ich dazu :)

Liszca
2001-09-27, 21:44:48
2 :bier: (hoch2) = :kotz: (hoch2)
hier dein term anderst geschrieben!

Haarmann
2001-09-27, 23:17:58
Ich weiss ja ned... Shark wurde oft auch nur genervt und wurde als Folge davon ausfällig und stur. Manchmal versuchte er zu argumentieren - was eigentlich im Sinne eines Forums ist...
Richthofens Aktien wiederum gingen mir am Arsch vorbei - das die nun runter gingen wiederum freut mich ;-)

Thowe
2001-09-27, 23:22:02
Originally posted by Andre
Ulukay ist schon da !

Meiste Zeit im Forum auf www.mitrax.de

Andre
2001-09-27, 23:25:56
Hier aber auch.
Aber net viel, ich glaube 2-3 Posts oder so.

Leonidas
2001-09-27, 23:33:45
Originally posted by aths
Heute würde ich so einen Artikel natürlich anders schreiben.

Weniger emotional. Weniger ausschweifend.

Immerhin bekomme ich noch heute Emails darauf. Im Prinzip ist es gar kein Artikel, sondern eine Kolumne. Sprich, eine begründete Meinungsäusserung.

Ich bin sehr froh, dass T&L nun doch ein wenig wieder in Diskussion geraten ist. Einige nahmen die Kolumne zum Anstoss, die Sache einmal anders zu sehen. Dass ich das erreichen konnte, liegt natürlich auch an der Reichweite von 3dcenter. Andererseits muss ich mir zugeben, dass sich die Mühe lohnte. Von den Rückmeldungen war ich total überwältigt. Ausserdem lernte ich dazu :)


Na also. Und so gesehen hat es was gebracht, auch wenn sich nicht alle auf die selbe Meinung einigen können (und wir eine uniforme Meinung sowieso nicht gut finden würden).

Thowe
2001-09-28, 00:09:26
Originally posted by Andre
Hier aber auch.
Aber net viel, ich glaube 2-3 Posts oder so.

Si

HOT
2001-09-28, 11:38:13
Hallo Haarmann :D Wieder einer mehr.

Crazy_Borg
2001-09-28, 16:47:22
T&L hat meiner Meinung nach noch nie etwas gebracht...

Erinnert sich hier noch einer an die S3 Savage 2000 (Diamond Viper 2)?
Die kam gleichzeitig mit der GeForce 256 heraus.
Sie besaß auch eine T&L Einheit, S3TL genannt. Sie war anders als die von nVidia, allerdings total buggy. Kein Spiel oder Benchmark lief damit vernünftig, und der Geschwindigkeitsvorteil war praktisch nicht vorhanden.

Unter Quake 3 z.B. zog die Grafik Schlieren, ähnlich sah es mit meiner Voodoo 5 5500 aus, als ich Nascar 4 mit emuliertem T&L spielen wollte.

Anscheinend war ich immer der Totengräber der Hardware, in meinem Rechner steckten eine S3 Savage 3D, dann eine S3 Savage 2000 (=> S3 baut keine Grafikkarten mehr...), dann hatte ich eine 3Dfx Voodoo 5 (=> Inzwischen ja auch mehr oder weniger aus dem Geschäft). Hoffe, das jetzt mit meiner Kyro 2 nicht das gleiche passiert.

Korak
2001-09-28, 16:55:07
Äh die S2k hat eindeutig Hardwarefehler und kann somit eigentlich nicht mit in den Vergleich mit einbezogen werden.

Liszca
2001-09-28, 19:07:46
Weisst du was?

AB HEUTE DARFST DU DIR NUR NOCH NVIDIA KARTEN KAUFEN! VERSTANDEN? ICH HOFFE DENEN GEHTS DANN GLEICH; UND KAUF JA KEINE KYRO 1, 2 oder 3, KAUFE NIE EINE KYRO

*g*

StefanV
2001-09-28, 19:51:50
Wobei ich jetzt immer noch von der Savage 2k beeindruckt bin...

Hätte S3 den Chip doch bloß nicht so buggy rausgebracht...

Sehr interessant waren die Pipelines...

Liszca
2001-09-28, 22:13:34
was war an denen so besonders?

StefanV
2001-09-28, 22:30:49
Was daran so besonders war??

Bei allen anderen Chips ist die Render Pipeline fest...

Beim GF1 z.B. 4x1, die MX hat 2x2...

Und wenn es nun einen Chip gäbe, der beides kann??

Dazu noch 1x4...

Eben deshalb war der S2k so besonders...

Liszca
2001-09-28, 22:52:07
Ich finde die Grafikkartenhersteller voll langweilend, bringen eh nur neue kürzel raus! Das nerft

kennst du schon G & L
oder V-Bumpmapping
Alpha Texturing
44KHz Mono Pixel Shader
onboard Festplatte (auf der Grafikkarte)
wie findest du diese abkürzung?
i3dMS²
vertex-Lightning Retail Super Ultra Emboss Texturing Terashader mit pixelkrümer und vergsser inklusive gaspedal

das ist di neue Geforce 4 benchmark:

3d mark 2002 1000000 Punkte (Kyro III 10000 Punkte)
Quake 4 30 FPS (Kyro III 10000 FPS)
Unreal 2 10 FPS (Kyro III 10000 FPS)

noch ein wort zum kyro III von ImTec: Leider konnten wir den Kyro nicht auf unter ein Hz takten, um endlich langsamer als eine geforce 4 ultra zu sein! Tut uns echt leid für nVidia, dass wir den vertrag nicht einhalten können, den wir mit nvidia bezüglich der 3D geschwindigkeit haben! :o

ow
2001-09-29, 00:47:21
Originally posted by Stefan Payne
Was daran so besonders war??

Bei allen anderen Chips ist die Render Pipeline fest...

Beim GF1 z.B. 4x1, die MX hat 2x2...

Und wenn es nun einen Chip gäbe, der beides kann??

Dazu noch 1x4...

Eben deshalb war der S2k so besonders...


Da bist du falsch informiert denke ich.

Der S2k hat 2 Pipelines mit je 2 Textureinheiten und ermöglicht 4 Texturen in single pass, indem er beide Pipelines dafür nutzt.

Wie du da ein 4x1 draus machen willst, ist mir ein Rätsel.

Der Gf1 hat 4Pipes/1TU und nutzt ebenfalls je 2 Pipes, um 2 Texturen single pass zu verarbeiten.

HOT
2001-09-29, 11:00:45
Da liegst du aber auch falsch, ow. Der S2k machte das etwa so wie heute der Geforce3. Er konnte in beiden Pipes 4 Texturen auf ein Polygon klatschen, und zwar in einem pass bzw. 2 Taktzyklen. Nach deiner Annahme würde der S2k bei UT nicht schneller laufen, wenn 3/4 Texturschichten aktiviert sind, sprich du MeTal ab Version 2004 verwendest. Du hast mit deiner Annahme immerhin die Fillrate halbiert ;)

Wie auch immer, das war nicht die einzige geniale Funktion: hat jemand mal den Digitest gesehen? Die Texturkompressionstests? Ich glaub, es gab nirgendwo einen derartigen Boost, wenn S3TC aktiv war :D Und das bei einer absolut bestechenden Qualität.
Auch gut fand ich die Technik zum Bandbreitensparen, die auch in HyperZ einiges bringt: Z-Clear. Das konnte aber schon der Savage3D :D
Wenn im Chip Render to Texture und der Z-Buffer nicht so lädiert gewesen wäre, hätte das Ding wirklich ein Killer werden können. Zumindest sein geplanter Nachfolger ;)
Mal sehen, was VIA in Zukunft noch so mit den S3 Patenten anstellt. Das interessanteste von diesen ist ja S3Chamelion. Es soll sich hierbei um eine Tilerengine handeln :D

ow
2001-09-29, 11:18:10
Ok, dann unterstützt der S2k eben einfaches Loopback.

Es wird im aber nicht gelingen 4 Pixel einfach texturiert in single pass zu rendern.

Was Texturkompression betrifft:

Da die Kompression immer verlustbehaftet ist, sind mir unkomprimierte Texturen am liebsten.

aths
2001-09-29, 14:51:45
"Was Texturkompression betrifft:

Da die Kompression immer verlustbehaftet ist, sind mir unkomprimierte Texturen am liebsten."

Kann eigentlich nur von jmd. kommen, dessen eigene Karte keine TC unterstützt.

Die Verluste sind gerade bei FXT1 kaum zu erkennen und bringen mir in Quake bei 800x600x32 25% (fünfundzwanzig Prozent) mehr Speed. Der Qualitätsverlust dabei ist kaum wahrnehmbar.

Unregistered
2001-09-29, 16:08:07
Originally posted by aths
Kann eigentlich nur von jmd. kommen, dessen eigene Karte keine TC unterstützt.

... oder von jemandem mit einer Karte, bei der TC kaputt ist.

Razor
2001-09-29, 20:00:05
Besser von jemanden, dessen Karte auch ohne TC noch schnell genug ist...
;-)

Razor

ow
2001-09-29, 21:14:58
Originally posted by aths
"Was Texturkompression betrifft:

Da die Kompression immer verlustbehaftet ist, sind mir unkomprimierte Texturen am liebsten."

Kann eigentlich nur von jmd. kommen, dessen eigene Karte keine TC unterstützt.

Die Verluste sind gerade bei FXT1 kaum zu erkennen und bringen mir in Quake bei 800x600x32 25% (fünfundzwanzig Prozent) mehr Speed. Der Qualitätsverlust dabei ist kaum wahrnehmbar.


Also speed wohl doch wichtiger als Qualität, oder?

StefanV
2001-09-29, 22:34:39
Originally posted by ow
Also speed wohl doch wichtiger als Qualität, oder?

Find ich nicht...

Was nützen mit 200fps, wenn es mies aussieht??

Am besten wären konstant 75fps (mit 75Hz lasse ich meinen Game-Monitor laufen ;))

Thowe
2001-09-29, 22:44:02
Originally posted by Stefan Payne


Find ich nicht...

Was nützen mit 200fps, wenn es mies aussieht??

Am besten wären konstant 75fps (mit 75Hz lasse ich meinen Game-Monitor laufen ;))

Meint ow doch auch.

StefanV
2001-09-29, 22:50:57
Originally posted by Thowe


Meint ow doch auch.

Ach so...

Er hat den [ironie] Button gepresst...

ow
2001-09-29, 22:58:59
Originally posted by Thowe


Meint ow doch auch.


yep:)

mac770
2001-09-30, 07:30:25
Originally posted by Razor
... Mit 'vernünftig' laufen, meine ich z.Bsp. U9, bei dem nicht einzusehen ist, warum es auf nicht-GLIDE Karten so verdammt mies läuft...

Wenn ich dich hier einmal korrigieren darf:

U9:
P3-1000EB, V5 5500 AGP, Glide (1024x768x16): 32fps
P3-1000EB, V5 5500 AGP, Glide (1024x768x32): 31fps

P3-1000EB, Kyro II, D3D (1024x768x16): 30fps
P3-1000EB, Kyro II, D3D (1024x768x32): 29,5fps

Soweit ich weiss, war seiner Zeit Glide die wesentlich schnellere API. Heute ists eh Wurscht, gibts ja nimmer ...

Greetz,
mac770

HOT
2001-09-30, 11:33:47
ow, das möcht ich sehen, wo du bei einer S3(!) oder Voodoo4/5 Karten den Unterschied zwischen einer komprimierten und einer unkomprimierten Textur siehst. Vor allem bei HighRes Textures :D
Man KANN den Unterschied mit dem blossen Auge schlichtweg nicht sehen. Bei Geforce sieht man bei Verwendung von DXT1 grosse und bei Redeon feine Unterschiede. Aber bei S3 Savage und V5 ist die Kompression nahezu perfekt.

ow
2001-09-30, 11:39:54
???

Selbstverständlich sieht man die Unterschiede zwischen nicht komprimierten und komprimierten Texturen.
Das DXT1 Format ist zur Darstellung bestimmter Texturen sogar absolut ungeeignet.

Ceiser Söze
2001-09-30, 16:19:08
Naja, auf GeForce-Karten mit dem S3TC-Bug (ups, hab ich Bug gesagt? Falsch, "It's not a bug, it's a feature" - um höhere Frameraten erreichen zu können) würde ich auch sofort einen Unterschied erkennen *eg* *eg* :D

StefanV
2001-09-30, 18:41:30
Das mit dem S3TC bei NV Karten KANN nur gewollt sein...

Oder ist es möglich, daß eine Karte 'ausversehen' 32bit Texturen nach 16bit konvertiert und die dann komprimiert??

Denke nicht...

Quasar
2001-09-30, 18:54:34
so wie bei ATI?

Ich hab' mich schon immer gefragt, wie die Leutz die ATI's wohl benchen....

StefanV
2001-09-30, 19:25:14
Originally posted by Quasar
so wie bei ATI?

Ich hab' mich schon immer gefragt, wie die Leutz die ATI's wohl benchen....

Nope, bei ATI ist es wirklich ein Feature ;)...

Kann man ja im Treiber abschalten ;)...

Quasar
2001-09-30, 19:54:38
Ja, sicher.
Nur frage ich mich, wieviele Hardware-Reviews wohl mit diesen, im Bild gezeigten Default-Einstellungen durchgeführt werden...

StefanV
2001-09-30, 19:59:22
Originally posted by Quasar
Ja, sicher.
Nur frage ich mich, wieviele Hardware-Reviews wohl mit diesen, im Bild gezeigten Default-Einstellungen durchgeführt werden...

Zuviele...

Aber das Zeigt doch, wie sorgfältig Reviews durchgeführt werden...

HOT
2001-09-30, 20:22:53
@ow
hast du schonmal ne Savage mit komprimierten Texturen getestet? Ich hab in Q3 lange gesucht, aber nur Z-Artefakte gefunden :D
irgendwie hat das aber nur was mit der verkorksten Z-Implementation der Savage zu tun. Texturfehler waren jedoch nicht vorhanden. Wie gesagt, die Kompression ist zwar nicht verlustfrei, aber bei S3 ist nur ein minimaler Verlustsatz von 1,5% drin. Das KANN man mit normalen Augen nicht sehen. FXT1 reduziert den Satz sogar noch, allerdings wird FXT1 mit Quake3 Standarttexturkompression nicht komplett unterstützt, sondern nur DXT1 bzw. S3TC. Selbst bei Voodoo ist nichts zu sehen.
@all
Ach ja, der ATI Treiber konvertiert 16Bit Texturen standartmässig und das wird in nur sehr wenigen Reviews beachtet. Dafür sieht aber auf dem Radeon die komprimierte und konvertierte 16Bit Textur irgendwie besser aus als eine S3TC kombimierte 32Bit Textur auf Geforce. Ich glaube nicht, dass der Geforce die Textur konvertiert bevor er sie komprimiert. Ich glaube nur, dass der Geforce eine 32Bit Textur hat und einen einfach nur ungenau komprimiert.
Hat sich NV eigentlich jemals zu diesem Thema geäussert?

Razor
2001-09-30, 20:59:06
Ja, haben sie...

Auch wurde diskret darauf hingewiesen, daß die Q3-Engine als einziges damit 'Probleme' hat. Soll irgendwas mit zu kleinen Texturen zu tun gehabt haben (kann mich daran auch nicht mehr so erinnern)...

Sowohl bei ATI, als auch bei nVidia ist es so gewollt, auch wenn mir schleierhaft ist, warum dem so ist...
Aber ich würd' mich daran nun wirklich nicht aufhängen, da selbst die nachfolgenden Q3-Engine-Games (wie ST: Voyager EF) dieses Problem nicht mehr haben... Auch UT sieht mit Compression sehr gut aus und selbst bei Q3 trifft dieses Prob nur den Himmel...

Auch ändert das nichts an der Tatsache, daß die S3's schlicht schlecht waren und nun auch ausgestorben sind (ev bei VIA ein Reuse finden). Mal ganz zu schweigen von den miesen Treibern, die von dort kamen...

In diesem Sinne

Razor

Liszca
2001-09-30, 22:20:27
Geschwindigkeit ist genauso wichtig wie qualität, und die Gefprce serie hat, entschuldigung für diese eckdaten, eine beschissene qualität, die kommt nicht mal an ne voodoo4 in der qualität ran!

Quasar
2001-09-30, 22:32:56
Hui...was für ein niveaureicher Kommentar...jetzt kann ich ja mit ruhigem Gewissen wieder in dieses Forum zurückkehren und muß nicht mehr an der außergewöhnlich hohen Sachkenntnis einiger User zweifeln...

Thowe
2001-09-30, 22:37:02
Originally posted by Quasar
Hui...was für ein niveaureicher Kommentar...jetzt kann ich ja mit ruhigem Gewissen wieder in dieses Forum zurückkehren und muß nicht mehr an der außergewöhnlich hohen Sachkenntnis einiger User zweifeln...

Nennen wir es anstatt Kommentar einfach Meinung, dann passt das schon eher. Man muss ja nicht die Meinung einer Person teilen um sie zu respektieren, auch wenn dies nicht objektiv ist.

Quasar
2001-09-30, 22:52:19
Auch wenn es eine Meinung sein sollte, so kann man auch versuchen, eine Meinung durch Argumente anderen plausibel zu machen...

So wie es dasteht ist es eine unreflektierte, quasi-orale Diarrhoe!

Wenn er wenigstens etwas gesagt hätte, warum er die Qualität der GF nicht mag...ist es der Himmel in Quake3? oder wackeln einige Bauteile auf den Karten? Ist die Qualität der Treiber nich zufriedenstellend? usw. usf.

Ich persönlich mag zum Beispiel recht gerne eine gute Texturqualität, sowohl was Schärfe, als auch was die Übergänge der einzelnen MipMap-Level angeht.

Was ich dagegen nicht mag, sind niedrige Auflösungen, deren an sich schon etwas unzureichende Texturschärfe noch durch Interpolation von Pixeln verschlimmbessert wird, die von den Entwicklern nicht vorgesehen waren.

Für mich persönlich ist eine 1024er Auflösung in 32Bit mit allen Details, 32fach Anisotropischem Filter und evtl. (kommt auf das Spiel an) etwas FSAA (was in dieser Auflösung die Texturen nicht mehr so stark beeinträchtig).
Das ganze aber nicht in Raytracing Geschwindigkeit à la VSA-100, sondern am liebsten mit etwa 60fps.

Thowe
2001-09-30, 22:57:57
Originally posted by Quasar
Auch wenn es eine Meinung sein sollte, so kann man auch versuchen, eine Meinung durch Argumente anderen plausibel zu machen...



Richtig, aber dein Posting war auch nicht so gelungen - auch wenn du durchaus recht haben magst. Deshalb danke ich dir jetzt für deine ausführliche Aufführung der Punkte die dich an seinem Posting gestört haben. :)

:wink: :) :) :)

StefanV
2001-09-30, 23:06:21
U.a.

16bit Dithering, ziehmlich dunkel

Razor
2001-09-30, 23:15:48
100%ig Daumen hoch für Quasar !

Gerade die gf3 hat eine sehr gute Bildqualität, mal vom Q3-Himmel abgesehen...
;-)

Aber die gf2-Linie hat sich nun wirklich nicht gerade mit Ruhm bekleckert (RF's und wenig mehr 'Features' im Vergleich zur gfddr), so muß ich zum Teil auch Liszca recht geben, auch wenn ich's etwas anders formuliert hätte...

1024x768x32 mit trilinearem Filter, 32-tap anisotropschein Filter und 2xQFSAA, alle Details...
Majam !
;-)

In diesem Sinne

Razor

Legolas
2001-09-30, 23:31:12
Originally posted by Quasar

Was ich dagegen nicht mag, sind niedrige Auflösungen, deren an sich schon etwas unzureichende Texturschärfe noch durch Interpolation von Pixeln verschlimmbessert wird, die von den Entwicklern nicht vorgesehen waren.


Du hast wohl den LOD-Bias Slider in den 3Dfx Tools übersehen ??? :D:D ;)

Quasar
2001-09-30, 23:35:46
Originally posted by Legolas


Du hast wohl den LOD-Bias Slider in den 3Dfx Tools übersehen ??? :D:D ;)

Nein, den habe ich sogar rege gebraucht, nur brachte der außer etwas schärferen Texturen leider auch etwas verstärktes Pixleflimmern an den MipMap-Übergängen zum Vorschein...
FSAA ist für meinen Geschmack zu langsam auf 'ner V5, auch wenn es, wie viele behaupten, eine tolle Qualität hat. Dieser Meinung bin ich nun mal nicht. Es sieht nicht besser und nicht schlechter aus, als das OGSS anderer Hersteller.

Und wie ich vorher schon schrieb, wenn ich perfekt geglättete Kanten will, Anisotropischen Filter in höchster Perfektion, Radiosity Lighting usw. dann benutze ich einen guten Raytracer, der auch nicht viel langsamer ist als ne Voodoo5, aber bedeutend bessere Bildqualität liefert... ;)

Legolas
2001-09-30, 23:44:56
Nur eine Sache des Maßes.. Man muss halt für jedes Game ne Optimaleinstellung suchen.. Und bei einigen Spielen hilft MipMap Dithering extrem gegen das Pixelflimmern.. z.b. bei Quake 3. Meine positive Einstellung zur V5 kommt wohl davon, daß ich immer noch Half-Life (nicht CS ;) )spiele, und dafür ist die Karte einfach genial.

Razor
2001-09-30, 23:47:33
@Quasar
Den man mit dem S3TC-Fix aber durchaus auch in den Griff kriegt. Sollte zwar eigentlich eher die Sache von nVidia sein, aber der Bug scheint sich ja regelrecht festgefressen zu haben, wenn er sogar im neuen GF3 noch "enthalten" ist..
"It's not a big ! It's a feature..:"
;-)

Ich denke, daß dahinter Absicht steht, denn schließlich hätte man die Texturen für den Himmel von Q3 ja auch 'anders' machen können...

Und soweit ich mich erinnere, sind davon nur alte Spiele betroffen, also eine Änderung auch im Prinzip auch nicht mehr notwendig ist. Ist halt immer das Problem von unterschiedlichen Implemtierung vermeintlich 'gleicher' Features. Jeder macht das anders und das resultat ist dann halt diefferent...
Die GF2 ist nicht ganz so schlecht, wie der Ruf, der ihr durch einige mangelhafte Exemplare von NoName-Herstellern eingebracht wurde (die es bei der KyroI wohl auch gab)...in 32bit mit S3TC-fix sind sowohl Geschwindigkeit als auch Qualität sehr angenehm. Meine ELSA Gladiac (jetzt bei Silmarin) hatte ein super 2D-Bild, entgegen allen Unkenrufen einiger Zweifler.
Es mag einige Ausnahmen geben, aber leider ist die Großzahl der OEM's schlecht gefertigt. ELSA hat eigentlich immer gute Produkte gefertigt, schließlich ist ja nicht nVidia für die Fertigung der Karten verantwortlich, sondern der Karten-Hersteller. Die Kritik sollte also nicht an nVidia gehen, sondern an die Hersteller, oder ? Allerdings ändert das nichts an der Tatsache, daß die gf2-Linie nur ein Aufguß der vorherigen gf ist und lediglich das Design ein wenig optimiert hat und dem ganzen dann einen neuen Namen gab, obwohl die interne Bezeichnung (NV15 statt NV10) ja daruf schließen läßt, daß es 'nur' neue revisionen waren...

Aber um noch mal auf die Kartenhersteller zurück zu kommen. Ich bin echt mal gespannt, wie sich das mit ATI entwickelt, schließlich sind ja dann die gleichen Karten-Hersteller am Werk, wie auch bei den gf's, gell ?
;-)
Prost!
*rülps*
;-)

In diesem Sinne...

Razor

Razor
2001-09-30, 23:49:00
Hä ?
Wo ist Dein Post hin, Quasar ?
Hmmm...

Irgendwie spackt das Board grad' wieder ab...
(hab' den vorherigen Quote wieder gelöscht, da dieser ja für Legolas war...)

Razor

Quasar
2001-09-30, 23:50:34
Vielen Dank, der muß irgendwie verschwunden sein..vielleicht waren die beiden zu dicht hintereinander oder so....als ich eben hier im Thread war, gab es ihn noch, aber nicht die antwort auf deinen Post, Razor...

*schüttelt den Kopf und wundert sich

ansonsten:
*unterschreibt

Quasar
2001-09-30, 23:59:21
ARGGGHEL!!!

Manchmal kann einen das Board (nicht die Poster, sondern das System) schon zum Wahnsinn treiben!!

Razor
2001-10-01, 00:02:49
Hey Quasar,

DAS Kommentar von Dir ist noch da !
(gleich hinter dem von Legolas)
;-)

Razor

P.S.: Deswegen hab' ich ihn ja auch gelöscht, nur Du hast ihn jetzt wieder drin... Egal !

HOT
2001-10-01, 00:02:55
hehe, in den Kyrotools gibt's auch nen LOD-BIAS und sogar einen Z-BIAS Slider :D
Die Nutzung ist aber nur mit aktiviertem MipMapping empfehlenswert :D