PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : T&L - Das nicht eingelöste Versprechen...das ich nicht lache!


tomylee
2001-08-19, 22:29:03
>> Es ist einsichtig, dass ein Athlon mit 1200 MHz (und seinen drei Pipelines) die Transformation der Eckpunkte sehr schnell erledigt, auch wenn dafür nur ein geringer Teil CPU-Zeit zur Verfügung steht. Auf jeden Fall transformiert ein 1200er Athlon schneller als eine mit 120 MHz laufenden T&L-Einheit einer GeForce 256. Mit anderen Worten, wer aus T&L einen Vorteil ziehen möchte, muss immer eine möglichst schnelle Grafikkarte haben. Die T&L-Grafikkarte wird nicht nur durch neue, schnellere Grafikkarten, sondern auch durch neue, schnellere CPUs zum Auslaufmodell. <<

und was sagt und das, was uns hier netterweise verschwiegen worden ist?

hat schon jemand mal daran gedacht wie befreiend eine T&L Geforce oder G2 für einen alten Rappelrechner wie meinem Celeron II ist? - also ich freu mich jedesmal wenn ich ein T&L Spiel in die Hände bekomme...das fluxt einfach! - MDK2 war ein genuß auf höchster ebene (leider bei 16bit sonst spielt die Bandbreite nicht mit (aber wen kümmerts...ich hab die Karte nicht wegen 32bit gekauft, das minimal besser ist als 16 Bit (Quake Himmel ausgeschlossen)))

also die dollen Gefürze nich schlecht machen ja? - wir können froh sein dass NVidia iNnoVationen gebracht hat! - vergessen dass wegen Nvidia der Grafikriese 3dfx ins Graß beißen musste? - mal ganz abgesehen vom Geniestreich neulich als die neue Ati-Karte rauskam, und NVidia prompt die neuen sauschnellen Treiber releaste...hehe

>>Bei den Computer-Spielen nur hier und und da ein paar Unterschiede<<

Das glaubt ihr weil viele gute Cpus haben! - aber nicht alle, und genau bei denen schiebt T&L die Frames nach oben!


nichtsdestotrotz...und immer schon kritisch bleiben liebes 3dcenter!!!

tt

Unregistered
2001-08-19, 22:55:53
Der Artikel kommt leider ein paar Monate zu spät!

Bis auf ein Spiel hab ich bisher noch jedes andere Spiel flüssig zocken können. Und bei diesem einen liegt es nicht an der Grafikkarte sondern am restlichen Rechner.

Das eine Spiel ist Gothic und läuft bei mir, unabhängig von den Grafikeinstellungen, immer gleich *gut*.
Mag ja sein, daß eine GF2 die CPU (550-er Athlon) ein wenig entlasten würde, aber deswegen sieht sie bestimmt nicht besser aus, als 'ne Voodoo5 bei 1024x768x32b und 2xFSAA.


Dann war da noch der Punkt mit Glide:
Ich hab es oft grnug erlebt, daß immer wieder gesagt wurde, daß es sich da ja um ein Glide-Spiel handelt, und es deswegen so schnell ist...
Na und, dann ist es eben ein Glide-Spiel aber das beweist doch, daß diese API gar nicht so schlecht gewesen sein kann.
Ich sag nur Diablo2:
1200-er TBird + GF3 und die Frameraten brechen gelegentlich auf 4 FPS ein.
K6-III 400 (128MB in TX-Bord) + Banshee!!! und die sinken nicht unter 18!

Unregistered
2001-08-19, 22:58:40
Stimmt schon was du sagst.
Für Rechner ohne große MHz-Zahl, wie z.b. K6 oder Celeron,
ist t&l sicherlich nicht schlecht, allerdings wurde im Artikel auch nichts anderes behauptet.
Man trifft lediglich Aussagen über die Sinnlosigkeit von t&l
bei hohen Taktfrequenzen(>1200).

mac770
2001-08-19, 23:03:16
hat schon jemand mal daran gedacht wie befreiend eine T&L Geforce oder G2 für einen alten Rappelrechner wie meinem Celeron II ist?

Wieso sollte ich nicht ein paar Mark in heutige unglaublich günstige gerwordene GHz-CPUs stecken und lieber eine völlig überteuerte nVidia Graka kaufen, die dann noch eine spürbar schlechtere Bildqualität hat als die übrigen am Markt befindlichen Karten? Um meinem nVidia-Gott zu huldigen?

wir können froh sein dass NVidia iNnoVationen gebracht hat! - vergessen dass wegen Nvidia der Grafikriese 3dfx ins Graß beißen musste?

1. Es scheint ein ungeschriebenes Gesetz zu sein, dass kleine, aufstrebende Unternehemen diejenigen mit den Innovationen sind. Firmen wie M$ kaufen kleine Firmen oder deren Produkte, um Innovation leisten zu können. Oder ein Intel lässt unverhofft AMD vorbeiziehen, was Leitung und Preis angeht und verlangt dabei heute noch astronomische Summe für die überholte Technink, im Vergleich zu AMD. Dieses Phänomen erlebt man allerorts.
2. nVidia beginnt, die eigenen Produkte mit 3dfx Knowhow aufzuwerten. Ab einem gewissen kapitalstock scheint es einfacher Innovatiob einzukaufen, als sie selber zu ersinnen. Die mit wenig Geld machen die (Kopf)arbeit. Die mit dem großen Kapital kaufen diese Arbeit für kleines Geld und verkaufen sie dann unter dem eigenen Namen gewinnbringend. Aber das ist ja auch allgemein üblich und vielerorts so.
3. Schau dir in dem anderen Thread nochmal mein Posting zum Thema 3dfx-Untergang an. Fakt ist, das 3dfx nicht auf grund der Technik, die locker mit nVidia mithalten konnte unterging, sonder auf Grund von Marketing- und groben Managementfehler. 3dfx hat sich in diesem Bereich einige unentschuldbar Fehler geleistet. Und genau das hat dem Unternehmen das Genick gebrochen. Nicht die Qualität ihrer Produkte. nVidia hat sogar recht wenig Anteil an dem Tod von 3dfx, ausser dass nVidia ein Konkurrent war, wie auf anderen Märkten ebenfalls üblich ist. 3dfx hat sich in der Managementetage selbst ins Aus manövriert. Sozusagen eine hausgemachte Pleite.

Greetzmac770

Unregistered
2001-08-20, 00:19:07
Originally posted by Unregistered
Stimmt schon was du sagst.
Für Rechner ohne große MHz-Zahl, wie z.b. K6 oder Celeron,
ist t&l sicherlich nicht schlecht, allerdings wurde im Artikel auch nichts anderes behauptet.
Man trifft lediglich Aussagen über die Sinnlosigkeit von t&l
bei hohen Taktfrequenzen(>1200).
Sie lassen es aber einfach so unter den tisch fallen, dass T&L bei schwachen CPUs wie meinem P3-600 durchaus etwas bringt.....etwas vorzuenthalten ist auch eine art der beeinflussung......hier wird eine teilwahrheit als die ganze wahrheit dargestellt und das ist kein seriöser journalismus sondern bildzeitungsniveau!

Der "Marketinggag" bringt mir in MaxPayne nur 40% höhere FPS als software T&L......ziemlich beeindruckend.

Tomylee hat den nagel genau auf den kopf getroffen.

Unregistered
2001-08-20, 01:12:15
Och lol wie sich hier einige aufregen!! =) einfach nur goil =P
Also wer heutzutage immer noch mit 600MHZ zockt ist selber schuld...
600MHZ aber hauptsache ne geforce2 im rechner haben lol!
da sieht man wieviel ahnung einige leute von der Hardware haben!
kaufen sich ne Geforce2 aber haben ne cpu die vielleicht vor 2 jahren aktuell war!
naja selber schuld... viel spass mit eurem T&L dass sowieso keiner braucht!

Unregistered
2001-08-20, 01:17:00
Ich bin auch einer der Doofen, die auf nVidias Marketing-Gesülze reingefallen sind. Bei der GeForce256 hieß es nämlich sinngemäß: "Wenn Sie diese Karte kaufen, dann brauchen Sie ihren PC die nächsten Jahre nicht mehr aufzurüsten. Die Grafikkarte wird Ihre CPU so sehr entlasten, daß neue CPU's die nächsten Jahre überflüssig sind."

Daher kaufte ich im Februar 2000: 550 Pentium III mit GeForce256. Jetzt steht ein 1000 Pentium III unter meinem Schreibtisch. Nach nur 18 Monaten kam der Rechner mit Spielen wie Undying, Elite Force oder Operation Flashpoint nur noch unzureichend zurecht (bei 1024 und vollen Details, und wer verzichtet darauf schon gerne?) Und jetzt wird meine neue CPU durch die GeForce256 teilweise ausgebremst.

Also ich habe aus nVidias Marketing-Lügen gelernt. Aber was sind die Alternativen, wenn (fast) jeder Spiele-Entwickler von nVidia schwärmt und am liebsten nur noch für nVidia-Karten entwickeln möchte?

aths
2001-08-20, 01:28:33
" (leider bei 16bit sonst spielt die Bandbreite nicht mit (aber wen kümmerts...ich hab die Karte nicht wegen 32bit gekauft, das minimal besser ist als 16 Bit (Quake Himmel ausgeschlossen)))"

Ich will nicht nerven, aber hast du 16 Bit Geforce mal mit 16 Bit Voodoo verglichen? Nicht auf dem Screenshot, sondern auf dem Monitor. Gegen die Kyro sehen allerdings beide arm aus. Ist das (mit der Kyro) nicht total klasse? Ok, man braucht für sie eine stärkere CPU. Dafür ist die Grafikkarte an sich deutlich günstiger. KyroII für ca. 220 DM, Geforce2 GTS für ??? DM. Von der Differenz könnte man sich eine stärkere CPU leisten - und davon profitiert man nicht nur in Spielen.

"mal ganz abgesehen vom Geniestreich neulich als die neue Ati-Karte rauskam, und NVidia prompt die neuen sauschnellen Treiber releaste...hehe"

Also haben sie ihren Kunden bislang nicht die beste Leistung geboten. Was ist daran lobenswert?

">>Bei den Computer-Spielen nur hier und und da ein paar Unterschiede<<

Das glaubt ihr weil viele gute Cpus haben! - aber nicht alle, und genau bei denen schiebt T&L die Frames nach oben!"

Bei meinen 600 MHz kann man sicher nicht von einer sonderlich tollen CPU sprechen. Ich stelle also Geometrie-Details herunter.
---
"Sie lassen es aber einfach so unter den tisch fallen, dass T&L bei schwachen CPUs wie meinem P3-600 durchaus etwas bringt....."

Zitat von Seite 2: "Mit Hardware-T&L lässt sich unter bestimmten Voraussetzungen die Polygon-Anzahl erhöhen."

Das habe ich nicht unter den Tisch fallen lassen. Mehrfach wurde erwähnt, dass T&L durchaus einen Speed-Up bringt. Das steht auch im Fazit nochmal.

"etwas vorzuenthalten ist auch eine art der beeinflussung......hier wird eine teilwahrheit als die ganze wahrheit dargestellt und das ist kein seriöser journalismus sondern bildzeitungsniveau!"

Entschuldigung, wenn sich der Leser über "Bildzeitungs-Niveau" wähnt, sollte er den Artikel entsprechend aufmerksam lesen können.

Meiner Ansicht nach ist T&L als "Nebenfeature" zu werten, nach dem Motto "nice to have." Nehmen wir an, dank T&L kann man in Max Payne das Geometrie-Level 1 oder gar 2 Stufen höher stellen. Die Grafik sieht damit *etwas* besser aus. Es gibt aber nicht den grossen Sprung.

Bronto
2001-08-20, 01:51:27
Als Programmierer weiss ich um den Prozessoraufwand, der durch Transformationen entsteht.Leute, die sich nicht so stark mit der Materie beschäftigen, sollten nicht über solche Themen schreiben...

TnL KANN sich nämlich als sehr nützlich erweisen (wenn es von den Programmierern konsequent genutzt wird).
Mag ja sein, das ein >1GHZ Prozessor ältere TnL Karten "überrennt", aber deswegen kann man ja nicht gleich die ganze Technologie verdammen. Von mangelnder Flexibilität wird durch die Weiterentwicklung des Tnl in der Geforce3, den Vertex Shadern nicht mehr die Rede sein. Und die Pixel Shader werden die Grafikqualität verbessern (kein FSAA, sondern Texturoperationen, z.b. realistische Wasseroberflächen).
Das Texture Mapping der ersten 3D-Karten war auch nicht perfekt...


Ich verstehe auch nicht, warum es neuerdings in Mode gekommen ist, auf nVidia rumzuhacken. Früher, als noch Voodoo 1&2 die absoluten Marktführer waren, war das nämlich genau umgekehrt..

Kai
2001-08-20, 08:25:48
Originally posted by Bronto
Ich verstehe auch nicht, warum es neuerdings in Mode gekommen ist, auf nVidia rumzuhacken. Früher, als noch Voodoo 1&2 die absoluten Marktführer waren, war das nämlich genau umgekehrt..



GANZ genau meine Beobachtung. Auf meinen Spruch "Wenn ATI mal nach ganz oben kommen würde, würde auf denen auch jeder rumhacken" haben alle extrem Anti-Nvidiasten richtig grantig reagiert.

Ich weiß ganz genau was viele wurmt ... aber das hier offen zu sagen ... auje, ich hab keine Lust auf Sodom & Gomorra.

aths
2001-08-20, 10:26:56
"Als Programmierer weiss ich um den Prozessoraufwand, der durch Transformationen entsteht.Leute, die sich nicht so stark mit der Materie beschäftigen, sollten nicht über solche Themen schreiben..."

Na dann warte ich gespannt auf deinen Artikel.

"TnL KANN sich nämlich als sehr nützlich erweisen (wenn es von den Programmierern konsequent genutzt wird)."

Vergiss nicht zu erwähnen, dass DX7-T&L vorallem bei statischer Geometrie Sinn macht. Ansonsten sieht es mit dem Nutzen ziemlich mau aus. Wenn 3DNow! und SSE konsequent genutzt werden, könnten die sich auch als sehr nützlich erweisen. Falls es untergegangen ist: Es wurde angesprochen, dass die Rendereinheit der T&L-Karten nicht auf den angeblich machbaren Detailreichtum ausgelegt sind. Das noch so nützliche T&L lässt sich so nur bedingt in Leistung umsetzen.

"Mag ja sein, das ein >1GHZ Prozessor ältere TnL Karten "überrennt", aber deswegen kann man ja nicht gleich die ganze Technologie verdammen."

Wo wird das getan? Es wird angezweifelt, dass T&L den Nutzen bringt, den es im Verhältnis einen Stellenwert in den Medien haben müsste.

"Von mangelnder Flexibilität wird durch die Weiterentwicklung des Tnl in der Geforce3 den Vertex Shadern nicht mehr die Rede sein."

Vor der GeForce3 hatte die Radeon schon einen Vertex Shader.

"Und die Pixel Shader werden die Grafikqualität verbessern (kein FSAA, sondern Texturoperationen, z.b. realistische Wasseroberflächen)."

Was hat das mit dem festverdrahtetem T&L zu tun?

Unregistered
2001-08-20, 11:03:01
Ich muss zugeben, dass mich hier das eine oder andere Posting schon amüsiert...

Aber zum Wesentlichen:
1. Der Artikel liefert weitgehend Fakten, die nicht zu widerlegen sind. Tatsache ist nunmal, dass nur die wenigsten Spiele T&L TATSÄCHLICH ausnutzen. Unterstützung ist eben nicht gleich Ausnutzung.
2. Weder pathetisches Gejammere noch notorsiche Quängelei bringen die Diskussion weiter. Tatsache bleibt: Nvidia diktiert durch seine Spitzenstellung den Markt und damit leider auch die Preise.
3. Jeder mathematische Laie ist in der Lage, folgende Rechnung nachzuvolziehen: GF 2 = ~400 DM. 1400 MHz AMD CPU 300 DM. Vernachlässigt man Mainboard-Beschaffung (das alte kann evtl. verkauft werden ) ist die Mehrleistung durch den neuen Prozessor in ALLEN Programmen sichtbar. Es dürfte nicht schwer fallen, hier die größere Effizienz auszumachen.
4. Aufrüsten setzt Überlegen voraus.
5. Zu Bronto und seinem sehr "kompetenten Posting":
Nicht überall, wo Programmierer draufsteht, ist auch Programmierer drin ;) . Die faktische Aussagekraft dieses Postings ist gleich Null ! Zu Deiner Information: 1 GHz bekommt man mittlerweile für 200 DM. Aus seinem Posting könnte man schließen, dass es noch 2000 DM kosten würde.

;) Mike

... der selbst programmiert, aber noch lange kein Programmierer ist ;)

PS: Von Bildzeitungs-Journalistmus kann nicht die Rede sein !!!

ow
2001-08-20, 11:38:41
@aths


Kennst du ueberhaupt den Unterschied zwischen Hardware und Software??

Zu behaupten ein 1200er AThlon wuerde in SW T&L schneller sein als die GF HW T&L ist ja wohl absolut lachhaft.

Wenn der Athlon mal 5GHz erreicht hat, dann koennen wir vielleicht ueber gleiche T&L Leistung reden.

ach ja:
man versuche nicht, die Leisung einer T&L in fillrate limitierten Szenarien zu zeigen, sonst behaupte ich mal, dass eine K6 300 ebenfalls die T&L Leistung eines Athlon 1 GHz ereicht (ich brauche dafuer ja nur eine Riva TNT bei 1280x32Bit zu benchen).

mac770
2001-08-20, 12:33:44
Originally posted by Unregistered

Sie lassen es aber einfach so unter den tisch fallen, dass T&L bei schwachen CPUs wie meinem P3-600 durchaus etwas bringt.....etwas vorzuenthalten ist auch eine art der beeinflussung......hier wird eine teilwahrheit als die ganze wahrheit dargestellt und das ist kein seriöser journalismus sondern bildzeitungsniveau!

Der "Marketinggag" bringt mir in MaxPayne nur 40% höhere FPS als software T&L......ziemlich beeindruckend.

Tomylee hat den nagel genau auf den kopf getroffen.

Kann es sein dass einige Leute hier einfach nicht lesen können?

Lieber Härr Unregistered,

etwas weiter über Ihrem fragwürdigen Posting schrieb ich:
Wieso sollte ich nicht ein paar Mark in heutige unglaublich günstige gerwordene GHz-CPUs stecken und lieber eine völlig überteuerte nVidia Graka kaufen, die dann noch eine spürbar schlechtere Bildqualität hat als die übrigen am Markt befindlichen Karten? Um meinem nVidia-Gott zu huldigen? Hätte Sie dies gelesen, so sollte man annehmen, dass Sie dies dazu verleitet hätte, Ihr besagtes Posting nicht zu verfassen, da es Sie ein wenig der Lächerlichkeit preisgibt.

Ihnen sollte doch wohl klar sein, dass es mehr Sinn macht, seine CPU von 600MHz auf 900MHz aufzustocken, als sich überteuerte nVidia-Hardware zu kaufen, die dann auch noch eine mindere Bildqualität hat. Bitte beachten sie, dass eine CPU-Aufrüstung dem GANZEN System zugute kommt und nicht nur seltenen Spieletiteln, die DX7 T&L unterstützen. Bitte beachten Sie weiterhin, dass Sie für diese deutlich vorteilhaftere Wahl der CPU-Aufrüstung nur einen Bruchteil der Kosten targen müssen, die sie bei der entsprechenden T&L-Lösung tragen müssten.

Jetzt sollte Ihnen auffallen, weswegen ich von Lächerlichkeit in Bezug auf Ihr Posting sprach.

MfG,
mac770

Unregistered
2001-08-20, 12:57:52
Originally posted by ow
@aths



Zu behaupten ein 1200er AThlon wuerde in SW T&L schneller sein als die GF HW T&L ist ja wohl absolut lachhaft.

Wenn der Athlon mal 5GHz erreicht hat, dann koennen wir vielleicht ueber gleiche T&L Leistung reden.



Dieser vergleich ist nur ein witz und kann wohl nicht erntgenommen werden, oder vergleichst du auch Äpfel mit Eieren??

mac770
2001-08-20, 13:11:45
@ow: Das waren ja schon deutlich mehr als 3 Wörter! Gratulation!

Trotzdem bezweifel ich deine Argumentation.

Zu behaupten ein 1200er AThlon wuerde in SW T&L schneller sein als die GF HW T&L ist ja wohl absolut lachhaft.

Keiner hat entwas von Softwarerendering gesagt!

Stell dir eine Graka auf GF-mässigen Performancelevel (incl. T&L) vor, bei Athlon 800. Dann eine Graka auf GF-mässigen Performancelevel OHNE T&L, bei einem Athlon 1200. Die 3D Performance wäre zumindest identisch.

Erinnerst du dich noch an Zeiten bis zur TNT/Banshee? Bis dahin hat lange Zeit eine Highendgarka fast DM 300,- gekostet, von einer Generation zur nächsten. Dies war das obere Limit. Nachdem nVidia seine Marktführerschaft endlich uneingeschränkt ausbauen konnte, ist das Preisniveau von Grafikkarten extrem gestiegen. Eine GF2 (Pro/Ultra) hat teilweise DM 1.500,- und mehr gekostet.

Jetzt sage nicht, die GeForce kann aber auch deutlich mehr. Mein aktueller PIII kann auch deutlich mehr als mein 80286, beide haben aber gleich viel gekostet, jeweils zu dem Zeitpunkt, als sie erschienen.

Was ist dir lieber? DM 300,- für eine Highendgrafiklösung zu zahlen oder über DM 1.500.- ? Und weswegen soviel mehr bezahlen? Wegen einem Feature das nun wirklich keiner braucht (s.o.), aber das Fachblatt und der Kumpel sacht dass das gut ist? Oder weil nVidia irgendwie cool ist. Zugegeben, das nVidia-Logo finde ich wirklich gelungener als das von 3dfx.

Allerdings scheint es in den Augen einiger wirklich cooler zu sein DM 1.500,- anstatt DM 300,- auszugeben. Kann sich halt nicht "jeder" leisten. Wie nennt sich das gleich nochmal? Snobeffekt? Wirtschaftswissenschaftler vor!

Greetz,
mac770

ow
2001-08-20, 15:26:28
Originally posted by mac770
@ow: Das waren ja schon deutlich mehr als 3 Wörter! Gratulation!

Trotzdem bezweifel ich deine Argumentation.

Keiner hat entwas von Softwarerendering gesagt!


Was gibt's denn noch ausser HW T&L und SW T&L? Ich meinte nicht SW-Rendering.


Stell dir eine Graka auf GF-mässigen Performancelevel (incl. T&L) vor, bei Athlon 800. Dann eine Graka auf GF-mässigen Performancelevel OHNE T&L, bei einem Athlon 1200. Die 3D Performance wäre zumindest identisch.


Also was mir da fehlt ist der Bezug, WORIN denn die Performance gleich sein soll.

Glaubst du, ein Athlon koennte ein 3D-Modell aus 100.000 Polygonen im Wireframe-Modus oder im Fill-Modus ohne Texturen (flat/gouraud shading) auch nur annaehernd so schnell transformieren wie eine HW T&L??

In Spielen hingegen ist der Rasterizer der limitierende Faktor, weil SPiele immer komplett texturiert sind (sogar multitexturiert heute).


Erinnerst du dich noch an Zeiten bis zur TNT/Banshee? Bis dahin hat lange Zeit eine Highendgarka fast DM 300,- gekostet, von einer Generation zur nächsten. Dies war das obere Limit. Nachdem nVidia seine Marktführerschaft endlich uneingeschränkt ausbauen konnte, ist das Preisniveau von Grafikkarten extrem gestiegen. Eine GF2 (Pro/Ultra) hat teilweise DM 1.500,- und mehr gekostet.


Hab meine Banshee erst zu Jahresbeginn ausrangiert, die TNT vor 3 Wochen.
Zum Preis-Limit: Voodoo2 SLI ab 1200DM.
Es war schon immer so und es wird auch immer so sein, dass fuer die schnellste und neueste HW immense Summen gefordert und bezahlt werden. Das hat nix mit NVidia zu tun.


Jetzt sage nicht, die GeForce kann aber auch deutlich mehr. Mein aktueller PIII kann auch deutlich mehr als mein 80286, beide haben aber gleich viel gekostet, jeweils zu dem Zeitpunkt, als sie erschienen.

Was ist dir lieber? DM 300,- für eine Highendgrafiklösung zu zahlen oder über DM 1.500.- ? Und weswegen soviel mehr bezahlen? Wegen einem Feature das nun wirklich keiner braucht (s.o.), aber das Fachblatt und der Kumpel sacht dass das gut ist? Oder weil nVidia irgendwie cool ist. Zugegeben, das nVidia-Logo finde ich wirklich gelungener als das von 3dfx.

Allerdings scheint es in den Augen einiger wirklich cooler zu sein DM 1.500,- anstatt DM 300,- auszugeben. Kann sich halt nicht "jeder" leisten. Wie nennt sich das gleich nochmal? Snobeffekt? Wirtschaftswissenschaftler vor!

Greetz,
mac770


Also High-End Grafik gibt's nur im Bereich professioneller OGL-Beschleuniger, ab 3TDM (NVidia!) aufwaerts bis ueber 20TDM (3dlabs, SGI, intergraph, evans&sutherland).

Mir ist auch nicht begreiflich, wieso alle denken, die T&L waere nur fuer Spiele entwickelt worden. HW T&L gab es schon IMMER (seit etwa 1990) im Profibereich, da ist es nur logisch, dass dieses Feature irgendwann auch im Consumer-Bereich Einzug gehalten hat.

(ps) Ich hab noch nie mehr als 160DM fuer eine Grafikkarte (2nd hand) ausgegeben.

nggalai
2001-08-20, 15:53:53
Hi mac770,

Ihnen sollte doch wohl klar sein, dass es mehr Sinn macht, seine CPU von 600MHz auf 900MHz aufzustocken, als sich überteuerte nVidia-Hardware zu kaufen, die dann auch noch eine mindere Bildqualität hat. Du gehst vom Hardcore-Gamer aus. Du wärst erstaunt, wie wenige % des Spiele-Marktes bereit sind, ihre Media Markt, Dell, Aldi und Compaq-Kisten aufzuschrauben, den Lüfter zu entfernen, CPU auszuwechseln, oder gar den Rechner komplett zu zerlegen um dann diese grosse, grüne Platine auszubauen. Was denkst Du, was der Durchschnittsuser mit einem 1-2 Jahre alten System macht? mit Garantieverfall Mainboards und CPU auswechseln, wenn er für 200.- einfach eine neue Komponente einbauen kann und dann "läuft's besser" (wenigstens aus dessen Sicht)?

Wegen Bildqualität, da lass' ich die Finger davon ... es gibt auch nVidia Kartenhersteller, die das im Griff haben, mehr sag' ich dazu nicht. :)

ta,
.rb

007
2001-08-20, 17:25:56
wieso gibtsn zwei Threads über diesen Artikel?

StefanV
2001-08-20, 18:10:07
Originally posted by 007
wieso gibtsn zwei Threads über diesen Artikel?

WO sind 2??

Ich hab 3 gezählt...

Wahr wohl so interessant...

Unregistered
2001-08-20, 18:19:30
Hallo !!!!!!!

Ich habe meine KyroII jedenfalls wieder zurückgegeben und
gegen eine Geforce2 GTS Pro getauscht.
Die Karte war nur 90,- DM teurer und ich habe es nicht bereut.
Seitdem kann ich Max Payne viel flüssiger und mit allen Details spielen.

Mein System:

1 GHz Athlon
384 MB RAM
Geforce2 GTS Pro
Win ME

007
2001-08-20, 18:24:32
Originally posted by Stefan Payne


WO sind 2??

Ich hab 3 gezählt...

Wahr wohl so interessant...

dann halt 3 auch gut !

Unregistered
2001-08-20, 18:40:56
is schon lustig wie sich manche so hochspulen! also ich hab mir den artikel durchgelesen und fand ihn doch ganz informativ und kann ihm doch in vielen punkten recht geben.
hatte bis vor ein paar tagen auch noch ne v3 mit nem 1ghz p3 und war eigentlich absolut zufrieden und hab jetzt auch wieder eine nicht nvidia karte gekauft (kyro2) und bin auch wieder zufrieden und denke nicht das mir t&l irgendwie fehlt.
und für die nächsten 1-2 jahre reicht die bestmmit noch, dann kann ich mir immer noch eine mit t&l holen, falls es dann schon notwendig sein sollte. hab ja schließlich genug gespart im gegensatz zu einer nvidia karte auf gleichem niveau und meine ist auch nicht langsamer als eine gf2 nur billiger!

Bronto
2001-08-20, 19:38:28
@mike

wenn es ein posting gibt, dass absolut nichts zum thema beigetragen hat, dann ist es deins.
deine dümmlichen anspielungen kannst du dir sparen. dass du über mich urteilst obwohl du mich überhaupt nicht kennst sagt genug über den wert deines postings aus..

aber ich seh schon, hier kann man nicht vernünftig diskutieren..die fakten werden verdreht wies einem grad passt

scheiss microsoft, scheiss nvidia.. hauptsache wir sind rebellen, das bringt hits ...

tomylee
2001-08-20, 20:50:46
Also was soll das hier?

NVidia hat die leistungsmäßig prozentuelle Notwendigkeit von MonsterMHZ-Cpus mit dem T&L Fearute um einiges heruntergeschraubt oder net? - sonst würden die meisten Spiele von den meisten hier im Forum wohl nicht schon ab einem 600 Pentium III flüssig laufen, oder?

Also und was ist das für ein Argument, zu behaupten, dass HEUTE die CPUs so saubillig wären (was sie auch sind dank AMD sind) aber denkt mal an Sommer letzten Jahres, als die Geforce 2 GTS rauskam...also wenn ich mich recht erinnere waren da die 800Cpus noch sauteuer und diese lägen dann genau auf der GTS' Leistungsniveau und etwas darunter (was wiederum dazu führt, dass man die Details raufschrauben kann!) - und FAKT ist nun mal, dass die meisten bei Geforce 256,DDR und bei GTS damals zugeschlagen haben! - Sollen die von 3D-Center mir mal erklären, warum so n Miesmache-Artikel gerade dann herauskommt wenn der ganze Zauber um die T&L-Eigenschaften doch gerade zu Ende (bzw in die nächte runde mit programmable T&L) geht??

und nochmals ganz allgemein: Mir gefiel immer wie gekonnt 3Dcenter immer wieder Missstände im 3d-Hardware-Bereich in gekonnten Berichten auf der Seite aufdeckten, ... aber was ich neulich sehen musste das erinnerte mich doch "ziehmlich" (ich sage bewusst nicht "stark") an Sensationsgeilheit àla Bild!

t schüss

mac770
2001-08-20, 20:57:40
@ow
Originally posted by ow
Was gibt's denn noch ausser HW T&L und SW T&L? Ich meinte nicht SW-Rendering.

Wenn du also nicht Softwarerendering meinst, was soll dann das:

Originally posted by ow
Zu behaupten ein 1200er AThlon wuerde in SW T&L schneller sein als die GF HW T&L ist ja wohl absolut lachhaft.

Wenn der Athlon mal 5GHz erreicht hat, dann koennen wir vielleicht ueber gleiche T&L Leistung reden.

lol? Wie ich schon sagte, würden ein paar Hundert mehr CPU-MHz asureichen um HW T&L durch SW T&L zu ersetzen. Bei 5GHz (ich gehe hier dabei aus, dass die CPU-Leistung entsprechend mitskaliert) könntest du das wahrscheinlich tatsächlich auch durch Softwarerendiering einsetzen um zum gleichen Ergebnis bei der Grafikdarstellung zu kommen. Also was soll deine Aussage mit 5GHz? Das ergibt keinen Sinn, wenn du nicht Softwarerendering meinst. Und wenn ergibts ebensowenig Sinn. So oder so.

Originally posted by ow
Also was mir da fehlt ist der Bezug, WORIN denn die Performance gleich sein soll.

Glaubst du, ein Athlon koennte ein 3D-Modell aus 100.000 Polygonen im Wireframe-Modus oder im Fill-Modus ohne Texturen (flat/gouraud shading) auch nur annaehernd so schnell transformieren wie eine HW T&L??

In Spielen hingegen ist der Rasterizer der limitierende Faktor, weil SPiele immer komplett texturiert sind (sogar multitexturiert heute).

- Worin? In der 3D Performance, hab ich doch gesagt. fps. Was verstehst du denn unter3d Performance?
-Absolut glaube ich dass ein Ahtlon (welcher Takt?) dies kann und zwar weitaus schneller als eine HW T&L! Und bevor du nun in Gelächter ausbrichst: Wir reden hier von DX7 (GF,GF2) statisches HW T&L der Konsumerklasse. Bitte vergesse nicht 3DNow! bzw. SSE/SSE2 Multimediaerweiterung der CPUs. Wie ich also schon sagte, würden ein paar MHz mehr ausreichen (SW T&L), um fehlendes HW T&L auszugleichen. Und du weisst, dass ich das T&L der GF meine, nicht von 3dlabs, SGI, intergraph, evans&sutherland u.s.w. Der Bezug bleibt das in jedem Fall das GF T&L.

Originally posted by ow
Es war schon immer so und es wird auch immer so sein, dass fuer die schnellste und neueste HW immense Summen gefordert und bezahlt werden. Das hat nix mit NVidia zu tun.

Exakt so ist es und genau das habe ich auch gesagt. Neue Generationen an Hardware kosten auch immer Spitzenpreis, logisch. Hat auch nichts mit nVidia zu zun. Auch logisch. ABER: Ich habe vom gestiegenen PREISNIVEAU gesprochen. Und dies ist ein ganz einfacher Fakt. Highendkarten (und du weisst, dass ich hier vom Konsumermarkt rede!) haben lange Zeit den Spitzenpreis von DM 300,- erzielt. Dass Sie dann günstiger wurden bis die neue Kartengeneration erschien die wieder DM 300,- kostetet usw. brauche ich hier wohl nicht noch zu erwähnen. Auch das ist dir bekannt. Fakt ist weiterhin, dass sich dieses Spitzenpreisniveau seit der Marktdominanz von nVidia vervielfacht hat. Was ist daran nicht zu verstehen?

Originally posted by ow
(ps) Ich hab noch nie mehr als 160DM fuer eine Grafikkarte (2nd hand) ausgegeben

Finde ich gut. ABER: Du brauchst kein VWLer zu sein um zu durchschauen, dass ein Oligopol oder gar Monopol IMMER eine negative Auswirkung auf den Markt in Form von Preisanstieg (Preisdiktat) und Innovationsarmut zur Folge hat. Dies sind ganz simple volkswirtschaftliche Gesetzmäßßigkeiten. Und im Endeffekt trifft dies JEDEN, der an diesem Markt in Erscheinung tritt.

Nochmal: Das nVidia nicht mit der Vervielfachung des Preisniveau von Grafikkarten zu tun hätte, ist schlciht und ergreifend falsch.

Originally posted by ow
Zum Preis-Limit: Voodoo2 SLI ab 1200DM.

Diesem Satz ohne Bezug kann ich nichts abgewinnen. Was? Wo? Wie? Wann? Gib mir bitte mehr Infos, damit ich diese Aussage ins rechte Licht rücken kann.

Greetz,
mac770

Unregistered
2001-08-20, 21:11:13
[QUOTE]Originally posted by tomylee
[B]Also was soll das hier?

NVidia hat die leistungsmäßig prozentuelle Notwendigkeit von MonsterMHZ-Cpus mit dem T&L Fearute um einiges heruntergeschraubt oder net? - sonst würden die meisten Spiele von den meisten hier im Forum wohl nicht schon ab einem 600 Pentium III flüssig laufen, oder?

=> Aha nur die meisten bleiben bei einer Auflösung von 1024 x 768 in Bit. Da reichte eine 600er CPU aus.
Komsich ich habe bis jetzt noch kein Grafikwunder durch T&L erlebt.
Nvidia hat auch jahrelang einen vernünftigen 32 Bit Modus versprochen. Das einzige was NV zustande gebracht hatte war ein Framerrate einbruch.
Fimren wie ATI mit HyperZ hatten erstmals gezeigt wo der Hammer hängt.

Also und was ist das für ein Argument, zu behaupten, dass HEUTE die CPUs so saubillig wären (was sie auch sind dank AMD sind) aber denkt mal an Sommer letzten Jahres, als die Geforce 2 GTS rauskam...also wenn ich mich recht erinnere waren da die 800Cpus noch sauteuer und diese lägen dann genau auf der GTS' Leistungsniveau und etwas darunter (was wiederum dazu führt, dass man die Details raufschrauben kann!) - und FAKT ist nun mal, dass die meisten bei Geforce 256,DDR und bei GTS damals zugeschlagen haben! - Sollen die von 3D-Center mir mal erklären, warum so n Miesmache-Artikel gerade dann herauskommt wenn der ganze Zauber um die T&L-Eigenschaften doch gerade zu Ende (bzw in die nächte runde mit programmable T&L) geht??

=> Stimmt, jede Technologie braucht mal einen Anfang, rechterfertig aber dennoch sinnlose Marketing gelabber nicht und sinnlose Panikmache ala Kyro Dokument.
Das sind die linken Partien die mir am Sack gehen.

und nochmals ganz allgemein: Mir gefiel immer wie gekonnt 3Dcenter immer wieder Missstände im 3d-Hardware-Bereich in gekonnten Berichten auf der Seite aufdeckten, ... aber was ich neulich sehen musste das erinnerte mich doch "ziehmlich" (ich sage bewusst nicht "stark") an Sensationsgeilheit àla Bild!

=> Kann sein nur hier werden mit Fakten gefahren und kein sinnloses Gelabber, ala PCGH, Gamestar und sonstige möchtegern Zeistschriften.

Tschüss ebenso

ow
2001-08-20, 21:11:50
Sorry @ mac770


Wenn du nicht begreifst, was ich da schreibe, dann brauchst du´s auch nicht zu lesen und zu kommentieren.
Ich werde es nicht nochmal erklären!

Wenn du wirklich so wenig Verstand hast, wie ich nach deinem letzten Posting annehmen muss, dann lassen wir es hier gut sein.

Ich werde deine Postings nicht kommentieren und du lässt mich ebenfalls in Ruhe, ist doch ein Vorschlag, oder??

mac770
2001-08-20, 21:59:41
Klar ist das ein Vorschlag. Nur muss ich dir auch sagen, dass es genau anders herum ist. Ich verstehe sehr gut was du sagts. Mein Verstand reicht auch ebenfalss aus, deine plakative Argumentation recht leicht zu widerlegen.

Ich bin sogar davon überzeugt, dass du das ähnlich siehts. Versuche einfach zu widerlegen, was ich sage. Geht nicht?

Dann raffs endlich.

So und noch was zu dir: Du scheinst nicht gerade inkompetent zu sein, warum ergehst du dich in Dinge wie: Originally posted by ow
... Wenn du wirklich so wenig Verstand hast, ...

Das ist werder argumentative noch besonders clever. Eher hilflos. Hast du sowas nötig? Geh auf das ein, was du als nicht richtig empfindest! Oder lass es wenn dir nichts einfällt.

Du machst dich ganz schön groß, Alda! Dabei geht dir beim Argumentieren regelmäßig die Puste aus, dann flüchtest du in verbaler Kraftprotzerei.

Greetz,
mac770

Unregistered
2001-08-20, 22:08:08
Fakt ist nur eins.
T&L hat auf jeden Fall nicht das gehalte, was von Nvidia versprochen wurde, ganz einfach.
Außerdem wird es im oft benutzten, aber völlig hirnrissigen 3Dmark2000, eingesetzt, und das viel zu stark, d.h. völlig überbewertet.
Und eure Streitereien könnte mal lassen, das ist echt billig und unterste Schublade.

Bronto
2001-08-20, 22:10:08
>=> Aha nur die meisten bleiben bei einer Auflösung von 1024 x 768 in Bit. Da reichte eine 600er CPU aus.
>Komsich ich habe bis jetzt noch kein Grafikwunder durch T&L erlebt.

..also hängt die Auflösung jetzt von der CPU ab? Höhere Auflösung bedeutet nicht mehr Polys.. also machts für die CPU keinen Unterschied ob du 320x200 oder 1024x768 verwendest(es sei denn die Software würde automatisch die Polygonanzahl an die Auflösung anpassen (die software möcht ich sehn..))


Was ihr alle vergesst:T&L bedeutet nur Transform & Lightning, sonst nix, also sind die Chips daraufhin optimiert... sie brauchen also gar nicht so eine hohe Taktgeschwindigkeit, weil die einzelnen Operationen viel weniger Zyklen als bei einer "allrounder"-cpu brauchen.

also hört auf, auf T&L rumzuhacken, nur weils eure Lieblingsfirmen noch nicht implementiert haben...

Thowe
2001-08-20, 22:37:20
Originally posted by mac770
@ow
Wenn du also nicht Softwarerendering meinst, was soll dann das:

Greetz,
mac770

Wenn nicht die Grafikkarte das TnL übernimmt macht das der Treiber in Software, sprich der Prozessor muss die Operationen ausführen -> SW TnL.

Eine TnL Karte mit Voodoo II gab es auch schon mal, wer kennt denn diese?

Und da war da noch die erste Laberboy UI Karte.

Fakt ist, ohne TnL wären heutige komplexe CAD Applikationen nicht mehr vernüftig nutzbar. Höchstens als Slideshow *eg*

Was es in Spielen z.Z. bringt ist natürlich durchaus anzweifelbar, aber in der Zunkunft (1-2 Jahre) werden wir es nicht mehr missen wollen.

StefanV
2001-08-20, 22:46:18
@Thowe

V2+T&L
War die nicht von Quantum??

Laberboy UI

Pyramid3D...

Featuremäßig könnte der Pyramid mit heutigen Grafikchips mithalten...

Thowe
2001-08-21, 00:44:35
Originally posted by mac770


1. lol? Wie ich schon sagte, würden ein paar Hundert mehr CPU-MHz asureichen um HW T&L durch SW T&L zu ersetzen. Bei 5GHz (ich gehe hier dabei aus, dass die CPU-Leistung entsprechend mitskaliert) könntest du das wahrscheinlich tatsächlich auch durch Softwarerendiering einsetzen um zum gleichen Ergebnis bei der Grafikdarstellung zu kommen. Also was soll deine Aussage mit 5GHz? Das ergibt keinen Sinn, wenn du nicht Softwarerendering meinst. Und wenn ergibts ebensowenig Sinn. So oder so.



2. - Worin? In der 3D Performance, hab ich doch gesagt. fps. Was verstehst du denn unter3d Performance?
-Absolut glaube ich dass ein Ahtlon (welcher Takt?) dies kann und zwar weitaus schneller als eine HW T&L! Und bevor du nun in Gelächter ausbrichst: Wir reden hier von DX7 (GF,GF2) statisches HW T&L der Konsumerklasse. Bitte vergesse nicht 3DNow! bzw. SSE/SSE2 Multimediaerweiterung der CPUs. Wie ich also schon sagte, würden ein paar MHz mehr ausreichen (SW T&L), um fehlendes HW T&L auszugleichen. Und du weisst, dass ich das T&L der GF meine, nicht von 3dlabs, SGI, intergraph, evans&sutherland u.s.w. Der Bezug bleibt das in jedem Fall das GF T&L.



3. Exakt so ist es und genau das habe ich auch gesagt. Neue Generationen an Hardware kosten auch immer Spitzenpreis, logisch. Hat auch nichts mit nVidia zu zun. Auch logisch. ABER: Ich habe vom gestiegenen PREISNIVEAU gesprochen. Und dies ist ein ganz einfacher Fakt. Highendkarten (und du weisst, dass ich hier vom Konsumermarkt rede!) haben lange Zeit den Spitzenpreis von DM 300,- erzielt. Dass Sie dann günstiger wurden bis die neue Kartengeneration erschien die wieder DM 300,- kostetet usw. brauche ich hier wohl nicht noch zu erwähnen. Auch das ist dir bekannt. Fakt ist weiterhin, dass sich dieses Spitzenpreisniveau seit der Marktdominanz von nVidia vervielfacht hat. Was ist daran nicht zu verstehen?



4. Finde ich gut. ABER: Du brauchst kein VWLer zu sein um zu durchschauen, dass ein Oligopol oder gar Monopol IMMER eine negative Auswirkung auf den Markt in Form von Preisanstieg (Preisdiktat) und Innovationsarmut zur Folge hat. Dies sind ganz simple volkswirtschaftliche Gesetzmäßßigkeiten. Und im Endeffekt trifft dies JEDEN, der an diesem Markt in Erscheinung tritt.

5. Nochmal: Das nVidia nicht mit der Vervielfachung des Preisniveau von Grafikkarten zu tun hätte, ist schlciht und ergreifend falsch.



6. Diesem Satz ohne Bezug kann ich nichts abgewinnen. Was? Wo? Wie? Wann? Gib mir bitte mehr Infos, damit ich diese Aussage ins rechte Licht rücken kann.

Greetz,
mac770

zu 1. und 2. - Es liegt in der Natur einer expliziten Hardwarelösung die gesetzte Aufgabe schneller zu erledigen als eine nicht dafür designte Hardware dies könnte. Wobei was z.Z. von TnL genutzt (in Spielen) erledigt ein Athlon natürlich auch.

zu 3. Wie? Grafikkarten sind in laufe der Zeit komplexer geworden und somit liegt es in der Natur der Sache das auch eine tendenzielle Preiserhöhung erfolgt. Wobei die GF Karten durchaus mit den "Profikarten" mithalten und im Vergleich wesentlich günstiger sind. Die erste VGA Grafikkarte von IBM hat im übrigen bei etwa DM 1800,- gelegen.

zu 4. Ein Oligopol kann ja auch durchaus Verbraucher (Markt mit wenig Käufer) bezogen sein, soll heissen wenn NVidia nicht im Rahmen bleibt wird auch der Absatz rückläufig sein. Dies ist auch nicht wünschenswert und würde wieder Konkurenten hervorufen. Wobei ein Monopol seitens NVidia nicht wünschenswert ist, logischerweise.

zu 5. Eher eine natürlich Folge des Konkurenzkampfes, 3DFX war ja auch nicht ohne.

zu 6. Einige Händler boten sogar komplette PreTested V2Sli für DM 1500,- an, das die zusammen funktionierten war ja nicht umbedingt gewährleistet.


Das ow nicht weiter gepostet hat liegt einfach daran das er gesagt hatte was zu sagen war, das solltest du in der Form akzeptieren. Wobei ich seine direkte Formulierung auch nicht so glücklich finde.

War auch mal wieder für mich ein langes Posting, sollten noch Fragen offen sein werde ich natürlich versuchen diese zu beantworten. Bitte aber kurzfassen, bin schreibfaul ;)

Unregistered
2001-08-21, 03:11:32
Jojo... irgendwei erinnert mich diese Diskussion an die bei heise Intel contra AMD oder Win contra Linux.. :D


Ihr könnt sagen was ihr wollt, aber mein UT SIEHT mit der V5500 immer noch am besten aus, danach kommt erst mal lange nix, dann die Radeon, dann die Kyro, und dann... ganz am Ende die nVidias. Warum? Ist mir egal, es ist einfach so... :P

Labberlippe
2001-08-21, 06:27:12
Hi

Also ich finde den Artikel klasse.
Vorallem zeigt er auch einige Probleme auf.
Beispiel der MX-200 Vergleich.
Es gibt leider immer wieder genug Kunden welche eine solche Schrott Karte "untergeschoben" bekommen.
Ihr könnt ja mal in die div. Märkte gehen und eine günstige MX suchen, da werdet Ihr von MX Karten massig erschlagen und wenn man genau sieht steht hinten irgendwo klein MX-200 drauf.
Der 08-15 Kunde kann mit den Bezeichnungen nichts Anfangen und die div. Printmedien müssten eigentlich bei jeden MX400 Review gleich eine Warnung für die MX 200 mit abdrucken.
Aber das ganze kennen wir ja schon von der TNT2 M64 Serie.
Bei der MX200 sieht man ganz genau das die T&L hier verschwendet wird, die bringt gar nichts das ist eine alte V3 besser und zwar um Welten.

Soviel zum Thema Technologieführer.
Meine Radeon SDR hängt die MX Serie in 32 Bit ab und hat technisches einiges mehr zu bieten.
T&L schön und gut alles hat einen Anfang aber so auf den Putz hauen wie NV es macht ist auch nicht ohne.
Sorry, aber eine Firma die sich als Helden jedes 18 jährigen bezeichnet kann und will ich nicht mehr Ernst nehmen.
Gerade dann wenn nur noch aufgewärmte Chips auf den Markt kommen. (Ausnahme GeForce3)
Ich erwarte mir vom Technologieführer Fortschritte und keine Rückschritte auch wenn alles mit Begriffen und neuen Funktionen kaschiert wird.


Aths hat schon Recht, die Verbesserunge haben Abseits von T&L stattgefunden.
FSAA bei einer V5 ist um Welten besser als bei jeder GeForce und Radeon.
Der Top 16 Bit Modus bei der Kyro. TBR gegen BruteForce.
S3 Texturkomprimierung - Übrigens die GeForce3 hat noch immer den gleichen Fehler, ein schlechter Scherz von NV was?
Bei Preis/Leistung sind die MX mittlerweile zum schmeissen, aber das spielt keine Rolle da diese Karte einen guten Namen haben, auch wenn 1000e Hilfeschreie in div. Foren sind.
Eines stimmt, duch den Pixel und Vertexshader wird T&L schön langsam interresant.
Die DX7 T&L war für die Fische aber die DX8 könnte doch einige Graphische Leckerbissen bereithalten.

Gruss Labberlippe

ow
2001-08-21, 13:35:35
Originally posted by mac770
Klar ist das ein Vorschlag. Nur muss ich dir auch sagen, dass es genau anders herum ist. Ich verstehe sehr gut was du sagts. Mein Verstand reicht auch ebenfalss aus, deine plakative Argumentation recht leicht zu widerlegen.

Ich bin sogar davon überzeugt, dass du das ähnlich siehts. Versuche einfach zu widerlegen, was ich sage. Geht nicht?

Dann raffs endlich.

So und noch was zu dir: Du scheinst nicht gerade inkompetent zu sein, warum ergehst du dich in Dinge wie:

Das ist werder argumentative noch besonders clever. Eher hilflos. Hast du sowas nötig? Geh auf das ein, was du als nicht richtig empfindest! Oder lass es wenn dir nichts einfällt.

Du machst dich ganz schön groß, Alda! Dabei geht dir beim Argumentieren regelmäßig die Puste aus, dann flüchtest du in verbaler Kraftprotzerei.

Greetz,
mac770



Ich bin's einfach nur leid, so Dummkoepfen wie dir, die gar nichts begreifen, alles HUNDERTMAL erklaeren zu muessen. Da brauch ich nichts zu widerlegen!! Manche kapieren's eben nicht.

ow
2001-08-21, 13:42:54
Originally posted by Thowe



Das ow nicht weiter gepostet hat liegt einfach daran das er gesagt hatte was zu sagen war, das solltest du in der Form akzeptieren. Wobei ich seine direkte Formulierung auch nicht so glücklich finde.

War auch mal wieder für mich ein langes Posting, sollten noch Fragen offen sein werde ich natürlich versuchen diese zu beantworten. Bitte aber kurzfassen, bin schreibfaul ;)


Thx @ Thowe:)

Ich bin es einfach nur leid, Leuten, die nix begreifen, immer wieder dasselbe erzaehlen zu muessen, denn es bringt eh nix. Vielleicht hat er ja kapiert, was du geschrieben hast, aber ich glaub's eher nicht.

Und was man an waren Aussagen argumentieren soll, ist mir eh schleierhaft. Wahrheit laesst sich nicht durch Argumente belegen.

Thowe
2001-08-21, 16:19:10
Originally posted by ow



Und was man an waren Aussagen argumentieren soll, ist mir eh schleierhaft. Wahrheit laesst sich nicht durch Argumente belegen.


Stimm ich dir voll zu.

ow
2001-08-21, 17:19:18
Originally posted by Thowe


Stimm ich dir voll zu.


Wusste ich doch, dass du mich verstehst;)


Vielleicht noch ein Beispiel fuer mac770:

2+2=4 (wahre Aussage).

Jetzt frage nicht nach Begruendungen, denn Argumente dafuer kann ich dir nicht nennen. Da ist nix zu argumentieren. Ebenso wie bei meinen obigen Aussagen.

aths
2001-08-21, 17:54:23
"Da steht soviel Unsinn in diesem Artikel, dass ich nach den ersten 2 Seiten sufgehört habe ihn weiterzulesen."

Das meintest du, ow, zu meinem T&L-Artikel. Eine Aufzählung des "soviel Unsinns" hab ich bis heute nicht von dir gesehen.

Wenn du dir nicht die Zeit nimmst, zu argumentieren, warum nimmst du dir dann die Zeit, zu "diskutieren"?

Warum bezichtigst du mich erst, "soviel Unsinn" geschrieben zu haben, ohne es dann belegen zu können? Witzig ist auch, dass du dein Urteil schon nach 2 von 7 Seiten gebildet hast. Schade, dass du die gesparte Zeit nicht verwendet hast, wenigstens einigen "Unsinn" aufzuzählen. Denn dann könnte man wenigstens drüber diskutieren.

So diskreditierst du einfach meinen Artikel. Das gleiche ziehst du mit anderen Usern ab. Durch die richtige Feststellung, dass 2+2=4 ist, sind deine anderern "Argumente" nicht automatisch ebenso richtig.

mac770
2001-08-21, 18:56:04
Originally posted by ow
Vielleicht noch ein Beispiel fuer mac770:

2+2=4 (wahre Aussage).

Jetzt frage nicht nach Begruendungen, denn Argumente dafuer kann ich dir nicht nennen. Da ist nix zu argumentieren. Ebenso wie bei meinen obigen Aussagen.

Absolut richitg, 2+2=4. Da wären wir einer Meinung. Nur du sagst 2+2=5. Das wäre dann falsch, nicht wahr. Aber kein Problem. Belassen wir es dabei. Du hast deine Wahrheit, ich meine. Was solls.

WAS MICH ABER SUPERANKOTZT
Du gibts vor der Superhardwaregosu zu sein. Sagst Sachen wie:Originally posted by ow
Da steht soviel Unsinn in diesem Artikel, dass ich nach den ersten 2 Seiten sufgehört habe ihn weiterzulesen.

¿¿¿¿¿¿¿¿¿¿ Das ist so ein scheiss Unsinn. Man könnte denken, du wärst 9 Jahre alt.
>>>>>>>>>> Du wurdest ca. 1000 Mal dazu aufgefordert etwas zu diesem Artikel zu sagen, was du als Unsinn ansiehst. Deine Antowrt:Originally posted by ow



Mit unregistrierten dämlichen Bauern geb´ich micht nicht ab.


Du bist einfach nur ein Kind, Meister! Emotional und unlogisch. Und wenn dir jemand mit Argumenten kommt ist es eh vorbei bei dir. Kommst mit hochtrabenden Technikgequatsche daher:

Originally posted by ow
Zu behaupten ein 1200er AThlon wuerde in SW T&L schneller sein als die GF HW T&L ist ja wohl absolut lachhaft. (Der Ahtlon 1200 wäre ca 3 mal so schnell wie GF HW T&L)

Originally posted by ow
Glaubst du, ein Athlon koennte ein 3D-Modell aus 100.000 Polygonen im Wireframe-Modus oder im Fill-Modus ohne Texturen (flat/gouraud shading) auch nur annaehernd so schnell transformieren wie eine HW T&L?? (JA, kann er. wenn du die DX7 HW T&L Unit der GF meinst. Denn nur darum geht es.)

Bist aber nicht in der Lage einfach Dinge zu realisieren (2+2=4). Wenn ich dir versuche das klar zu machen kommst du mit:Originally posted by ow
Wenn du wirklich so wenig Verstand hast, wie ich nach deinem letzten Posting annehmen muss, dann lassen wir es hier gut sein.Drehst es so hin, als ob ich nix raffen würde. Dabei bist du nur zu naiv meine Meinung und meine Wahrheit zu akzeptieren und kommst dann mit solchen verbalen Angriffen.

Das ist alles sehr arm ow. Kompetent wirkst du dadurch nicht.

Greetz,
mac770

Thowe
2001-08-21, 21:22:13
Originally posted by aths
"Da steht soviel Unsinn in diesem Artikel, dass ich nach den ersten 2 Seiten sufgehört habe ihn weiterzulesen."

Das meintest du, ow, zu meinem T&L-Artikel. Eine Aufzählung des "soviel Unsinns" hab ich bis heute nicht von dir gesehen.

Wenn du dir nicht die Zeit nimmst, zu argumentieren, warum nimmst du dir dann die Zeit, zu "diskutieren"?

Warum bezichtigst du mich erst, "soviel Unsinn" geschrieben zu haben, ohne es dann belegen zu können? Witzig ist auch, dass du dein Urteil schon nach 2 von 7 Seiten gebildet hast. Schade, dass du die gesparte Zeit nicht verwendet hast, wenigstens einigen "Unsinn" aufzuzählen. Denn dann könnte man wenigstens drüber diskutieren.

So diskreditierst du einfach meinen Artikel. Das gleiche ziehst du mit anderen Usern ab. Durch die richtige Feststellung, dass 2+2=4 ist, sind deine anderern "Argumente" nicht automatisch ebenso richtig.


Ja ich finde auch das du zumindest als Autor eine wenn auch kurze Erklärung verdient hast. Ich kann aber ow nicht dazu zwingen, würde ich auch nicht versuchen. Es dürften sich an einigen Stellen vielleicht Hinweise seiner Meinung finden.

Wobei möchte ich hier noch einmal erwähnen das es immer unterschiedliche Sichtweisen eines Themas gibt, gerade was die technische oder verständliche Ausführung angeht. Beides unter einen Hut zu bringen ist natürlich sehr schwierig.

Um eins möchte ich aber bitten, sollte ow antworten dann sei so gut und akzeptiere zumindest seine Darstellung der Dinge.

ow
2001-08-21, 21:44:40
Originally posted by mac770


meine Meinung und meine Wahrheit zu akzeptieren
Greetz,
mac770


Jaja, jedem seine Wahrheit. Du hast es immer noch nicht begriffen.

ow
2001-08-21, 21:50:23
Originally posted by aths


Das meintest du, ow, zu meinem T&L-Artikel. Eine Aufzählung des "soviel Unsinns" hab ich bis heute nicht von dir gesehen.




Meinst du, das wäre alles so schnell zu machen??
Ich hab mal angefangen, da einige Sachen dazu zu schreiben, aber das gibt auch mehrere Seiten. Bin also mangels ZEIT nicht fertig geworden. Zudem seh ich meinen PC nur am Wochenende, und genau dort ruht von mir verfasstes.
Aber ich denke, ein Teil davon wurde ja hier im Forum auch schon bemängelt und angesichts der Reaktionen hier bin auch ich der Meinung:

JEDEM SEINE WAHRHEIT, dir auch.

MadManniMan
2001-08-21, 21:55:11
werter herr ow,

da sie ja nun offensichtlich nicht die güte haben, uns zu erläutern, was denn nun an aths artikel nur bedingt die wahrheit ausdrücke, möchte ich sie nun im namen aller bitten, zumindest ihre einfach strukturierten kommentare zu unterlassen

herzlichst,
ihr sich selbst präventiv dummer
bauer nennender manfred



...denn wer sich zum affen macht und die chance zur rehabilitaton nich nutzt, muß wirklich BESCHEUERT sein...

PS ich freu mich schon auf seine stellungnahme zu meinem post, aber aths, ich glaub, ich muß dich enttäuschen, auf deine bitte wird er wohl nich eingehen

Thowe
2001-08-21, 22:08:43
Originally posted by ow
Zudem seh ich meinen PC nur am Wochenende, und genau dort ruht von mir verfasstes.


Geduldigt euch doch einfach bis zum Wochenende, das Thema ist ja bis dahin nicht vergessen und sooo lange ist das auch nicht hin.

Thowe
2001-08-21, 22:15:25
Originally posted by MadManniMan der Rula
werter herr ow,

da sie ja nun offensichtlich nicht die güte haben, uns zu erläutern, was denn nun an aths artikel nur bedingt die wahrheit ausdrücke, möchte ich sie nun im namen aller bitten, zumindest ihre einfach strukturierten kommentare zu unterlassen

herzlichst,
ihr sich selbst präventiv dummer
bauer nennender manfred



...denn wer sich zum affen macht und die chance zur rehabilitaton nich nutzt, muß wirklich BESCHEUERT sein...

PS ich freu mich schon auf seine stellungnahme zu meinem post, aber aths, ich glaub, ich muß dich enttäuschen, auf deine bitte wird er wohl nich eingehen




Und was soll das bringen? Ist das eine Lösung?

Ist das sooo schwer zu akzeptieren das es Personen gibt die nicht so viel Zeit haben ganze Artikel im Stück zu tippen?

MadManniMan
2001-08-21, 22:55:06
ooops! das hab ich echt übersehen! sorry...

trotzdem bin ich der meinung, daß er seine zurückfeindungen (geilem deutsch, nicht wahr ;D ) unterlassen sollte/(subjektiv und nich stellvertretend!)

Unregistered
2001-08-22, 00:00:35
@ ALLE

na wie wärs wenn jeder so argumentieren, dass für den anderen keine Möglichkeit bestehe zu kontern? - wenn ihr das nicht maht, dann kommen Abschweifungen vom Thema heraus die nicht reif sind, und die logischerwese nichts mehr mit dem Thema zu tun haben!

Also wollten wir nicht herausfinden was an dem Artikel über T&L richtig und was falsch daran ist? - Ja? - Ok, dann sind wir uns ja alle einig!

tomylee
2001-08-22, 00:04:38
@ ALLE

na wie wärs wenn jeder so argumentieren, dass für den anderen keine Möglichkeit bestehe zu kontern? - wenn ihr das nicht macht, dann kommen Abschweifungen vom Thema heraus die nicht reif sind, und die logischerwese nichts mehr mit dem Thema zu tun haben!

Also wollten wir nicht herausfinden was an dem Artikel über T&L richtig und was falsch daran ist? - Ja? - Ok, dann sind wir uns ja alle einig!


p.s.(vergesst die obige Meldung von unregistered, das war ich)

mac770
2001-08-22, 10:48:59
Ich wäre dafür, wenn man quotes benutzt auch originale Zitate zu benutzen.

Greetz,
mac770

aths
2001-08-22, 11:27:36
ow:

"Meinst du, das wäre alles so schnell zu machen??
Ich hab mal angefangen, da einige Sachen dazu zu schreiben, aber das gibt auch mehrere Seiten."

Ich lerne gern dazu.

"Aber ich denke, ein Teil davon wurde ja hier im Forum auch schon bemängelt" [...]

Dazu wird derzeit von mir ein Nachtrag vorbereitet. Bis zum Release kann es noch ein paar Tage dauern.

Auf jeden Fall warte ich gespannt auf deine Erwiderung zum Artikel. Denn natürlich stelle ich mich der Diskussion, was die Aussagen des Artikels betrifft.

Thowe
2001-08-22, 12:05:44
Originally posted by aths


Auf jeden Fall warte ich gespannt auf deine Erwiderung zum Artikel. Denn natürlich stelle ich mich der Diskussion, was die Aussagen des Artikels betrifft.

Was ja auch durchaus die Qualität des Artikels noch erhöhen könnte.

Xmas
2001-08-22, 12:27:12
Originally posted by mac770
(Der Ahtlon 1200 wäre ca 3 mal so schnell wie GF HW T&L)
Ich muss sagen, das glaube ich nicht. Ist das jetzt ein theoretischer Wert, den du mit Instruction Timings (3Dnow! wohl, oder?) errechnet hast (Die Rechnung würd ich gerne mal sehen), oder ist das ein praktisch festgestellter Wert? Da scheint zumindest im advanced Forum auf opengl.org eine andere Meinung vorzuherrschen. Bei mir übrigens auch...
Außerdem ist so ein Vergleich nicht ganz sinnvoll, denn die T&L-Einheit soll der CPU ja Arbeit abnehmen, und das Senden von Indizes auf ein Vertex Array an die GPU ist für die CPU sicherlich weniger aufwändig als T&L selbst zu übernehmen.

samX

Bronto
2001-08-22, 16:13:53
@xmas:
Danke, du hast mir den Glauben an die Menschheit wiedergegeben :)
Ich trau nem Ghz Athlon durchaus zu dass er genauso schnell (oder sogar schneller) wie ne Geforce 1-3 transformieren kann.. wenn er sonst nix zu tun hat..

Ich hoffe jetzt ist langsam mal schluss mit der Diskussion..
HW TnL ist kein "nicht eingelöstes Versprechen" (sorry, das ist einfach viel zu übertrieben und erinnert an die Boulevardpresse). Die meiste Software kann es noch nicht optimal ausnutzen(was nicht Schuld des Herstellers ist), aber das wird definitiv nicht so bleiben.

Unregistered
2001-08-22, 17:17:01
Originally posted by Bronto
@xmas:
Danke, du hast mir den Glauben an die Menschheit wiedergegeben :)
Ich trau nem Ghz Athlon durchaus zu dass er genauso schnell (oder sogar schneller) wie ne Geforce 1-3 transformieren kann.. wenn er sonst nix zu tun hat..



Diese Annahme ist absolut laecherlich.
Keine CPU kann heute mehr als 10Mio. Polygone transformieren, die GF2 schafft ueber 30Mio., nennst du das gleichschnell oder gleiche Leistung??

aths
2001-08-22, 17:20:16
"HW TnL ist kein "nicht eingelöstes Versprechen""

Was hast du durch T&L gewonnen? Sieht die Grafik auf T&L-Karten wirklich besser aus?

"Die meiste Software kann es noch nicht optimal ausnutzen"

Was z.B. daran liegt, dass man die Objekte die statisch im RAM der Grafikkarte liegen, nicht mehr verformen kann. DX7 T&L arbeitet mit starrer Geometrie und ist schon alleine deshalb nur bedingt nützlich.

Und die Lighting-Implementierung zieht zu sehr an der Leistung der T&L-Unit, als dass das in Spielen breit zum Einsatz kommt.

"(was nicht Schuld des Herstellers ist), aber das wird definitiv nicht so bleiben."

Es wurde gezeigt, dass die Bedeutung von DX7 T&L in der Zukunft kaum zunehmen wird. Einerseits gibt es inzwischen CPUs die schnell genug sind - und nebenbei mehr können als nur Dreiecke zu tranformieren - andererseits wird sie von den Möglichkeiten einer programmierbaren T&L ("Vertex Shader") effektmäßig ausgestochen.

aths
2001-08-22, 17:29:13
Eine GF2 schafft 30 Mio pro Sekunde?

Kann ich dazu mal Benchmark-Ergebnisse sehen?

MadManniMan
2001-08-22, 17:38:30
Originally posted by Unregistered


Diese Annahme ist absolut laecherlich.
Keine CPU kann heute mehr als 10Mio. Polygone transformieren, die GF2 schafft ueber 30Mio., nennst du das gleichschnell oder gleiche Leistung??

ähäm... ich hab hier just ne alte PCGH neben mir liegen(die 01/2001) und hab mir die nVidia-graka-marktübersicht angeschaut... dort stehen zu den gf2mx unter Hardware T&L eben jene von aths angesprochene 20mio dreiecke... womit natürlich eckpunkte gemeint sind!

bie der gts stehen 25mio(nix mit 30!)! einzig diie werte der ultra kommen deinem kommentar mit 31mio recht nah...

wie gesagt, alles nur eckpunkte, alles nur theoretisch... zeig mir ne GF2 mit der speicherbandbreite, alles dies zu erreichen!

ow
2001-08-22, 20:26:01
Originally posted by MadManniMan der Rula


ähäm... ich hab hier just ne alte PCGH neben mir liegen(die 01/2001) und hab mir die nVidia-graka-marktübersicht angeschaut... dort stehen zu den gf2mx unter Hardware T&L eben jene von aths angesprochene 20mio dreiecke... womit natürlich eckpunkte gemeint sind!

bie der gts stehen 25mio(nix mit 30!)! einzig diie werte der ultra kommen deinem kommentar mit 31mio recht nah...

wie gesagt, alles nur eckpunkte, alles nur theoretisch... zeig mir ne GF2 mit der speicherbandbreite, alles dies zu erreichen!


Na gut, dann halt nur 25Mio. oder meinst du ich müsste alle Specs im Kopf haben?

Wo der Zussammenhang zwischen T&L-Leistung und Bandbreite ist, musst du mir erst mal erklären! Nur zu.


Zu den Benches: Es gibt keine, um die theoretische Leistung der T&L zu ermitteln (jedenfalls ist mir keiner bekannt).
Ansonsten: Schau dir mal die Graka-Reviews an, in denen Viewperf, Indy3d, 3DSMax... gebencht wird.

Das 'ProCDRS'-Model aus Viewperf besteht aus 0,5Mio. Polygonen, 'Light-04' mal aus schlappen 1,5Mio Polygonen (oder so, hab auch dies nicht genau im Kopf).

Kannst ja mal testen:

http://www.spec.org/gpc/opc.static/overview.htm


Ach ja.... seh da gerade.. Der Specglperf könnte in der Lage sein, die theoretische Leistung einer Graka zu messen.

MadManniMan
2001-08-22, 22:05:46
nun gut... obwohl ich eigentlich nur von der spiele-tauglichkeit von den karten ausgegangen bin, hab ich mir das mal angeschaut und n par benches rausgesucht...

und nun gut, die GFs sind hier durchaus zu empfehlen, nur sehe ich keinen grund, ein als gamerkarte ausgeschriebenes board mit solchen fähigkeiten auszustatten

wär ich pessimist, würd ich jetz sagen, scheiße mann, noch ein grund, daß nvidia shitty is, weil sie damit einen höheren preis rechtfertigen zu suchen würden

aber ich sehe ein zu 50% gefülltes glas als halbvoll an, deshalb freu ich mich jetz für GF-besitzer, die auch mal gerne was cadden und allgemein mit opengl mehr am hut haben

dennoch schaft keine gts 25mio polys, das stell ich jetzt in den raum, ich glaub dir erst, wenn du mir ne benchURL mit eben solchen ergebnissen vorpostest


zu der bandbreite: da hab ich mich selbst überschlagen und alles, was ich noch sagen wollte verkauderwelscht.
ich meinte a) die AGP-bandbreite, die für solche mengen kaum reichen wird(vielleicht bei 8fach, aber dieses steht noch in den sternen) und b), daß der rest der karte sowas von arg bandbreitenlimitiert ist, daß diese theoretischen werte NIEMALS(hergottnochmal!) erreicht werden können!

hui... wie gesagt, ich freu mich immernoch aufs wochenende mit deinen argumenten gegen aths artikel

auf bald und auf eine gehaltvolle diskussion ohen abdriften à la gamestar(-thread)!

Xmas
2001-08-23, 00:18:45
Originally posted by MadManniMan der Rula
dies saugt: nVidia/Intel/FCB
dies rult: 3Dfx/STM/ATI/AMD/BVB

Irgendwer nicht einverstanden ???

Jep ;D

aths
2001-08-23, 00:37:04
ow:

"Na gut, dann halt nur 25Mio. oder meinst du ich müsste alle Specs im Kopf haben?"

Bevor man laut Dinge verkündet, sollte man sich *doch* mal nach Quellen umsehen, hehe.

"Wo der Zussammenhang zwischen T&L-Leistung und Bandbreite ist, musst du mir erst mal erklären! Nur zu."

Dazu kann ich z.B. den T&L-Artikel von diesem aths empfehlen... Da darf man halt nicht nach zwei Seiten aufhören um sich eine Meinung zu bilden.

"Zu den Benches: Es gibt keine, um die theoretische Leistung der T&L zu ermitteln (jedenfalls ist mir keiner bekannt)."

Im Prinzip ist es eh wurscht, da nur die praktische Leistung zählt. Und es ist ersichtlich, dass gerade bei 32 Bit eine Kyro2 eine GTS ausperformen kann. Obwohl die gar kein T&L hat. (Haste wieder mal was dazu gelernt.)

Unregistered
2001-08-23, 01:29:02
Super Dein Artikel!! Ich habe mich leider auch blenden lassen und bin von einer V3-Karte auf eine GForce-GTS umgestiegen welche mit dem Spiel Emperor (strategie) schon ins ruckeln kommt trotz 1,2 GHz Athlon.Man sollte unvoreingenommen an dem Grafikkartenkauf heran gehen.

Unregistered
2001-08-23, 02:59:52
Originally posted by aths

Was z.B. daran liegt, dass man die Objekte die statisch im RAM der Grafikkarte liegen, nicht mehr verformen kann. DX7 T&L arbeitet mit starrer Geometrie und ist schon alleine deshalb nur bedingt nützlich.

Und die Lighting-Implementierung zieht zu sehr an der Leistung der T&L-Unit, als dass das in Spielen breit zum Einsatz kommt.


Wo ist das problem mit statischer Geometrie.....90% alle objekte in spielen sind normalerweise starr.....gebäude, die ganze landschaft.....und genau da greift DX7 T&L.....bei Max Payne merkt man in den innenräumen so gut wie keinen unterschied zu SW T&L, die meisten polygone werden von charaktermodels gefressen, da bringt die technik nichts........aber sobald man nach draussen kommt ist der unterschied mehr als deutlich........viele starre polygone die von HW T&L deutlich schneller verarbeitet werden als von einer 2 ghz cpu.....

P.S.: Der Artikel ist teilweise wirklich auf boulevard-niveau...

MadManniMan
2001-08-23, 15:49:26
Originally posted by Xmas


Jep ;D

hehe, und was daran, wenn ich fragen darf(bitte fang jetz nich damit an, daß deine GF[spekulation!] TnL hat... liste einfach deine kritikpunkte auf *blinzel@ow*)?

nggalai
2001-08-23, 16:03:49
Die Frage müsste eher lauten, was denn an nVidia/Intel/FCB so schlimmes ist, dass es "saugt".

Ist das die offizielle deutsche Übersetzung? Saugen? Cool. :)

ta,
.rb

aths
2001-08-23, 17:39:47
2 Unregistered:

"Wo ist das problem mit statischer Geometrie.....90% alle objekte in spielen sind normalerweise starr....."

Im Moment ist das so. Aber das ist nicht gerade realistisch.

"gebäude, die ganze landschaft....."

Gebäude können schon mit relativ wenig Polys recht gut dargestellt werden. Wenn man übrigens echte Einschusslöcher haben will, muss man auch hier die Geometrie verändern.

Landschaft, sprich Grashalme, Blätter etc. sollten sich im Winde bewegen. Daher ist eine dynamische Geometrie einer starren deutlich vorzuziehen.

"P.S.: Der Artikel ist teilweise wirklich auf boulevard-niveau..."

Dann schreib einen besseren. Meckern kann jeder. Du machst es dir ziemlich leicht.

ow
2001-08-23, 20:06:54
Originally posted by aths
2 Unregistered:

"Wo ist das problem mit statischer Geometrie.....90% alle objekte in spielen sind normalerweise starr....."

Im Moment ist das so. Aber das ist nicht gerade realistisch.

--> Und du glaubst jetzt, das nur starre Objekte von DX7 T&L beschleunigt werden??? LOL.


"gebäude, die ganze landschaft....."

Gebäude können schon mit relativ wenig Polys recht gut dargestellt werden. Wenn man übrigens echte Einschusslöcher haben will, muss man auch hier die Geometrie verändern.

Landschaft, sprich Grashalme, Blätter etc. sollten sich im Winde bewegen. Daher ist eine dynamische Geometrie einer starren deutlich vorzuziehen.


-->Wo ist denn hier das Problem für eine DX7 T&L??

MadManniMan
2001-08-23, 20:44:55
--> Und du glaubst jetzt, das nur starre Objekte von DX7 T&L beschleunigt werden LOL.

nicht LOL, das ist so

-->Wo ist denn hier das Problem für eine DX7 T&L??

dass das änderungen am objekt verursachen würde <-> starre objekte

ow
2001-08-23, 21:51:15
Originally posted by MadManniMan der Rula
--> Und du glaubst jetzt, das nur starre Objekte von DX7 T&L beschleunigt werden LOL.

nicht LOL, das ist so

-->Wo ist denn hier das Problem für eine DX7 T&L??

dass das änderungen am objekt verursachen würde <-> starre objekte



Na was meinst du denn, wer die Transformation zB. bei den bewegten Player-Models in Q3 durchführt??

Statische T&L sollte man eben nicht mit statischen starren Objekten gleichsetzen.

MadManniMan
2001-08-23, 22:39:16
auch die player models bestehen aus starren objekten, vielleicht gehen nur unsere definitionen dieser bezeichungen auseinander

bei q3 werden die objekte nur rotiert oder verschoben, bei einschußlöchern müßten neue polys eingefügt werden und bei muskelbewegungen zB müßten die polys gestaucht oder gestreckt werden.

das meinte ich damit

Unregistered
2001-08-23, 23:50:39
Also endlich mal ein Bericht, der die Sache mal kritisch angeht...

Ich kann dem meisten nur zustimmen.

Vor einigen Monaten hatte ich einen Kollegen hier, der stolz wie oskar seinen gerade erst aufgeruesteten Rechner mitbrachte.

Er :
Thunderbird 1000, 256MB, Geforce2 MX

Ich :
Thunderbird 900, 192MB, Voodoo3 3500

Zuerst musste natuerlich das meistgespielte Game herangezogen werden.
Unreal Tournament entschied die Sache (trotz neuester Render-Dll's) sehr deutlich. Mein "kleiner" liess gar keinen Zweifel an der schnelleren Karte aufkommen.

Da hatte mein Kollege schonmal einen geschwollenen Hals...

Dann wollte ich ihm mal was gutes tun, und wir liessen 3D Mark 2000 V1.1 auf beide Kisten gleichzeitig los. Bei ihm in Hardware T&L, und bei mir gezwungenermassen Software (das virtuelle T&L beherrschte die damalige 3dfx Treiberversion leider noch nicht)...

Das Ergebnis (Score UND visuell) war... naja... vernichtend. Seine nagelneue Geforce2MX war (fuer mich sehr ueberraschend) weit hinter meiner 2 Jahre alten Voodoo3 gelandet. Deutlich waren vor allem bei den High Polygon Count Tests ruckler zu sehen, vor allem 8 Lights machte der Karte extrem zu schaffen.

Nachdem ich (er war jetzt wirklich sauer) T&L mal abgeschaltet hatte, und die Karte wengistens ihre komplette Fuellrate zur Verfuegung hatte, sah es schon besser aus. Nicht ganz so schnell, aber ziemlich nah an meiner 3500'er...

Natuerlich waren saemtliche Treiber auf seinem System auf Stand. Nachdem ich sein System in den naechsten 2 Stunden an's absolute Maximum getuned hatte, durfte er zufrieden einen 3D Mark-Vorteil von 5% zur Kenntnis nehmen :)

Nach diesem Tag sah ich ihn fuer ne Woche nicht mehr ;)

Er hatte sich eine Voodoo5 5500 AGP gekauft, und seine GrafikPerformance dadurch exorbitant gesteigert. Erst da war er wieder zufrieden mit seiner Kiste...

An dem Tag konnte ich live sehen, dass T&L selbst in seiner Parade-Disziplin von einer 2 Jahre alten, totgesagten GrafikKarte geschlagen werden konnte !

Ich habe ihm uebrigens erstmal nicht eingeweiht, dass ich durch neue Treiber und Virtuelles T&L seinen 5%-Vorsprung mit der Geforce2 MX laengst wieder zunichte gemacht hatte *g*...

Nun habe ich (4 Rechner) eine Voodoo5 5500, Voodoo4 4500, Voodoo3 3500 und eine Voodoo3 3000...
Jede dieser z.T. uralten Karten kann in 22bit (Post Filter) mindestens 100fps in 1024x768 machen.

Ich habe auch gelernt, dass viele der Games die CPU ohnehin so stark belasten, dass selbst mein aktueller 1000'er kaum die Chance bekommt, der GrafikKarte ueberhaupt 100 Frames per Second zum rendern zu uebergeben.

...nur meine Erfahrungen...

Gruss
FalconFly

Matrix316
2001-08-24, 00:11:11
...aber hättet ihr andere Spiele genommen, dann hättest DU eine andere Karte gekauft.:D

Und dass eine Voodoo 5500 schneller als eine MX ist, ist ja auch kein Wunder. Hätte er sich dagegen gleich eine Radeon oder GTS oder besser geholt, dann hätte deine Voodoo 3 eher alt ausgesehen.

Xmas
2001-08-24, 02:40:59
Originally posted by MadManniMan der Rula
hehe, und was daran, wenn ich fragen darf(bitte fang jetz nich damit an, daß deine GF[spekulation!] TnL hat... liste einfach deine kritikpunkte auf *blinzel@ow*)?
Mit der Spekulation liegst du gar nicht mal so falsch ;) Ich habe eine GeForce 2 GTS, mit T&L, worüber ich sehr froh bin - und eine Voodoo 5 5500. Mit beiden bin ich zufrieden, aber darauf bezog ich mich hier gar nicht :D
Ich urteile nicht über Firmen, sondern über Produkte. Und der BVB... ach, lassen wir das ;)

ow
2001-08-24, 13:13:47
Originally posted by Matrix316
...aber hättet ihr andere Spiele genommen, dann hättest DU eine andere Karte gekauft.:D

Und dass eine Voodoo 5500 schneller als eine MX ist, ist ja auch kein Wunder. Hätte er sich dagegen gleich eine Radeon oder GTS oder besser geholt, dann hätte deine Voodoo 3 eher alt ausgesehen.






Es haette vermutlich ausgereicht, den Rechner mit der MX richtig zu konfigurieren, weil eine V3 ausser in Glide Games niemals eine MX schlaegt (und schon gar nicht im 3DMark), so einfach ist das.
Und die V5 ist auch nicht in allen Situationen schneller als die MX.

StefanV
2001-08-24, 16:39:50
@Falcon

Er hatte doch wohl keine CL MX??

Mit DDR-SDRAM...

7ns...

Aber Rein von der Sache her müßte eine MX mit der V3/3500 gleich ziehen.