Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche Graka um die 250€?
dslfreak
2003-08-06, 20:28:42
Joar demnächst gibts wieder ein bißchen Geld und ich werde mir wohl eine Neue Graka zulegen. Also es geht mir vorallem darum, dass ich spiele gerne mit AF/AA genieße und die neue Graka sollte auch bei spielen wie Gothic 2 genug reserven haben. Preisrahmen ist 250-300 € und ich orientiere mich mal an einer Radeon 9700, die kostet 200€, d.h. für die 100€ mehr muss die Leistung schon über der 9700 liegen. Welche wäre denn die beste wahl, gekauft wird dann so in 4 wochen.
Imho ist die 9700 zur Zeit die beste Wahl.
Wenn du aber ne günstige 9700Pro erwischen kannst isses auch gut.
Nur lass dich nicht von so manchen 9800 Angeboten verarschen. Die sind teilweise etwas "komisch" getaktet. Mapel110 kann da ein lied von singen^^
Endorphine
2003-08-06, 20:44:36
Sapphire Atlantis Radeon 9800, 128MB DDR, DVI, TV-out, AGP (http://geizhals.net/deutschland/?a=59429) <<< bei vernünftigen Händlern gerade noch in deinem Preislimit. Sonst eine R9700/Pro, wenn du noch eine bekommst.
Wenn du AF wichtiger findest als AA kannst du auch zu einer FX5800 mit leiser Kühlung greifen - oder gleich 350 EUR anlegen und eine ASUS AGP-V9950 TD, GeForceFX 5900, 128MB DDR, DVI, TV-out, AGP (http://geizhals.net/deutschland/?a=56494) nehmen.
http://geizhals.net/img/pix/56494.jpg
LOCHFRASS
2003-08-06, 21:08:16
Sieht man eigentlich den Unterschied beim AF in der Praxis? Was hat die ATi für AA, RGMS?
ne so sehen tut an nich.also ich sehs nich. ich finds sogar besser als bei meiner 4 ti :D
ne sehen tut mans eigentlich nich. aber den AA unterschied KANN man sehen, muss man aber net :D
2B-Maverick
2003-08-06, 22:58:14
alles über der 9700 non-Pro rechtfertigt IMHO den Mehrpreis nicht mehr.
Für 100€ mehr bekommt man nur noch 15% mehr Leistung... na ja... und das is zu wenig Leistung fürs Geld...
Kauf ne 9700nonPro und für die 100€ lieber noch mehr RAM, ne 120er Platte oder nen dicken Eisbecher!
ElHive
2003-08-06, 23:19:05
Original geschrieben von 2B-Maverick
[...]nen dicken Eisbecher!
Das wäre aber ein verdammt dicker Eisbecher...eher 'n Eiseimer ;D
LovesuckZ
2003-08-06, 23:20:26
Original geschrieben von Nedo
[...] unterschied [...]
Mit AA ist es wie mit dem AF: Wenn man will, sieht man ihn.
:D
/edit: Die billigste Loesung scheint eine TerraTec Mystify 5800 (http://www.geizhals.at/deutschland/?a=45462) zu sein. 9700 Karten gibt es von seriösen Laeden erst ab 250€.
Original geschrieben von LovesuckZ
Mit AA ist es wie mit dem AF: Wenn man will, sieht man ihn.
:D
/edit: Die billigste Loesung scheint eine TerraTec Mystify 5800 (http://www.geizhals.at/deutschland/?a=45462) zu sein. 9700 Karten gibt es von seriösen Laeden erst ab 250€.
Hier mal full ack.
Obwohl ich doch auch mindfactory mal als äußerst seriös und zuverlässig bezeichnen würde, die haben die Mystify 5800 für 240,- :)
Edit: Ups, sry, nicht besonders aufmerksam gelesen. Ich werd wohl mal lieber gleich ins Bett gehen. :D
Trotzdem halte ich die FX 5800 für ein gutes Angebot. Wenn's noch billiger und nicht NV sein soll, dann ne Radeon 9700.
Aquaschaf
2003-08-07, 00:01:50
Original geschrieben von LOCHFRASS
Sieht man eigentlich den Unterschied beim AF in der Praxis? Was hat die ATi für AA, RGMS?
Gammakorrektes RGMSAA bis zu 6x.
Alles subjektiv, aber mir fällt der Unterschied beim AA eher (d.h. er fällt mir überhaupt auf) auf als beim AF.
Bei der Entscheidung ob 5800 oder 9700 würde ich mich nach dem Preis richten.
LOCHFRASS
2003-08-07, 00:08:56
thx :D Sind die Radeons mittlerweile unter Linux zu gebrauchen (UT, UT2003, Q3A)? Ich hab wegen dem zukünftigen Dual Xeon keine Alternative zu Linux, XP kommt mir nicht drauf.
betasilie
2003-08-07, 00:15:35
Also ne 9700 ist eigentlich super, wenn Du übertakten willst. Wenn Du nicht übertakten willst, würde ich mir an deiner Stelle eine 9700Pro kaufen, denn die 9700 ist mit Standardtakt gerade so am Limit für 4*AA. ;)
Aquaschaf
2003-08-07, 00:23:58
NVidia Treiber haben den Ruf unter Linux besser zu laufen, kann ich im Grunde nix zu sagen da ich weder mit ner NV noch ner ATI Karte Linux laufen hatte. Wobei sich bei den ATI Linux Treibern jede Menge getan haben soll, in letzter Zeit.
Also ich würde mir eine 9500pro zulegen, sofern sie noch verfügbar ist. Preislich deutlich unter der 9700pro, leistungsmäßig nicht weit davon entfernt.
dslfreak
2003-08-07, 12:52:04
Wie sieht es denn Leistungstechnisch bei der FX5800 mit AA oder AF aus? Ist die da Schneller als Radeon 9700/9800? Ich glaub ich muss mir mal noch mal den Artikel durchlesen.
nagus
2003-08-07, 13:11:06
Original geschrieben von dslfreak
Joar demnächst gibts wieder ein bißchen Geld und ich werde mir wohl eine Neue Graka zulegen. Also es geht mir vorallem darum, dass ich spiele gerne mit AF/AA genieße und die neue Graka sollte auch bei spielen wie Gothic 2 genug reserven haben. Preisrahmen ist 250-300 € und ich orientiere mich mal an einer Radeon 9700, die kostet 200€, d.h. für die 100€ mehr muss die Leistung schon über der 9700 liegen. Welche wäre denn die beste wahl, gekauft wird dann so in 4 wochen.
1. das beste preis/leistungsverhältnis JETZT bietet mit abstand die Radeon 9700.
2. in 4 wochen schauts mit den preisen wieder ganz anders aus.
3. dann gibts vielleicht sogar schon einen 9800PRo für ~ 300 euro, zumindest aber eine 9800 oder 9700PRO (~ gleich schnell)
PS: von einer FX 5800/5900 kann ich dir nur abraten, weil diese karten i.a. einfach zu langsam, laut, groß, heiss, teuer sind. insbesondere die pixelShader 2 -leistung ist schlecht. ATi bietet das beste preis/leistungsv. in fast jedem preissegment.
LovesuckZ
2003-08-07, 13:25:23
Original geschrieben von nagus
1. das beste preis/leistungsverhältnis JETZT bietet mit abstand die Radeon 9700.
PS: von einer FX 5800/5900 kann ich dir nur abraten, weil diese karten i.a. einfach zu langsam, laut, groß, heiss, teuer sind. insbesondere die pixelShader 2 -leistung ist schlecht. ATi bietet das beste preis/leistungsv. in fast jedem preissegment.
Hm, Nagus ist wieder da und damit auch seine Wahrheiten...
Riptor
2003-08-07, 13:34:27
Original geschrieben von dslfreak
Wie sieht es denn Leistungstechnisch bei der FX5800 mit AA oder AF aus? Ist die da Schneller als Radeon 9700/9800? Ich glaub ich muss mir mal noch mal den Artikel durchlesen.
Nein, eine FX5800 schwächelt gegen eine R9700 mit FSAA/AF --> Siehe Test auf der 3DCenter-Page.
LovesuckZ
2003-08-07, 13:36:05
Original geschrieben von Riptor
Nein, eine FX5800 schwächelt gegen eine R9700 mit FSAA/AF --> Siehe Test auf der 3DCenter-Page.
Warum wird dauernd auf einen Test verwiesen, der alles andere als AKTUELL ist?
Oder anders: Ist's heutzutage noch legitim zu sagen, dass die ATi Treiber miserabel seien?
betasilie
2003-08-07, 15:32:18
Original geschrieben von LovesuckZ
Warum wird dauernd auf einen Test verwiesen, der alles andere als AKTUELL ist?
Oder anders: Ist's heutzutage noch legitim zu sagen, dass die ATi Treiber miserabel seien?
Und jetzt gleich fängst Du auch wieder mit deinem RTL-Skipringen und dem AF an? :eyes:
Sieh doch endlich mal ein, dass NV Momentan in keiner Preisklasse annähernd mit dem Preis-/Leistungsverhältnis ATI mithalten kann und mach dich mit deinen Propagandaversuchen nicht lächerlich. ;)
Jeder Test, in dem ATI gewinnt, ist in deinen Augen ungültig. Entweder die Reviewer haben keine Ahnung, haben Fehler gemacht, nicht die richtigen Sachen getestet, ... etc. :zzz:
LovesuckZ
2003-08-07, 15:55:55
Ohje, die Hitze setzt wohl zusaetzliche ATi Hormone bei einigen frei...
http://www.hardtecs4u.com/reviews/2003/aopen_geforcefx_5900/
Wenn schon alt, dann wenigsten mitnen FX Treiber:
http://firingsquad.gamers.com/hardware/nvidia_geforce_fx_5900_ultra/default.asp
Iceman346
2003-08-07, 15:57:45
Original geschrieben von LovesuckZ
Warum wird dauernd auf einen Test verwiesen, der alles andere als AKTUELL ist?
Oder anders: Ist's heutzutage noch legitim zu sagen, dass die ATi Treiber miserabel seien?
Hmm, Suckie ist wieder da und mit ihm seine Wahrheiten...
LovesuckZ
2003-08-07, 16:00:44
Original geschrieben von Iceman346
Hmm, Suckie ist wieder da und mit ihm seine Wahrheiten...
Ich quote mich mal selbst:
Ohje, die Hitze setzt wohl zusaetzliche ATi Hormone bei einigen frei...
GetDuff
2003-08-07, 16:18:56
Hi,
ich würde auch zu einer vernünftigen ATI 9700 NP mit schnellem Speicher ! Die kannst du dann noch übertakten und fertig ! Preis + Leistung unschlagbar ! AA + AF rulez !
und du hast vieeeeeeeeeel Geld gespart ! :up:
StefanV
2003-08-07, 21:00:51
Original geschrieben von LovesuckZ
Ich quote mich mal selbst:
Ohje, die Hitze setzt wohl zusaetzliche ATi Hormone bei einigen frei...
Hast du auch noch ein paar Argumente??
In diesem Thread sehe ich nur anfeindungen bzw irgendwelche Versuche andere Member zu 'demontieren'...
Wie wäre es damit:
ATI:
+besseres FSAA
+bei AF/FSAA schneller
+durchgehend FP24 rendering
+kleines PCB
nV:
-des Cheatings überführt
-ziemlich lahme Shader
-heiss (ob Chip oder RAM sei mal dahingestellt)
hab ich was vergessen??
Quasar
2003-08-07, 21:07:56
Original geschrieben von Stefan Payne
Hast du auch noch ein paar Argumente??
In diesem Thread sehe ich nur anfeindungen bzw irgendwelche Versuche andere Member zu 'demontieren'...
Wie wäre es damit:
ATI:
+besseres FSAA
+bei AF/FSAA schneller
+durchgehend FP24 rendering
+kleines PCB
nV:
-des Cheatings überführt
-ziemlich lahme Shader
-heiss (ob Chip oder RAM sei mal dahingestellt)
hab ich was vergessen??
Ja, eine Menge. Zum Beispiel die negativen Argumente für ATi und die positiven für nV...
ATi:
- optisch minderwertiges AF
- Gammakorrektur kann auch häßlich wirken
- keine Möglichkeit zu 32Bit FP
- evtl. zu kleines PCB und daraus resultierende Probleme
- des Cheatings überführt
nV:
- ziemlich potente Shader (sind immerhin nur halbsoviele wie bei ATi)
- qualitativ hochwertigstes AF am Markt (IIRC)
- AA-Hybrid Modi
- PCB-Größe "auf der sicheren Seite"
- Temperaturüberwachung des Chips
- Temperatur nicht (mehr) (oder nur beim nV30) problematisch
Sind wir jetzt wieder etwas ausgeglichen?
LovesuckZ
2003-08-07, 21:12:19
Original geschrieben von Stefan Payne
ATI:
+besseres FSAA
+bei AF/FSAA schneller
+durchgehend FP24 rendering
+kleines PCB
1. Wissen wir. Dagegen steht das bessere AF.
2. Nein, eben nicht. Nur dank dem "optimierten" AF.
3. Und?
4. Supi Argument...
NV:
-des Cheatings überführt
-ziemlich lahme Shader
-heiss (ob Chip oder RAM sei mal dahingestellt)
1. ATi auch. Koennen sich beide zusammentun.
2. Noe, siehe GunMetal
3. Eine 9700 ist auch nicht der Eiswürfel.
Mr. Lolman
2003-08-07, 21:17:45
optisch minderwertiges AF?
Ja nach Textur, sieht man tw. ueberhaupt keinen Unterschied zw. den 'guten' 0 Grad Winkeln und den 'miesen' 22.5 Grad Winkeln...
Quasar
2003-08-07, 21:33:52
Original geschrieben von Mr. Lolman
optisch minderwertiges AF?
Ja nach Textur, sieht man tw. ueberhaupt keinen Unterschied zw. den 'guten' 0 Grad Winkeln und den 'miesen' 22.5 Grad Winkeln...
Die verwendeten Settings kann man dem Dateinamen entnehmen...
http://home.arcor.de/quasat/3DC-Pics/U9-R300%206x-16x.JPG
betasilie
2003-08-07, 21:34:55
Original geschrieben von Quasar
ATi:
- optisch minderwertiges AF
Mach dich doch nicht lächerlich. Das AF ist mit seiner Winkelabhängigkeit an wenigen Stellen kritikwürdig, aber im großen und ganzen exzellent. ...
Was Du von NVs ach so tollen AF hast, wenn das Quality AF in Kombination mit AA die Framerate in den Keller schickt, möcht ich mal wissen. ... Imo hast Du dann lediglich das Wissen, dass dein AF an wenigen Stellen besser aussieht, aber deine Framerate wird lächerlich.
Mr. Lolman
2003-08-07, 21:42:22
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1088831#post1088831
LovesuckZ
2003-08-07, 21:45:10
Original geschrieben von betareverse
Was Du von NVs ach so tollen AF hast, wenn das Quality AF in Kombination mit AA die Framerate in den Keller schickt, möcht ich mal wissen. ...
Quality AF ist seit der 5800 in vielen Spielen genauso schnell wie das von ATi. Und würde man fair sein und mit 4AF (was in vielen Situation nur minimal schlechter als 8AF aussieht) gegen das 8AF von ATi benchen, dann waere Nvidia auch vorne.
Siehe auch hier:
http://www.hardtecs4u.com/reviews/2003/aopen_geforcefx_5900/index15.php
Wenn du 10% wegen der Stage Optimierung abziehst, dann hat eine 9700pro mit AF keine Vorteile mehr.
betasilie
2003-08-07, 21:57:51
Original geschrieben von LovesuckZ
Quality AF ist seit der 5800 in vielen Spielen genauso schnell wie das von ATi. Und würde man fair sein und mit 4AF (was in vielen Situation nur minimal schlechter als 8AF aussieht) gegen das 8AF von ATi benchen, dann waere Nvidia auch vorne.
Siehe auch hier:
http://www.hardtecs4u.com/reviews/2003/aopen_geforcefx_5900/index15.php
Wenn du 10% wegen der Stage Optimierung abziehst, dann hat eine 9700pro mit AF keine Vorteile mehr.
Also zwischen 8*AF und 16*AF sehe ich keinen Unterschied, aber zwischen 4*AF und 8*AF sehr wohl. ... Wieso fällt dir das als AF-Fachmann bitte nicht auf? ;)
Die NV mit 4*AF zu benchen und die ATI mit 8* finde ich ziemlich unverschämt, denn ATIs AF sieht bei gleicher Aniso-Stufe ja in keinster Weise schlechter aus, solange die Textur nicht aus einen seltenen und ungünstigen Winkel betrachtet wird. Da hilft ja auch kein 16*AF.
Dieser Vergleich würde dann ja implementieren, dass man bei Benchmarks eine NV-Karte mit 8*AA laufen lässt und die ATI mit 4*AA. Und trotzdem schlägt ATI dann in fast allen Situationen NV, was die AA-Qualität angeht.
... Im übrigen ist mir bei Highendkarten die Kombination von AA und AF wichtig, denn wer will mit einer so teuren Karte nur AA oder nur AF nutzen? :naughty:
PS:
Dein Link bestätig ja nur meine Aussage. ... Die 9700Pro ist schneller als eine 5800Ultra bzw. 5900 bei 2AA und 8/16AF, obwohl NV nur 8*AF nutzt und ATI 16*AF.
Ich möchte nicht wissen, wie der Bench aussehen würde, wenn die ATI mit 8*AF (tri) getestet worden wäre. :D ... Oder ein Vergleich: ATI 4*AA/16AF -- NV 8*AA 8*AF
Wobei ich meine, dass ATI und NV Karten mit der gleichen AF-Stufe getesteten werden sollten, da bis auf die Winkelabhängigkeit die beiden Modi qualitätstechnisch fast gleich sind und die winkelabhängigkeit wird ja nicht durch die AF-Stufe beeinflusst.
LovesuckZ
2003-08-07, 22:06:05
Original geschrieben von betareverse
Also zwischen 8*AF und 16*AF sehe ich keinen Unterschied, aber zwischen 4*AF und 8*AF sehr wohl. ... Wieso fällt dir das als AF-Fachmann bitte nicht auf? ;)
Ich denke nicht, dass du den unterschied zwischen 4AF und 8AF auf anhieb im Spielst siehst, ohne einen Bildvergleich. Da es kaum noch Spiele gibt, die wirklich nur gerade Flaechen bieten.
Die NV mit 4*AF zu benchen und die ATI mit 8* finde ich ziemlich unverschämt, denn ATIs AF sieht bei gleicher Aniso-Stufe ja in keinster Weise schlechter aus, solange die Textur nicht aus einen seltenen und ungünstigen Winkel betrachtet wird. Da hilft ja auch kein 16*AF.
Und solange mir der Tester nicht garantiert, dass solche Winkel nicht in der Timedemo vorkommen, ist es unfair beide Modien zu vergleichen aus theoretischer Sicht.
Dann bin ich dafür, dass man Nvidia's "UT2003.exe" AF gegen das unoptimierte ATi AF nimmt. Dies waere ein überaus fairer Vergleich.
Dieser Vergleich würde dann ja implementieren, dass man bei Benchmarks eine NV-Karte mit 8*AA laufen lässt und die ATI mit 4*AA. Und trotzdem schlägt ATI dann in fast allen Situationen NV, was die AA-Qualität angeht.
Warum? Nvidia benutzt bei 4AA 4AA - Samples, ATi auch. Wenn es nach der Anordnung gehen würde, koennte man auch nvidia's 2AF gegen das 16AF von ATi vergleichen, da es ebenfalls auf 2AF runter geht.
... Im übrigen ist mir bei Highendkarten die Kombination von AA und AF wichtig, denn wer will mit einer so teuren Karte nur AA oder nur AF nutzen? :naughty:
Dies ist mir aber in einen Vergleich durchaus uninteressant.
Deswegen bevorzuge ich auch das neuere Nvnews.net Review der 5900Ultra. Kein vergleich mit einer anderen Karte, nur mit dieser und die Eindruecke geschildert.
So sollte das Review der Zukunft aussehen!
LovesuckZ
2003-08-07, 22:07:25
Original geschrieben von betareverse
PS:
Dein Link bestätig ja nur meine Aussage. ... Die 9700Pro ist schneller als eine 5800Ultra bzw. 5900 bei 2AA und 8/16AF, obwohl NV nur 8*AF nutzt und ATI 16*AF.
'hust' Stageoptimierung 'hust'
Diese Optimierung bringt zwischen 10 - 20% Mehrleistung. Zieh diese ab und du hast die richtige Geschwindigkeit.
Mr. Lolman
2003-08-07, 22:10:10
Wir vergleichen keine Techniken, sondern das was am Ende rauskommt. (Entspricht dem eigentlichem Sinn von Grafikkarten). Sonst kann man ja gleich die Werte des NV30 verdoppeln, weil der ja durch die 4 Pipelines gegenueber ATis 8 im (theoretischem) Nachteil ist.
Mr. Lolman
2003-08-07, 22:11:45
Original geschrieben von LovesuckZ
Dies ist mir aber in einen Vergleich durchaus uninteressant.
Deswegen bevorzuge ich auch das neuere Nvnews.net Review der 5900Ultra. Kein vergleich mit einer anderen Karte, nur mit dieser und die Eindruecke geschildert.
So sollte das Review der Zukunft aussehen!
Ja klar, damit man am Ende erst keinen Schimmer hat, ob man sich jetzt eine ATi oder eine NV Karte holen soll.
LovesuckZ
2003-08-07, 22:12:51
Original geschrieben von Mr. Lolman
Wir vergleichen keine Techniken, sondern das was am Ende rauskommt. (Entspricht dem eigentlichem Sinn von Grafikkarten). Sonst kann man ja gleich die Werte des NV30 verdoppeln, weil der ja durch die 4 Pipelines gegenueber ATis 8 im (theoretischem) Nachteil ist.
So ein Schwachsinn.
Du kannst nicht nach einem subjektiven Empfinden Einstellung finden.
Jeder Mensch empfindet dies anders, und wie das Zitat aus meiner Sig beweißt, finden sogar andere Tester, dass Nvidia's AA sehr aehnlich dem von ATi aussehe. Und ich denke nicht, dass du mit da mit einstimmen würdest.
LovesuckZ
2003-08-07, 22:14:43
Original geschrieben von Mr. Lolman
Ja klar, damit man am Ende erst keinen Schimmer hat, ob man sich jetzt eine ATi oder eine NV Karte holen soll.
Und? Besser als die jezige Situation. Beide optimieren beim AF doch nur noch auf Speed und vernachlaessigen die IQ.
Würde mich nicht wundern, wenn Nvidia mit dem Deto 5x.xx beim 4AA nur 3 AA Samples verwenden würde, um Leistung zu sparen...
Mr. Lolman
2003-08-07, 22:19:08
Original geschrieben von LovesuckZ
Und? Besser als die jezige Situation. Beide optimieren beim AF doch nur noch auf Speed und vernachlaessigen die IQ.
Würde mich nicht wundern, wenn Nvidia mit dem Deto 5x.xx beim 4AA nur 3 AA Samples verwenden würde, um Leistung zu sparen...
Siehst du, und genau deswegen liegts am Reviewer, wenn er ATi und NV Karten miteinander vergleicht, eine von der BQ her, moeglichst vergleichbare Einstellung zu finden...
LovesuckZ
2003-08-07, 22:25:06
Original geschrieben von Mr. Lolman
Siehst du, und genau deswegen liegts am Reviewer, wenn er ATi und NV Karten miteinander vergleicht, eine von der BQ her, moeglichst vergleichbare Einstellung zu finden...
Tja und dies ist heutzutage, wie früher nicht gegeben. Dazu kommen noch die ganzen cheat geschichten, die Optimierung für eine Hardware etc.
Daher finde ich das Review von nvnews.net so gut. Nur eine Karte und die Eindruecke.
Aquaschaf
2003-08-07, 22:53:59
Das ist natürlich eigentlich der bessere Weg, aber Printmagazine wollen sich verkaufen, und da kommts natürlich weitaus besser wenn es "Sieger" gibt, Vergleiche und ein simples Fazit am Ende.
Die meisten Leute erwarten halt von solchen Artikeln, dass ihnen ihre Kaufentscheidung vom Rewiever getätigt wird, weil es so viel einfacher ist, als wenn man sich wirklich selber eine umfassende Meinung bildet.
Und "früher" war die Vergleichbarkeit halt weitgehend gegeben, bzw. wurde auf schlecht vergleichbare Sachen wie AA/AF nicht geachtet und irgendwelche "Cheatereien" gabs halt deswegen seltener, afais dachte man sowieso eher eindimensional, also nur in Bezug auf Performance und Optimierungen die Bildqualität gekostet haben hätten/haben sich sicher weniger Feinde gemacht.
Wie soll man dem allgemeinem DAU jetzt erklären, dass er sich auf einmal heute Vergleichsbilder anschauen soll und auf ganz andere Dinge achten muss wenns um die "Bewertung" von Grafikkarten geht?
Wem sowas nicht gefällt, muss es ja nicht lesen. (Was ich dann auch praktiziere)
Quasar
2003-08-07, 23:05:47
Original geschrieben von betareverse
Mach dich doch nicht lächerlich. Das AF ist mit seiner Winkelabhängigkeit an wenigen Stellen kritikwürdig, aber im großen und ganzen exzellent. ...
Was Du von NVs ach so tollen AF hast, wenn das Quality AF in Kombination mit AA die Framerate in den Keller schickt, möcht ich mal wissen. ... Imo hast Du dann lediglich das Wissen, dass dein AF an wenigen Stellen besser aussieht, aber deine Framerate wird lächerlich.
Frei nach Forrest Gump:
Lächerlich macht sich der, der lächerliches behauptet.
betasilie
2003-08-07, 23:43:49
Original geschrieben von Quasar
Frei nach Forrest Gump:
Lächerlich macht sich der, der lächerliches behauptet.
Und wer von ATI-Karten behauptet, dass sie minderwertiges AF benutzen, macht sich deshalb lächerlich.
Quasar
2003-08-07, 23:52:41
Wenn, dann bitte vollständig: "optisch minderwertiges AF" und das ist mitnichten lächerlich, sondern sogar nachweisbar, insbesondere, wenn man auf das rTool verzichtet.
betasilie
2003-08-08, 00:10:13
Da sprechen aber Vergleichscreenshots mit 8*AF-tri, auch ohne rTool (tri-filter bei Stages >0), bei den meisten Titeln eine andere Sprache.
Deine Generalisierung ist einfach nur Bashing gegen ATI. Aber Du meinst ja scheinbar, dass deine pseudo-eloquenten Äußerungen deine Beiträge diesbzgl. inhaltlich aufwerten. Das tun sie aber nicht. :nono:
Die Hauptfrage ist, was bei welcher Framerate auf dem Bildschirm rauskommt und das ist, was das ATI-AF betrifft, in den meisten völlig gleichwertig. Das wird von so vielen Screenshots bewiesen, aber die ATI-Basher kommen dann halt immer gerne mit irgendwelchen tollen Screenshots, wo man dann den Fehler synthetischer Weise unter die Nase gerieben bekommt.
... Zum kotzen finde ich diese markenabhängingen Kinder. :kotz:
Quasar
2003-08-08, 00:31:25
Original geschrieben von betareverse
Da sprechen aber Vergleichscreenshots mit 8*AF-tri, auch ohne rTool (tri-filter bei Stages >0), bei den meisten Titeln eine andere Sprache.
Deine Generalisierung ist einfach nur Bashing gegen ATI. Aber Du meinst ja scheinbar, dass deine pseudo-eloquenten Äußerungen deine Beiträge diesbzgl. inhaltlich aufwerten. Das tun sie aber nicht. :nono:
Die Hauptfrage ist, was bei welcher Framerate auf dem Bildschirm rauskommt und das ist, was das ATI-AF betrifft, in den meisten völlig gleichwertig. Das wird von so vielen Screenshots bewiesen, aber die ATI-Basher kommen dann halt immer gerne mit irgendwelchen tollen Screenshots, wo man dann den Fehler synthetischer Weise unter die Nase gerieben bekommt.
... Zum kotzen finde ich diese markenabhängingen Kinder. :kotz:
Außer Beleidigungen und Anfeindungen hast du nichts zu bieten?
Und nicht vergessen:
nV ist nicht ausschließlich GeForceFX
Ati ist nicht ausschießlich R300
und was die Hauptfrage ist, musst du wohl oder übel mir überlassen, da du mich anhand meiner Aussage der Lächerlichkeit bezichtigst und sie dabei nicht einmal zu verstehen scheinst.
Optisch minderwertiges AF hat nichts und wieder nicht mit der Framerate zu tun...
BTW, warum sollte ich ATi bashen? Sie machen hervorragende Grafikkarten, die aber eben, wie alles im Leben, nicht perfekt sind. Ich habe selbst mehrere davon in meinem Besitz und bin, auch da ich mich vor dem Kauf informierte, im Rahmen ihrer mir vorher bekannten Grenzen, mit jeder sehr zufrieden (naja, bei der R7500 zeigen sich Anzeichen eines Lagerschadens vom Lüfter).
Was sollen diese ewigen Anfeindungen von dir, betareverse? Und sag' jetzt nicht, dass wohl etwas dran wäre, wenn ich mich angesprochen fühle...
Deinem letzten Satz gebe ich im Kern recht, auch wenn ich ihn weniger drastisch formuliert hätte.
betasilie
2003-08-08, 01:23:22
Original geschrieben von Quasar
Außer Beleidigungen und Anfeindungen hast du nichts zu bieten?
Ach herje. Jetzt unterstellst Du mir, dass ich im meinem Postings nichts außer Beleidigungen anbringe. Ich sehe da eigentlich hauptsächlich was zum Thema und eine Kritik bzgl. deiner Art auf Postings zu reagieren, die nicht deiner Meinung entsprechen. Jetzt hier die Mimose zu mimen finde ich schon sehr suspekt.
BOT:
Original geschrieben von Quasar
und was die Hauptfrage ist, musst du wohl oder übel mir überlassen, da du mich anhand meiner Aussage der Lächerlichkeit bezichtigst und sie dabei nicht einmal zu verstehen scheinst.
Optisch minderwertiges AF hat nichts und wieder nicht mit der Framerate zu tun...
Selbstverständlich hat das auch was mit Performance zu tun. Wenn NV oder ATI ein 32-faches AF bei den Aktuellen Karten zur Verfügung stellen würde und es wäre auf grund extrem geringer Performance nicht nutzbar, würdest Du doch auch nicht behaupten, dass die Framerate egal ist und die Firma X mit ihrem 32*AF das beste AF anbieten würde, auch wenn es in der Spielepraxis nicht nutzbar ist.
Im übrigen ist es eine Definitionssache, wann eine AF Methode minderwertig ist und wann sie "perfekt" ist, und darum geht es doch. Du meinst wohl deine Definition von "minderwertig" ist der Olymp der Begrifflichkeit.
Der Unterschied beim 8*AF zwischen der NV30/35-Serie gegenüber der R3xx-Serie (ich hoffe ich habe eine Terminologie gewählt, die es für dich klar eingrenzt :eyes: ) ist marginal und Du willst jetzt das eine als minderwertig anpreisen und das andere als super toll!? :|
... Genau da liegt der Knackpunkt und ich finde diese Aussage und den Begriff "minderwertig" in diesem Kontext somit völlig lächerlich und empfinde das als Bashing gegen ATI. - Du empfindest es scheinbar als Angriff auf deine Person. :kratz:
Original geschrieben von Quasar
Was sollen diese ewigen Anfeindungen von dir, betareverse? Und sag' jetzt nicht, dass wohl etwas dran wäre, wenn ich mich angesprochen fühle...
Was heißt hier ewige Anfeindungen!? ...
Quasar
2003-08-08, 01:30:16
Original geschrieben von betareverse
Ach herje. Jetzt unterstellst Du mir, dass ich im meinem Postings nichts außer Beleidigungen anbringe. Ich sehe da eigentlich hauptsächlich was zum Thema und eine Kritik bzgl. deiner Art auf Postings zu reagieren, die nicht deiner Meinung entsprechen. Jetzt hier die Mimose zu mimen finde ich schon sehr suspekt.
BOT:
Selbstverständlich hat das auch was mit Performance zu tun. Wenn NV oder ATI ein 32-faches AF bei den Aktuellen Karten zur Verfügung stellen würde und es wäre auf grund extrem geringer Performance nicht nutzbar, würdest Du doch auch nicht behaupten, dass die Framerate egal ist und die Firma X mit ihrem 32*AF das beste AF anbieten würde, auch wenn es in der Spielepraxis nicht nutzbar ist.
Im übrigen ist es eine Definitionssache, wann eine AF Methode minderwertig ist und wann sie "perfekt" ist, und darum geht es doch. Du meinst wohl deine Definition von "minderwertig" ist der Olymp der Begrifflichkeit.
Der Unterschied beim 8*AF zwischen der NV30/35-Serie gegenüber der R3xx-Serie (ich hoffe ich habe eine Terminologie gewählt, die es für dich klar eingrenzt :eyes: ) ist marginal und Du willst jetzt das eine als minderwertig anpreisen und das andere als super toll!? :|
... Genau da liegt der Knackpunkt und ich finde diese Aussage und den Begriff "minderwertig" in diesem Kontext somit völlig lächerlich und empfinde das als Bashing gegen ATI. - Du empfindest es scheinbar als Angriff auf deine Person. :kratz:
Was heißt hier ewige Anfeindungen!? ...
betareverse,
Bevor du dich da noch weiter hineinsteigerst: Bitte lies' nochmal _genau_ mein Posting, was für dich offenbar der Auslöser für die letzten paar Postings hier im Thread war.
betasilie
2003-08-08, 01:48:25
Ok, habe ich.
Ich stoße mich halt am "minderwertig", da dieses Adjektiv völlig unzutreffend ist, imo. Und irgendwie ensteht bei einer so krassen Aussage der Verdacht, dass da gebashed wird.
Ich würde mich übrigens auch freuen, wenn ATI ein nicht winkeladaptives AF und SS-AA in den Treibern anbieten würde, auch wenn ich beides garnicht oder sehr selten nutzen würde. ;)
Quasar
2003-08-08, 01:57:04
Das habe ich befürchtet. Du siehst das minderwertig und fühlst dich aufgefordert, ATi zu verteidigen.
Ich habe aber nicht "minderwertig", denn das wäre falsch und anmaßend, wie du schon bemerktest, geschrieben, sondern "optisch minderwertig".
Das sagt weder etwas über die Qualität/FPS aus, noch schmälert es den Nutzwert von ATis Chips. Es sieht einfach nicht so gut aus, wie das Application-AF von nV, speziell der GF3/4Ti.
Auch bei nV habe ich nichts absolutes ("perfekt") geschrieben, sondern ganz bewußt noch ein "IIRC" dahintergesetzt.
Ich hatte eigentlich im Sinne, mein Posting dadurch ein bißchen von der Pauschalisierung von Stefan Paynes Post (z.b. völlig undifferenziert "heiss") abzuheben. Das scheint danebengegangen zu sein, das ist schade.
Gut finde ich, dass wir anscheinend jetzt wieder normal miteinander reden können.
betasilie
2003-08-08, 02:13:50
Dieser Erklärung kann ich zustimmen, aber minderwertig ist schon ziemlich absolut. "Schlechter im Vergleich zu xxx" wäre imo passender gewesen, denn minderwertig ist schon sehr abwertend und das hat das AF von ATI imo nicht verdient.
Im übrigen ist mein subjektiver Eindruck, dass das Application-AF von NV nicht der richtige Konkurrent zum Tri-AF der R300er ist, da das NV-Balanced-AF von der Performance der Vergleichswert ist und da schneidet ATIs R3xx imo in der Qualtät besser ab.
Auf den Screenshots, die ich bisher gesehen habe, ist das Application-AF nur unter OGL wirklich ein Stückchen besser, als das Quality-AF der ATIs. Das mit der Performance verkneife ich mir jetzt.
... Ich freue mich auch, dass wir wieder ein freundliches Klima haben.;)
mapel110
2003-08-08, 02:27:07
Original geschrieben von betareverse
Ok, habe ich.
Ich stoße mich halt am "minderwertig", da dieses Adjektiv völlig unzutreffend ist, imo. Und irgendwie ensteht bei einer so krassen Aussage der Verdacht, dass da gebashed wird.
Ich würde mich übrigens auch freuen, wenn ATI ein nicht winkeladaptives AF und SS-AA in den Treibern anbieten würde, auch wenn ich beides garnicht oder sehr selten nutzen würde. ;)
sorry for offtopic, aber ATI bietet SSAA an, allerdings nur für die mac user.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=84691&highlight=mac+super
betasilie
2003-08-08, 02:29:55
Original geschrieben von mapel110
sorry for offtopic, aber ATI bietet SSAA an, allerdings nur für die mac user.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=84691&highlight=mac+super
=) :o ... thanks for the link.
Da bin ich mal auf benchmarks gespannt.
Original geschrieben von betareverse
Ich würde mich übrigens auch freuen, wenn ATI ein nicht winkeladaptives AF und SS-AA in den Treibern anbieten würde, auch wenn ich beides garnicht oder sehr selten nutzen würde. ;) Ich denke, "nicht winkelabhängiges AF" würdest du nutzen. Wenn es keine Winkel gibt, die ATI "optimiert", bringt die Winkelabhängigkeit auch keine Geschwindigkeit. Gibt es diese "optimierten" Winkel, bringt ein nicht winkelabhängiges AF mehr Qualität. AF ist ja dazu gedacht, Qualität zu bringen. Insofern macht ein nicht winkelabhängiges AF mehr Sinn.
Original geschrieben von mapel110
sorry for offtopic, aber ATI bietet SSAA an, allerdings nur für die mac user.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=84691&highlight=mac+super Ist die Frage geklärt, welche Abtast-Masken hier zum Einsatz kommen?
mapel110
2003-08-08, 03:31:52
Original geschrieben von aths
Ist die Frage geklärt, welche Abtast-Masken hier zum Einsatz kommen?
meinst rotated grid ? jo, iirc durchweg.
betasilie
2003-08-08, 04:37:16
Original geschrieben von aths
Ich denke, "nicht winkelabhängiges AF" würdest du nutzen. Wenn es keine Winkel gibt, die ATI "optimiert", bringt die Winkelabhängigkeit auch keine Geschwindigkeit. Gibt es diese "optimierten" Winkel, bringt ein nicht winkelabhängiges AF mehr Qualität. AF ist ja dazu gedacht, Qualität zu bringen. Insofern macht ein nicht winkelabhängiges AF mehr Sinn.
Da hast Du schon recht.
Ein richtiger Vergleich wäre aber schön, um mal zu schauen wie gut dieser psychovisuelle Trick von ATI funktioniert. Klar gibt es Stellen wo die Winkelabhängigkeit stark auffällt, aber wie oft sieht man es nicht, obwohl es einem Performance gibt? Das ließe sich in der Praxis erst durch Auswahlmöglichkeiten in den Treibern "erbenchen" und beobachten.
Original geschrieben von mapel110
meinst rotated grid ? jo, iirc durchweg.
Hoffe ich doch mal. Ein OG wäre wohl echt ein schlechter Witz. :spock:
nagus
2003-08-08, 09:49:28
Original geschrieben von LovesuckZ
Hm, Nagus ist wieder da und damit auch seine Wahrheiten...
und LovesuckZ ist immer noch da mit seinen nvidia-wahrheiten
LovesuckZ
2003-08-08, 09:51:59
Original geschrieben von nagus
und LovesuckZ ist immer noch da mit seinen nvidia-wahrheiten
Nagus, die Zeiten haben sich geaendert. Da solltest deine "Wahrheiten" vielleicht auch anpassen.
Aquaschaf
2003-08-08, 12:10:26
Ahrg dann bete ich dafür, dass SSAA irgendwann mal seinen Weg in die "gewöhnlichen" Catalyst Treiber findet. :massa:
MadManniMan
2003-08-09, 13:47:04
Original geschrieben von nagus
und LovesuckZ ist immer noch da mit seinen nvidia-wahrheiten
Original geschrieben von LovesuckZ
Nagus, die Zeiten haben sich geaendert. Da solltest deine "Wahrheiten" vielleicht auch anpassen.
Gezückten Schwertes schritt Edelmann nagus seinem Intimfeind, dem ehrenwerten Ritter LovesuckZ entgegen, jene Worte zu sprechen: "Strolch strolchiger! Erquickest du dich noch immer am Leid anderer, die deine Zunge fürchten müssen?" Und gekonnt parierend erwiederte LovesuckZ mit geschickter Zunge: "Schelm schelmischer! Dereinst konntest du deine Schriften ungestraft verbreiten, doch heute rate ich dir nur: Obacht! Die Zeiten deiner gespaltenen Zunge sind vorbei!" ... Und die stolzen Männer umkreisten wortschwingenderweise wie seit jeher einander, dem anderen seinen ultimativen Glauben einzuverleiben.
.....
Leute, langsam macht ihr euch lächerlich.
MadManniMan
2003-08-09, 13:55:02
Mal ganz ab von dieser hier leider ein weiteres mal aufgekommenen Diskussion um ganz persönliche Subjektivitäten:
- im Bereich der angepeilten 250 €uronen befinden sich momentan auf ATi-Seiten lediglich die R9700, sowie - obacht! - 9800SE. Auf nV-Seiten tummelt sich in diesem Preissegment größtenteils die 5600U, von daher möchte ich zur ATi-Alternative raten.
- Zum AA/AF: das AA der Radeons schaut besser aus als das der GeforceFX, beim AF ists andersrum.
- mir Persönlich fällt der Unterschied zwischen ATi- und nV-AA viel deutlicher auf, als der beim AF. -> von daher geht meine persönliche Qualitätsempfehlung in Richtung ATi.
- wenn LovesuckZ und co. rumpaderzen: lies am besten nicht hin. Allesamt unverbesserlich, keiner rückt auch nur nen cm von seinem Standpunkt ab - alles mehr als nur zwecklos. Glaubenskrieger sind unbelehrbar.
:ratlos:
MadManniMan
2003-08-09, 13:59:23
Vorsicht! Subjektivität!
Original geschrieben von aths
Ich denke, "nicht winkelabhängiges AF" würdest du nutzen. Wenn es keine Winkel gibt, die ATI "optimiert", bringt die Winkelabhängigkeit auch keine Geschwindigkeit. Gibt es diese "optimierten" Winkel, bringt ein nicht winkelabhängiges AF mehr Qualität. AF ist ja dazu gedacht, Qualität zu bringen. Insofern macht ein nicht winkelabhängiges AF mehr Sinn.
Wenn du das so siehst, wie begründest du dann den Sinn der von dir erleichterten Stageoptimierungen? :| Sicherlich ist Stageadaption was anderes als Winkeladaption, aber im Endeffekt "verschlechtern" beide einen Verbesserungsalgorhythmus...
Mir scheint eher, daß du mit dieser - sicherlich sehr objektiven - Betrachtungsweise deutlich zeigst, daß du zwar die NV2X-Generation gut kennst, die R3XX aber eher aus der Theorie und maximal in Aktion bei Freunden. Tausch doch mal mit deinem Kumpel mit der R95P ein Weilchen und dann sag, daß der Quali-Malus beim AF so schwer zu verschmerzen ist.
LovesuckZ
2003-08-09, 15:29:19
Original geschrieben von MadManniMan
- im Bereich der angepeilten 250 €uronen befinden sich momentan auf ATi-Seiten lediglich die R9700, sowie - obacht! - 9800SE. Auf nV-Seiten tummelt sich in diesem Preissegment größtenteils die 5600U, von daher möchte ich zur ATi-Alternative raten.
Die ist hoffentlich bewußt, ich denke eher nicht, dass eine 5800 im Preis deutlich gefallen ist? Wenn nicht, warum lügst du ihn an?
wenn LovesuckZ und co. rumpaderzen: lies am besten nicht hin. Allesamt unverbesserlich, keiner rückt auch nur nen cm von seinem Standpunkt ab - alles mehr als nur zwecklos. Glaubenskrieger sind unbelehrbar.
Ebenfalls trifft dies auch auf dich zu.
Am besten gibt keiner mehr Tipps, dann kann es auch nicht zu "Gruppenbildung" kommen...
MadManniMan
2003-08-09, 15:37:52
Original geschrieben von LovesuckZ
Die ist hoffentlich bewußt, ich denke eher nicht, dass eine 5800 im Preis deutlich gefallen ist? Wenn nicht, warum lügst du ihn an? [/SIZE]
Sorry, hatte nur mal kurz Preistrend nach Radeons und Gefocres im 250€-Bereich suchen lassen, da hab ich das Terratec 5800 Angebot übersehen. -> Besser als 5600 in jedem Fall, besser als R9700 nur, wenns der Geschmack bedingt.
Original geschrieben von LovesuckZ
Ebenfalls trifft dies auch auf dich zu.
Am besten gibt keiner mehr Tipps, dann kann es auch nicht zu "Gruppenbildung" kommen... [/SIZE]
Achso? :| Wenn du das sagst :eyes:
Ich sag mal so: am besten du und nagus gebt beide keine Tips mehr - überlaßt das anderen. Das Problem bei euch beiden ist nämlich, daß ihr keine Empfehlung ohne Diskussion zustande bringt und stets und ständig alles und jeden kommentieren müßt. Auch jeden Gast, der dann wirklich merklich rein zur Provokation postet.
LovesuckZ
2003-08-09, 15:48:37
Original geschrieben von MadManniMan
Sorry, hatte nur mal kurz Preistrend nach Radeons und Gefocres im 250€-Bereich suchen lassen, da hab ich das Terratec 5800 Angebot übersehen. -> Besser als 5600 in jedem Fall, besser als R9700 nur, wenns der Geschmack bedingt.
Und wieviele 9700 sind von einem seriösen Haendler auf Lager?
Nach Geizhals.az/deutschland keine...
Ich sag mal so: am besten du und nagus gebt beide keine Tips mehr - überlaßt das anderen.
Aha, nur hab ich keine unwarheiten zur r300 Serie gesagt. Was würde passieren, wenn ich sage, dass die Treiber crap seien, die Karte nen scheiß AF habe usw.? Dann würde man mich auch anspringen. Tja, leider tue ich dies nicht. So bitte, warum sollte ich leuten nicht helfen?
Das Problem bei euch beiden ist nämlich, daß ihr keine Empfehlung ohne Diskussion zustande bringt und stets und ständig alles und jeden kommentieren müßt. Auch jeden Gast, der dann wirklich merklich rein zur Provokation postet.
Das problem ist, dass Nagus einfach alles in einen Topf wirft. Einiges stimmt, dass andere nicht.
La Junta
2003-08-09, 17:44:33
Original geschrieben von LovesuckZ
Das problem ist, dass Nagus einfach alles in einen Topf wirft. Einiges stimmt, dass andere nicht. [/SIZE]
Und was machst du anders als er ? Ok Mann muss es dir zugestehen du hast dich echt extrem in der hinsicht verbessert echt und mit Nagus vergleichen ?
Aber du siehst z.B zwischen NVidias 4xAf und 8xAf keinen unterschied , aber was AF und ATI betrifft siehst du alles .
Trotzdem ein grosses Lob auf dich . Ich meine es ehrlich ernst , du bist um einiges angenehmer und ruhiger geworden .
Was meinst du überhaupt die ganze zeit mit unseriös ?
@Threadstarter:
Ob Radeon 9700 oder NVidia FX5800 ist egal . Ich würde den Preiss entscheiden lassen .
Icybro
2003-08-09, 20:29:31
momentan ist da die 9700pro mit dem besten Preis-/Leistungsverhältnis (evtl. mit 256 MB)
ATI-Andi
2003-08-09, 21:36:47
@ MadManni Man:
Full Ack
@ Lovesucks: Die 9700 ist bei E-bug wieder im Zulauf, so dass man in einer Woche wieder eine 9700 für um die 225€ bekommen dürfte die FX5800 liegt bei 240€ noch und bei dem Preis zieht man besser die 9700 vor ich würde selbst für 260€ die 9700 vorziehen, allein schon weil ich von der Fx-Serie genug gehört, erfahren und gelesen habe, unter FX5900 sollte man nicht einsteigen.
PS.: Und jetzt erzähl mir nicht wieder ich hätte einen Sonnenstich, wie in dem anderen Topic.(Es ging umdie Verarschung mit der FX-Reihe.) :D
LovesuckZ
2003-08-09, 21:46:01
Original geschrieben von ATI-Andi
@ Lovesucks: Die 9700 ist bei E-bug wieder im Zulauf, so dass man in einer Woche wieder eine 9700 für um die 225€ bekommen dürfte[...]
"Dürfete". Das sagt alles. Erst wenn sie die Karte auf Lager haben, kann man wieder sagen, die 9700 sei das bessere Angebot.
die FX5800 liegt bei 240€ noch und bei dem Preis zieht man besser die 9700 vor ich würde selbst für 260€ die 9700 vorziehen, allein schon weil ich von der Fx-Serie genug gehört, erfahren und gelesen habe, unter FX5900 sollte man nicht einsteigen.
Interessant, leider nichts sagend.
Ich sehe keinen Grund, keine 5800 von Terratec zu einem Preis von 240€ (mit Splinter Cell, Warcraft3 und GunMetal) zu kaufen. Da beide karten mit vollem AA und AF Level nicht mehr reichen, sollten auch jedem klar sein.
Und zur Zeit ist die 5800 von Terratec deutlich interessant als eine 9700 die ausserhalb von Ebay nirgends lieferbar ist.
ATI-Andi
2003-08-09, 22:34:53
Ja, zurzeit das beste Preistrendangebot :D. Es gibt aber auch Händler, die die 9700 für 235€ noch dahaben, wenn auch nicht mehr viele.
LovesuckZ
2003-08-09, 22:41:05
Original geschrieben von ATI-Andi
Ja, zurzeit das beste Preistrendangebot :D. Es gibt aber auch Händler, die die 9700 für 235€ noch dahaben, wenn auch nicht mehr viele.
Keine einzigste! (http://www.geizhals.at/deutschland/?a=44526)
Sapphire 9700 Bulk - erste verfühbare bei 257€ (http://www.geizhals.at/deutschland/?a=41451)
betasilie
2003-08-10, 05:44:53
Muss es immer auf diese verfluchten Fankriege hinauslaufen!?
:madman: :madman: :madman: Zum kotzen!!!
PS:
Une es heißt: Einzige!!!! ... und nicht Einzigste.
LovesuckZ
2003-08-10, 09:42:34
Original geschrieben von betareverse
Une es heißt: Einzige!!!! ... und nicht Einzigste.
Ich kenne nur "Und"...
Ist sowas nicht peinlich?
StefanV
2003-08-10, 11:23:25
Original geschrieben von LovesuckZ
Ich kenne nur "Und"...
Ist sowas nicht peinlich?
peinlich ists nicht, er ist ja nur mitm Finger abgerutscht, was a) jedem mal passieren kann und b) nicht wirklich schlimm ist, da man davon ausgehen kann, daß man eigentlich weiß, wie es richtig geschrieben ist und zu faul ist bzw nicht willens ist den Edit Button zu benutzen (letzteres ist bei mir meist der Fall)...
Desweiteren hat betareverse recht, da es das einzigste nicht gibt.
Außerdem sehe ich keinen Grund, welcher es rechtfertigen würde, so rumzupoltern, wie du mit deinem Posting zu betareverses Zusatz...
PS: ich finde, wir haben hier im FOrum noch zuwenig 'Deutschlehrer'...
PPS: Es ist in einem Webforum, in dem man tippt von Vorteil der (dt.) Sprache mächtig zu sein, was wohl lt. Pisa wohl nur noch bei recht wenigen der Fall ist...
Man lässt sich z.B. lieber die Birne volllaufen als sich mal a bisserl mit der Sprache (=Rechtschreibung, Ausdruck) auseinanderzusetzen...
Das ich die Radeon bevorzugen würde, hab ich sicher schon erwähnt, oder??
Nur warum versuchst du dem TI eine FX5800 an die Backe zu reden??
LovesuckZ
2003-08-10, 11:27:04
Original geschrieben von Stefan Payne
Das ich die Radeon bevorzugen würde, hab ich sicher schon erwähnt, oder??
Nur warum versuchst du dem TI eine FX5800 an die Backe zu reden??
Warum sollt man eine teure und weniger gut ausgestatte Karte kaufen, die Performancemaeßig nicht mal deutlich schneller ist?
Nur Fanatiker und Nvidioten würden so handeln.
PPS: Es ist in einem Webforum, in dem man tippt von Vorteil der (dt.) Sprache mächtig zu sein, was wohl lt. Pisa wohl nur noch bei recht wenigen der Fall ist...
Ohman, da scheint's echt bei dir zu haken...
StefanV
2003-08-10, 12:26:51
Original geschrieben von LovesuckZ
Warum sollt man eine teure und weniger gut ausgestatte Karte kaufen, die Performancemaeßig nicht mal deutlich schneller ist?
Nur Fanatiker und Nvidioten würden so handeln.
PPS: Es ist in einem Webforum, in dem man tippt von Vorteil der (dt.) Sprache mächtig zu sein, was wohl lt. Pisa wohl nur noch bei recht wenigen der Fall ist...
Ohman, da scheint's echt bei dir zu haken...
1. oh mann...
Siehe den 2. Satz und schau ihn dir nochmal GENAU an...
WARUM verteidigst du so krampfhaft die FX5800??
Ich sehe in diesem Thread irgendwie nur einen, der immer und immer wieder die FX5800 schön redet bzw die Radeon9700 schlechtredet, der auch zu jedem 2. Posting auch ein Kommentar in form von 'die FX5800 ist aber besser' abgibt...
2. leider scheint das Gegenteil der Fall zu sein, wenn dus nicht glaubst, dann geh mal in die Betriebe und frag da mal nach der Rechtschreibung sowie den 'Rechenkünsten' der Bewerber...
Oder glaubst du etwa, die Industrie beklagt sich völlig ohne Grund über die schlechte 'Schulausbildung'??
LovesuckZ
2003-08-10, 12:33:24
Original geschrieben von Stefan Payne
1. oh mann...
Siehe den 2. Satz und schau ihn dir nochmal GENAU an...
WARUM verteidigst du so krampfhaft die FX5800??
Ich denke, dies geht aus dem Satz hervor.
Ich sehe in diesem Thread irgendwie nur einen, der immer und immer wieder die FX5800 schön redet bzw die Radeon9700 schlechtredet, der auch zu jedem 2. Posting auch ein Kommentar in form von 'die FX5800 ist aber besser' abgibt...
Hm, wie waere es, wenn du den Thread nochmal von vorne liest. Dann würde dir eventuell auffallen, dass die 5800 zu erst "schlecht[ge]redet" wurde.
StefanV
2003-08-10, 13:39:05
Original geschrieben von LovesuckZ
Hm, wie waere es, wenn du den Thread nochmal von vorne liest. Dann würde dir eventuell auffallen, dass die 5800 zu erst "schlecht[ge]redet" wurde. [/SIZE]
Ich hab den Thread gut genug gelesen, um festzustellen, daß es nur einen gibt, der mehr oder minder 'nun kauf doch endlich 'ne FX5800' sagt...
Alle anderen sprechen mehr oder minder Empfehlungen aus und wirklich schlechtgeredet wurde die FX5800 in diesem Thread auch nicht, zumal die von Riptor gesprochenen Worte durchaus der Realität entsprechen...
Allerdings solltest DU auch nicht verschweigen, daß nV die Lüftersteuerung momentan nicht wirklich toll im Griff hat...
Die Radeon 9700 ist wenigstens immer gleich leise, während die FX5800 'zwischendurch' 'ne richtige Turbine ist...
MadManniMan
2003-08-10, 13:49:54
Während ich stets zwischen objektiver Empfehlung und subjektiver Vorliebe bei Kaufvorschlägen differenziere, sehe ich bei dir immer nur den enttäuschten ATi-Käufer, der seinen Frust über die dereinst mislungene 9500-Mod* noch über Äonen mit sich schleppen wird.
BTW kann ich immernoch nicht nachvollziehen, wie man ATi deshalb böse sein kann. Man kauft ne 9500 und regt sich drüber auf, daß sie keine 300€-Karte ist, obwohl man 150 bezahlt hat :bonk:
LovesuckZ
2003-08-10, 14:12:41
Original geschrieben von MadManniMan
Während ich stets zwischen objektiver Empfehlung und subjektiver Vorliebe bei Kaufvorschlägen differenziere, sehe ich bei dir immer nur den enttäuschten ATi-Käufer, der seinen Frust über die dereinst mislungene 9500-Mod* noch über Äonen mit sich schleppen wird.
BTW kann ich immernoch nicht nachvollziehen, wie man ATi deshalb böse sein kann. Man kauft ne 9500 und regt sich drüber auf, daß sie keine 300€-Karte ist, obwohl man 150 bezahlt hat :bonk:
Ich bitte dich dies zu beweisen. Und ich wette, du wirst wie die anderen einfach nichts bringen, was deine Argumentation im Bezug auf meine Meinung zur 9500 stuetzt.
Ich freu mich schon auf deine Entschuldigung.
Stefan Payne
Ich hab den Thread gut genug gelesen, um festzustellen, daß es nur einen gibt, der mehr oder minder 'nun kauf doch endlich 'ne FX5800' sagt.
Hab ich leider nicht. Naja, scheint wohl ein kleines Leseproblem bei dir zu sein (das passiert wenn man mit PISA kommt...)
Alle anderen sprechen mehr oder minder Empfehlungen aus und wirklich schlechtgeredet wurde die FX5800 in diesem Thread auch nicht, zumal die von Riptor gesprochenen Worte durchaus der Realität entsprechen...
Ich sage nur Nagus,
und auf einen Test zu verweisen, der in heutiger Zeit nichts sagend ist, entspricht wohl kaum der Realitaet.
Allerdings solltest DU auch nicht verschweigen, daß nV die Lüftersteuerung momentan nicht wirklich toll im Griff hat...
Die Radeon 9700 ist wenigstens immer gleich leise, während die FX5800 'zwischendurch' 'ne richtige Turbine ist...
Sowas mein ich. Keine Ahnung aber jeden Muell erzaehlen. Die Turbine laeuft nur, wenn man es mit dem Übertakten übertreibt. Aber ey, reden wir bloedsinn, dass koennen ja einige bestens hier...
Akira20
2003-08-10, 16:41:51
Traurig, traurig....
Radeon-User, die nie eine GeforceFX5800 in der Hand hatten bzw. jemals im PC hatten, dürfen einfach falsche Aussagen machen(Turbine, viel zu laut etc.) und die richtigen User der Karte, dürfen die Aussagen nicht richtig stellen...:(
Es wäre ja schön, wenn die Radeon 9700 verfügbar wäre....ist sie aber definitiv nicht(zum anständig Preis, außer bei Ebay)!
Vielleicht sollte der Threadstarter am besten ne Voodoo6 kaufen, die ist nämlich genauso gut lieferbar,wie die 9700 im Moment;)
Mfg
Akira20
betasilie
2003-08-10, 17:38:05
Original geschrieben von LovesuckZ
Ich kenne nur "Und"...
Ist sowas nicht peinlich?
Ein Tipfehler muss niemanden peinlich sein, mangelhaftes Deutsch allerdings sehr wohl.
Du bist echt der Kaspar des Forums, inhaltlich, wie auch formal.
:balla:
Ich habe jetzt nicht den ganzen Thread gelesen. Damit er weiterhin offen bleiben kann, würde ich die Herren bitten, zu einem gemäßigterem Ton zurückzufinden.
BTW, ganz obektiv kann man sagen, dass die 5800 eine gute DX8-Karte ist, die 9700 zusätzlich eine gute DX9-Karte. Was man da nun nimmt, ist Geschmacksfrage.
Original geschrieben von MadManniMan
Vorsicht! Subjektivität!
Wenn du das so siehst, wie begründest du dann den Sinn der von dir erleichterten Stageoptimierungen? :| Sicherlich ist Stageadaption was anderes als Winkeladaption, aber im Endeffekt "verschlechtern" beide einen Verbesserungsalgorhythmus...Ja, aber "anders".
Nicht jede Textur braucht gleich viel AF. Beim Multitexturing trägt in vorallem die Basemap zur Pixelfarbe bei. Hier sollte man nicht sparen. ATIs Methode zwingt dazu, hier winkelabhängig sparen zu müssen. (NVs Methode ist ab 4x auch winkelabhängig, nur weniger stark. Vereinfachen wir das mal derart, dass wir annehmen, NVs Methode sei praktisch nicht winkelabhängig.) ATI "optimiert" je nach Bildausschnitt, die Stage-Optimierung optimiert eher nach Texturinhalt. Filtertheoretisch gesehen macht letzteres mehr Sinn.
Original geschrieben von MadManniMan
Mir scheint eher, daß du mit dieser - sicherlich sehr objektiven - Betrachtungsweise deutlich zeigst, daß du zwar die NV2X-Generation gut kennst, die R3XX aber eher aus der Theorie und maximal in Aktion bei Freunden. Tausch doch mal mit deinem Kumpel mit der R95P ein Weilchen und dann sag, daß der Quali-Malus beim AF so schwer zu verschmerzen ist. Dieser Kumpel zieht in Kürze aus. Außerdem weißt du ja, dass ich ein Pixel-Fetischist bin :kicher: BTW wenn ich das richtig sehe, nutzt er weder AA, noch AF auf seiner Karte, was ich nie wirklich verstanden habe. Mit der Voodoo5 nutzte er so oft es ging 4x AA.
Mal aufs Topic bezogen :naughty: Die Aussage, Radeons böten besseres FSAA, GeForces besseres AF ist erst mal richtig, allerdings halte ich die tatsächlichen Unterschiede beim AA für so viel größer, dass der BQ-Freak meiner subjektiven Ansicht nach besser zur R300-basierten Karte griffe. Wenn jemand bislang mit GeForces zufrieden war und wieder eine GeForce kaufen will, soll er das tun. Die Beurteilung des Preis/Leistungsverhältnisses (in dem genannten Budget-Rahmen ginge der Pokal imo an ATI) obliegt ja jedem selbst. Insofern verstehe ich nicht, was hier für Kriege geführt werden.
zeckensack
2003-08-10, 19:11:18
Original geschrieben von aths
Ich habe jetzt nicht den ganzen Thread gelesen. Damit er weiterhin offen bleiben kann, würde ich die Herren bitten, zu einem gemäßigterem Ton zurückzufinden.Sowas ähnliches wollte ich auch gerade von mir geben.
Daß aths und ich zeitgleich die selbe Idee hatten, sollte Beweis genug sein, daß ihr's momentan doch etwas übertreibt.
Thowe
2003-08-10, 19:13:13
Original geschrieben von zeckensack
Sowas ähnliches wollte ich auch gerade von mir geben.
Daß aths und ich zeitgleich die selbe Idee hatten, sollte Beweis genug sein, daß ihr's momentan doch etwas übertreibt.
Jo, kann ja nicht sein --- sowas suckz Punkte
ATI-Andi
2003-08-10, 20:18:16
Club3D Radeon 9700
http://www.scharbert.de/webshop/ müsste lieferbar sein, das ist ein Shop , den nicht so viele kennen, für 229€. Wohl ein sehr fairer Preis. Wer es noch günstiger will, kann ja bei einem Auktionshaus, wie ebay mitbieten. Der Aufwand noch eine günstige 9700 zu finden ist nicht unerheblich. Die Karte ist kaum lieferbar und überfragt. Kann man nur hoffen, dass sich der Run langsam legt, trotz der guten Qualitäten. ;)
Akira20
2003-08-11, 00:54:20
QUOTE]Original geschrieben von aths
Ich habe jetzt nicht den ganzen Thread gelesen. Damit er weiterhin offen bleiben kann, würde ich die Herren bitten, zu einem gemäßigterem Ton zurückzufinden.
BTW, ganz obektiv kann man sagen, dass die 5800 eine gute DX8-Karte ist, die 9700 zusätzlich eine gute DX9-Karte. Was man da nun nimmt, ist Geschmacksfrage. [/QUOTE]
LoL, was soll man dazu sagen...die 5800 ist ne gute DX8-Karte?! Die Geforce4 ti4200 ist ne gute DX8, die 5800 ist "ganz obektiv" ne gute DX9-Karte oder willst du der 5800 jetzt sogar schon die DX9-Funktionen absprechen(würde mich nicht wundern, aber wäre schon schön, wenn wir bei den Fakten bleiben)?
Aber wir werden ja sehen wie sich die 9700 bzw. 5800 bei richtigen DirectX9-Spielen schlagen...oder bist du Betatester von Doom3?
Übrigens finde ich es lustig wie Ihr auf LovesuckZ herum hackt...findet Ihr es vielleicht nicht wichtig bei dem eigentlichen Thema zu bleiben?
Aber vielleicht werdet Ihr mal erwachsen und merkt, dass man nicht andere Sachen(Personen;) runtermachen muss, um sich und seine Sachen besser zu finden.
Original geschrieben von Akira20
LoL, was soll man dazu sagen...die 5800 ist ne gute DX8-Karte?! Die Geforce4 ti4200 ist ne gute DX8, die 5800 ist "ganz obektiv" ne gute DX9-Karte oder willst du der 5800 jetzt sogar schon die DX9-Funktionen absprechen(würde mich nicht wundern, aber wäre schon schön, wenn wir bei den Fakten bleiben)?Die Fakten sind: Eine 9700 kann pro Takt maximal 8 Pixelshader-2.0-Ops ausführen, die 5800 kann pro Takt maximal 4 PS.2.0-Ops ausführen. Wer wirklich in DX9 irgendwas vorhat, sollte unter 9700 bzw. 5900 gar nicht erst anfangen. Für DX8 ist die 5800 aber auch sehr gut.
Hallo Glaubenskrieger!
Also: Die 5800 non-Ultra hat nicht die berüchtigte "Turbine" (die man auch wirklich niemandem zumuten könnte), sondern einen normalen Lüfter. Bitte nicht alles durcheinanderschmeißen.
Für viel Heißluft sorgen sowohl ATI als auch nVidia Karten. Gerade im Hi-End Bereich gibt es nunmal keine kühlen Karten, ist halt so. Als Abhilfe empfehle ich 'n paar Anständige Gehäuselüfter (was eigentlich selbstverständlich sein sollte).
Ich persönlich (SUBJEKTIV) hatte schon 4 ATI-Karten und 3 NVidia. Meine nächste Karte wird ebenfalls wieder eine NVidia werden. Im Auge habe ich momentan die FX5600 Ultra Rev.2 (http://www.geizhals.at/deutschland/?a=59990), für die ich aber nicht mehr als 180 Fragezeichen ausgeben würde, damit Preis/Leistung einigermaßen stimmt (es sei mal heimlich, still und leise auf die DOOM3-Benches (http://www.hardocp.com/article.html?art=NDc0LDI=) hingewiesen, wo diese Karte schneller als 9500Pro/9600Pro war). Oder aber (Geldfrage) ich warte noch, bis die FX5900 (http://www.geizhals.at/deutschland/?a=56494) schon für ca. 300 EUR zu haben ist (spätestens mit Erscheinen des NV38, aber wahrscheinlich schon früher). Letzteres scheint mir mittlerweile sinnvoller.
Ich möchte aber keinem unbedingt von ATI abraten. Gerade die Ecke 9700 / Pro scheint momentan ein recht gutes Preis/Leistungs-Verhältnis zu bieten.
MadManniMan
2003-08-11, 07:47:52
Original geschrieben von aths
Ja, aber "anders".
Nicht jede Textur braucht gleich viel AF. Beim Multitexturing trägt in vorallem die Basemap zur Pixelfarbe bei. Hier sollte man nicht sparen. ATIs Methode zwingt dazu, hier winkelabhängig sparen zu müssen. (NVs Methode ist ab 4x auch winkelabhängig, nur weniger stark. Vereinfachen wir das mal derart, dass wir annehmen, NVs Methode sei praktisch nicht winkelabhängig.) ATI "optimiert" je nach Bildausschnitt, die Stage-Optimierung optimiert eher nach Texturinhalt. Filtertheoretisch gesehen macht letzteres mehr Sinn.
Rein auf den theoretischen Aspekt bezogen ist deine Aussage wohl kaum anfechtbar. Jetzt würde tatsächlich nur noch ein Praxistest das endgültige Bild liefern - wobei ich vermuten würde, daß dein Urteil ein bisschen weniger eindeutig würde, denn meines, da du schließlich das Non-Plus-Ultra der NV2X-Generation hast, während ich, naja... GF3 Ti200 halt :kicher:
Original geschrieben von aths
Dieser Kumpel zieht in Kürze aus. Außerdem weißt du ja, dass ich ein Pixel-Fetischist bin :kicher: BTW wenn ich das richtig sehe, nutzt er weder AA, noch AF auf seiner Karte, was ich nie wirklich verstanden habe. Mit der Voodoo5 nutzte er so oft es ging 4x AA.
?-)
Original geschrieben von aths
Mal aufs Topic bezogen :naughty: Die Aussage, Radeons böten besseres FSAA, GeForces besseres AF ist erst mal richtig, allerdings halte ich die tatsächlichen Unterschiede beim AA für so viel größer, dass der BQ-Freak meiner subjektiven Ansicht nach besser zur R300-basierten Karte griffe. Wenn jemand bislang mit GeForces zufrieden war und wieder eine GeForce kaufen will, soll er das tun. Die Beurteilung des Preis/Leistungsverhältnisses (in dem genannten Budget-Rahmen ginge der Pokal imo an ATI) obliegt ja jedem selbst. Insofern verstehe ich nicht, was hier für Kriege geführt werden.
Danke, daß dus nochmal wiederholt hast, das verschafft meiner Aussage vielleicht ein wenig mehr "Autorität" :naughty: Obs bei den Glaubenskriegern zieht? Who knows...
Akira20
2003-08-11, 10:04:56
Original geschrieben von aths
Die Fakten sind: Eine 9700 kann pro Takt maximal 8 Pixelshader-2.0-Ops ausführen, die 5800 kann pro Takt maximal 4 PS.2.0-Ops ausführen. Wer wirklich in DX9 irgendwas vorhat, sollte unter 9700 bzw. 5900 gar nicht erst anfangen. Für DX8 ist die 5800 aber auch sehr gut.
Damit meinst du doch die Pipelines, oder? Da steht doch selbst auf 3dcenter-Seite, dass die 5800er Serie eine Mischung aus 4x2 und 8x1 besitzt. Jetzt kann man natürlich sagen, dass 4x2 langsamer ist als 8x1, dass kann ich aber nicht nachprüfen bzw. bestättigen.
Ist ja aber auch egal, da die Diskussion ob die 5800 wirklich für DirectX9-Spiele ausgelegt ist, erst wirklich objektiv beantworten kann, wenn die ersten Spiele rauskommen.
Außerdem wollte ich meinen eigenen Fehler noch klarstellen: Doom3 ist natürlich kein DirectX9, sondern ein OpenGL-Spiel und somit höchstwahrscheinlich(und nach den bisher gemachten Benchmarks;)) mit den 5800-Karten verdammt schnell und flüssig.
In diesem Sinne
Akira20
PS: Der NV30 ist wie die Playstation2, unglaublich komplex in der Architektur, aber mit unglaublichen Leistungsreserven und Potenzial.
Danke Herr Carmack, dass Sie das Leistungspotenzial der 5800 aufzeigen!
Demirug
2003-08-11, 10:22:06
Original geschrieben von Akira20
Damit meinst du doch die Pipelines, oder? Da steht doch selbst auf 3dcenter-Seite, dass die 5800er Serie eine Mischung aus 4x2 und 8x1 besitzt. Jetzt kann man natürlich sagen, dass 4x2 langsamer ist als 8x1, dass kann ich aber nicht nachprüfen bzw. bestättigen.
Vergesset Pipelines das ist alles nicht mehr relevant.
Ist ja aber auch egal, da die Diskussion ob die 5800 wirklich für DirectX9-Spiele ausgelegt ist, erst wirklich objektiv beantworten kann, wenn die ersten Spiele rauskommen.
Die ersten Spiele die DX9-Shader nutzen gibt es schon.
Außerdem wollte ich meinen eigenen Fehler noch klarstellen: Doom3 ist natürlich kein DirectX9, sondern ein OpenGL-Spiel und somit höchstwahrscheinlich(und nach den bisher gemachten Benchmarks;)) mit den 5800-Karten verdammt schnell und flüssig.
In diesem Sinne
Akira20
PS: Der NV30 ist wie die Playstation2, unglaublich komplex in der Architektur, aber mit unglaublichen Leistungsreserven und Potenzial.
Danke Herr Carmack, dass Sie das Leistungspotenzial der 5800 aufzeigen!
Ja unter OpenGL kann der NV30 sein gesammte Potenz freisetzten allerdings nur wenn man die nVidia Extensions nutzt. Bei den allgemeinen Extensions und OpenGL 1.5 sowie mit PS >= 2.0 kann er leider nicht die gesammte Rechenpower zum Einsatz bringen.
Sphinx
2003-08-11, 10:23:06
Spar dir noch 50 € - und kauf dir eine R9700pro
- (a) Es gibt sie noch (ps: Zur Not verkauf ich dir meine für 300€ (HIS 9700P) )
- (b) Sie ist schnell
- (c) Sie ist gut zu übertackten
- (d) Sie ist ihr Geld, trotz fast einjährigem dasein, jeden Cent Wert (Preis/Leistung)
- (e) Fakt ist sie liefert dank Gammakorrigiertem AA das bessere und "nutzbare" AA als alle GF-FX Karten
- (e1) Ja die GF-FX hat ein besseres AF was leider aber auch recht Performance hungrig ist...
- (e2) Summa Sumarum bietet die R9700P bei beiden aktivierten Optionen einfach mehr Spielspaß...
- PS : Die Treiber sind TOP und werden Höchstoffiziell alle 6 Wochen erweitert, optimiert... Daran Könnte sich NVidia ein Beispiel nehmen da ihre Treiber auch nicht mehr das sind was sie mal waren...
Sphinx
Sphinx
2003-08-11, 10:24:04
*Doppel Posting*
Akira20
2003-08-11, 11:29:39
Original geschrieben von Demirug
Die ersten Spiele die DX9-Shader nutzen gibt es schon.
Yep, natürlich gibt es die schon, aber solche Spiele wie z.B. TombRaider AoD nutzen die Technik nur Bruchstückhaft...
Da warte ich lieber auf Stalker, FarCry, HL2 etc.
Und bei diesen Spielen wird meine 5800 bestimmt noch einiges rulen;), entgegengesetzt den Vermutungen von einigen ATi-Marketing-Beauftragten.
Im übrigen trennt die 5800 von der 9700, bei den meisten Benches, nur eine handvoll Frames.
Also was soll das Gedisse???
Ob man sich jetzt einen Sportwagen mit 200km/h oder mit 205km/h kauft ist letztlich Geschmacksfrage, weil beide verdammt schnell sind.
Also lieber Dslfreak, kauf dir ne Terratec 5800(guter Support, super Spielebundle, Top-Preis ca. 230€, Top-Hersteller und super Qualität der Karte) oder hol dir ne Club-3d 9700(Karte bisschen schneller als 5800, keine Spiele, relativ unbekannter Hersteller, Top-Preis ca. 230€, zu dem Support kann ich nichts sagen, aber selbst die Homepage von Club-3d gibts nicht auf deutsch;))
Naja du musst entscheiden...
Sind auf jedenfall beides sehr gute Karten, machst mit beiden nichts falsch.
Mfg
Akira20
betasilie
2003-08-11, 11:37:43
Aber Fakt ist nun mal, dass Karten auf NV30-Basis nicht sehr stark bei Anwendungen sind, die DX9-Shader nutzen. Das hat nix mit Gedisse zu tun, sondern ist Fakt und wird wohl duch jeden Benchmark untermauert, der die DX9-Shader unter die Lupe nimmt.
Was meinst Du eigentlich mit DX9 bruchstückhaft nutzen?
Akira20
2003-08-11, 11:46:21
Mit Bruchstückhaft meine ich zum Beispiel, dass das angesprochene Tomb Raider AoD eigentlich ein DX8-Spiel ist aber für ein, zwei Effekte DX9-Funktionen benutzt(und die noch schlecht umgesetzt sind).
Und was soll ich dazu sagen "NV30-Basis nicht sehr stark bei Anwendungen sind, die DX9-Shader nutzen.", wahrscheinlich willst du mir gleich sagen, dass selbst eine 9500pro besser ist...;)
Dieses "nicht sehr stark" kann ich nur nachvollziehen, wenn du dich auf die aktuellen Highendkarten beziehst(9800 und 5900).
Akira20
Demirug
2003-08-11, 11:47:36
Akira20, ich will doch keinem die Fxen im allgemeinen und den NV30 im speziellen madig machen.
nv hat derzeit im gegesatz zu ATI das Problem das sie um auf eine brauchbare PS 2.0 Leistung kommen zu können für jeden Shader einen Austauschshader welcher auf ihere Bedürfnisse angepasst ist im Treiber fest hinterlegen müssen. Man muss da eben bei jedem Spiel hoffen das man einen Treiber mit passend austauschshadern schnell bekommt.
ATI hat da derzeit einfach das bessere "Out of the Box" verhalten welches zwar etwas begünstigt ist das die meisten 2.0 Shader nach ATI Regeln programmiert wurde aber diesen kleinen Bonus haben sie sich ja dadurch verdient das sie schneller als nv waren.
PS: Bevor jetzt wieder das geflame anfängt. Ein Austauschshader ist ein Shader welcher Funktional und von der Genauigigkeit genau das gleiche tut. Er benutzt nur eine andere Instruktions-Rheienfolge für die Berechnug.
LovesuckZ
2003-08-11, 11:49:39
Original geschrieben von betareverse
Aber Fakt ist nun mal, dass Karten auf NV30-Basis nicht sehr stark bei Anwendungen sind, die DX9-Shader nutzen. Das hat nix mit Gedisse zu tun, sondern ist Fakt[...]
Nun würde Pixelshader welche nach den NV-Regeln geschrieben wurden den FXen erst mal helfen aber mit den aktuellen Treibern auch nicht direkt auf den R300 Level heben. Da fehlt einfach die direkt und einfach zu nutzende Power. Es ist allerdings noch Rechenpower in der Pixelpipeline vorhanden die ein entsprechender Treiber freisetzten könnte aber bei der pro Takt Leistung wird bestenfalls der NV35 an den R350 herankommen.
Demirug
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=87136&perpage=50&pagenumber=2
[...]und wird wohl duch jeden Benchmark untermauert, der die DX9-Shader unter die Lupe nimmt.
Shadermark und 3DMark2003 zeigen dies nicht.
Razor@Work
2003-08-11, 11:51:57
Original geschrieben von betareverse
Aber Fakt ist nun mal, dass Karten auf NV30-Basis nicht sehr stark bei Anwendungen sind, die DX9-Shader nutzen. Das hat nix mit Gedisse zu tun, sondern ist Fakt und wird wohl duch jeden Benchmark untermauert, der die DX9-Shader unter die Lupe nimmt.
Das ist sogar ausgesprochen falsch, beta...
DX9-Shader dürften auf Karten beider IHV's relativ gleichschnell laufen.
Wichtig ist, auf welche Zielhardware compiliert wurde und da dies derzeit meist ATI ist, hat nVidia halt das Nachsehen.
Razor
betasilie
2003-08-11, 12:02:56
Original geschrieben von LovesuckZ
Shadermark und 3DMark2003 zeigen dies nicht.
News des 31.01.2003 - 3DC
Ein paar sehr interessante Tests der Pixel Shader Leistungen von GeForceFX und Radeon 9700 Pro sind in unserem Forum aufgetaucht. Die Tests wurden mit dem ShaderMark 1.6 von Tommti-Systems getätigt, dem derzeit wohl einzigem Benchmark, welcher speziell die Pixel Shader Performance testen und dabei sogar auf die unterschiedlichen Shader-Versionen einzelner Grafikkarten eingehen kann. Danach ist die Radeon 9700 Pro bis auf die Fixed-Funktionen bei den Pixel Shader 2.0 Funktionen glatt doppelt so schnell wie die GeForceFX, was sehr enttäuschend für den nVidia-Chip ist, welcher seine Stärken doch ausgerechnet in der Berechnung "cinematischer Grafiken" haben soll ...
Akira20
2003-08-11, 12:08:57
Original geschrieben von Razor@Work
Das ist sogar ausgesprochen falsch, beta...
DX9-Shader dürften auf Karten beider IHV's relativ gleichschnell laufen.
Wichtig ist, auf welche Zielhardware compiliert wurde und da dies derzeit meist ATI ist, hat nVidia halt das Nachsehen.
Razor
Genau Razor, aber mittlerweile habe ich das Gefühl, dass die PC-Spiele immer mehr Konsolenspielen ähneln. Jedes Spiel läuft nur optimal auf bestimmten Grafikchips(siehe Doom3=>GFX, HalfLife2=>Radeon9700/9800), ob so eine Entwicklung positiv ist...ich denke nicht, aber so ist halt der Markt;)
Akira20
PS: Besonders dreist finde ich wirklich Valve, die nicht nur optimieren(was gang und gebe ist) sondern ihr tolles Spiel noch so toll programmieren, dass es auf anderen Chips extra schlecht läuft.
Hut ab Valve! Ihr seid echt die "BESTEN"!
betasilie
2003-08-11, 12:10:54
Original geschrieben von Razor@Work
Das ist sogar ausgesprochen falsch, beta...
DX9-Shader dürften auf Karten beider IHV's relativ gleichschnell laufen.
Wichtig ist, auf welche Zielhardware compiliert wurde und da dies derzeit meist ATI ist, hat nVidia halt das Nachsehen.
Razor
http://www.daionet.gr.jp/~masa
Z.B. sagt die rthdribl-DX9-Techdemo da aber was ganz anderes.
Valve sagt ebenfalls, dass Karten auf R300-Basis bis zu 20% schneller sind bei HL2, als die NV30, wegen den schelleren Shadern.
ATI hat sich halt an DX9 gehalten. Wenn NV ein Extrawürstchen braten will und die Developer NV nicht mehr in den A**** kriechen
Akira20
2003-08-11, 12:13:40
!LOL!
"Die Tests wurden mit dem ShaderMark 1.6 von Tommti-Systems "
betareverse du weißt aber, dass dieser von dir genannte Test die Ati-Treasor Demo-Files benötigt und somit auch irgendwie auf die PS2.0 von Ati zugeschnitten ist???
Wenn man die Nvidia-Demos zugrunde legen würde wäre das Ergebniss vielleicht anders rum...nur so ein kleiner Denkanstoß
Akira20
Demirug
2003-08-11, 12:16:11
betareverse, das ist das besagte schlechte "Out of the Box" Verhalten das die derzeitigen Treiber haben.
Deto 4x.xx Treiber + unbekannter Shader = Shader läuft im Safemode = langsam
Akira20
2003-08-11, 12:16:37
Original geschrieben von betareverse
http://www.daionet.gr.jp/~masa
Z.B. sagt die rthdribl-DX9-Techdemo da aber was ganz anderes.
Valve sagt ebenfalls, dass Karten auf R300-Basis bis zu 20% schneller sind bei HL2, als die NV30, wegen den schelleren Shadern.
Valve ist auch so objektiv(Ati-Techpartner)...:(
Und dieser Test "rthdribl-DX9-Techdemo" ust auch auf die alten Shader der R300er Reihe zugeschnitten...
LovesuckZ
2003-08-11, 12:21:48
Original geschrieben von betareverse
Valve sagt ebenfalls, dass Karten auf R300-Basis bis zu 20% schneller sind bei HL2, als die NV30, wegen den schelleren Shadern.
Valve sagte auch, dass das AA Problem auf der Nvidiahardware nur mit einer sehr klugen Idee zu loesen sei...
Mr. Lolman
2003-08-11, 12:28:03
Original geschrieben von Akira20
!LOL!
"Die Tests wurden mit dem ShaderMark 1.6 von Tommti-Systems "
betareverse du weißt aber, dass dieser von dir genannte Test die Ati-Treasor Demo-Files benötigt und somit auch irgendwie auf die PS2.0 von Ati zugeschnitten ist???
Wenn man die Nvidia-Demos zugrunde legen würde wäre das Ergebniss vielleicht anders rum...nur so ein kleiner Denkanstoß
Akira20
Nur sind alle NV Demos in OpenGL, damit sie nicht auf anderer HW laufen. Mit einem Wrapper schauts ja sowieso schon wieder anders aus ;)
betasilie
2003-08-11, 12:34:37
Original geschrieben von LovesuckZ
Valve sagte auch, dass das AA Problem auf der Nvidiahardware nur mit einer sehr klugen Idee zu loesen sei...
Das AA-problem hatte doch nichts mit der Shaderperformance zu tun, oder irre ich?
Original geschrieben von Akira20
Valve ist auch so objektiv(Ati-Techpartner)...:(
Und dieser Test "rthdribl-DX9-Techdemo" ust auch auf die alten Shader der R300er Reihe zugeschnitten...
Dafür dass ATI immer für schlechten Developersupport gerügt wird, ist verdammt viel auf ATI zugeschnitten. :spock:
Original geschrieben von Demirug
betareverse, das ist das besagte schlechte "Out of the Box" Verhalten das die derzeitigen Treiber haben.
Deto 4x.xx Treiber + unbekannter Shader = Shader läuft im Safemode = langsam
Dann ist NV aber selber Schuld. ATI hat sich an DX9 gehalten und die Shader laufen hervorragend. NV wollte mit deren Extra-Shader-Wurst wohl die Developer dazu zwingen auf NV Hardware zu optimieren und ATI so ins Abseits zu stellen, nur scheinbar ist das ein Schuss in den Ofen gewesen.
Wenn die aktuellen Treiber von NV die meisten Anwendungen im Shader-Savemode laufen lassen, liegt der Fehler bei NV und nicht an den bösen Entwicklern, die keinen extra Shadercode für den werten König des GraKa-Geschäffts implementieren.
Razor@Work
2003-08-11, 12:40:46
Original geschrieben von betareverse
http://www.daionet.gr.jp/~masa
Z.B. sagt die rthdribl-DX9-Techdemo da aber was ganz anderes.
Valve sagt ebenfalls, dass Karten auf R300-Basis bis zu 20% schneller sind bei HL2, als die NV30, wegen den schelleren Shadern.
ATI hat sich halt an DX9 gehalten. Wenn NV ein Extrawürstchen braten will und die Developer NV nicht mehr in den A**** kriechen
Oh mann... das wird ja immer falscher...
:D
- rthdribl ist mit dem alten DX9-SDK compiliert worden und ist damit ATI-'optimiert'
(zumindest läßt die Erklärung der Entwickler keinen anderen Rückschluss zu ;-)
- Valve ist ein sehr schlechtes Beispiel, aber dass R3x0-Karten eine bessere Shader-leistung, als ein NV30 hat, glaube ich unbesehen (selbiges gilt dann also nicht mehr für NV35-Karten ;-)
- ATI hat sich nicht an DX9 gehalten (dass tun alle DX9-Chips), sondern M$ hat sich bezüglich des Compilers an ATI gehalten. Insofern ist M$ ATI in den Ar... gekrochen, weil diese unbedingt (und verfrührt !) ein DX9 haben wollten...
Also irgendwie...
Razor
Razor@Work
2003-08-11, 12:43:04
Original geschrieben von Mr. Lolman
Nur sind alle NV Demos in OpenGL, damit sie nicht auf anderer HW laufen. Mit einem Wrapper schauts ja sowieso schon wieder anders aus ;)
Ein Wrapper wohlgemerkt, der vermutlich nicht alle Details konvertiert (und zudem von 32fp auf 24fp herunter rechnet, i.e. also auch die generelle BQ verschlechtert ;-).
Razor
LovesuckZ
2003-08-11, 12:47:49
Original geschrieben von betareverse
Das AA-problem hatte doch nichts mit der Shaderperformance zu tun, oder irre ich?
Nein, ich wollte nur aufzeigen, dass nicht alles stimmen muss, was von Valve kommt.
Razor@Work
2003-08-11, 12:48:01
Original geschrieben von betareverse
Dafür dass ATI immer für schlechten Developersupport gerügt wird, ist verdammt viel auf ATI zugeschnitten. :spock:
Offenbar hast Du die gesamte Diskussion um das alte DX9-SDK von M$ verpaßt...
Original geschrieben von betareverse
Dann ist NV aber selber Schuld. ATI hat sich an DX9 gehalten und die Shader laufen hervorragend. NV wollte mit deren Extra-Shader-Wurst wohl die Developer dazu zwingen auf NV Hardware zu optimieren und ATI so ins Abseits zu stellen, nur scheinbar ist das ein Schuss in den Ofen gewesen.
Was redest Du hier immer von "an DX9 gehalten" ?
Wo hält sich nVidia nicht an DX9 ?
???
Der Compiler, der aus den Shader-Source ein compilat macht, optimiert schlicht auf die ATI-Architektur und läßt dabei nVidia im Regen stehen. Insofern hier eine eindeutige Bevorzugung in Richtung ATI auszumachen ist.
Original geschrieben von betareverse
Wenn die aktuellen Treiber von NV die meisten Anwendungen im Shader-Savemode laufen lassen, liegt der Fehler bei NV und nicht an den bösen Entwicklern, die keinen extra Shadercode für den werten König des GraKa-Geschäffts implementieren.
Es muss kein "extra Shadercode" impelementiert werden !
(bitte versuch Dich wenigstens ansatzweise in diese Thematik einzuarbeiten, bevor Du hier so etwas 'wildes' behauptest)
Razor
Mr. Lolman
2003-08-11, 12:48:45
Original geschrieben von Razor@Work
Ein Wrapper wohlgemerkt, der vermutlich nicht alle Details konvertiert (und zudem von 32fp auf 24fp herunter rechnet, i.e. also auch die generelle BQ verschlechtert ;-).
Razor
Glaubst du nicht, dass NV hier nur fp16 einsetzt, wenn der Unterschied ja kaum zu bemerken sein dürfte, und die Geschwindigkeit ums Doppelte ansteigen würde.
BTW: Ich würde es natürlich auch lieber sehen, wenn die NV Demos alle in d3d geproggt würden.
betasilie
2003-08-11, 12:50:11
Original geschrieben von Razor@Work
Oh mann... das wird ja immer falscher...
:D
1- rthdribl ist mit dem alten DX9-SDK compiliert worden und ist damit ATI-'optimiert'
(zumindest läßt die Erklärung der Entwickler keinen anderen Rückschluss zu ;-)
2- Valve ist ein sehr schlechtes Beispiel, aber dass R3x0-Karten eine bessere Shader-leistung, als ein NV30 hat, glaube ich unbesehen (selbiges gilt dann also nicht mehr für NV35-Karten ;-)
3- ATI hat sich nicht an DX9 gehalten (dass tun alle DX9-Chips), sondern M$ hat sich bezüglich des Compilers an ATI gehalten. Insofern ist M$ ATI in den Ar... gekrochen, weil diese unbedingt (und verfrührt !) ein DX9 haben wollten...
Also irgendwie...
Razor
1. Wer das alte DX9-SDK genutzt hat, hat für ATI optimiert? ... ???
2.Valve ist ein gutes Bsp., dass nicht mehr alle Top-Firmen NV den Hof machen. Ok, für einen fairen Vergleich ist Valve wahrscheinlich wirklich kein gutes Bsp. ;). ... Mir persönlich wäre ein faires vorgehen aller Entwickler auch lieber, aber NV hat es in den letzten Jahren ja vorgemacht, wie man die Konkurrenz durch zugeschnittenen Code schlecht aussehen lässt.
3.M$ ist ATI in den A**** gekrochen? Also ich habe M$ noch nicht beim A****kriechen gesehen und wenn NV mit deren DX9-Chip-Tapeout nicht fertig wird, kann ATI oder M$ auch nichts dafür.
An alle, die's anscheinend noch nicht mitbekommen haben: Valve hat das AA-Problem mittlerweile für alle Karten gelöst.
Demirug
2003-08-11, 12:53:55
Original geschrieben von betareverse
Dann ist NV aber selber Schuld. ATI hat sich an DX9 gehalten und die Shader laufen hervorragend. NV wollte mit deren Extra-Shader-Wurst wohl die Developer dazu zwingen auf NV Hardware zu optimieren und ATI so ins Abseits zu stellen, nur scheinbar ist das ein Schuss in den Ofen gewesen.
Wenn die aktuellen Treiber von NV die meisten Anwendungen im Shader-Savemode laufen lassen, liegt der Fehler bei NV und nicht an den bösen Entwicklern, die keinen extra Shadercode für den werten König des GraKa-Geschäffts implementieren.
Natürlich ist nv Schuld an der schlechten Leistung wenn sie mit "Safty First" Treibern arbeiten. Beim Savemode reicht auch kein Spezieller Schadercode er macht die Sache zwar besser aber nicht perfekt.
nV und ATI hatten unterschiedliche Vorstellungen was die Pixelshaderhardware anging. nv wollte mehr Freiheit was die Programmierbarkeit und Datenformate (FP32/fp16/int12) anging und ATI wollte eben ihr R200 Konzept etwas aufboren (nicht ganz so viele Freiheiten und ein Datenformat für alles). Der MS Kompromiss war dann eben:
-2.0 (damit ATI einen DX9 Shadersupport hat)
-2.X (damit die anderen IHVs ihere erhöhte programmierbarkeit an den Mann/Frau bekommen)
-Nur 2 Datenformate fp16 und fp24. Int12 gab es eben nicht. MS wollte AFAIK die Komplexität gering halten.
Pech für nVidia die haben eben diesesmal die Arschkarte gezogen. Und zum ändern des NV30 war es da wohl schon zu spät. Da müssen sie jetzt durch.
PS: Razor reg dich doch nicht so auf. Ist nicht gut für die Herzkranzgefässe und bei dem wetter schon gar nicht.
betasilie
2003-08-11, 12:58:20
Original geschrieben von Razor@Work
Offenbar hast Du die gesamte Diskussion um das alte DX9-SDK von M$ verpaßt...
Habe ich nicht, aber der Savemode von NV-Karten sagt ja wohl alles. NV-Karten müssen auf Grund ihrer Architektur besonders angesprochen werden und das ist eine Extrawurst. Wenn der PS3.0 kommt, kann das natürlich für NV vorteilhaft sein, da der Shaderaufbau da besser funktionieren sollte.
Original geschrieben von Demirug
betareverse, das ist das besagte schlechte "Out of the Box" Verhalten das die derzeitigen Treiber haben.
Deto 4x.xx Treiber + unbekannter Shader = Shader läuft im Safemode = langsam
Razor@Work
2003-08-11, 13:04:00
Original geschrieben von Mr. Lolman
Glaubst du nicht, dass NV hier nur fp16 einsetzt, wenn der Unterschied ja kaum zu bemerken sein dürfte, und die Geschwindigkeit ums Doppelte ansteigen würde.
Ersten steigt die Geschwindigkeit nicht gleich um das Doppelte und nein, das glaube ich nicht.
Original geschrieben von Mr. Lolman
BTW: Ich würde es natürlich auch lieber sehen, wenn die NV Demos alle in d3d geproggt würden.
Glaube ich Dir gerne... nur warum sollte nVidia so etwas Unsinniges tun ?
???
Razor
betasilie
2003-08-11, 13:04:53
Original geschrieben von Demirug
Natürlich ist nv Schuld an der schlechten Leistung wenn sie mit "Safty First" Treibern arbeiten. Beim Savemode reicht auch kein Spezieller Schadercode er macht die Sache zwar besser aber nicht perfekt.
nV und ATI hatten unterschiedliche Vorstellungen was die Pixelshaderhardware anging. nv wollte mehr Freiheit was die Programmierbarkeit und Datenformate (FP32/fp16/int12) anging und ATI wollte eben ihr R200 Konzept etwas aufboren (nicht ganz so viele Freiheiten und ein Datenformat für alles). Der MS Kompromiss war dann eben:
-2.0 (damit ATI einen DX9 Shadersupport hat)
-2.X (damit die anderen IHVs ihere erhöhte programmierbarkeit an den Mann/Frau bekommen)
-Nur 2 Datenformate fp16 und fp24. Int12 gab es eben nicht. MS wollte AFAIK die Komplexität gering halten.
Pech für nVidia die haben eben diesesmal die Arschkarte gezogen. Und zum ändern des NV30 war es da wohl schon zu spät. Da müssen sie jetzt durch.
PS: Razor reg dich doch nicht so auf. Ist nicht gut für die Herzkranzgefässe und bei dem wetter schon gar nicht.
Full Ack.
Man muss sich schon an den API-Entwickler halten und NV hat es drauf ankommen lassen, um ATI schlecht da stehen zu lassen. Nur hat M$ das Spielchen nicht mitgemacht und sich nicht alles von NV diktieren lassen. NV muss jetzt die Suppe auslöffeln, die ihnen dieses Pokerspielchen eingebracht hat. Jetzt immer anderen die Schuld zu geben ist imo völlig daneben, denn NV hat das Spielchen mit hohem Einsatz gespielt und sich dabei in die Nesseln gesetzt.
Razor@Work
2003-08-11, 13:06:47
Original geschrieben von betareverse
1. Wer das alte DX9-SDK genutzt hat, hat für ATI optimiert? ... ???
Ja... wenn auch vermutlich in meisten Fällen eher unabsichtlich.
Original geschrieben von betareverse
2.Valve ist ein gutes Bsp., dass nicht mehr alle Top-Firmen NV den Hof machen. Ok, für einen fairen Vergleich ist Valve wahrscheinlich wirklich kein gutes Bsp. ;). ... Mir persönlich wäre ein faires vorgehen aller Entwickler auch lieber, aber NV hat es in den letzten Jahren ja vorgemacht, wie man die Konkurrenz durch zugeschnittenen Code schlecht aussehen lässt.
Klar, deswegen ist HL2 ja auch in er nVidia-Kampagne...
;-)
Original geschrieben von betareverse
3.M$ ist ATI in den A**** gekrochen? Also ich habe M$ noch nicht beim A****kriechen gesehen und wenn NV mit deren DX9-Chip-Tapeout nicht fertig wird, kann ATI oder M$ auch nichts dafür.
Nun ja... eine Beta zum offiziellen Release zu erklären, ohne die Beta-Tester dazu anzuhören, ist schon ein starkes Stück. Oder wie willst Du diesen Umstand sonst erklären ?
???
Razor
LovesuckZ
2003-08-11, 13:08:33
Original geschrieben von Razor@Work
Ersten steigt die Geschwindigkeit nicht gleich um das Doppelte [...]
Im "positivsten" Sinne ergibt der Wechsel von FP32 auf FP16 einen Leistungsschub von ca. 30%. Im schlimmsten grad mal 1%.
Razor@Work
2003-08-11, 13:09:55
Original geschrieben von Demirug
PS: Razor reg dich doch nicht so auf. Ist nicht gut für die Herzkranzgefässe und bei dem wetter schon gar nicht.
Macht es den Eindruck, dass ich mich aufrege ?
;-)
Ich sitze hier eher gleangweilt vor dem Rechner und versuche irgendwie die Zeit rum zu bekommen... da kommen mir solche Diskussionen gerade recht. Ab uns zu 'nen Kaffee und ein kleines Zigarttchen und schon... ;)
Razor
P.S.: Außerdem ist es hier in meinem Büro recht angenehm kühl... *eg*
StefanV
2003-08-11, 13:11:04
Original geschrieben von sth
Hallo Glaubenskrieger!
Also: Die 5800 non-Ultra hat nicht die berüchtigte "Turbine" (die man auch wirklich niemandem zumuten könnte), sondern einen normalen Lüfter. Bitte nicht alles durcheinanderschmeißen.
Hm, irgendwie hege ich das Gefühl, daß man mich falsch verstanden hat...
Original geschrieben von Stefan Payne
Allerdings solltest DU auch nicht verschweigen, daß nV die Lüftersteuerung momentan nicht wirklich toll im Griff hat...
Die Radeon 9700 ist wenigstens immer gleich leise, während die FX5800 'zwischendurch' 'ne richtige Turbine ist...
1. dieser Abschnitt bezog sich auf Postings von nggalai, in denen er erklärte, daß die PWM Lüftersteuerung a) mit jedem Treiber anders funzt, b) mal fährt der Lüfter bei Last voll hoch, dann taktet sich der Chip mal runter, dann wieder nicht, den Thread, in dem er das gesagt hat, muß ich leider Schuldig bleiben...
2. das Zwischendurch steht nicht umsonst in Anführungszeichen ;)
Der Lüfter geht auf volle drehzahl (IIRC):
a) beim Rechnerstart
b) je nach Treiber, bei Last
c) je nach Treiber, bei höheren Temperaturen.
Naja, das Pfeifen der PWM Lüftersteuerung kehren wir auch mal unter den Tisch ;)
Wer 'nen Rhehobus der neusten Version hat, dürfte jene Geräusche kennen...
Razor@Work
2003-08-11, 13:15:50
Original geschrieben von betareverse
Habe ich nicht, aber der Savemode von NV-Karten sagt ja wohl alles. NV-Karten müssen auf Grund ihrer Architektur besonders angesprochen werden und das ist eine Extrawurst. Wenn der PS3.0 kommt, kann das natürlich für NV vorteilhaft sein, da der Shaderaufbau da besser funktionieren sollte.
Nun ja, der 'Save-Mode' ist Demirug's neueste Wortschöpfung, um diesen Sachverhalt möglichst kurz zu beschreiben. Und klar, die Architektur von ATI und nVidia unterscheiden sich wohl (wäre ja auch schimm wenn nicht ;-). Und da des DX9-SDK auf ATI-Hardware hin optimiert, hat nVidia das Nachsehen.
Insofern ist das keine "Extrawurst", sondern lediglich eine Ungleichbahandlung der Hardware bei der Shader compilierung des SDK's.
Ob sich nVidia's Archtektur für PS3.0 besser eignet, werden wir erst noch sehen müssen. Sollten aber bisherige (eher inoffizielle) Informationen zu diesem Themenkomplex stimmen, kann man evtl. davon ausgehen...
Razor
Original geschrieben von betareverse
Full Ack.
Man muss sich schon an den API-Entwickler halten und NV hat es drauf ankommen lassen, um ATI schlecht da stehen zu lassen. Nur hat M$ das Spielchen nicht mitgemacht und sich nicht alles von NV diktieren lassen. NV muss jetzt die Suppe auslöffeln, die ihnen dieses Pokerspielchen eingebracht hat. Jetzt immer anderen die Schuld zu geben ist imo völlig daneben, denn NV hat das Spielchen mit hohem Einsatz gespielt und sich dabei in die Nesseln gesetzt.
Irgendwie hast Du das, was Demirug da geschrieben hat, überhaupt nicht verstanden, oder ?
???
Aber vielleicht kannst Du mir ja erklären, was Dein Post jetzt mit dem von Demirug zu tun hat...
Razor
Demirug
2003-08-11, 13:18:04
Original geschrieben von betareverse
Habe ich nicht, aber der Savemode von NV-Karten sagt ja wohl alles. NV-Karten müssen auf Grund ihrer Architektur besonders angesprochen werden und das ist eine Extrawurst. Wenn der PS3.0 kommt, kann das natürlich für NV vorteilhaft sein, da der Shaderaufbau da besser funktionieren sollte.
Wenn ich schon zitiert werden dann möchte ich auch richtig verstanden werden. :D
Also:
Die Pixelshadermodele >= 2.0 sind inzwischen so komplex geworden das es nicht mehr möglich ist einen Shaderassemblercode zu schreiben der allen Architekturen gleich gut bekommt. Jeder Hersteller hat das persönliche Vorlieben. Dummerweise sind diese Vorlieben von ATI und nVIDIA genau gegenläufig. Deswegen brauchen beide eigentlich einen besonderen Shadercode. Nun steht es natürlich allen IHVs frei den Shadercode den sie bekommen im Treiber so umzustrukturieren das er iherer Architektur schmeckt. Je grösser dieser Schritt zwischen dem Ursprungscode dem der Treiber bekommt und dem idealen Code für die Architektur ist desto komplizierter ist die Aufgabe für den Treiber.
Da ATI schneller war konnten sie natürlich schon mal fleisig Unterlagen zur PS 2.0 programmeriung verteilen die natürlich bei allen Beispielen die von ATI bevorzugte Art der Shaderprogrammierung benutzte. Ist ja auch ihr gutes Recht sowas zu machen.
Auf der anderen Seite bekamm ATI auch noch von MS etwas Schützenhilfe indem das einzige Compilertarget für 2.0 Shader im SDK Code erzeugt welcher besser für ATI passt. Und ATI predigte zusammen mit MS fleisig das man Hochsprachen benutzten soll und da nv ja das gleiche schon vorher mit Cg gepredigt hat konnte sie da jetzt nicht plötzlich was anderes erzählen. nv erzählte zwar auch jedem fleisig das der Cg Compiler Sourcecodekompatibel ist und den besseren Code erzeugt aber den meisten (Hobby-)programmiern ist das erstmal egal weil aus zwei Shadersets auswählen zu können wäre ja mit Mehrarbeit verbunden.
Die DX9 Geschichte ist für nV bisher ein richtiger Murphy geworden.
LovesuckZ
2003-08-11, 13:18:15
Original geschrieben von Stefan Payne
[...]b) mal fährt der Lüfter bei Last voll hoch, dann taktet sich der Chip mal runter, dann wieder nicht, den Thread, in dem er das gesagt hat, muß ich leider Schuldig bleiben...
Aha, dir ist schon klar, dass b) nur auftritt, wenn man die Karte übertaktet? Wenn nicht, bitte, hoere auf Unsinn über die 5800 zu erzaehlen.
2. das Zwischendurch steht nicht umsonst in Anführungszeichen ;)
Der Lüfter geht auf volle drehzahl (IIRC):
a) beim Rechnerstart
b) je nach Treiber, bei Last
c) je nach Treiber, bei höheren Temperaturen.
a) Ja supi, wem stoert das?
b) + c) steht oben.
Eventuell haelst du dich einfach aus Diskussionen zurueck, wenn du von der Materie (hier 5800) keine Ahnung hast.
Naja, das Pfeifen der PWM Lüftersteuerung kehren wir auch mal unter den Tisch ;)
Ach und das Wellenproblem von r300 Karten wird auch nicht angesprochen. Tatsachenvertuschung?
betasilie
2003-08-11, 13:19:53
Original geschrieben von Razor@Work
1.Ja... wenn auch vermutlich in meisten Fällen eher unabsichtlich.
2.Klar, deswegen ist HL2 ja auch in er nVidia-Kampagne...
;-)
3.Nun ja... eine Beta zum offiziellen Release zu erklären, ohne die Beta-Tester dazu anzuhören, ist schon ein starkes Stück. Oder wie willst Du diesen Umstand sonst erklären ?
???
Razor
1.Man nutzt das aktuelle DX-SDK und Punkt. Das hat nichts mit optimieren zu tun.
2.Komisch. Die einen sagen, dass Valve für ATI optimiert, da die Shaderleistung von ATI-Karten bis zu 20% schneller ist bei HL2, und weil die PS1.4 unterstützt werden. Du siehst das jetzt wieder anders, weil NV HL2 mit in ihre Werbung nimmt. ... Was denn nun?
3. Wie gesagt ist das NV selber Schuld. M$ hat mehrmals erklärt, dass sie von NV nichts gehört haben, was ja auch nicht verwunderlich ist bei dem damaligen Rückstand auf ATI. ... Deiner Meinung nach soll sich M§ also nach NV richten und erst ihr DX9 public machen, wenn die werten Herren von NV fertig sind!? :eyes:
Wenn ATI ein halbes Jahr Rückstand bei deren DX9-Chip-Entwicklung gehabt hätte, wäre M§ also in deinen Augen auch verplichtet gewesen auf ATI zu warten und NV im Regen stehen zu lassen? ??? :lolaway: Was hast Du eigentlich für Vorstellungen? Wer als als erstes kommt, der malt zuerst und es wäre eine Unverschämtheit gewesen ATI ohne DX9 dastehen zu lassen, weil die Konkurrenz nicht mithalten kann.
Demirug
2003-08-11, 13:22:38
Original geschrieben von betareverse
Full Ack.
Man muss sich schon an den API-Entwickler halten und NV hat es drauf ankommen lassen, um ATI schlecht da stehen zu lassen. Nur hat M$ das Spielchen nicht mitgemacht und sich nicht alles von NV diktieren lassen. NV muss jetzt die Suppe auslöffeln, die ihnen dieses Pokerspielchen eingebracht hat. Jetzt immer anderen die Schuld zu geben ist imo völlig daneben, denn NV hat das Spielchen mit hohem Einsatz gespielt und sich dabei in die Nesseln gesetzt.
betareverse das Problem ist das MS bei DX9 erst mit dem Festlegen angefangen hat als die IHVs schon recht weit im Design waren. Richtig Schuld hat da keiner. Die Vorstellungen waren einfach zu verschieden.
Ich kann mich auch nicht erinnern das nv offiziel jemand die Schuld am der NV30 DX9 Geschichte gegeben hätte.
StefanV
2003-08-11, 13:24:20
Tja, wir sollten auch nicht vergessen, daß M$ wohl auch nicht allzu erfreut von der Zusammenarbeit mit nV ist...
Dummerweise hat M$ aber 'etwas' mehr 'Macht' als nV...
Man könnte jetzt ja auch ganz böse sein und behaupten, daß M$ diverse Dinge getan hat, um sich für die Zusammenarbeit zu revanchieren...
StefanV
2003-08-11, 13:25:25
Original geschrieben von LovesuckZ
Nun würde Pixelshader welche nach den NV-Regeln geschrieben wurden den FXen erst mal helfen aber mit den aktuellen Treibern auch nicht direkt auf den R300 Level heben. Da fehlt einfach die direkt und einfach zu nutzende Power. Es ist allerdings noch Rechenpower in der Pixelpipeline vorhanden die ein entsprechender Treiber freisetzten könnte aber bei der pro Takt Leistung wird bestenfalls der NV35 an den R350 herankommen.
Demirug
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=87136&perpage=50&pagenumber=2
Shadermark und 3DMark2003 zeigen dies nicht.
Hm, sind Shadermark und 3DMark03 nicht ev. von Hand von nV angepasst worden?? :grübel:
Razor@Work
2003-08-11, 13:27:50
Original geschrieben von betareverse
1.Man nutzt das aktuelle DX-SDK und Punkt. Das hat nichts mit optimieren zu tun.
Aber lesen kannst Du schon... oder ?
Oder was war an meinem Kommetar jetzt unverständlich ?
Original geschrieben von betareverse
2.Komisch. Die einen sagen, dass Valve für ATI optimiert, da die Shaderleistung von ATI-Karten bis zu 20% schneller ist bei HL2, und weil die PS1.4 unterstützt werden. Du siehst das jetzt wieder anders, weil NV HL2 mit in ihre Werbung nimmt. ... Was denn nun?
Valve hat einfach mist gebaut...
Und die PS1.4 zu verweden sehe ich nicht als verwerflich (eher als unsinnig ;-)
Original geschrieben von betareverse
3. Wie gesagt ist das NV selber Schuld. M$ hat mehrmals erklärt, dass sie von NV nichts gehört haben, was ja auch nicht verwunderlich ist bei dem damaligen Rückstand auf ATI. ... Deiner Meinung nach soll sich M§ also nach NV richten und erst ihr DX9 public machen, wenn die werten Herren von NV fertig sind!? :eyes:
Nein. Sie hätten zumindest warten können, bis die Beta-Tester ihr OK geben... wie das ja sonst bei M$ auch üblich ist.
Original geschrieben von betareverse
Wenn ATI ein halbes Jahr Rückstand bei deren DX9-Chip-Entwicklung gehabt hätte, wäre M§ also in deinen Augen auch verplichtet gewesen auf ATI zu warten und NV im Regen stehen zu lassen? ??? :lolaway: Was hast Du eigentlich für Vorstellungen? Wer als als erstes kommt, der malt zuerst und es wäre eine Unverschämtheit gewesen ATI ohne DX9 dastehen zu lassen, weil die Konkurrenz nicht mithalten kann.
Les Dir bitte nochmal ganz genau meine Posts durch.
Dann wirst Du u.U. erkennen, dass Du hier Müll postest...
Razor
betasilie
2003-08-11, 13:28:05
Original geschrieben von Demirug
1.betareverse das Problem ist das MS bei DX9 erst mit dem Festlegen angefangen hat als die IHVs schon recht weit im Design waren. Richtig Schuld hat da keiner. Die Vorstellungen waren einfach zu verschieden.
2.Ich kann mich auch nicht erinnern das nv offiziel jemand die Schuld am der NV30 DX9 Geschichte gegeben hätte.
1. Genau. Wenn NV mit deren Konzept vor ATI fertig geworden wären, würde ich jetzt auch nicht meckern, dass das erste DX9-SDK besser mit NV-Chips laufen würde. Wirklich unfair wre es wohl gewesen, wenn M§ trotz fertigem Chip von ATI das DX9-SDK nach NVs Wünschen gemacht hätte, obwohl sie noch keine Hardwaresmples verschicken konnten.
2.NV weiß ja auch was passiert ist und hat nachgebessert, was ich ihnen positiv anrechne. Aber einige Leute wollen den Fehler halt immer bei anderen finden.
betasilie
2003-08-11, 13:30:02
Original geschrieben von Stefan Payne
Tja, wir sollten auch nicht vergessen, daß M$ wohl auch nicht allzu erfreut von der Zusammenarbeit mit nV ist...
Dummerweise hat M$ aber 'etwas' mehr 'Macht' als nV...
Man könnte jetzt ja auch ganz böse sein und behaupten, daß M$ diverse Dinge getan hat, um sich für die Zusammenarbeit zu revanchieren...
Vergiss aber nicht, dass NV für M$ immer noch erste Wahl bei der X-BoxII ist. ;) Die Spekulationen um ATI bzgl. der X-BoxII halte ich für sehr gewagt, denn ATI ist bekanntlich von Nintendo für die Entwicklung der GPU für die neue Konsole verplichtet.
Razor@Work
2003-08-11, 13:32:19
Original geschrieben von betareverse
1. Genau. Wenn NV mit deren Konzept vor ATI fertig geworden wären, würde ich jetzt auch nicht meckern, dass das erste DX9-SDK besser mit NV-Chips laufen würde. Wirklich unfair wre es wohl gewesen, wenn M§ trotz fertigem Chip von ATI das DX9-SDK nach NVs Wünschen gemacht hätte, obwohl sie noch keine Hardwaresmples verschicken konnten.
Du hast es immer noch nicht verstanden, oder ?
Lediglich der Compiler (das Ding, welches Source-Code in Maschinen-Code übersetzt) ist auf ATI-Hardware optimiert... weil's damals auch nichts anderes gab. Mit dem Rest des SDK's hat das nichts zu tun...
Original geschrieben von betareverse
2.NV weiß ja auch was passiert ist und hat nachgebessert, was ich ihnen positiv anrechne. Aber einige Leute wollen den Fehler halt immer bei anderen finden.
Wus ?
???
Razor
Demirug
2003-08-11, 13:34:34
Original geschrieben von betareverse
1. Genau. Wenn NV mit deren Konzept vor ATI fertig geworden wären, würde ich jetzt auch nicht meckern, dass das erste DX9-SDK besser mit NV-Chips laufen würde. Wirklich unfair wre es wohl gewesen, wenn M§ trotz fertigem Chip von ATI das DX9-SDK nach NVs Wünschen gemacht hätte, obwohl sie noch keine Hardwaresmples verschicken konnten.
2.NV weiß ja auch was passiert ist und hat nachgebessert, was ich ihnen positiv anrechne. Aber einige Leute wollen den Fehler halt immer bei anderen finden.
1. Die Konzepte waren in etwa zur gleichen Zeit fertig. Nur mit der Hardware war ATI schneller. Das das erste SDK auf ATI abgestimmt wurde haben sie der Tatsache zu verdanken das sie die technisch schwächste Shader-Hardware haben. Auch wenn nv rechtzeitig fertig gewesen wäre hätte das SDK ATI einen kleinen Vorteil verschaft den was hätte es gebracht einen Compiler mitzuliefern der Shader produziert die auf ATI-Hardware überhaupt nicht laufen? Für beide Compiler Targets hat MS wohl einfach die Zeit nicht gereicht.
2. Ja den NV35 haben sie dann eben mehr den Ideen von MS angepasst was die unterschiedlichen datenformate angeht.
betasilie
2003-08-11, 13:40:25
Original geschrieben von Demirug
Wenn ich schon zitiert werden dann möchte ich auch richtig verstanden werden. :D
Also:
Die Pixelshadermodele >= 2.0 sind inzwischen so komplex geworden das es nicht mehr möglich ist einen Shaderassemblercode zu schreiben der allen Architekturen gleich gut bekommt. Jeder Hersteller hat das persönliche Vorlieben. Dummerweise sind diese Vorlieben von ATI und nVIDIA genau gegenläufig. Deswegen brauchen beide eigentlich einen besonderen Shadercode. Nun steht es natürlich allen IHVs frei den Shadercode den sie bekommen im Treiber so umzustrukturieren das er iherer Architektur schmeckt. Je grösser dieser Schritt zwischen dem Ursprungscode dem der Treiber bekommt und dem idealen Code für die Architektur ist desto komplizierter ist die Aufgabe für den Treiber.
Da ATI schneller war konnten sie natürlich schon mal fleisig Unterlagen zur PS 2.0 programmeriung verteilen die natürlich bei allen Beispielen die von ATI bevorzugte Art der Shaderprogrammierung benutzte. Ist ja auch ihr gutes Recht sowas zu machen.
Auf der anderen Seite bekamm ATI auch noch von MS etwas Schützenhilfe indem das einzige Compilertarget für 2.0 Shader im SDK Code erzeugt welcher besser für ATI passt. Und ATI predigte zusammen mit MS fleisig das man Hochsprachen benutzten soll und da nv ja das gleiche schon vorher mit Cg gepredigt hat konnte sie da jetzt nicht plötzlich was anderes erzählen. nv erzählte zwar auch jedem fleisig das der Cg Compiler Sourcecodekompatibel ist und den besseren Code erzeugt aber den meisten (Hobby-)programmiern ist das erstmal egal weil aus zwei Shadersets auswählen zu können wäre ja mit Mehrarbeit verbunden.
Die DX9 Geschichte ist für nV bisher ein richtiger Murphy geworden.
Ist mir klar. ;) ... NV ist allerdings die Falle getappt, die sie ATI im Vorfeld stellen wollten, als sie ihre eigene Shaderhochsprache propagiert haben.
Razor@Work
2003-08-11, 13:43:15
Original geschrieben von betareverse
Ist mir klar. ;) ... NV ist allerdings die Falle getappt, die sie ATI im Vorfeld stellen wollten, als sie ihre eigene Shaderhochsprache propagiert haben.
Was redest Du hier egentlich für einen Schnurz ?
Oder ist Dir einfach nur zu warm ?
???
Razor
Demirug
2003-08-11, 13:48:47
Original geschrieben von betareverse
Ist mir klar. ;) ... NV ist allerdings die Falle getappt, die sie ATI im Vorfeld stellen wollten, als sie ihre eigene Shaderhochsprache propagiert haben.
Eigene Sprache ist gut. :D
Cg hat den gleichen Syntax wie HLSL. Und geschrieben wurde Cg weil sich die Entwickler bei nVidia beschwert haben das Shadereffekte ja so kompliziert zu programmieren seien. Eine Falle in richtung ATI kann ich da nicht erkennen.
@Razor: Das Argument nicht die Person, bitte. Es ist hier auch so schon heiss genug.
betasilie
2003-08-11, 13:50:02
Original geschrieben von Demirug
1. Die Konzepte waren in etwa zur gleichen Zeit fertig. Nur mit der Hardware war ATI schneller. Das das erste SDK auf ATI abgestimmt wurde haben sie der Tatsache zu verdanken das sie die technisch schwächste Shader-Hardware haben. Auch wenn nv rechtzeitig fertig gewesen wäre hätte das SDK ATI einen kleinen Vorteil verschaft den was hätte es gebracht einen Compiler mitzuliefern der Shader produziert die auf ATI-Hardware überhaupt nicht laufen? Für beide Compiler Targets hat MS wohl einfach die Zeit nicht gereicht.
2. Ja den NV35 haben sie dann eben mehr den Ideen von MS angepasst was die unterschiedlichen datenformate angeht.
1. Klar. Der kleinste gemeinsame Nenner.
2. Mein Reden.
Original geschrieben von Razor@Work
Du hast es immer noch nicht verstanden, oder ?
Lediglich der Compiler (das Ding, welches Source-Code in Maschinen-Code übersetzt) ist auf ATI-Hardware optimiert... weil's damals auch nichts anderes gab. Mit dem Rest des SDK's hat das nichts zu tun...
Razor
Mir ist klar um was es geht. :eyes: Dir ist aber scheinbar entgangen, dass NVs Karten in einigen Bereichen die minimalen DX9-Specs übertreffen, aber halt nicht die Shader nach 3.0 erfüllen und das hat nicht nur was mit dem Compiler zu tun, sondern mit den generellen DX9-Specs. Das ganze dann CineFX zu taufen war dann ein sehr schlauer Schachzug. :D
betasilie
2003-08-11, 13:51:14
Original geschrieben von Razor@Work
Was redest Du hier egentlich für einen Schnurz ?
Oder ist Dir einfach nur zu warm ?
???
Razor
Mach dich weiter lächerlich. ;D
... Musst Du nicht arbeiten? :naughty:
betasilie
2003-08-11, 13:53:54
Original geschrieben von Demirug
Eigene Sprache ist gut. :D
Cg hat den gleichen Syntax wie HLSL. Und geschrieben wurde Cg weil sich die Entwickler bei nVidia beschwert haben das Shadereffekte ja so kompliziert zu programmieren seien. Eine Falle in richtung ATI kann ich da nicht erkennen.
NV hätte es aber wohl am liebsten gesehen, wenn HLSL gleich wieder verschwunden wäre und ihr CG, was ja auch auf ATI-Karten laufenden Code erzeugt ;D, von den Developern bevorzugt worden wäre. ... Naja, bei STALKER scheint dieser Fall einzutreten.
Original geschrieben von betareverse
... Musst Du nicht arbeiten? :naughty:
Das Gleiche wollte ich Dich auch gerade fragen...
:lol:
Razor
Razor@Work
2003-08-11, 13:57:04
Original geschrieben von betareverse
Mir ist klar um was es geht. :eyes: Dir ist aber scheinbar entgangen, dass NVs Karten in einigen Bereichen die DX9-Specs übertreffen und das hat nicht nur was mit dem Compiler zu tun, sondern mit den generellen DX9-Specs. Das ganze dann CineFX zu taufen war dann ein sehr schlauer Schachzug. :D
Nein... das hat damit leider überhaupt nichts zu tun...
Und CineFX ist sicher einfallsreicher, als "Smartsahder 2.0"... das ist richtig !
;-)
Razor
Demirug
2003-08-11, 13:57:18
Original geschrieben von betareverse
NV hätte es aber wohl am liebsten gesehen, wenn HLSL gleich wieder verschwunden wäre und ihr CG, was ja auch auf ATI-Karten laufenden Code erzeugt ;D, von den Developern bevorzugt worden wäre. ... Naja, bei STALKER scheint dieser Fall einzutreten.
Eigentlich nicht. Cg war nur als Zwischenlösung gedacht und wurde in Kooperation mit MS entwickelt. HLSL baut wiederum auf Erfahrungen aus dem Cg Projekt auf.
Razor@Work
2003-08-11, 13:57:55
Original geschrieben von Demirug
@Razor: Das Argument nicht die Person, bitte. Es ist hier auch so schon heiss genug.
Jo, hast' recht... hier wird's auch langsam wärmer...
Razor
Demirug
2003-08-11, 13:59:45
Original geschrieben von betareverse
Mir ist klar um was es geht. :eyes: Dir ist aber scheinbar entgangen, dass NVs Karten in einigen Bereichen die minimalen DX9-Specs übertreffen, aber halt nicht die Shader nach 3.0 erfüllen und das hat nicht nur was mit dem Compiler zu tun, sondern mit den generellen DX9-Specs. Das ganze dann CineFX zu taufen war dann ein sehr schlauer Schachzug. :D
Mit dem Compiler hat das insofern etwas zu tun das ein 2.0 Target natürlich diese zusätzlichen Fähigkeiten der FXen nicht nutzen wird. Das 2_A Target kann das aber was durchaus ein paar Instruktionen einspart.
betasilie
2003-08-11, 14:01:18
[/SIZE][/QUOTE]Eigentlich nicht. Cg war nur als Zwischenlösung gedacht und wurde in Kooperation mit MS entwickelt. HLSL baut wiederum auf Erfahrungen aus dem Cg Projekt auf.
Ich finde es ja auch gut, wenn sich ein GraKa Hersteller um die Optimierung von HLSL kümmert, aber das ganze dann lediglich auf die eigenen Karten zu optimieren und dann zu als Standard unter eigenen Namen etablieren zu wollen, finde ich nicht ok. Soll NV doch M$ vorschläge für HLSL machen und davon profitieren. Dann wären andere Firmen nicht ausgegrenzt.
[SIZE=1]Original geschrieben von Demirug
Mit dem Compiler hat das insofern etwas zu tun das ein 2.0 Target natürlich diese zusätzlichen Fähigkeiten der FXen nicht nutzen wird. Das 2_A Target kann das aber was durchaus ein paar Instruktionen einspart.
Das ist ja auch ok und ist fairer Weise nachgeholt werden. Sowas aber sofort zu erwarten, obwohl ein andere Hersteller viel früher mit einem DX9-produkt am Markt ist, finde ich dreist.
Akira20
2003-08-11, 14:03:48
An alle FanATIker!
Dankt den Nvidia-Technikern für den NV30!
Soviel wie Ihr über die 5800 schreibt, könnte man fast denken, dass es nur User mit 5800-Karten gibt. Aber findet ihr es so cool über die paar 5800-User dauernd herzuziehen? Eure 9700 wird dadurch nicht besser oder gar zur 9800;)
Gottlob müssen wir nicht alle den gleichen Geschmack haben!
Im Übrigen finde ich es immer wieder toll, wie sich Ati-User immer und immer wieder im Nvidia-Hilfe-Forum "verirren" und dort Missionarsarbeit für ATi verrichten.
Und wenn ich mir irgendwann einen Porsche kaufe werde ich nicht jeden VW-Fahrer anlabern und Ihm sagen, dass seine Kiste langsamer ist.
Akira20
PS: Ich liebe meine 5800...zeugt wenigstens von Charakter so ne Karte zu besitzen;)
betasilie
2003-08-11, 14:05:37
Original geschrieben von Akira20
An alle FanATIker!
Dankt den Nvidia-Technikern für den NV30!
Soviel wie Ihr über die 5800 schreibt, könnte man fast denken, dass es nur User mit 5800-Karten gibt. Aber findet ihr es so cool über die paar 5800-User dauernd herzuziehen? Eure 9700 wird dadurch nicht besser oder gar zur 9800;)
Gottlob müssen wir nicht alle den gleichen Geschmack haben!
Im Übrigen finde ich es immer wieder toll, wie sich Ati-User immer und immer wieder im Nvidia-Hilfe-Forum "verirren" und dort Missionarsarbeit für ATi verrichten.
Und wenn ich mir irgendwann einen Porsche kaufe werde ich nicht jeden VW-Fahrer anlabern und Ihm sagen, dass seine Kiste langsamer ist.
Akira20
PS: Ich liebe meine 5800...zeugt wenigstens von Charakter so ne Karte zu besitzen;)
:up: Dem stimme ich zu.
Auf der anderen Seite wollen komischer Weise viele 5800(ultra) Besitzer ihre Karte immer schneller und schöner reden, als sie ist, obwohl die Reviews was anderes zeigen.
... Ich für meinen Teil denke, dass NV mit dem NV40 wirklich wieder was reißen kann und ich werde dann den ATI-Jüngern, die ihre Karten besser machen wollen, wie sie eigentlich ist, genauso Kontra geben, wie jetzt einigen NV-Jüngern.
LovesuckZ
2003-08-11, 14:14:58
Original geschrieben von betareverse
Auf der anderen Seite wollen komischer Weise viele 5800(ultra) Besitzer ihre Karte immer schneller und schöner reden, als sie ist, obwohl die Reviews was anderes zeigen.
Tut wer?
StefanV
2003-08-11, 14:19:24
Original geschrieben von LovesuckZ
Tut wer?
*autsch*
betasilie
2003-08-11, 14:21:36
Original geschrieben von LovesuckZ
Tut wer?
Lachen ist wirklich befreiend. :embara:
So einige tun das. ;)
LovesuckZ
2003-08-11, 14:23:55
Original geschrieben von betareverse
So einige tun das. ;)
Zeige doch mal die Postings.
Sonst wird es langsam laecherlich.
betasilie
2003-08-11, 14:24:44
Original geschrieben von LovesuckZ
Zeige doch mal die Postings.
Sonst wird es langsam laecherlich.
Du nervst. :sick:
Riptor
2003-08-11, 14:25:51
Original geschrieben von Akira20
Im Übrigen finde ich es immer wieder toll, wie sich Ati-User immer und immer wieder im Nvidia-Hilfe-Forum "verirren" und dort Missionarsarbeit für ATi verrichten.
Zum Glück ist das andersherum nicht der Fall... ;)
Fanatiker oder nVidianer: Keiner ist besser...
LovesuckZ
2003-08-11, 14:27:06
Original geschrieben von betareverse
Du nervst. :sick:
Danke.
Wenigsten weiß ich jez, dass du keine Ahnung von richtigen Diskussionen hast.
Aber ey, werf anderen erst wieder eine Deutschschwaeche vor, wenn du sie selbst überwunden hast.
Demirug
2003-08-11, 14:28:51
Jungs, lasst die persönlichen Anfeindungen.
betasilie
2003-08-11, 14:29:13
Original geschrieben von LovesuckZ
Danke.
Wenigsten weiß ich jez, dass du keine Ahnung von richtigen Diskussionen hast.
Aber ey, werf anderen erst wieder eine Deutschschwaeche vor, wenn du sie selbst überwunden hast.
Jetzt fängst Du wieder mit den alten Geschichten an. ... Ich wollte niemanden direkt ansprechen, und das meine ich ernst, sondern lediglich einen allgemeinen Eindruck schildern, den sicherlich einige nachvollziehen können. Wenn Du dich dann direkt angesprochen fühlst, kann ich auch nichts dafür.
LovesuckZ
2003-08-11, 14:35:24
Original geschrieben von betareverse
Jetzt fängst Du wieder mit den alten Geschichten an. ... Ich wollte niemanden direkt ansprechen, und das meine ich ernst, sondern lediglich einen allgemeinen Eindruck schildern, den sicherlich einige nachvollziehen können. Wenn Du dich dann direkt angesprochen fühlst, kann ich auch nichts dafür.
Du stellst eine Behauptung auf also BEWEISE sie auch.
Ich kenne hier im Forum keinem, der jemanden eine 5800 empfehlen würde, wenn diese teurer als eine 9700 sein sollte.
Anders sehe ich mehr User hier, die jemanden eine 9700 empfehlen, statt auf eine vergleichbare, jedoch billigere 5800 zu verweisen.
Es ist immer komisch, dass man als User der auch eine Nvidiakarte zur Alternative zieht, immer gleich zu geflamet wird.
Und ich hoffe, du kannst deine Behauptung auch mit einen Post belegen.
betasilie
2003-08-11, 14:38:08
Original geschrieben von LovesuckZ
Du stellst eine Behauptung auf also BEWEISE sie auch.
Ich kenne hier im Forum keinem, der jemanden eine 5800 empfehlen würde, wenn diese teurer als eine 9700 sein sollte.
Anders sehe ich mehr User hier, die jemanden eine 9700 empfehlen, statt auf eine vergleichbare, jedoch billigere 5800 zu verweisen.
Es ist immer komisch, dass man als User der auch eine Nvidiakarte zur Alternative zieht, immer gleich zu geflamet wird.
Und ich hoffe, du kannst deine Behauptung auch mit einen Post belegen.
Das werde ich bestimmt nicht tun. ... Ist´s warm bei dir im Zimmer?
LovesuckZ
2003-08-11, 14:42:10
Original geschrieben von betareverse
Das werde ich bestimmt nicht tun.
Dann isses okay, sag aber gleich, dass du Behauptungen nicht beweisen kannst.
betasilie
2003-08-11, 14:43:16
Original geschrieben von LovesuckZ
Dann isses okay, sag aber gleich, dass du Behauptungen nicht beweisen kannst.
Nicht beweisen muss und will. ...
Manche Sachen liegen einfach auf der Hand. ;)
LovesuckZ
2003-08-11, 14:46:00
Original geschrieben von betareverse
Manche Sachen liegen einfach auf der Hand. ;)
Als Deutschexperte haettest du im Deutschunterricht besser auspassen muessen: Keine Behauptung ohne Beweis. Sonst viel Spass im Diskussionsabseits.
StefanV
2003-08-11, 14:46:42
Original geschrieben von LovesuckZ
Zeige doch mal die Postings.
Sonst wird es langsam laecherlich.
Dazu fällt mir nur eins ein:
ein Mann kennt seine stinkenden Socken*
Nunja, da du nach einer bestimmten Aussage wieder 'aufgesprungen' bist...
*Spruch geändert
StefanV
2003-08-11, 14:50:46
Original geschrieben von LovesuckZ
Als Deutschexperte haettest du im Deutschunterricht besser auspassen muessen: Keine Behauptung ohne Beweis. Sonst viel Spass im Diskussionsabseits.
:heuldoch:
:...( der hat mit den Lutscher geklaut.
Sorry, konnte mir entsprechende Kommentare nicht verkneifen, aber LS, es kommt mir echt so vor, als ob du reagierst, als ob manch einer dir 'nen Lutscher geklaut hat...
Ein wenig mehr Zurückhaltung deinerseits wäre sehr wünschenswert...
Akira20
2003-08-11, 15:02:21
Irgendwie hat LS Recht, ich hab in diesem Forum noch nie gelesen, dass eine 5800 einer billigeren 9700 empfohlen wird, andersrum aber dauernd. Das wird aber ignoriert.
Na ja...egal es gibt wohl mehr Ati-User also wird’s geduldet.
Mal was ganz anderes: betareverse wie lässt du deinen 2100+ auf 2700+ Niveau laufen und das mit dem Lüfter ArticCooling Super-Silent-Pro.
Gib mal nen Hinweis...
Akira20
PS: Verkauft jemand seinen Palomino 2100+???
betasilie
2003-08-11, 15:04:32
Original geschrieben von Akira20
Irgendwie hat LS Recht, ich hab in diesem Forum noch nie gelesen, dass eine 5800 einer billigeren 9700 empfohlen wird, andersrum aber dauernd. Das wird aber ignoriert.
Na ja...egal es gibt wohl mehr Ati-User also wird’s geduldet.
Mal was ganz anderes: betareverse wie lässt du deinen 2100+ auf 2700+ Niveau laufen und das mit dem Lüfter ArticCooling Super-Silent-Pro.
Gib mal nen Hinweis...
Akira20
PS: Verkauft jemand seinen Palomino 2100+???
Hast PN. ;)
Akira20
2003-08-11, 15:08:43
Irgendwie ist bei mir nichts angekommen???
StefanV
2003-08-11, 15:09:47
Original geschrieben von Akira20
Irgendwie hat LS Recht, ich hab in diesem Forum noch nie gelesen, dass eine 5800 einer billigeren 9700 empfohlen wird, andersrum aber dauernd. Das wird aber ignoriert.
Na ja...egal es gibt wohl mehr Ati-User also wird’s geduldet.
Wo ist das Problem??
Zu Radeon 8500/GF4 TI Zeiten wurde die 8500 auch nur sehr selten bis garnicht empfohlen, jetzt ist das Verhältnis halt umgekehrt...
Nur ersteres muss man so hinnehmen und letzteres nicht??
JETZT ist nunmal ATI meist besser nur jetzt scheints die zu stören, für die die Welt vor 'nem Jahr noch in Ordnung war...
Jetzt ists eben andersrum, das passiert nunmal...
Akira20
2003-08-11, 15:15:18
Zu den Radeon 8500 Zeiten war auch der direkte Konkurrent die Geforce 3 und nicht Geforce 4 und dort war das Verhältnis relativ ausgeglichen.
Das dazu...
Akira20
2003-08-11, 15:16:52
THX @betareverse für die PN;)
Razor@Work
2003-08-11, 15:19:04
Leute...
Lest Euch doch bitte nochmal den Post von Demirug durch und kühlt Euch ein bissel ab !
(hab' das jetzt auch hinbekommen ;-)
Ist ja schon fast wie im Kindergarten hier...
Razor
Original geschrieben von Riptor
Zum Glück ist das andersherum nicht der Fall... ;)
Fanatiker oder nVidianer: Keiner ist besser...
Na endlich! Fanatiker sind immer schlimm, egal von welcher Seite. :)
@ Demirug
Es geht um die Shaderperformance bei der NV3x-Linie...
Ich hätte mal eine Frage an dich. Wenn ich mich richtig erinnere, dann hast du mal gesagt, dass man bei PS1.0-1.4 auf NV-Karten nicht mehr viel optimieren könne, stimmt das? Also könnte ein neuer Compiler eher nur was bei PS2.0 bringen (da diese ja länger sind)?
Könntest du mal in etwa (so über den Daumen gepeilt) sagen, wieviel Prozent Speed bei der Shadern noch herausgeholt werden kann?
Und inwiefern ließe sich noch der NV35/NV38 gegenüber dem NV30 optimieren? Ich meine bei B3D gelesen zu haben, dass der NV35 nur unter ganz bestimmten (in der Praxis kaum vorkommenden) Bedingungen annähernd doppelt so schnell wie der NV30 sei.
Ach, und noch etwas anderes: Bis jetzt muss NV die Shader ja im Prinzip per Hand "bearbeiten", um bei neuen Spielen/Benches eine gute Shaderperformance zeigen zu können. Wie wird das zukünftig geschehen immer noch in Bezug auf die NV3x-Linie)? Wird man immer noch Hand anlegen müssen, wird die Idee der Datenbank verwirklicht oder reicht ein Übersetzerprogramm?
Demirug
2003-08-11, 15:40:07
Original geschrieben von Keel
@ Demirug
Es geht um die Shaderperformance bei der NV3x-Linie...
Ich hätte mal eine Frage an dich. Wenn ich mich richtig erinnere, dann hast du mal gesagt, dass man bei PS1.0-1.4 auf NV-Karten nicht mehr viel optimieren könne, stimmt das? Also könnte ein neuer Compiler eher nur was bei PS2.0 bringen (da diese ja länger sind)?
Könntest du mal in etwa (so über den Daumen gepeilt) sagen, wieviel Prozent Speed bei der Shadern noch herausgeholt werden kann?
Und inwiefern ließe sich noch der NV35/NV38 gegenüber dem NV30 optimieren? Ich meine bei B3D gelesen zu haben, dass der NV35 nur unter ganz bestimmten (in der Praxis kaum vorkommenden) Bedingungen annähernd doppelt so schnell wie der NV30 sei.
Ach, und noch etwas anderes: Bis jetzt muss NV die Shader ja im Prinzip per Hand "bearbeiten", um bei neuen Spielen/Benches eine gute Shaderperformance zeigen zu können. Wie wird das zukünftig geschehen immer noch in Bezug auf die NV3x-Linie)? Wird man immer noch Hand anlegen müssen, wird die Idee der Datenbank verwirklicht oder reicht ein Übersetzerprogramm?
Ich sagte bei 1.1 - 1.3 sind keine grossen Wunder zu erwarten.
1.4 ist ein Sonderfall der komplett durch die Treiber gehandelt werden muss weil hier eine nv freundliche struktur gegen die PS 1.4 Regeln verstossen würde.
In Tests die ich gesehen haben hat aleine der Einsatz des neuen Compilers schon mal 40% gebracht. Das war allerdings ein Extremfall es gab auch Fälle da war der Gewinn 0%.
Zum NV35 kann ich nicht allzu viel sagen nur das dieser noch mehr auf eine entsprechende Shaderoptimierung angewissen ist als NV30 und dementsprechen bei 2.0 PS nach dem ATI model nicht viel boden gegenüber dem NV30 gut machen kann.
Was nvidia im Deto 50 nun alles genau machen wird kann ich nicht sagen. Der Treibercompiler wird aber wohl auf jeden Fall kommen der rest wäre alles reinste Spekulation.
LovesuckZ
2003-08-11, 15:50:35
Original geschrieben von Demirug
In Tests die ich gesehen haben hat aleine der Einsatz des neuen Compilers schon mal 40% gebracht. Das war allerdings ein Extremfall es gab auch Fälle da war der Gewinn 0%.
Beim Einsatz von PS1.4?
Wenn sich diese Zahlen auf die PS2.0 beziehen, dann ist das doch einwenig "enttaeuschend".
Demirug
2003-08-11, 15:54:38
Original geschrieben von LovesuckZ
Beim Einsatz von PS1.4?
Wenn sich diese Zahlen auf die PS2.0 beziehen, dann ist das doch einwenig "enttaeuschend".
PS 2.0 mit NV30 mit nicht zusätzlich optimierden Treibern.
LovesuckZ
2003-08-11, 16:01:05
Original geschrieben von Demirug
PS 2.0 mit NV30 mit nicht zusätzlich optimierden Treibern.
Hm, ich weiß trotzdem nicht, ob das Ergebnis nun Anlaß für Hoffnung oder Trauer bedeutet...
Original geschrieben von LovesuckZ
Hm, ich weiß trotzdem nicht, ob das Ergebnis nun Anlaß für Hoffnung oder Trauer bedeutet...
Sehe ich ähnlich. Ich glaube es war nggalai, der sagte, dass man vom Deto 50 doch zumindest keine Wunder erwarten sollte. Das Teil wird aus den FXen sicher noch einiges herausholen, aber Wunder wird er offensichtlich nicht vollbringen können.
@ Demirug
Sorry, natürlich nur bis PS1.3. Weiß auch nicht, wie ich auf PS1.4 gekommen bin, war ja noch nie das Lieblingsthema von NV.
Aber ich hätte noch eine Frage zu deiner Antwort. Diese bis zu 40% - betrafen die nur den Fall PS2.0, oder gilt das auch für ältere Versionen?
StefanV
2003-08-11, 20:34:05
Original geschrieben von Akira20
Zu den Radeon 8500 Zeiten war auch der direkte Konkurrent die Geforce 3 und nicht Geforce 4 und dort war das Verhältnis relativ ausgeglichen.
Das dazu...
1. zu Radeon 8500 Zeiten war die GF3 nur recht kurz der direkte Konkurrent, dennoch haben 'die meisten' die GF3 bzw GF4 empfohlen...
2. ja und?
Jetzt ists nicht wirklich ausgeglichen, ATI hat doch einige Vorteile gegenüber nV, warum ists dann falsch eine 9700 zu empfehlen??
Desweiteren gibts auch einige, die von FX5800 auf 'ne Radeon 9700 oder PRO gewechselt sind, die durchaus der Meinung sind, daß die 9700 besser als die 5800 wäre...
LovesuckZ
2003-08-11, 20:41:33
Original geschrieben von Stefan Payne
2. ja und?
Jetzt ists nicht wirklich ausgeglichen, ATI hat doch einige Vorteile gegenüber nV, warum ists dann falsch eine 9700 zu empfehlen??
Na, dann zeige hier mal, wo jemand gesagt haben soll, kaufe dir keine 9700. Langsam nervt solch ein "ich sag etwas, was nicht stimmt" getue...
Desweiteren gibts auch einige, die von FX5800 auf 'ne Radeon 9700 oder PRO gewechselt sind, die durchaus der Meinung sind, daß die 9700 besser als die 5800 wäre...
Hast du dafür auch ein Beweis, oder geht das auch in die Kategorie: "ich sag etwas, was nicht stimmt" ?
StefanV
2003-08-11, 21:01:17
Original geschrieben von LovesuckZ
Hast du dafür auch ein Beweis, oder geht das auch in die Kategorie: "ich sag etwas, was nicht stimmt" ? [/SIZE]
Der Beweis ist mein Wort, daß ich nur 'nachplappere', was mir jemand über ICQ geflüstert hat...
Und da ich aus Datenschutzgründen keine Namen nenne, ist jedes weitere Nachfragen zwecklos...
LovesuckZ
2003-08-11, 21:05:04
Original geschrieben von Stefan Payne
Der Beweis ist mein Wort, daß ich nur 'nachplappere', was mir jemand über ICQ geflüstert hat...
:schlag:
Ich fass es nich. Rofl, aber echt, dass is, ne :schlag:
Ohman. Weißt du, ich kennen auch einen, der ist vonner 9800pro auf 5800 umgestiegen und meint, die Karte sei deutlich besser...
O Gottchen, sowas laecherliches. Echt.
Ich sags, hier wird von vielen nur irgendwas behauptet und wenn es dann bewiesen werden soll, kommen solch "intelligente" Ausreden...
StefanV
2003-08-11, 21:11:18
Original geschrieben von LovesuckZ
*quote vom letzten Posting*
Du brauchst dich nicht über mich lustig zu machen...
Wenn die betroffene Person es möchte, dann wird sie sich dazu äußern, nur wie schon gesagt:
Von MIR wird niemand den Namen der entsprechenden Person erfahren!!!
LovesuckZ
2003-08-11, 21:15:14
Original geschrieben von Stefan Payne
Du brauchst dich nicht über mich lustig zu machen...
Wenn die betroffene Person es möchte, dann wird sie sich dazu äußern, nur wie schon gesagt:
Von MIR wird niemand den Namen der entsprechenden Person erfahren!!!
Halt einfach Behauptungen zurueck, die du in keinster Weise stuetzen kannst.
Ich kann doch auch keinen Scheiss in meine Klausuren schreiben und wenn dann nach Quellen gefragt wird, antworten mit: "Ich darf meine Quellen nicht nennen, weil die es nicht moechten...".
Und ich will immer noch sehen, wo jemand eindeutig hier im Thread gesagt haben soll, dass man sich keine 9700 kaufen sollte.
Quasar
2003-08-11, 21:17:16
Stefan Payne,
vielleicht fällt es dir ja selber auf, aber als Beleg für eine Behauptung eine anonyme Quelle anzugeben, erweckt nicht gerade den Anschein größerer Glaubwürdigkeit, als zu sagen, man hätte's mal irgendwo in 'nem Forum gelesen, würde aber den Link nicht finden, oder?
Lovesuckz,
lass' dich doch nicht immer so gehen. Soll doch jeder glauben, was er will. Mehr als die subjektive Wahrheit posten kann man nicht, und wenn dann jemand anders lauter schreit und dritte auf diese "Lauterschreier" hören, haben sie's nicht besser verdient (und wer weiß, vielleicht werden sie ja sogar richtig glücklich damit).
Peace :rainbow:
StefanV
2003-08-11, 21:22:48
Original geschrieben von LovesuckZ
"Ich darf meine Quellen nicht nennen, weil die es nicht moechten...".
Eben, ich nenne meine Quellen nicht, nur soviel: es ist jemand aus 'nem Forum, in dem ich tätig bin, wie alle meine 'Quellen', welche sehr zuverlässig ist und die ich bestimmt NICHT nennen werde, da ich sowas aus Prinzip nicht machen würde.
Wenn dir ein Kumpel mit Namen Hans Friedrich was flüstert, was du eigentlich nicht wissen solltest und du rausposaunst: 'Hans Friedrich hat mir gesagt...', was glaubst du denn, was die Reaktionen des Umfeldes wären??
Hans Friedrich wird sich jedenfalls hüten dir nochmal was zu flüstern, wobei noch die Frage ist, ob von Hans Friedrich nicht noch diverse Aktionen gegen dich geplant werden werden, da er aufgrund deiner Äußerung ('Hans Friedrich hat gesagt...') ziemlich im Morast sitzt...
StefanV
2003-08-11, 21:37:11
wie wäre es denn damit:
Lärm
Darauf habt ihr wohl alle schon gewartet, oder? Wie laut ist das Teil? Hmm? Die Antwort ist: Zuerst denkt man "Argh Brujo argh ich brauche Ohropax und zwar sofort argh argh Satani", aber das ist ein Irrtum. Der Lüfter gibt so richtig heftig Gas, wenn man den PC einschaltet. Erschreckend, wirklich; wenn die 5800 Ultra ein Staubsauger ist, wäre die Non-Ultra der Mixer. Klingt echt wie so eine Moulinex-Schnetzelmaschine. Krass. Nach ein paar Sekunden gibt sich die Sache allerdings, und ein leises Flüstern nicht unähnlich dem Kyro-II-Lüfter der Hercules 4500 macht sich breit, begleitet von einem in ruhiger Umgebung recht nervigen ~1.5kHz Pfeifton.
Dann nach einer halben Stunde 3DMark kommt aber die Entwarnung: Wird zwar deutlich hörbar lauter als im 2D-Betrieb, aber auch im 3D-Betrieb ist da nix mit Mixer oder Staubgebläse wie beim Hochfahren. Die Karte ist im 3D-Betrieb eindeutig lauter als meine V8440 Deluxe, aber nur unwesentlich--
(...)
Für eine richtige Silent-Kiste wäre das Teil aber auf alle Fälle viel zu laut. Trotzdem: nicht beim erstenmal Einschalten (wie ich) zu Tode erschrecken und rumfluchen, ist nur beim Hochfahren so schlimm. Sonst absolut in Ordnung. Mein Gehäuse ist ein neuer ATC-S Tower von Coolermaster und eben noch nicht gedämmt . .
http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=77274&highlight=DETONATOR
Akira20
2003-08-11, 21:40:05
Original geschrieben von Stefan Payne
1. zu Radeon 8500 Zeiten war die GF3 nur recht kurz der direkte Konkurrent, dennoch haben 'die meisten' die GF3 bzw GF4 empfohlen...
2. ja und?
Jetzt ists nicht wirklich ausgeglichen, ATI hat doch einige Vorteile gegenüber nV, warum ists dann falsch eine 9700 zu empfehlen??
Des Weiteren gibt’s auch einige, die von FX5800 auf 'ne Radeon 9700 oder PRO gewechselt sind, die durchaus der Meinung sind, dass die 9700 besser als die 5800 wäre...
Natürlich ist es nicht falsch eine 9700 zu empfehlen, aber dann nicht gleich die 5800 schlecht machen und das praktizieren hier einige im Forum. Dann kommen so Sprüche wie "die 9700 ist viel besser...und im Übrigen ist die 5800 total sch**** und überhaupt ist Nvidia sch**** und das Leben wäre ohne Nvidia generell schöner"
Einige User haben wohl den Instinkt, dass sobald Sie 9700 hören, auch automatisch die 5800 flamen...
Im Übrigen wird die 9700 dauernd empfohlen...also Herr Payne bitte nicht weinen;)
Akira20
Aquaschaf
2003-08-11, 22:16:29
Das ist dann Flame, den gibts genauso gut andersherum und auf sowas ignoriert man einfach, wenns zu doll wird gibts ja für Mods ;)
Thread geschlossen. Einerseits wurden genügend Anregungen gegeben was das Topic betrifft, andererseits ist bedauerlich, was hier auf den letzten Seiten abgeht.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.